- Apache Pig 教程
- Apache Pig - 首页
- Apache Pig 简介
- Apache Pig - 概述
- Apache Pig - 架构
- Apache Pig 环境
- Apache Pig - 安装
- Apache Pig - 执行
- Apache Pig - Grunt Shell
- Pig Latin
- Pig Latin - 基础
- 加载 & 存储操作符
- Apache Pig - 读取数据
- Apache Pig - 数据存储
- 诊断操作符
- Apache Pig - 诊断操作符
- Apache Pig - Describe 操作符
- Apache Pig - Explain 操作符
- Apache Pig - Illustrate 操作符
- 分组 & 连接
- Apache Pig - Group 操作符
- Apache Pig - Cogroup 操作符
- Apache Pig - Join 操作符
- Apache Pig - Cross 操作符
- Pig Latin 内置函数
- Apache Pig - Eval 函数
- 加载 & 存储函数
- Apache Pig - Bag & Tuple 函数
- Apache Pig - 字符串函数
- Apache Pig - 日期时间函数
- Apache Pig - 数学函数
- Apache Pig 有用资源
- Apache Pig - 快速指南
- Apache Pig - 有用资源
- Apache Pig - 讨论
Apache Pig - 数据存储
在上一章中,我们学习了如何将数据加载到 Apache Pig 中。您可以使用 **store** 操作符将加载的数据存储到文件系统中。本章解释了如何使用 **Store** 操作符在 Apache Pig 中存储数据。
语法
以下是 Store 语句的语法。
STORE Relation_name INTO ' required_directory_path ' [USING function];
示例
假设我们在 HDFS 中有一个名为 **student_data.txt** 的文件,其内容如下所示。
001,Rajiv,Reddy,9848022337,Hyderabad 002,siddarth,Battacharya,9848022338,Kolkata 003,Rajesh,Khanna,9848022339,Delhi 004,Preethi,Agarwal,9848022330,Pune 005,Trupthi,Mohanthy,9848022336,Bhuwaneshwar 006,Archana,Mishra,9848022335,Chennai.
并且我们已经使用 LOAD 操作符将其读取到名为 **student** 的关系中,如下所示。
grunt> student = LOAD 'hdfs://127.0.0.1:9000/pig_data/student_data.txt' USING PigStorage(',') as ( id:int, firstname:chararray, lastname:chararray, phone:chararray, city:chararray );
现在,让我们将关系存储到 HDFS 目录 **“/pig_Output/”** 中,如下所示。
grunt> STORE student INTO ' hdfs://127.0.0.1:9000/pig_Output/ ' USING PigStorage (',');
输出
执行 **store** 语句后,您将获得以下输出。将创建具有指定名称的目录,并将数据存储在其中。
2015-10-05 13:05:05,429 [main] INFO org.apache.pig.backend.hadoop.executionengine.mapReduceLayer. MapReduceLau ncher - 100% complete 2015-10-05 13:05:05,429 [main] INFO org.apache.pig.tools.pigstats.mapreduce.SimplePigStats - Script Statistics: HadoopVersion PigVersion UserId StartedAt FinishedAt Features 2.6.0 0.15.0 Hadoop 2015-10-0 13:03:03 2015-10-05 13:05:05 UNKNOWN Success! Job Stats (time in seconds): JobId Maps Reduces MaxMapTime MinMapTime AvgMapTime MedianMapTime job_14459_06 1 0 n/a n/a n/a n/a MaxReduceTime MinReduceTime AvgReduceTime MedianReducetime Alias Feature 0 0 0 0 student MAP_ONLY OutPut folder hdfs://127.0.0.1:9000/pig_Output/ Input(s): Successfully read 0 records from: "hdfs://127.0.0.1:9000/pig_data/student_data.txt" Output(s): Successfully stored 0 records in: "hdfs://127.0.0.1:9000/pig_Output" Counters: Total records written : 0 Total bytes written : 0 Spillable Memory Manager spill count : 0 Total bags proactively spilled: 0 Total records proactively spilled: 0 Job DAG: job_1443519499159_0006 2015-10-05 13:06:06,192 [main] INFO org.apache.pig.backend.hadoop.executionengine .mapReduceLayer.MapReduceLau ncher - Success!
验证
您可以验证存储的数据,如下所示。
步骤 1
首先,使用 **ls** 命令列出名为 **pig_output** 的目录中的文件,如下所示。
hdfs dfs -ls 'hdfs://127.0.0.1:9000/pig_Output/' Found 2 items rw-r--r- 1 Hadoop supergroup 0 2015-10-05 13:03 hdfs://127.0.0.1:9000/pig_Output/_SUCCESS rw-r--r- 1 Hadoop supergroup 224 2015-10-05 13:03 hdfs://127.0.0.1:9000/pig_Output/part-m-00000
您可以观察到,在执行 **store** 语句后创建了两个文件。
步骤 2
使用 **cat** 命令列出名为 **part-m-00000** 的文件的内容,如下所示。
$ hdfs dfs -cat 'hdfs://127.0.0.1:9000/pig_Output/part-m-00000' 1,Rajiv,Reddy,9848022337,Hyderabad 2,siddarth,Battacharya,9848022338,Kolkata 3,Rajesh,Khanna,9848022339,Delhi 4,Preethi,Agarwal,9848022330,Pune 5,Trupthi,Mohanthy,9848022336,Bhuwaneshwar 6,Archana,Mishra,9848022335,Chennai
广告