Hadoop - HDFS 操作



启动 HDFS

首先,必须对已配置的 HDFS 文件系统进行格式化、打开名称节点(HDFS 服务器)并执行以下命令。

$ hadoop namenode -format 

对 HDFS 进行格式化后,启动分布式文件系统。以下命令将启动名称节点以及数据节点作为集群。

$ start-dfs.sh 

列出 HDFS 中的文件

将信息加载到服务器后,我们可以使用 ‘ls’ 在目录中查找文件列表、获取文件状态。以下是 ls 的语法,你可以将它传递给目录或文件名作为参数。

$ $HADOOP_HOME/bin/hadoop fs -ls <args>

将数据插入 HDFS

假设我们在本地系统中有一个名为 file.txt 的文件中存储的数据必须保存在 hdfs 文件系统中。按照以下步骤将必需的文件插入 Hadoop 文件系统中。

步骤 1

必须创建一个输入目录。

$ $HADOOP_HOME/bin/hadoop fs -mkdir /user/input 

步骤 2

使用 put 命令将数据文件从本地系统传输并存储在 Hadoop 文件系统中。

$ $HADOOP_HOME/bin/hadoop fs -put /home/file.txt /user/input 

步骤 3

可以使用 ls 命令验证文件。

$ $HADOOP_HOME/bin/hadoop fs -ls /user/input 

从 HDFS 中检索数据

假设我们在 HDFS 中有一个名为 outfile 的文件。下面是一个简单的演示,用于从 Hadoop 文件系统中检索所需文件。

步骤 1

首先,使用 cat 命令从 HDFS 中查看数据。

$ $HADOOP_HOME/bin/hadoop fs -cat /user/output/outfile 

步骤 2

使用 get 命令将文件从 HDFS 获取到本地文件系统中。

$ $HADOOP_HOME/bin/hadoop fs -get /user/output/ /home/hadoop_tp/ 

关闭 HDFS

可以使用以下命令关闭 HDFS。

$ stop-dfs.sh 
广告