Linux操作HDFS集常⽤命令命令⾏语句:
vi .bashrc
source .bashrc
ssh-keygen -t rsa
集命令
hdfs dfs -mkdir /data
hdfs dfs -ls /
hdfs dfs -put 本地⽂件 hdfs集上的⽬录
hdfs dfs -ls -R hdfs集上⽂件⽬录
yarn集上传⽂件
yarn jar **.jar wordcount
reboot重启
hdfs --daemon start namenode
hdfs --daemon start datanode
ssh命令行hdfs --daemon stop namenode
hdfs --daemon stop datanode
yarn --daemon start resourcemanager
yarn --daemon start nodemanager
搭装集
1、修改主机名
sudo vi /etc/hostname
重启虚拟机才会⽣效
2、修改主机-IP映射
sudo vi /etc/hosts
3、修改Hadoop的配置⽂件
//将IP地址修改为集主节点的主机名
[vi] l
[vi] l
[vi] workers
启动hdfs集:⼀个namenode N个datanode
start-dfs.sh
产⽣密匙:ssh-keygen -t rsa
将id_rsa中的内容拷贝到suthorized_keys中:
cd ~/.ssh
cat id_rsa.pub >> authorized_keys //追加id_rsa.pub到authorized_keys中
scp ~/.ssh/id_rsa.pub briup@manager:~ //
scp briup@manager:~/.ssh/id_rsa.pub ~ //
cat ~/id_rsa.pub >> ~/.ssh/authorized_keys //追加id_rsa.pub到authorized_keys中4、删除Hadoop存储临时⽂件的⽬录
rm -r /data
5、格式化namenode
hadoop namenode -format
6、从主节点启动NameNode进程
hdfs --daemon start namenode
7、从节点启动DataNode进程
hdfs --daemon start datanode
8、访问hdfs页⾯,查看hdfs集的从节点是否挂载成功
9、主节点启动
yarn --daemon start resourcemanager
10、从节点启动nodemanager进程
yarn --daemon start nodemanager
数据 ---》磁盘
磁盘地址
计算机组成:kernel+shell+⽂件系统+应⽤
(分布式)⽂件系统借助⽹络编程
将磁盘地址映射为⼀个⽂件路径
D:/
⼀个⽂件切分为多个块⽂件,每个块存储在不同的数据节点datanode中。多个路径
⽤户只需要根据⽂件路径,就可以操作⽂件
hdfs fsck / -files -blocks -locations
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论