pythonspark环境配置
在配置Hadoop之前,应该先做以下配置
1.更改主机名
⾸先更改主机名,⽬的是为了⽅便管理。
输⼊:hostname
查看本机的名称
使⽤ hostname 修改当前主机名。
hostname test1
然后输⼊:vim /etc/sysconfig/network
scala python 修改主机名称
将HOSTNAME 的名称更改为你想要设置的名称
注:主机名称更改之后,要重启(reboot)才会⽣效。
输⼊:vim /etc/hosts
添加主机IP 和对应的主机名称,做映射。
注:在配置⽂件中使⽤主机名的话,这个映射必须做!
2.关闭防⽕墙
查看状态
firewall-cmd --state
关闭防⽕墙,⽅便外部访问。
CentOS 7版本以下输⼊:
#关闭防⽕墙
service iptables stop
CentOS 7 以上的版本输⼊:
systemctl stop firewalld.service
3.时间设置
输⼊:date
查看服务器时间是否⼀致,若不⼀致则更改
更改时间命令
date -s ‘MMDDhhmmYYYY.ss’
参考:
1.tar - -C ~/app
vi ~/.bash_profile
加上
source ~/.bash_profile
echo $JAVA_HOME #检查
2.tar - -C ~/app
vi ~/.bash_profile
加上
source ~/.bash_profile
echo $SCALA_HOME #检查
3.tar -zxvf hadoop-2. -C ~/app
vi ~/.bash_profile
加上
source ~/.bash_profile
echo $HADOOP_HOME #检查
cd /root/app/hadoop-2.6.0-cdh5.7.0/etc/hadoop
vim hadoop-env.sh
加上
l
将<configurarion></configuration>补充
fs.default.name 这是配置HDFS中节点的URL,在⽂件系统中,每⼀个节点都有⾃⼰的URL,通过URL才能在整个分布式系统中管理和查询到此节点。集⾥⾯的每⼀台机器都需要知道NameNode的地址。DataNode结点会先在NameNode上注册,这样它们的数据才可以被使⽤。独⽴的客户端程序通过这个URI跟DataNode交互,以取得⽂件的块列表。
kvm是主机名,9000是RPC通信端⼝
l
dfs.name.dir 是设置NameNode的数据存放的本地路径
dfs.data.dir 是设置DataNode的数据存放的本地路径
dfs.http.address是设置NameNode的tracker页⾯监听地址和端⼝
l.template l
l
l
node1为主机名
cd /root/app/hadoop-2.6.0-cdh5.7.0/bin
./hadoop namenode -format
检查下这⾥⾯⾥有没有多了东西了
cd /root/app/hadoop-2.6.0-cdh5.7.0/sbin
./sbin/start-all.sh 或者./sbin/start-dfs.sh # ./sbin/stop-all.sh(关闭集)
(如果在~/.bash_profile加上HADOOP_HOME/sbin,就可以去掉sbin/)
如下图说明启动成功
免密登录
启动和停⽌ Hadoop 都会让你输⼊四次当前服务器的密码。因此我们需要配置免密码登录服务器。
1.ssh-keygen -t rsa
~/.ssh⽂件⾥会⽣成
2.cd ~/.ssh
cat id_rsa.pub>>authorized_keys
就可以了,可以⽤ssh localhost测试下
4.tar -zxvf apache-maven-3.3. -C ~/app
vim ~/.bash_profile
source ~./bash_profile
mkdir ~/app/maven_repository
cd /root/app/apache-maven-3.3.9/conf
l
这⼀步是修改 The path to the local repository maven will use to store artifacts
mvn
就成功了
5.安装python3.
6.5
下载pyton3.6.5 source release
配置python依赖环境
yum -y install zlib-devel bzip2-devel openssl-devel ncurses-devel sqlite-devel readline-devel tk-devel gdbm-devel db4_devel libpcap-devel xz-devel tar -zxvf Python-3.
cd Python-3.6.5
./configure --prefix=/root/app/python3
make && make install
配置路径
6.安装spark
#下载source code
#tar -zxvf spark-2.
#cd /home/software/spark-2.3.0/dev
#./make-distribution.sh --name 2.6.0-cdh5.7.0 --tgz -Pyarn -Phadoop-2.6 -Phive -Phive-thriftserver -Dhadoop.version=2.6.0-cdh5.7.0
解压:
tar -zxvf spark-2.3. -C app/
配置到环境变量: export SPARK_HOME=/root/app/spark-2.3.0-bin-hadoop2.6
export PATH=PATH:SPARK_HOME/bin:$SPARK_HOME/sbin
测试:
运⾏⼀个简单的spark程序
spark-shell
Processing math: 0%
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论