二维码

Spark集群的安装与部署

1581 人阅读 | 时间:2019年01月02日 12:41

一,安装Scala

下载 :http://www.scala-lang.org/download/ 

配置环境变量的方式同Java,为了方便全部写在一起放入/etc/profile.d目录

hadoop.sh

Shell代码  


  1. #set Java Enviroment  

  2. export JAVA_HOME=/usr/java/jdk1.6.0_45  

  3. export JRE_HOME=$JAVA_HOME/jre  

  4. export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib  

  5. export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH  

  6.   

  7. #set Scala Enviroment  

  8. export SCALA_HOME=/usr/scala/scala-2.10.4  

  9. export PATH=$SCALA_HOME/bin:$PATH  

  10.   

  11. #set hadoop path  

  12. export HADOOP_HOME=/usr/local/hadoop  

  13. export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/libexec:$PATH  

  14. export HADOOP_HOME_WARN_SUPPRESS=1  

  15.   

  16. # set hbase path  

  17. export HBASE_HOME=/usr/local/hbase  

  18. export PATH=$HBASE_HOME/bin:$PATH  

  19.   

  20. # set hive path   

  21. export HIVE_HOME=/usr/local/hive  

  22. export PATH=$HIVE_HOME/bin:$HIVE_HOME/conf:$PATH  

  23.   

  24. # set mahout path  

  25. export MAHOUT_HOME=/usr/local/mahout  

  26. export MAHOUT_CONF_DIR=$MAHOUT_HOME/conf  

  27. export PATH=$MAHOUT_CONF_DIR:$MAHOUT_HOME/bin:$PATH  

  28.   

  29. #set pig path  

  30. export PIG_HOME=/usr/local/pig  

  31. export PATH=$PIG_HOME/bin:$PIG_HOME/conf:$PATH  

  32. export PIG_CLASSPATH=$HADOOP_HOME/conf  

  33.   

  34.   

  35. #set ant path  

  36. export ANT_HOME=/usr/local/apache-ant-1.8.4  

  37. export PATH=$ANT_HOME/bin:$PATH  

  38.   

  39. # set maven path  

  40. export M2_HOME=/usr/local/apache-maven-3.1.1  

  41. export PATH=$M2_HOME/bin:$PATH  

  42.   

  43. #set zookeeper path  

  44. export ZOOKEEPER_HOME=/usr/local/zookeeper  

  45. export PATH=$ZOOKEEPER_HOME/bin:$ZOOKEEPER_HOME/conf:$PATH  

  46.   

  47. #set dog path  

  48. export DOG_HOME=/usr/local/dog  

  49. export PATH=$DOG_HOME/bin:$PATH  

二,安装Hadoop2

http://yeelor.iteye.com/blog/2002623

三,安装Spark

下载 http://spark.apache.org/downloads.html  一个提前编译过的版本,注意scala版本是否支持。

编辑conf/spark-env.sh文件,加入:

Shell代码  
  1. export SCALA_HOME=/usr/scala/scala-2.10.4  

  2. export SPARK_WORKER_MEMORY=24g  

  3. export SPARK_MASTER_IP=218.193.154.216  

  4. export MASTER=spark://218.193.154.216:7077  

 编辑conf/slaves文件,加入

Txt代码  
  1. slave1  

  2. slave2  

 

 将spark文件夹拷贝到每台机器

1.sh

 Shell代码  

  1. #for i in {1..10}; do  

  2. for host in {master,slave1,slave2}; do  

  3. #for((i=1;i<=num;i++)); do  

  4.   echo "开始安装${host}..."  

  5.   echo "拷贝几个配置文件"  

  6.   scp  -r /usr/local/spark root@${host}:/usr/local  

  7.   scp  -r /usr/scala root@${host}:/usr/  

  8.   scp /etc/profile.d/hadoop.sh root@${host}:/etc/profile.d  

  9.    

  10.   scp 2.sh root@${host}:/tmp/2.sh  

  11.   ssh root@${host} sh /tmp/2.sh  

  12.    

  13.   

  14.   echo "安装${host}完毕"  

  15.   

  16.     

  17. done  

 

2.sh

Shell代码  
  1. chown -R hadoop:hadoop /usr/local/spark  

  2.   

  3. echo "使环境变量生效"  

  4. source /etc/profile  

  5.   

  6. exit  

  7.    

四,启动集群

在spark根目录

启动:

  ./sbin/start-all.sh

关闭:

   ./sbin/stop-all.sh

用 jps 命令查看进程,Master上有Master进程,Slave上有Worker进程。

 五,测试

 http://hmaster:8080/

 1)

  ./bin/run-example org.apache.spark.examples.SparkPi

 2)

  ./bin/spark-shell

 六,参考

图书:《spark大数据处理》


取消

感谢您的支持,我会继续努力的!

扫码支持
扫码打赏,你说多少就多少

打开支付宝扫一扫,即可进行扫码打赏哦

©著作权归作者所有:来自ZhiKuGroup博客作者没文化的原创作品,如需转载,请注明出处,否则将追究法律责任 来源:ZhiKuGroup博客,欢迎分享。

评论专区
  • 昵 称必填
  • 邮 箱选填
  • 网 址选填
◎已有 0 人评论
搜索
作者介绍
30天热门
×
×
关闭广告
关闭广告
本站会员尊享VIP特权,现在就加入我们吧!登录注册×
»
会员登录
新用户注册
×
会员注册
已有账号登录
×