当前位置 : 主页 > 编程语言 > java >

3-spark学习路线-Spark安装

来源:互联网 收集:自由互联 发布时间:2023-09-14
1.从https://spark.apache.org/获得Spark的安装包 2.解压并安装Spark tar –zxvf spark-****-bin-hadoop2.7.tgz 3.配置Spark 在YARN平台上运行Spark需要配置HADOOP_CONF_DIR、YARN_CONF_DIR和HDFS_CONF_DIR环境变量 3.1 vim /
   1.从https://spark.apache.org/获得Spark的安装包
  2.解压并安装Spark
   tar –zxvf  spark-****-bin-hadoop2.7.tgz
  3.配置Spark
   在YARN平台上运行Spark需要配置HADOOP_CONF_DIR、YARN_CONF_DIR和HDFS_CONF_DIR环境变量
   3.1 vim /etc/profile
	   export HADOOP_CONF_DIR=$HADOOP_HOME/home/lyb/hadoop
	   export HDFS_CONF_DIR=$HADOOP_HOME/home/lyb/hadoop
	   export YARN_CONF_DIR=$HADOOP_HOME/home/lyb/hadoop
   	   保存关闭后执行 
   3.2 source /etc/profile
    	 使环境变量生效
   3.3 修改spark-env.sh
	   cp spark-env.sh.tmplate  spark-env.sh
	   vim spark-env.sh
	   JAVA_HOME=/home/lyb/jdk
   4.验证Spark安装
		计算圆周率PI的值
	   进入Spark安装主目录
	   ./bin/spark-submit
	       --class org.apache.spark.examples.SparkPi 
	       --master yarn-cluster  模式选择(yarn-client;local)
		   --num-executors 3      进程数
		   --driver-memory 1g 	  驱动内存
		   --executor-memory 1g   运行时内存
		   --executor-cores 1     核数
	 	    /home/lyb/spark/examples/jars/spark-examples*.jar 10
	 	    
【感谢龙石为本站提供api管理平台 http://www.longshidata.com/pages/apigateway.html】
上一篇:2-spark学习路线-应用常景和解决
下一篇:没有了
网友评论