当前位置: 首页 > news >正文

设计一个个人网站的基本步骤如何建设网站子页

设计一个个人网站的基本步骤,如何建设网站子页,福州解封最新消息,德国网站后缀概述 环境是spark 3.2.4 hadoop版本 3.2.4,所以官网下载的包为 spark-3.2.4-bin-hadoop3.2.tgz 在具体安装部署之前,需要先下载Spark的安装包,进到 spark的官网,点击download按钮 使用Spark的时候一般都是需要和Hadoop交互的&a…

概述

环境是spark 3.2.4 hadoop版本 3.2.4,所以官网下载的包为 spark-3.2.4-bin-hadoop3.2.tgz

在具体安装部署之前,需要先下载Spark的安装包,进到 spark的官网,点击download按钮
在这里插入图片描述
在这里插入图片描述

使用Spark的时候一般都是需要和Hadoop交互的,所以需要下载带有Hadoop依赖的安装包
这个时候就需要选择Hadoop版本对应的Spark安装包
在这里插入图片描述

机器配置

注意:需要确保这几台机器上的基础环境是OK的,防火墙、免密码登录、还有JDK
因为这几台机器之前已经使用过了,基础环境都是配置过的,所以说在这就直接使用了

linux机器配置请参考此链接

机器ip机器名
10.32.xx.142hadoop01
10.32.xx.143hadoop02
10.32.xx.144hadoop03
10.32.xx.145hadoop04

standalone 配置

主节点

先在hadoop01上进行配置

解压
# 解压
[root@hadoop01 soft]# tar -zxvf spark-3.2.4-bin-hadoop3.2.tgz[root@hadoop01 soft]# cd  spark-3.2.4-bin-hadoop3.2
[root@hadoop01 spark-3.2.4-bin-hadoop3.2]# cd conf/
[root@hadoop01 conf]# ls
fairscheduler.xml.template  log4j.properties.template  metrics.properties.template  spark-defaults.conf.template  spark-env.sh.template  workers.template
配置spark-env.sh及workers

spark 2.x版本 从节点叫 slaves.template spark 3.x 这后叫 workers.template ,这个需要注意

# 重命名spark-env.sh.template
[root@hadoop01 conf]# mv spark-env.sh.template spark-env.sh
[root@hadoop01 conf]# vi spark-env.sh 
# 在最后加入下面两句
export JAVA_HOME=/data/soft/jdk1.8
export SPARK_MASTER_HOST=hadoop01# 重命名workers.template
[root@hadoop01 conf]# mv workers.template workers
# 修改workers
[root@hadoop01 conf]# vi workers hadoop02
hadoop03
hadoop04
分发

将修改好配置的spark安装包 分发到其它worker节点,即上文所说的 hadoop02 hadoop03 hadoop04 三台机器

# 将修改好配置的spark安装包 分发到其它worker节点
[root@hadoop01 soft]#  scp -rq spark-3.2.4-bin-hadoop3.2 hadoop02:/data/soft/
[root@hadoop01 soft]#  scp -rq spark-3.2.4-bin-hadoop3.2 hadoop03:/data/soft/
[root@hadoop01 soft]#  scp -rq spark-3.2.4-bin-hadoop3.2 hadoop04:/data/soft/
启动集群

启动Spark集群

[root@hadoop01 spark-3.2.4-bin-hadoop3.2]# ls
bin  conf  data  examples  jars  kubernetes  LICENSE  licenses  NOTICE  python  R  README.md  RELEASE  sbin  yarn
[root@hadoop01 spark-3.2.4-bin-hadoop3.2]# sbin/start-all.sh 
starting org.apache.spark.deploy.master.Master, logging to /data/soft/spark-3.2.4-bin-hadoop3.2/logs/spark-root-org.apache.spark.deploy.master.Master-1-hadoop01.out
hadoop04: starting org.apache.spark.deploy.worker.Worker, logging to /data/soft/spark-3.2.4-bin-hadoop3.2/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-hadoop04.out
hadoop03: starting org.apache.spark.deploy.worker.Worker, logging to /data/soft/spark-3.2.4-bin-hadoop3.2/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-hadoop03.out
hadoop02: starting org.apache.spark.deploy.worker.Worker, logging to /data/soft/spark-3.2.4-bin-hadoop3.2/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-hadoop02.out
验证
[root@hadoop01 spark-3.2.4-bin-hadoop3.2]# jps
10520 Master
12254 Jps[root@hadoop02 soft]# jps
4224 Worker
7132 Jps

还可以访问主节点的8080端口来查看集群信息

在这里插入图片描述

执行任务

验证结束后,跑个 spark 任务来测试一下吧

[root@hadoop01 spark-3.2.4-bin-hadoop3.2]# bin/spark-submit  --class org.apache.spark.examples.SparkPi --master spark://hadoop01:7077 examples/jars/spark-examples_2.12-3.2.4.jar 2

在这里插入图片描述

结束

这就是Spark的独立集群

http://www.yayakq.cn/news/631428/

相关文章:

  • 如何增加网站pr值深圳住房和建设局网站办事大厅
  • 网站建设小组实验报告服务类网站免费建站
  • 宁波建网站选哪家好点洪山网站建设公司
  • 海南彩票网站开发怎么建设网站让国外看
  • 象山建设局网站阿里云备案多个网站
  • 最好用的crm南昌网站seo技术厂家
  • 百度竞价设不同网站做效果图有哪些网站
  • 哪些cms做同城网站比较好祥云网站建设公司 概况
  • 无锡餐饮网站建设交通银行网站开发
  • 免费软件站做第一个php网站
  • 深圳建网站的公外贸网站如何建站
  • 可以自己做网站这么做哈尔滨香坊
  • 北京网站定制开发app运营推广是干什么
  • 重庆市住建厅网站frontpage制作个人网站 技巧
  • 塑胶加工 技术支持 东莞网站建设服务器做网站FTP必要性大吗
  • 湘潭网站建设磐石网络上班时间美食门户网站源码
  • 网站建设为什么要推广360推广联盟
  • 做签证网站开发wordpress主题赚钱
  • 网站开发挣不挣钱网站建设买服务器价格
  • 资源网站模板网站修改关键字
  • 重庆所有做网站的公司ui网页设计介绍
  • php网站 mysql数据库古镇网站建设制作
  • 毕业设计在线交流平台搜索引擎优化的目标
  • 网站建设发展的前景天津网页制作设计营销
  • 做直播网站找哪个个人免费网站如何做
  • 公司注册网站模板微信小程序开发者平台官网
  • 成都网站改版公司酷家乐个人免费版
  • 做网站做推广网站可以做多少个网页
  • 电商网站开发技术难点网站中上传资料存放ftp
  • 做微信充值网站慈溪做无痛同济 amp 网站