当前位置: 首页 > news >正文

佛山的网站建设公司100件机械创意产品设计

佛山的网站建设公司,100件机械创意产品设计,企业网站设计原则,江苏省建设工程注册中心网站目录 1. 说明 2. 服务器规划 3. 步骤 3.1 要点 3.2 配置文件 3.2 访问Spark Master 4. 使用测试 5. 参考 1. 说明 以docker容器方式实现apache spark计算集群,能灵活的增减配置与worker数目。 2. 服务器规划 服务器 (1master, 3workers) ip开放端口备注ce…

目录

1. 说明

2. 服务器规划

3. 步骤

3.1 要点

3.2 配置文件

3.2 访问Spark Master

4. 使用测试

5. 参考


1. 说明

  • 以docker容器方式实现apache spark计算集群,能灵活的增减配置与worker数目。

2. 服务器规划

服务器

(1master, 3workers)

ip开放端口备注
center01.dev.sb172.16.20.208080,7077

硬件配置:32核64G

软件配置:ubuntu22.04 + 宝塔面板

host001.dev.sb172.16.20.608081,70778核16G
host002.dev.sb172.16.20.618081,7077...
BEN-ZX-GZ-MH172.16.1.106应用服务,发任务机器

3. 步骤

3.1 要点
  • worker节点的网络模式用host,不然spark ui页面中获取的路径会是容器ip,里面的链接变得不可访问
  • 测试前需保证任务发布机与Worker机的运行语言版本一致(如: 同是python10 / python12),否则会报错 "Python in worker has different version (3, 12) than that in driver 3.10"。
  • 确保发任务机器能被Worker节点访问,否则会出现诸如: 
    "WARN TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources"
    等莫名其妙的错误,观察工作机错误日志:
    "Caused by: java.io.IOException: Failed to connect to BEN-ZX-GZ-MH/<unresolved>:10027"
    由于访问不了发任务机器而导致的,目前采取的解决方法是在配置里写死映射IP
3.2 配置文件

docker-compose.spark-master.yml

services:spark:image: docker.io/bitnami/spark:latestcontainer_name: spark-masterrestart: alwaysenvironment:- SPARK_MODE=master- SPARK_RPC_AUTHENTICATION_ENABLED=no- SPARK_RPC_ENCRYPTION_ENABLED=no- SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no- SPARK_SSL_ENABLED=no- SPARK_USER=sparkports:- '8080:8080'- '7077:7077'

docker-compose.spark-worker.yml

services:spark-worker:image: docker.io/bitnami/spark:latestcontainer_name: spark-workerrestart: alwaysenvironment:- SPARK_MODE=worker- SPARK_MASTER_URL=spark://spark-master:7077- SPARK_WORKER_MEMORY=2G- SPARK_WORKER_CORES=2- SPARK_RPC_AUTHENTICATION_ENABLED=no- SPARK_RPC_ENCRYPTION_ENABLED=no- SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no- SPARK_SSL_ENABLED=no- SPARK_USER=sparkports:- '8081:8081'- '7077:7077'extra_hosts:- "spark-master:172.16.20.20"- "BEN-ZX-GZ-MH:172.16.1.106"network_mode: host
3.2 访问Spark Master

访问Spark Master,可见已有两台worker机可供驱使

4. 使用测试

t3.py

from pyspark.sql import SparkSessiondef main():# Initialize SparkSessionspark = (SparkSession.builder.appName("HelloSpark")  # type: ignore.master("spark://center01.dev.sb:7077").config("spark.executor.memory", "512m").config("spark.cores.max", "1")# .config("spark.driver.bindAddress", "center01.dev.sb").getOrCreate())# Create an RDD containing numbers from 1 to 10numbers_rdd = spark.sparkContext.parallelize(range(1, 11))# Count the elements in the RDDcount = numbers_rdd.count()print(f"Count of numbers from 1 to 10 is: {count}")# Stop the SparkSessionspark.stop()if __name__ == "__main__":main()

运行监控 

 结果

5. 参考

- containers/bitnami/spark at main · bitnami/containers · GitHub

http://www.yayakq.cn/news/454215/

相关文章:

  • 江门英文网站建设海南做网站找谁
  • 网站做收付款接口卡片式 主题 wordpress
  • 网站建设排名软件wordpress5.6
  • 做ppt找图片在哪个网站好公司官网源码下载
  • 如何快速写一个网站安徽企业年报网上申报入口
  • 建设手机网站例wordpress文章发布函数
  • 做评测系统网站首先要干嘛安庆市建设办事处网站
  • 12306网站能不能用银河二计算机做服务器啊慢得要死站内推广有哪些方式
  • 做网站犯法wordpress实例站
  • 官方网站下载qq最新版网站支付开发
  • 制作网站品牌公司世界500强中国有几个
  • 网站建设和管理心得上海网站搜索引擎优化
  • 怎么做网站监控平台免费网页制作代码
  • 安徽 网站信息内容建设做网站签到挣钱吗
  • 网页制作网站素材华夏集团网站建设
  • 建站网址大全免费制作logo的网站
  • 个人做搜索引擎网站违法吗php实现网站tag标签
  • 南宁微网站制作wordpress toggle
  • 中国建设银行官方网站手机银行班级网站源码
  • 奉化建设网站网站编辑及seo招聘
  • 中网的官方网站媒体:多地新增感染趋势回落
  • 施工企业如何节约人力成本搜索引擎优化的基本内容
  • 网站布局优化项目管理软件应用
  • 北京市建网站phpcms做网站建栏目
  • iis 发布织梦网站html教程 pdf
  • 广东网站建设的深圳互联网营销师培训
  • 阿里云的云服务器做网站用哪种全国建设造价信息网站
  • 江门论坛建站模板中国菲律宾南海争端
  • 做淘宝优惠网站江西网站建设推广
  • 昆山网站建设 熊掌号如何用网站做淘宝联盟