采用docker-compose 编排服务,搭建Hadoop Spark 分布式计算集群
集群为2个物理节点 每个节点256G内存,10T存储空间,分别名为bigdata01
、bigdata02
两个节点间通过Swarm 通信
从节点,主要是DataNode 和 Worker
- Hadoop服务
- DataNode
- NodeManager
- Spark服务
- SparkWorker
主节点
- Hadoop服务
- NameNode
- DataNode
- ResourceManager
- NodeManager
- Spark服务
- SparkMaster
- SparkWorker
- spark-notebook
- Hive服务
- hive-metastore-postgresql
- hive-metastore
- hive-server
- Hue
systemctl start docker
bigdata02: 启动swarm manager
(bigdata02) docker swarm init
bigdata01: 加入swarm
(bigdata01) docker swarm join --token 'your_token' 'your_ip_address:2377'
bigdata02: 创建overlay网络
(bigdata02) docker network create --driver overlay --attachable hadoop_spark_net --subnet 172.18.0.0/25
bigdata02: 起个服务真正打通overlay网络
(bigdata02) docker service create --replicas 2 --name test-ovs --network hadoop_spark_net cirros
查看下网络内部结构
(bigdata02) docker network inspect hadoop_spark_net(your network name)
- bigdata01
- 开启服务
docker-compose -f docker-hadoop-spark-hive-compose.yml up -d
- 关闭服务:
docker-compose -f docker-hadoop-spark-hive-compose.yml down
- 开启服务
- bigdata02
- 开启服务
docker-compose -f docker-hadoop-spark-hive-compose.yml up -d
- 关闭服务:
docker-compose -f docker-hadoop-spark-hive-compose.yml down
- 开启服务