docker集群(docker集群是什么)
本篇文章给大家谈谈docker集群,以及docker集群是什么对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。
本文目录一览:
docker部署redis集群(实战)
集群的话我们要建立自己的网卡。
创建多个节缺袭点(实例是6个三个主三个从):
for port in $(seq 1 6); \
do \
mkdir -p /mydata/redis/node-${port}/conf
touch /mydata/redis/node-${port}/conf/redis.conf
cat EOF /mydata/redis/node-${port}/conf/redis.conf
port 6379
bind 0.0.0.0
cluster-enabled yes
cluster-config-file nodes.conf
cluster-node-timeout 5000
cluster-announce-ip 172.38.0.1${port}
cluster-announce-port 6379
cluster-announce-bus-port 16379
appendonly yes
EOF
done
for port in $(seq 1 6); \
do \
docker run -p 637${port}:6379 -p 1637${port}:16379 --name redis-${port} \
-v /mydata/redis/伏消兄node-${port}/data:/data \
-v /mydata/redis/node-${port}/conf/桥肆redis.conf:/etc/redis/redis.conf \
-d --net redis-net --ip 172.38.0.1${port} redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf;
done
先进入:
docker exec -it redis-1 /bin/sh
集群:
redis-cli --cluster create 172.38.0.11:6379 172.38.0.12:6379 172.38.0.13:6379 172.38.0.14:6379 172.38.0.15:6379 172.38.0.16:6379 --cluster-replicas 1
[img]使用 Docker Stack 部署多服务集群
单机模式下,我们可以使用 Docker Compose 来编排多个服务,而在 上一篇文章 中介绍的 Docker Swarm 只能实现对单个服务的简单部署。于是就引出了本文的主角 Docker Stack ,通过 Docker Stack 我们只需对已有的 docker-compose.yml 配置文件稍加改造就可以完成 Docker 集群环境下的肆悉仿多服务编排。
注意:如果有多个 manager 节点,portainer 和 visualizer 可能分别部署在两台机器上,所以ip可能会不一样。
评论区有小伙伴提到,容器间通过服务名 ( 比如文中的 nginx ) 通讯时,对应的 IP 却和容器的实际 IP 对裂纤不上。出现这个情况是陆亩因为负载均衡( 对外表现为一个服务,内部为多个服务 )。下面是我做的试验,希望能帮助大家理解。
总结下:
整个请求的调用流程应该就是: 通过服务名 nginx 访问 -- 指向 -- stack 集群网关 ( 10.0.6.5 ) -- 转发 -- stack 集群中,位于当前服务器的负载均衡实例 ( 10.0.6.4 ) -- 分发 -- 最终的应用 。
Docker搭建ES集群配置
编写docker-compose.yml文件
version: "2"
services:
demoes1:
image: elastic/elasticsearch:6.3.1
container_name: demoes1
restart: unless-stopped
environment:
- "ES_JAVA_OPTS=-Xms5g -Xmx5g"
ulimits:
memlock:
soft: -1
hard: -1
nofile:
soft: 65536
hard: 65536
ports:
- "9200:9200"
- "9300:9300"
volumes:
- /home/es/config/es1.yml:/usr/share/elasticsearch/config/elasticsearch.yml:ro
- /home/es/data1:/usr/share/elasticsearch/data
networks:
- demo-es
demoes2:
image: elastic/elasticsearch:6.3.1
container_name: demoes2
restart: unless-stopped
environment:
- "ES_JAVA_OPTS=-Xms5g -Xmx5g"郑弊
ulimits:
memlock:
soft: -1
hard: -1
nofile:
soft: 65536
hard: 65536
ports:
- "9201:9200"
- "9301:9300"
volumes:
- /home/es/config/es2.yml:/usr/share/elasticsearch/config/elasticsearch.yml:ro
- /home/es/data2:/usr/share/elasticsearch/data
networks:
- demo-es
demoes3:
image: elastic/elasticsearch:6.3.1
container_name: demoes3
restart: unless-stopped
environment:
- "ES_JAVA_OPTS=-Xms5g -Xmx5g"
ulimits:
memlock:
soft: -1
hard: -1
nofile:
soft: 65536
hard: 65536
ports:
- "9202:9200"
游局 - "9302:9300"
volumes:
- /home/es/config/es3.yml:/usr/share/elasticsearch/config/elasticsearch.yml:ro
- /home/es/data3:/usr/share/elasticsearch/data
networks:
- demo-es
demokibana:
image: elastic/kibana:6.3.1
container_name: demokibana
restart: unless-stopped
ports:
- 5601:5601
environment:
ELASTICSEARCH_URL:
ELASTICSEARCH_HOSTS:
喊磨族 networks:
- demo-es
networks:
demo-es:
driver: bridge
2、编写配置文件
es1.yml
cluster.name: elasticsearch-cluster
node.name: demoes1
node.master: true
node.data: true
network.host: 0.0.0.0
http.port: 9200
transport.tcp.port: 9300
http.cors.enabled: true
http.cors.allow-origin: "*"
discovery.zen.ping.unicast.hosts: ["demoes1:9300", "demoes2:9300", "demoes3:9300"]
discovery.zen.minimum_master_nodes: 2
discovery.zen.ping_timeout: 5s
bootstrap.memory_lock: true
action.destructive_requires_name: true
es2.yml
cluster.name: elasticsearch-cluster
node.name: demoes2
node.master: true
node.data: true
network.host: demoes2
http.port: 9200
transport.tcp.port: 9300
http.cors.enabled: true
http.cors.allow-origin: "*"
discovery.zen.ping.unicast.hosts: ["demoes1:9300", "demoes2:9300", "demoes3:9300"]
discovery.zen.minimum_master_nodes: 2
discovery.zen.ping_timeout: 5s
bootstrap.memory_lock: true
action.destructive_requires_name: true
es3.yml
cluster.name: elasticsearch-cluster
node.name: demoes3
node.master: false
node.data: true
network.host: demoes3
http.port: 9200
transport.tcp.port: 9300
http.cors.enabled: true
http.cors.allow-origin: "*"
discovery.zen.ping.unicast.hosts: ["demoes1:9300", "demoes2:9300", "demoes3:9300"]
discovery.zen.minimum_master_nodes: 2
discovery.zen.ping_timeout: 5s
bootstrap.memory_lock: true
action.destructive_requires_name: true
4、配置文件说明
#集群名称
cluster.name: elasticsearch-cluster
#节点名称
node.name: demoes1
#是否是主节点
node.master: true
节点数据
node.data: true
#设置 host 为 0.0.0.0 ,即可启用该物理机器所有网卡网络访问
#也可以用下面配置文件替代
#network.bind_host: 0.0.0.0 //绑定网络(访问)
#network.publish_host: 192.168.137.128(或者hckjes1) //公共集群网络(集群连接)
network.host: lcyes1
#设置对外服务的http端口,默认为9200。
http.port: 9200
#设置节点间交互的tcp端口,默认是9300。
transport.tcp.port: 9300
#是否使用http协议对外提供服务,默认为true,开启。
http.cors.enabled: true
#是否可以跨域访问,*表示可以支持所有
http.cors.allow-origin: "*"
#设置集群中master节点的初始列表,可以通过这些节点来自动发现新加入集群的节点。
discovery.zen.ping.unicast.hosts: ["demoes1:9300", "demoes2:9300", "demoes3:9300"]
#设置这个参数来保证集群中的节点可以知道其它N个有master资格的节点。默认为1,对于大的集群来说,可以设置大一点的值(2-4)
discovery.zen.minimum_master_nodes: 2
#设置集群中自动发现其它节点时ping连接超时时间,默认为3秒,对于比较差的网络环境可以高点的值来防止自动发现时出错。
discovery.zen.ping_timeout: 5s
#锁定物理内存地址,防止es内存被交换出去,也就是避免es使用swap交换分区,频繁的交换,会导致IOPS变高
bootstrap.memory_lock: true
#生产环境建议设置为true,删除索引库的时候必须显式指定,否则可能会误删索引库中的索引库
action.destructive_requires_name: true
Docker搭建高可用Mysql数据库集群有什么用?
在Docker上搭建高可用MySQL数据库集群有以下几个好处:
高可用性:集群中每个MySQL节点都可以接收读写请求,当一个节点出现故障或宕机时,其他节点可以接替它的工作,确保了数据库的高可用性。
负载均衡:集群中每个MySQL节点可以根据负载情况来分配读写请求,均衡每个节点的负载,提高整个系统的性能和稳定性。
数据备份:集群中的每个节点都可以备份其他节点的数据,确保数据的安全性和完整性,一旦出现数据丢失或者损坏的情况,可以及时进行恢复。
扩展性:集群可以方便地扩展到更多的节点,以适凳卜樱应业务增长和访问量的提高,同时也能够保证系统的性能和可靠性。
总之,使用Docker搭建高可用MySQL数据库集群可以提高系统的可用性枣丛、可扩展性和稳定弊世性,同时也能够更好地保护数据安全和完整性。
关于docker集群和docker集群是什么的介绍到此就结束了,不知道你从中找到你需要的信息了吗 ?如果你还想了解更多这方面的信息,记得收藏关注本站。