阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Elasticsearch 集群搭建实战笔记

232次阅读
没有评论

共计 12399 个字符,预计需要花费 31 分钟才能阅读完成。

本文内容

  • 背景
  • ES 集群中第一个 master 节点
  • ES slave 节点

本文总结 Elasticsearch(以下简称 ES)搭建集群的经验。以 Elasticsearch-rtf-2.2.1 版本为例。

我搭过三个集群:研究 ELK 时搭了一个;测试环境搭了一个;生产环境搭了一个。回想起来,搭建这三个集群时遇到的问题都不一样(我这么说,主要针对集群中节点发现,以及 master 问题,而不是 es 启动不起来或报错等问题)~

  • 研究 ELK 时,搭建 ES 集群倒是很顺利,原因很简单,先从一台机器开始的;
  • 可是测试环境搭建集群时,遭遇新加入节点一直不能发现 master 节点,或是集群节点出现都选举自己为 master 这两个情况,因为,节点都是陆续启动的,配置不当,是会出问题;
  • 等到在生产环境搭建集群时,遭遇无法选举出 master 节点的情况。ES head 和 kopf 两个插件都不可用,因为,既然集群没有选举出 master 节点,显然,整个集群是用不了的。而前面的情况,head 和 kopf 插件还是能用的,但能用,意义也不大~

总结起来,搭建集群,应该注意两个问题。首先,当然是 Elasticsearch.yml 配置是否正确;再就是你的操作方式。比如节点启动步骤等。

因为,如果搭建一个集群,那么必须保证集群有一个 master 节点,一般来说,第一个启动的节点,一定是 master。然后,分别启动其他节点,这些节点就会找到 master 节点,而 master 节点,也会发现这些节点。

  • 因此,配置集群中的第一个 master 节点,务必简单(简单到什么程度,后面再说),先启动它,它会立刻成为 master 节点。之后,再配置其他节点,最好直接告诉它们,可能的 master 节点是什么,然后启动他们,它们就会发现 master,而 master 节点,也会发现新加入的节点。
  • 否则,如果第一个启动的节点,配置过于复杂(条件苛刻),造成它不能成为 master 节点,那么,整个集群会失败。

稍后,你再配置节点时,可以采用更高级、复杂点的配置,就不会有什么问题了~

所以,我才强调,ES 集群中第一个 master 节点的配置务必简单,以后再调整。

背景


假设,我们想搭建这样一个名为 myfirstcluster 的 ES 集群,它有两个节点:

节点 主机名 是否为 master
192.168.1.2 es-01
192.168.1.3 es-02

ES 集群中第一个 master 节点


最简单的 ES master 节点配置如下。该配置文件,是一个完整的 ES 配置文件,所以很长。我顺便翻译成了中文。

   1: # ======================== Elasticsearch Configuration =========================

   2: #

   3: # 注意: Elasticsearch 大多数设置都有默认值.

   4: #       在你着手调整和优化配置之前,确保你明白你期望什么,得到什么结果 

   5: #

   6: # 配置一个节点的主要方式就是通过该文件. 该模板列出了大多数重要的设置.

   7: #

   8: # 更多配置选项参见如下链接:

   9: # <http://www.elastic.co/guide/en/elasticsearch/reference/current/setup-configuration.html>

  10: #

  11: # ---------------------------------- 集群 -----------------------------------

  12: #

  13: # 集群名称:

  14: #

  15: cluster.name: mycluster

  16: #

  17: # ------------------------------------ 节点 ------------------------------------

  18: #

  19: # 节点名称:

  20: #

  21: node.name: es-01

  22: node.master: true

  23: node.data: true

  24: #

  25: # 为节点添加自定义属性,如机架:

  26: #

  27: # node.rack: r1

  28: #

  29: # ----------------------------------- 路径 ------------------------------------

  30: #

  31: # 存放数据的目录 (多个目录用逗号分隔):

  32: #

  33: # path.data: /path/to/data

  34: #

  35: # 日志文件目录:

  36: #

  37: # path.logs: /path/to/logs

  38: #

  39: # ----------------------------------- 内存 -----------------------------------

  40: #

  41: # 启动时锁定内存:

  42: #

  43: # bootstrap.mlockall: true

  44: #

  45: # 确保设置了 `ES_HEAP_SIZE` 环境变量, 大小为系统内存的一半,

  46: # 该值为线程可以使用的最大内存 

  47: #

  48: # 当系统正在交换内存时, Elasticsearch 执行性能会很差.

  49: #

  50: # ---------------------------------- 网络 -----------------------------------

  51: #

  52: # 设置绑定地址到指定 IP (IPv4 or IPv6):

  53: #

  54: network.host: 172.16.50.137

  55: #

  56: # 设置自定义 HTTP 端口:

  57: http.port: 9200

  58: # 集群内部通信端口:

  59: transport.tcp.port: 9300

  60: #

  61: # 更多信息, 参见如下链接:

  62: # <http://www.elastic.co/guide/en/elasticsearch/reference/current/modules-network.html>

  63: #

  64: # --------------------------------- 节点发现 ----------------------------------

  65: #

  66: # 当新节点加入时,传递一个主机的初始化列表以完成节点发现:

  67: # 默认主机列表为 ["127.0.0.1", "[::1]"]

  68: #

  69: # discovery.zen.ping.unicast.hosts: ["host1", "host2"]

  70: #

  71: # 通过配置大多数节点阻止脑裂现象 (数量: 节点总数量 / 2 + 1):

  72: #

  73: # discovery.zen.minimum_master_nodes: 2

  74: #

  75: # 更多信息, 参见如下链接:

  76: # <http://www.elastic.co/guide/en/elasticsearch/reference/current/modules-discovery.html>

  77: #

  78: # ---------------------------------- 网关 -----------------------------------

  79: #

  80: # 当整个集群重新启动后, 只有 N 个节点启动了, 集群才会恢复,否则将阻塞:

  81: #

  82: # gateway.recover_after_nodes: 2

  83: #

  84: # 更多信息, 参见如下链接:

  85: # <http://www.elastic.co/guide/en/elasticsearch/reference/current/modules-gateway.html>

  86: #

  87: # ---------------------------------- 其他 -----------------------------------

  88: #

  89: # 禁止在一个系统上启动多个节点:

  90: #

  91: # node.max_local_storage_nodes: 1

  92: #

  93: # 当删除 index 是必需显式名称:

  94: #

  95: # action.destructive_requires_name: true

  96: 

  97: index:

  98:   analysis:

  99:     tokenizer:

 100:       my_pinyin:

 101:         type: pinyin

 102:         first_letter: prefix

 103:         padding_char: ''

 104:       pinyin_first_letter:

 105:         type: pinyin

 106:         first_letter: only

 107:       mmseg_maxword:

 108:         type: mmseg

 109:         seg_type: max_word

 110:       mmseg_complex:

 111:         type: mmseg

 112:         seg_type: complex

 113:       mmseg_simple:

 114:         type: mmseg

 115:         seg_type: simple

 116:       semicolon_spliter:

 117:         type: pattern

 118:         pattern: ";"

 119:       pct_spliter:

 120:         type: pattern

 121:         pattern: "[%]+"

 122:       ngram_1_to_2:

 123:         type: nGram

 124:         min_gram: 1

 125:         max_gram: 2

 126:       ngram_1_to_3:

 127:         type: nGram

 128:         min_gram: 1

 129:         max_gram: 3

 130:     filter:

 131:       ngram_min_3:

 132:         max_gram: 10

 133:         min_gram: 3

 134:         type: nGram

 135:       ngram_min_2:

 136:         max_gram: 10

 137:         min_gram: 2

 138:         type: nGram

 139:       ngram_min_1:

 140:         max_gram: 10

 141:         min_gram: 1

 142:         type: nGram

 143:       min2_length:

 144:         min: 2

 145:         max: 4

 146:         type: length

 147:       min3_length:

 148:         min: 3

 149:         max: 4

 150:         type: length

 151:       pinyin_first_letter:

 152:         type: pinyin

 153:         first_letter: only

 154:     analyzer:

 155:       lowercase_keyword:

 156:         type: custom

 157:         filter:

 158:         - lowercase

 159:         tokenizer: standard

 160:       lowercase_keyword_ngram_min_size1:

 161:         type: custom

 162:         filter:

 163:         - lowercase

 164:         - stop

 165:         - trim

 166:         - unique

 167:         tokenizer: nGram

 168:       lowercase_keyword_ngram_min_size2:

 169:         type: custom

 170:         filter:

 171:         - lowercase

 172:         - min2_length

 173:         - stop

 174:         - trim

 175:         - unique

 176:         tokenizer: nGram

 177:       lowercase_keyword_ngram_min_size3:

 178:         type: custom

 179:         filter:

 180:         - lowercase

 181:         - min3_length

 182:         - stop

 183:         - trim

 184:         - unique

 185:         tokenizer: ngram_1_to_3

 186:       lowercase_keyword_ngram:

 187:         type: custom

 188:         filter:

 189:         - lowercase

 190:         - stop

 191:         - trim

 192:         - unique

 193:         tokenizer: ngram_1_to_3

 194:       lowercase_keyword_without_standard:

 195:         type: custom

 196:         filter:

 197:         - lowercase

 198:         tokenizer: keyword

 199:       lowercase_whitespace:

 200:         type: custom

 201:         filter:

 202:         - lowercase

 203:         tokenizer: whitespace

 204:       ik:

 205:         alias:

 206:         - ik_analyzer

 207:         type: ik

 208:       ik_max_word:

 209:         type: ik

 210:         use_smart: true

 211:       ik_smart:

 212:         type: ik

 213:         use_smart: true

 214:       mmseg:

 215:         alias:

 216:         - mmseg_analyzer

 217:         type: mmseg

 218:       mmseg_maxword:

 219:         type: custom

 220:         filter:

 221:         - lowercase

 222:         tokenizer: mmseg_maxword

 223:       mmseg_complex:

 224:         type: custom

 225:         filter:

 226:         - lowercase

 227:         tokenizer: mmseg_complex

 228:       mmseg_simple:

 229:         type: custom

 230:         filter:

 231:         - lowercase

 232:         tokenizer: mmseg_simple

 233:       comma_spliter:

 234:         type: pattern

 235:         pattern: "[,|\\s]+"

 236:       pct_spliter:

 237:         type: pattern

 238:         pattern: "[%]+"

 239:       custom_snowball_analyzer:

 240:         type: snowball

 241:         language: English

 242:       simple_english_analyzer:

 243:         type: custom

 244:         tokenizer: whitespace

 245:         filter:

 246:         - standard

 247:         - lowercase

 248:         - snowball

 249:       edge_ngram:

 250:         type: custom

 251:         tokenizer: edgeNGram

 252:         filter:

 253:         - lowercase

 254:       pinyin_ngram_analyzer:

 255:         type: custom

 256:         tokenizer: my_pinyin

 257:         filter:

 258:         - lowercase

 259:         - nGram

 260:         - trim

 261:         - unique

 262:       pinyin_first_letter_analyzer:

 263:         type: custom

 264:         tokenizer: pinyin_first_letter

 265:         filter:

 266:         - standard

 267:         - lowercase

 268:       pinyin_first_letter_keyword_analyzer:

 269:         alias:

 270:         - pinyin_first_letter_analyzer_keyword

 271:         type: custom

 272:         tokenizer: keyword

 273:         filter:

 274:         - pinyin_first_letter

 275:         - lowercase

 276:       path_analyzer: #used for tokenize :/something/something/else

 277:         type: custom

 278:         tokenizer: path_hierarchy

 279: 

 280: #index.analysis.analyzer.default.type: mmseg

 281: index.analysis.analyzer.default.type: ik

 282: 

 283: # rtf.filter.redis.host: 127.0.0.1

 284: # rtf.filter.redis.port: 6379

说明:

  • 第 15 行,指定集群名称 myfirstcluster;
  • 第 21 行,指定节点名称,最好写主机名;
  • 第 22 和 23 行,指定该是否可能为 master 节点,以及是否为数据节点。ES 的所说 master 节点,其实弱化了很多,仅仅就是为了节点发现和选举 master 节点而已,它甚至都可以不用来保存数据。

因此,看你的规划,完全可以让一个 master 节点,不保存任何数据;

  • 第 54 行,指定节点 IP 地址,192.168.1.2;
  • 第 57 行,指定 HTTP 端口,比如,head、kopf 插件等插件,都使用该端口。事实上,你可以指定从 92 开头的任何端口;
  • 第 59 行,指定集群内部通信的端口,比如,节点发现都使用该端口。事实上,你可以指定 93 开头的任何端口;

这 7 行配置,在我看来,针对集群中第一个 master 节点,必须配置正确的。其他配置,可以暂时不用。

其中,第 57 行和第 59 行,实际上,一台物理机,是可以运行多个 ES,只需要指定不同的配置文件即可。

  • 从 97 行开始,是配置 ES 的分词。

slave 节点


Slave 节点配置如下。该配置文件内容只列出了配置项,但是是完整的。

   1: # ======================== Elasticsearch Configuration =========================

   2: #

   3: # ---------------------------------- Cluster -----------------------------------

   4: #

   5: # Use a descriptive name for your cluster:

   6: #

   7: cluster.name: myfirstcluster

   8: #

   9: # ------------------------------------ Node ------------------------------------

  10: #

  11: # Use a descriptive name for the node:

  12: #

  13: node.name: es-02

  14: node.master: true

  15: node.data: true

  16: #

  17: # ----------------------------------- Paths ------------------------------------

  18: #

  19: # Path to directory where to store the data (separate multiple locations by comma):

  20: #

  21: # path.data: /path/to/data

  22: #

  23: # Path to log files:

  24: #

  25: # path.logs: /path/to/logs

  26: #

  27: # ----------------------------------- Memory -----------------------------------

  28: #

  29: # ...

  30: #

  31: # ---------------------------------- Network -----------------------------------

  32: #

  33: # Set the bind address to a specific IP (IPv4 or IPv6):

  34: #

  35: network.host: 192.168.1.3

  36: #

  37: # Set a custom port for HTTP:

  38: #

  39: http.port: 9200

  40: transport.tcp.port: 9300

  41: #

  42: # --------------------------------- Discovery ----------------------------------

  43: #

  44: # Pass an initial list of hosts to perform discovery when new node is started:

  45: # The default list of hosts is ["127.0.0.1", "[::1]"]

  46: #

  47: discovery.zen.ping.unicast.hosts: ["192.168.1.2:9300"]

  48: #

  49: # ---------------------------------- Gateway -----------------------------------

  50: #

  51: # ...

  52: #

  53: # ---------------------------------- Various -----------------------------------

  54: # ...

  55: 

  56: index:

  57:   analysis:

  58:     tokenizer:

  59:       my_pinyin:

  60:         type: pinyin

  61:         first_letter: prefix

  62:         padding_char: ''

  63:       pinyin_first_letter:

  64:         type: pinyin

  65:         first_letter: only

  66:       mmseg_maxword:

  67:         type: mmseg

  68:         seg_type: max_word

  69:       mmseg_complex:

  70:         type: mmseg

  71:         seg_type: complex

  72:       mmseg_simple:

  73:         type: mmseg

  74:         seg_type: simple

  75:       semicolon_spliter:

  76:         type: pattern

  77:         pattern: ";"

  78:       pct_spliter:

  79:         type: pattern

  80:         pattern: "[%]+"

  81:       ngram_1_to_2:

  82:         type: nGram

  83:         min_gram: 1

  84:         max_gram: 2

  85:       ngram_1_to_3:

  86:         type: nGram

  87:         min_gram: 1

  88:         max_gram: 3

  89:     filter:

  90:       ngram_min_3:

  91:         max_gram: 10

  92:         min_gram: 3

  93:         type: nGram

  94:       ngram_min_2:

  95:         max_gram: 10

  96:         min_gram: 2

  97:         type: nGram

  98:       ngram_min_1:

  99:         max_gram: 10

 100:         min_gram: 1

 101:         type: nGram

 102:       min2_length:

 103:         min: 2

 104:         max: 4

 105:         type: length

 106:       min3_length:

 107:         min: 3

 108:         max: 4

 109:         type: length

 110:       pinyin_first_letter:

 111:         type: pinyin

 112:         first_letter: only

 113:     analyzer:

 114:       lowercase_keyword:

 115:         type: custom

 116:         filter:

 117:         - lowercase

 118:         tokenizer: standard

 119:       lowercase_keyword_ngram_min_size1:

 120:         type: custom

 121:         filter:

 122:         - lowercase

 123:         - stop

 124:         - trim

 125:         - unique

 126:         tokenizer: nGram

 127:       lowercase_keyword_ngram_min_size2:

 128:         type: custom

 129:         filter:

 130:         - lowercase

 131:         - min2_length

 132:         - stop

 133:         - trim

 134:         - unique

 135:         tokenizer: nGram

 136:       lowercase_keyword_ngram_min_size3:

 137:         type: custom

 138:         filter:

 139:         - lowercase

 140:         - min3_length

 141:         - stop

 142:         - trim

 143:         - unique

 144:         tokenizer: ngram_1_to_3

 145:       lowercase_keyword_ngram:

 146:         type: custom

 147:         filter:

 148:         - lowercase

 149:         - stop

 150:         - trim

 151:         - unique

 152:         tokenizer: ngram_1_to_3

 153:       lowercase_keyword_without_standard:

 154:         type: custom

 155:         filter:

 156:         - lowercase

 157:         tokenizer: keyword

 158:       lowercase_whitespace:

 159:         type: custom

 160:         filter:

 161:         - lowercase

 162:         tokenizer: whitespace

 163:       ik:

 164:         alias:

 165:         - ik_analyzer

 166:         type: ik

 167:       ik_max_word:

 168:         type: ik

 169:         use_smart: false

 170:       ik_smart:

 171:         type: ik

 172:         use_smart: true

 173:       mmseg:

 174:         alias:

 175:         - mmseg_analyzer

 176:         type: mmseg

 177:       mmseg_maxword:

 178:         type: custom

 179:         filter:

 180:         - lowercase

 181:         tokenizer: mmseg_maxword

 182:       mmseg_complex:

 183:         type: custom

 184:         filter:

 185:         - lowercase

 186:         tokenizer: mmseg_complex

 187:       mmseg_simple:

 188:         type: custom

 189:         filter:

 190:         - lowercase

 191:         tokenizer: mmseg_simple

 192:       comma_spliter:

 193:         type: pattern

 194:         pattern: "[,|\\s]+"

 195:       pct_spliter:

 196:         type: pattern

 197:         pattern: "[%]+"

 198:       custom_snowball_analyzer:

 199:         type: snowball

 200:         language: English

 201:       simple_english_analyzer:

 202:         type: custom

 203:         tokenizer: whitespace

 204:         filter:

 205:         - standard

 206:         - lowercase

 207:         - snowball

 208:       edge_ngram:

 209:         type: custom

 210:         tokenizer: edgeNGram

 211:         filter:

 212:         - lowercase

 213:       pinyin_ngram_analyzer:

 214:         type: custom

 215:         tokenizer: my_pinyin

 216:         filter:

 217:         - lowercase

 218:         - nGram

 219:         - trim

 220:         - unique

 221:       pinyin_first_letter_analyzer:

 222:         type: custom

 223:         tokenizer: pinyin_first_letter

 224:         filter:

 225:         - standard

 226:         - lowercase

 227:       pinyin_first_letter_keyword_analyzer:

 228:         alias:

 229:         - pinyin_first_letter_analyzer_keyword

 230:         type: custom

 231:         tokenizer: keyword

 232:         filter:

 233:         - pinyin_first_letter

 234:         - lowercase

 235:       path_analyzer: #used for tokenize :/something/something/else

 236:         type: custom

 237:         tokenizer: path_hierarchy

 238: 

 239: #index.analysis.analyzer.default.type: mmseg

 240: index.analysis.analyzer.default.type: ik

说明:

  • 第 7 行,也是指定了集群名称;
  • 第 13 行,指定了节点名称为 es-02(主机名)
  • 第 14 和 15 行,指定了该节点可能成为 master 节点,还可以是数据节点;
  • 第 35 行,指定节点 IP 地址为 192.168.1.3;
  • 第 39 行,指定 http 端口,你使用 head、kopf 等相关插件使用的端口;
  • 第 40 行,集群内部通信端口,用于节点发现等;

上面的配置 master 也是这么配置的。

  • 第 47 行,跟 master 节点配置不一样了。这里直接告诉该的节点,可能的 master 节点是什么。

CentOS7 部署 ElasticSearch 2.1.1 集群 http://www.linuxidc.com/Linux/2016-03/129045.htm

使用 Elasticsearch + Logstash + Kibana 搭建日志集中分析平台实践  http://www.linuxidc.com/Linux/2015-12/126587.htm

Linux 上安装部署 ElasticSearch 全程记录  http://www.linuxidc.com/Linux/2015-09/123241.htm

Elasticsearch 安装使用教程 http://www.linuxidc.com/Linux/2015-02/113615.htm

ElasticSearch 配置文件译文解析 http://www.linuxidc.com/Linux/2015-02/114244.htm

ElasticSearch 集群搭建实例  http://www.linuxidc.com/Linux/2015-02/114243.htm

分布式搜索 ElasticSearch 单机与服务器环境搭建  http://www.linuxidc.com/Linux/2012-05/60787.htm

ElasticSearch 的工作机制  http://www.linuxidc.com/Linux/2014-11/109922.htm 

ElasticSearch 的详细介绍 :请点这里
ElasticSearch 的下载地址 :请点这里

本文永久更新链接地址 :http://www.linuxidc.com/Linux/2016-05/130973.htm

 

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-21发表,共计12399字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中