在docker容器内部安装kibana分词器(详细教程)
步骤:
1.在虚拟机目录下新建docker-compose.yml文件,然后进入yml文件编辑
vi docker-compose.yml
2.在yml文件中添加如下代码:
version: "3.1"
services:
elasticsearch:
image: daocloud.io/library/elasticsearch:6.5.4
restart: always
container_name: elasticsearch
ports:
- 9200:9200
#将分词器映射到容器内部
volumes:
- ./ik:/usr/share/elasticsearch/plugins/ik
kibana:
image: daocloud.io/library/kibana:6.5.4
restart: always
container_name: kibana
ports:
- 5601:5601
environment:
#此处的地址填写虚拟机的ip地址
- elasticsearch_url=http://192.168.199.109:9200
depends_on:
- elasticsearch
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
3.按下 Esc : wq 保存并退出yml文件
4.在当前目录新建ik文件夹(与docker-compose.yml同级)
5.安装unzip软件:
yum install zip
6.将elasticsearch-analysis-ik-6.5.4.zip拷贝到虚拟机(推荐使用MobaXterm_Personal软件,直接把压缩包从本地电脑拉到虚拟机即可),去拷贝过来的elasticsearch-analysis-ik-6.5.4.zip所在的目录执行解压命令
unzip elasticsearch-analysis-ik-6.5.4.zip -d /usr/local/elasticsearch/ik
7.回到刚才新建的docker-compose.yml文件所在目录,执行命令:
docker-compose up -d
这样elasticsearch以及kibana分词器就装好啦!!!而且kibana是装在docker容器内部的,不会因为执行docker down命令而消失