Elasticsearch02-安装7.x
1、Windows安装Elasticsearch
(1)JDK安装
- Elasticsearch是基于java开发的,所以需要安装JDK。
- 我们安装的Elasticsearch版本是7.15,对应JDK至少1.8版本以上。
- 也可以不安装jdk,程序启动会自动到es目录下启动内置的jdk。
- 安装完成验证版本:java -version
(2)下载
- 下载地址:https://www.elastic.co/cn/downloads/past-releases/elasticsearch-7-15-0
(3)安装
- Windows 版的 Elasticsearch 的安装很简单,解压即安装完毕,目录结构如下
文件夹/文件名称 | 说明 |
---|
bin | 存放可执行文件和脚本的目录。 |
config | 存放配置文件的目录,通常包含应用程序的设置。 |
jdk | 存放Java开发工具包(JDK)的目录,可能包含Java运行环境和开发工具。 |
lib | 存放库文件的目录,通常包含应用程序运行所需的依赖库。 |
logs | 存放日志文件的目录,用于记录应用程序的运行信息和错误信息。 |
modules | 存放模块文件的目录,可能包含应用程序的可插拔组件或插件。 |
plugins | 存放插件的目录,通常用于扩展应用程序的功能。 |
LICENSE.txt | 许可证文件,包含有关软件使用权限和限制的法律信息。 |
NOTICE.txt | 通知文件,可能包含有关软件的额外信息,如版权声明、第三方库的致谢等。 |
README.asciidoc | 说明文件,通常以ASCIIDoc格式编写,提供有关如何安装、配置和使用软件的指导。 |
(4)配置文件
- 配置文件在config/elasticsearch.yml
- 常用的配置项如下
cluster.name: 配置elasticsearch的集群名称,默认是elasticsearch。建议修改成一个有意义的名称。
node.name:节点名,通常一台物理服务器就是一个节点,es会默认随机指定一个名字,建议指定一个有意义的名称,方便管理一个或多个节点组成一个cluster集群,集群是一个逻辑的概念,节点是物理概念,后边章节会详细介绍。
path.conf: 设置配置文件的存储路径,tar或zip包安装默认在es根目录下的config文件夹,rpm安装默认在/etc/ elasticsearch
path.data:设置索引数据的存储路径,默认是es根目录下的data文件夹,可以设置多个存储路径,用逗号隔开。
path.logs:设置日志文件的存储路径,默认是es根目录下的logs文件夹
path.plugins: 设置插件的存放路径,默认是es根目录下的plugins文件夹
bootstrap.memory_lock: true设置为true可以锁住ES使用的内存,避免内存与swap分区交换数据。
network.host: 设置绑定主机的ip地址,设置为0.0.0.0表示绑定任何ip,允许外网访问,生产环境建议设置为具体的ip。
http.port: 9200设置对外服务的http端口,默认为9200。
transport.tcp.port: 9300 集群结点之间通信端口
node.master: 指定该节点是否有资格被选举成为master结点,默认是true,如果原来的master宕机会重新选举新的master。
node.data: 指定该节点是否存储索引数据,默认为true。
discovery.zen.ping.unicast.hosts: ["host1:port", "host2:port", "..."]设置集群中master节点的初始列表。
discovery.zen.ping.timeout: 3s设置ES自动发现节点连接超时的时间,默认为3秒,如果网络延迟高可设置大些。
discovery.zen.minimum_master_nodes:主结点数量的最少值 ,此值的公式为:(master_eligible_nodes / 2) + 1 ,比如:有3个符合要求的主结点,那么这里要设置为2。
node.max_local_storage_nodes: 单机允许的最大存储结点数,通常单机启动一个结点建议设置为1,开发环境如果单机启动多个节点可设置大于1。
(5)启动并检查
- 进入 bin 目录,点击 elasticsearch.bat 启动 ES 服务
- 9300 端口为 Elasticsearch 集群间组件的通信端口。
- 9200 端口为浏览器访问的 http协议 RESTful 端口。
- 浏览器输入访问地址:http://localhost:9200/如下表示启动成功。
- 说明
- name: 节点名称,取自机器的hostname
- cluster_name: 集群名称(默认的集群名称就是elasticsearch)
- version.number: es版本号
- version.lucene_version:封装的lucene版本号
(6)集群检查
- 浏览器输入访问地址: http://localhost:9200/_cluster/health?pretty
- status:集群状态,green 所有分片可用。yellow所有主分片可用。red主分片不可用,集群不可用。
2、Windows安装Kibana
(1)概述
- Kibana 是 ELK 官方的可视化 ES 管理工具
(2)下载
- 下载地址:https://www.elastic.co/cn/downloads/past-releases/kibana-7-15-0
(3)安装
- Windows 版的 Kibana 的安装很简单,解压即安装完毕,目录结构如下
文件/文件夹名称 | 说明 |
---|
bin | 包含Kibana的可执行文件 |
config | 包含Kibana的配置文件 |
data | Kibana可能会将一些数据存储在这个目录中 |
node | 包含Node.js的可执行文件(如果通过NPM安装) |
node_modules | 包含Kibana项目依赖的所有Node.js模块 |
plugins | 存放Kibana插件的目录 |
src | 包含了Kibana的源代码(如果源码安装) |
x-pack | X-Pack扩展包的相关文件 |
.j18nrc.json | 配置国际化(i18n)的资源文件 |
LICENSE.txt | 包含Kibana的许可证信息 |
NOTICE.txt | 关于Kibana的版权和商标信息,以及第三方库的版权声明 |
package.json | 定义了Kibana项目的元数据 |
README.txt | 提供关于Kibana的基本信息和使用说明 |
(4)启动并检查
- 启动Kibana:bin\kibana.bat
- 浏览器输入http://localhost:5601/进入kibana表示启动成功
(6)数据操作
- 进入http://localhost:5601/app/dev_tools#/console就可以对数据进行操作,左边输入命令执行在右面可以看到结果
(7)中文汉化
- config\kibana.yml 配置文件中加上汉化配置
i18n.locale: "zh-CN"
3、Windows安装head插件
(1)概述
- head插件是ES的一个可视化管理插件,用来监视ES的状态,并通过head客户端和ES服务进行交互,比如创建映射、创建索引等。
- head的项目地址:https://github.com/mobz/elasticsearch-head 。
- head插件是一个基于node.js 的前端项目。
(2)安装node.js
- node 相关知识请参考 node 详解:https://blog.csdn.net/liyou123456789/article/details/131240626
(3)下载并运行
git clone git://github.com/mobz/elasticsearch-head.git
cd elasticsearch-head
npm install
npm run start
(4)浏览器访问
- 浏览器打开地址: http://localhost:9100/
(5)配置跨域
- F12 打开浏览器调试工具发现报错
- Origin null is not allowed by Access-Control-Allow-Origin.
- 原因是:head插件作为客户端要连接ES服务(localhost:9200),此时存在跨域问题,elasticsearch默认不允许跨域访问。
- 解决方案:设置elasticsearch允许跨域访问。在config/elasticsearch.yml 后面增加以下参数:
http.cors.enabled: true
http.cors.allow-origin: "*"
4、Windows安装IK 分词器
(1)概述
- 分词(Tokenization)是文本处理中的一个关键步骤,特别是在自然语言处理(NLP)和搜索引擎技术中。分词是将连续的文本字符串拆分成一个个独立的、有意义的单元(通常是单词或短语)的过程。这个过程对于文本的进一步分析和理解至关重要。
- IK分词器是专门为中文文本设计的分词工具,尤其适用于搜索引擎和自然语言处理领域。
- IK分词器提供了两种分词算法:
ik_smart
和ik_max_word
。 ik_smart
:进行粗粒度的分词,尽量少的对文档进行拆分,适合短语查询。ik_max_word
:进行最细粒度的拆分,会将文本拆分成尽可能多的词,适合术语查询
(2)下载
- 下载地址:https://release.infinilabs.com/analysis-ik/stable/
- 选择和 es 一致的版本下载
(3)安装
- 将下载的压缩包解压放到 es 的插件文件夹中,ik 分词器文件夹重新命名 ik
- 重新启动 ES,发现 IK 分词器被加载了
(4)使用分词器
# 请求
GET _analyze
{"analyzer": "ik_smart","text": "道德制高点"
}#返回
{"tokens" : [{"token" : "道德","start_offset" : 0,"end_offset" : 2,"type" : "CN_WORD","position" : 0},{"token" : "制高点","start_offset" : 2,"end_offset" : 5,"type" : "CN_WORD","position" : 1}]
}
# 请求
GET _analyze
{"analyzer": "ik_max_word","text": "道德制高点"
}# 返回
{"tokens" : [{"token" : "道德","start_offset" : 0,"end_offset" : 2,"type" : "CN_WORD","position" : 0},{"token" : "制高点","start_offset" : 2,"end_offset" : 5,"type" : "CN_WORD","position" : 1},{"token" : "高点","start_offset" : 3,"end_offset" : 5,"type" : "CN_WORD","position" : 2}]
}
(5)自定义分词
- 在 ik 插件的 config 文件夹中添加自己的分词文件 liyou.dic
- 在分词文件中添加自己的分词
(6)配置自定义分词
- 在 ik 分词器配置文件中配置自己的分词文件
- 配置完成重启 ES
(7)测试自定义分词
# 请求
GET _analyze
{"analyzer": "ik_max_word","text": "道德制高点"
}# 返回
{"tokens" : [{"token" : "道德","start_offset" : 0,"end_offset" : 2,"type" : "CN_WORD","position" : 0},{"token" : "德制","start_offset" : 1,"end_offset" : 3,"type" : "CN_WORD","position" : 1},{"token" : "制高点","start_offset" : 2,"end_offset" : 5,"type" : "CN_WORD","position" : 2},{"token" : "高点","start_offset" : 3,"end_offset" : 5,"type" : "CN_WORD","position" : 3}]
}