Linux-安装ElasticSearch5.6.8

x33g5p2x  于2021-09-24 转载在 Linux  
字(7.5k)|赞(0)|评价(0)|浏览(811)

下载ElasticSearch5.6.8

下载压缩包:

ElasticSearch的官方下载地址: https://www.elastic.co/cn/downloads/elasticsearch

往下翻

然后

然后选择需要下载的格式

注意下载linux版TAR 的

链接:https://pan.baidu.com/s/1WE-MNe4oamwHUuQ7BFj6Hg
提取码:1234

配置elasticsearch5.6.8和启动

我使用的是CentOS6.5 用的是宝塔终端工具来操作的

在linux中创建这些目录
cd /usr/local/
mkdir tool
cd tool
mkdir elasticsearch
cd elasticsearch

通过宝塔终端将elasticsearch-5.6.8.tar.gz上传/usr/local/tool/elasticsearch这个目录下面

然后使用tar -zxf elasticsearch-5.6.8.tar.gz 命令解压

进入到配置文件目录
cd /usr/local/tool/elasticsearch 进入到安装目录

cd elasticsearch-5.6.8/config 进入到配置目录

打开配置文件

vim elasticsearch.yml

在文件最后添加 一下内容

Centos6不支持SecComp,而ES5.2.0默认bootstrap.system_call_filter为true

  1. bootstrap.memory_lock: false
  2. bootstrap.system_call_filter: false

使ES支持跨域请求 和 自动获取当前ip

  1. http.cors.enabled: true
  2. http.cors.allow-origin: "*"
  3. http.cors.allow-methods: "GET"
  4. network.host: 0.0.0.0

修改JVM分配空间 否则因为虚拟机内存不够无法启动

cd /usr/local/tool/elasticsearch/elasticsearch-5.6.8/config/

vim jvm.options

  1. -Xms2g
  2. -Xmx2g
  3. 修改成为:
  4. -Xms340m
  5. -Xmx340m

进入到elasticsearch-5.6.8的 bin 目录

cd /usr/local/tool/elasticsearch/elasticsearch-5.6.8/bin

关闭linux防火墙 否则外网是无法访问的

service iptables status 查看防火状态
service iptables stop 暂时关闭防火墙
chkconfig iptables off 永久关闭防火墙 重启后生效

注意:在linux环境下不支持root用户直接启动(理由是安全问题)
useradd es 添加用户
passwd es 给此用户设置密码

chown -R es:es /usr/local/tool/elasticsearch//* 设置权限

切换到es用户

su es

启动服务

./elasticsearch

可以看到 会报错

切换至root用户 su root 然后输入密码

一个个解决

第[1]

在/etc/security/limits.conf 文件中加入这几行配置

  1. * soft nofile 65536
  2. * hard nofile 65536

/* 不能少

第[2]

修改这个配置文件
vim /etc/security/limits.d/90-nproc.conf

将里面 1024 改为 2048

/* soft nproc 2048

第[3]

修改vim /etc/sysctl.conf文件,增加配置vm.max_map_count=262144 然后 sysctl -p 保存

第[4]

这个问题我们在上面已经解决了 应该不会爆这个错误的

如果还有其他问题 自己上百度上找 应该都有解决办法的

以上问题都解决了 后 我们在 启动服务一次

可以发现没有任何报错 访问的地址 http://192.168.93.129:9200/

我们实际环境下是使用后台来启动的 加& 这样不会影响到 我们操作linux
./elasticsearch&

使用后会返回给我们一个 进程号 忘了也没关系 我们可以查询到

我们 可通过杀死后台进程来关闭它
ps -ef | grep elastic 查找 ES进程号

杀掉ES进程
kill -9 8157

安装elasticsearch-head图形化插件

head下载地址https://github.com/mobz/elasticsearch-head

链接:https://pan.baidu.com/s/1H6usdfNDFuS41uh_uVHZNQ
提取码:1234

下载下来的安装包elasticsearch-head-master.zip,上传到/usr/local/tool/elasticsearch目录

然后解压
cd /usr/local/tool/elasticsearch

unzip elasticsearch-head-master.zip

下载nodejs(有了跳过) 使用npm -v 有版本号就代表有了
wget -c https://nodejs.org/dist/v12.16.2/node-v12.16.2-linux-x64.tar.xz

下载完成后,直接使用如下命令解压:

tar -xvf node-v12.16.2-linux-x64.tar.xz

配置环境变量:

vim /etc/profile ,在文件内最后添加如下内容,

  1. export NODE_HOME=/root/node-v12.16.2-linux-x64
  2. export PATH=$PATH:$NODE_HOME/bin
  3. export NODE_PATH=$NODE_HOME/lib/node_modules

让配置生效

source /etc/profile

然后node -v会显示版本号,表示node安装成功;

可能会有异常情况:(没问题跳过)
node: /usr/lib64/libstdc++.so.6: version `GLIBCXX_3.4.14’ not found (required by node)

这是由于linux gcc版本太低导致,需要升级,比如我是centerOs6.5,安装nodejs v12就会有问题,需要升级gcc:

下载libstdc.so_.6.0.26

链接:https://pan.baidu.com/s/1wPNBBIPpPEy-SoF-kXP_VA
提取码:1234

通过宝塔终端工具将压缩包放入随便一个目录 比如 /root里

解压
cd /root

unzip libstdc.so_.6.0.26.zip

放到对应目录下面

mv ./libstdc++.so.6.0.26 /usr/lib64/

然后 删除以前的libstdc++.so.6

rm libstdc++.so.6 这里会提示是否删除符号链接 直接 y 就行

ln /usr/lib64/libstdc++.so.6.0.26 /usr/lib64/libstdc++.so.6

然后 strings /usr/lib64/libstdc++.so.6 | grep GLIBC

然后我们在node -v会显示版本号,表示node安装成功;

我们在使用npm -v 会显示版本号表示 环境没问题

进入head根目录安装grunt
cd /usr/local/tool/elasticsearch/elasticsearch-head-master

npm install -g grunt-cli

检测是否安装成功,如果执行命令后出现版本号就表明成功

grunt -version

修改head配置文件Gruntfile.js

在head的配置文件Gruntfile.js中添加host正则匹配项:
cd /usr/local/tool/elasticsearch/elasticsearch-head-master

vim Gruntfile.js

  1. connect: {
  2. server: {
  3. options: {
  4. port: 9100,
  5. base: '.',
  6. keepalive: true,
  7. host: '*' 添加这一项
  8. }
  9. }
  10. }

然后在head目录下执行:

cd /usr/local/tool/elasticsearch/elasticsearch-head-master

安装npm 服务

npm install

启动插件

grunt server

访问 http://你linux的ip:9100/ 比如我的 http://192.168.93.129:9100/

进入显示如下:

我们也可以使用后台启动插件 添加& 的方式 来后台托管 不影响linux其他操作
grunt server&

IK 分词器

介绍

为什么要在elasticsearch中要使用ik这样的中文分词呢,那是因为es提供的分词是英文分词,对于中文的分词就做的非常不好了,因此我们需要一个中文分词器来用于搜索和使用。

支持中文分词的分词器有很多,word分词器、庖丁解牛、盘古

分词、Ansj分词等,但我们常用的还是下面要介绍的IK分词器。

IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,

IKAnalyzer已经推出 了3个大版本。最初,它是以开源项目Lucene为应用主体的,结合词典分词和文法分析算法的

中文分词组件。新版本的IKAnalyzer3.0则发展为 面向Java的公用分词组件,独立于Lucene项目,同时提供了对

Lucene的默认优化实现。

IK分词器特性如下:

1)采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力。

2)采用了多子处理器分析模 式,支持:英文字母(IP地址、Email、URL)、数字(日期,常用中文数量词,罗马数字,科学计数法),中文 词汇(姓名、地名处理)等分词处理。

3)对中英联合支持不是很好,在这方面的处理比较麻烦.需再做一次查询,同时是支持个人词条的优化的词典存储,更小的内存占用。 4)支持用户词典扩展定义。 5)针对Lucene全文检索优 化的查询分析器IKQueryParser;采用歧义分析算法优化查询关键字的搜索排列组合,能极大的提高Lucene检索的 命中率。

倒排索引

​ 倒排表以字或词为关键字进行索引,表中关键字所对应的记录表项记录了出现这个字或词的所有文档,一个表项就是一个字表段,它记录该文档的ID和字符在该文档中出现的位置情况。
​ 由于每个字或词对应的文档数量在动态变化,所以倒排表的建立和维护都较为复杂,但是在查询的时候由于可以一次得到查询关键字所对应的所有文档,所以效率高于正排表。在全文检索中,检索的快速响应是一个最为关键的性能,而索引建立由于在后台进行,尽管效率相对低一些,但不会影响整个搜索引擎的效率。

下载和配置

下载地址https://github.com/medcl/elasticsearch-analysis-ik/releases

要下载你 elasticsearch 对应 的 iK 否则 你的elasticsearch会不兼容 导致服务启动失败

链接:https://pan.baidu.com/s/1amfF28yVHy7RjrCgI-6boA
提取码:1234

我们先在到cd elasticsearch-5.6.8/plugins下 创建一个名字为analysis-ik的文件夹 (必须的)

  1. mkdir -p elasticsearch-5.6.8/plugins/analysis-ik
  2. cd analysis-ik

然后将elasticsearch-analysis-ik-5.6.8 放入linux 的 elasticsearch-5.6.8/plugins/ analysis-ik目录下

然后解压就行了

  1. unzip -o elasticsearch-analysis-ik-5.6.8.zip

然后重启 elasticsearch-5.6.8 即可自动加载IK分词器

当我们看到 上图 箭头 的信息 那么 就表示 成功了

IK分词器测试

IK提供了两个分词算法ik_smart 和 ik_max_word

其中 ik_smart 为最少切分,ik_max_word为最细粒度划分

我们分别来试一下 :

1)最小切分:在浏览器地址栏输入地址
http://127.0.0.1:9200/_analyze?analyzer=ik_smart&pretty=true&text=我是程序员

输出的结果为:

2)最细切分:在浏览器地址栏输入地址
http://127.0.0.1:9200/_analyze?analyzer=ik_max_word&pretty=true&text=我是程序员

从上面我们就可以看出来 区别了吧 如果内容较为庞大的情况下不建议使用最细切分 那样会导致速度非常慢

既然了解了 IK 那么我们就将IK 映射到Mapping中吧

修改索引映射mapping

重建索引

删除原有blog2索引

使用DELETE请求 http://localhost:9200/blog2

创建blog2索引,此时分词器使用ik_max_word

使用PUT请求 http://localhost:9200/blog2

Body

  1. {
  2. "mappings":{
  3. "article":{
  4. "properties":{
  5. "id":{
  6. "type":"long",
  7. "store":true,
  8. "index":false
  9. },
  10. "title":{
  11. "type":"text",
  12. "store":true,
  13. "index":true,
  14. "analyzer":"ik_max_word"
  15. },
  16. "content":{
  17. "type":"text",
  18. "store":true,
  19. "index":true,
  20. "analyzer":"ik_max_word"
  21. }
  22. }
  23. }
  24. }
  25. }

创建索引blog2 和表article 以及表结构

elasticsearch-head里 查看索引信息

使用POST请求 http://localhost:9200/blog2/article/1

向blog2索引内article表中添加 文档id为1 的 一行数据

Body

  1. {
  2. "id":1,
  3. "title":"ElasticSearch是一个基于Lucene的搜索服务器",
  4. "content":"它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口。Elasticsearch是用Java 开发的,并作为Apache许可条款下的开放源码发布,是当前流行的企业级搜索引擎。设计用于云计算中,能够达到实时 搜索,稳定,可靠,快速,安装使用方便。"
  5. }

我们使用 最细切分 来看看 切分后的结果 然后在进行 query_string查询 和 term查询

http://127.0.0.1:9200/_analyze?analyzer=ik_max_word&pretty=true&text=ElasticSearch是一个基于Lucene的搜索服务器

  1. token "elasticsearch"
  2. token "是"
  3. token "一个"
  4. token "一"
  5. token "个"
  6. token "基于"
  7. token "lucene"
  8. token "的"
  9. token "搜索"
  10. token "服务器"
  11. token "服务"
  12. token "器"

上面就是ik 分词集

我们使用query_String查询 看看有什么变化

发送POST请求 http://localhost:9200/blog2/article/_search

Body

  1. {
  2. "query":{
  3. "query_string":{
  4. "default_field":"title",
  5. "query":"搜索服务器"
  6. }
  7. }
  8. }

结果 是能查询到的 默认采用的是 or 匹配 在ik分词集里 是能匹配到的

然后我们在试试 将请求体搜索服务器字符串修改为 钢索,再次查询 发现并没有查询到

因为 在ik分词集里没有 钢 或者 索 的词

我们使用 term 查询 看看有什么变化

发送POST请求 http://localhost:9200/blog2/article/_search

Body

  1. {
  2. "query":{
  3. "term":{
  4. "title":"搜索"
  5. }
  6. }
  7. }

结果发现 是能查询到的 因为在ik分词集里是能找到搜索 这个词

看有什么变化//

发送POST请求 http://localhost:9200/blog2/article/_search

Body

  1. {
  2. "query":{
  3. "query_string":{
  4. "default_field":"title",
  5. "query":"搜索服务器"
  6. }
  7. }
  8. }

结果 是能查询到的 默认采用的是 or 匹配 在ik分词集里 是能匹配到的

然后我们在试试 将请求体搜索服务器字符串修改为 钢索,再次查询 发现并没有查询到

因为 在ik分词集里没有 钢 或者 索 的词

我们使用 term 查询 看看有什么变化

发送POST请求 http://localhost:9200/blog2/article/_search

Body

  1. {
  2. "query":{
  3. "term":{
  4. "title":"搜索"
  5. }
  6. }
  7. }

结果发现 是能查询到的 因为在ik分词集里是能找到搜索 这个词

相关文章

最新文章

更多