一、背景

为什么会用到这个ES搜索?

是因为我在看乌云的漏洞案例库时候,搜索即为不方便。

比如说说我要搜索一个 SQL注入

那mysql匹配的时候是like模糊匹配,搜索必须要有SQL注入这四个字,连续的才能查找到那这样会不太方便。

然后我就想着做一个分词,搜索起来会方便不少,第一个想到的就是ES搜索了。

怎么去用ES呢?

二、安装ES搜索

我们只需要一个JAVA环境并且把Java的环境变量配置好,我相信这些JAVA环境大家之前都配置过,这里不多说。

那现在只需要下载ES的文件,也不需要编译,下载下来就行了,把他放到一个目录。

下载地址: https://www.elastic.co/downlo...

三、 安装head

head是基于node开发的,所以需要先安装node

node下载地址:http://cdn.npm.taobao.org/dis...

在电脑任意一个目录下(不要在elasticsearch目录里面),执行一下命令,

git clone https://github.com/mobz/elasticsearch-head.git

cd elasticsearch-head/

npm install

3、修改部分配置

修改两个地方:

文件:elasticsearch-headGruntfile.js

connect: {

server: {

options: {

port: 9100,

hostname: '*',

base: '.',

keepalive: true

}

}

}

增加配置,文件:elasticsearch-5.6.0configelasticsearch.yml

http.cors.enabled: true

http.cors.allow-origin: "*"

4、输入 npm run start 启动

5、访问head管理页面: http://localhost:9100/

四、安装composer

就是我们需要安装composer,安装composer干什么呢?

下载之后,直接下一步下一步就安装好了。

因为我们PHP如果调用ES搜索的接口,我们是需要去下载一个类库。

1. 在当前目录下载composer.phar

curl -sS https://getcomposer.org/installer | php

2. 在当前目录下创建一个composer.json的文件

{

"require": {

"elasticsearch/elasticsearch": "~2.0@beta"

}

}

3. 安装依赖

php composer.phar install

五、安装分词插件

就是说我们需要安装一个分词插件。

在ES搜索当中Ik分词插件是中文分词最好用的一个,安装也极为方便。

我们只需要到GitHub上把他对应版本的这个,文件下载下来,然后解压到ES的插件目录,然后重新启动一下ES搜索服务,就可以了。

怎么去验证这个插件有没有安装成功呢?

我们可以通过下面的URL,做分词测试。

http://localhost:9200/你的库名/_analyze?analyzer=ik_max_word&pretty=true&text=中华人民共和国

我们可以在这个URL中输入,中华人民共和国; 默认的分词器他会把中华人民共和国分别以以 中、华、人、民、共、和、国。

那我们选择用IK作为分词器后,它是可以把 中华人民共和国 作为一个词,把中华作为一个词。

六、导入数据

现在说一下怎么把数据库中的数据导入到ES中,

首先需要建立这样一个库,

然后把数据按照固定的格式插入到ES搜索中。下面是我的一个代码示例

require_once './vendor/autoload.php';

//连接MYSQL数据库

function get_conn()

{

@$conn = mysql_connect("localhost", "root", "") or die("error connecting");

mysql_select_db("wooyun", $conn);

mysql_query("SET NAMES 'UTF8'");

return $conn;

}

//插入数据到ES搜索中

function create_index($maxId, $client)

{

//查询数据库中的数据

$sql = "SELECT * FROM bugs where id > $maxId limit 0,300";

get_conn();

@$result_bugs = mysql_query($sql);

while (@$row = mysql_fetch_assoc(@$result_bugs)) {

$rtn[] = $row;

}

foreach ($rtn as $val) {

$params = array();

$params['body'] = array(

'id' => $val['id'],

'wybug_id' => $val['wybug_id'],

'wybug_title' => $val['wybug_title'],

);

$params['index'] = 'wooyun';

$params['type'] = 'title';

$client->index($params);

}

return (count($rtn) == 300) ? $val['id'] : false;

}

set_time_limit(0);

$client = Elasticsearch\ClientBuilder::create()->setHosts(['localhost'])->build();

//删除所有数据

$client->indices()->delete(['index' => 'wooyun']);

$a = true;

$maxId = 0;

while ($a) {

$maxId = create_index($maxId, $client);

if (empty($maxId)) {

$a = false;

}

}

七、查询数据

//引入mysql连接,和ES类库

require('conn.php');

require_once 'vendor/autoload.php';

function search($keyword, $page = 0, $size = 20)

{

//对象实例化

$client = Elasticsearch\ClientBuilder::create()->setHosts(['localhost'])->build();

//查询数据的拼装

$params = array();

$params['index'] = 'wooyun';

$params['type'] = 'title';

$params['body']['query']['match']['wybug_title'] = $keyword;

$params['from'] = $page;

$params['size'] = $size;

//执行查询

$rtn = $client->search($params)['hits'];

//结果组装组装数据

$data['total'] = $rtn['total'];

$data['lists'] = array_column($rtn['hits'], '_source');

$data['lists'] = formartData(array_column($data['lists'], 'id'));

return $data;

}

function formartData($ids)

{

$ids = implode($ids, ',');

$sql = "select * from bugs where id in($ids)";

$data = mysql_query($sql);

$rtn = [];

while (@$row = mysql_fetch_assoc(@$data)) {

$rtn[] = $row;

}

return $rtn;

}

$q0 = isset($_GET['q']) ? $_GET['q'] : 'SQL注入';

$num = "15"; //每页显示15条

$page = isset($_GET['page']) ? intval($_GET['page']) : 1;

$offset = ($page - 1) * $num;

$esData = search($q0, $offset, $num);

php 搜索引擎 分词_PHP使用elasticsearch搜索安装及分词方法相关推荐

  1. 如何在Elasticsearch中安装中文分词器(IK+pinyin)

    如何在Elasticsearch中安装中文分词器(IK+pinyin) 如果直接使用Elasticsearch的朋友在处理中文内容的搜索时,肯定会遇到很尴尬的问题--中文词语被分成了一个一个的汉字,当 ...

  2. Elasticsearch下安装ik分词器

    安装ik分词器(必须安装maven) 上传相应jar包 解压到相应目录 unzip elasticsearch-analysis-ik-master.zip(zip包) cp -r elasticse ...

  3. Elasticsearch中安装IK分词器

    Elasticsearch中默认的分词器对中文的支持不好,会分隔成一个一个的汉字.而IK分词器对中文的支持比较好一些,主要有两种模式"ik_smart"和"ik_max_ ...

  4. Docker安装Elasticsearch及安装中文分词插件

    下载镜像 docker pull elasticsearch:6.5.0 启动ES docker run -p 9200:9200 -d --name es_6_5_0 elasticsearch:6 ...

  5. Elasticsearch入门之从零开始安装ik分词器

    起因 需要在ES中使用聚合进行统计分析,但是聚合字段值为中文,ES的默认分词器对于中文支持非常不友好:会把完整的中文词语拆分为一系列独立的汉字进行聚合,显然这并不是我的初衷.我们来看个实例: POST ...

  6. 指定搜索词的分词方法——elasticsearch

    {"query": {"bool": {"should": [{"match": {"name": ...

  7. ElasticSearch,docker 安装ElasticSearch,Springboot 使用 ElasticSearch JavaAPI

    什么是 ElasticSearch ? 数据库查询存在的问题: 性能低:使用模糊查询,左边有通配符,不会走索引,会全表扫描,性能低 关键字模糊查询比较麻烦 ElasticSearch概念 • Elas ...

  8. ElasticSearch的IK中文分词器

    目录 概述 一.安装下载 二.设置es使用ik分词器 三.效果对比 四.ik分词器自定义字典 五.ik分词器自定义字典的配置 概述 本文主要介绍了 ik 分词器在es中的一些配置以及原理,包括 下载安 ...

  9. php 搜索引擎 分词_PHP 实现中文分词搜索功能

    中文分词介绍 众所周知,英文是以词为单位的,词和词之间是靠空格隔开,而中文是以字为单位,句子中所有的字连起来才能描述一个意思.例如,英文句子I am a student,用中文则为:"我是一 ...

最新文章

  1. Linux 常用技巧记录
  2. python安装包多大-如何查看安装的pip包大小?
  3. 混沌系统 matlab仿真分析
  4. Valhalla LW2的进展–内联类型
  5. MDK升级后的头文件冲突
  6. SQLserver数据库反编译生成Hibernate实体类和映射文件
  7. catalog java,Java Connection getCatalog()方法与示例
  8. python基础之面向对象编程
  9. 利用Kubernetes名称空间来管理内存和CPU资源(二)
  10. bootstrap的html高度很低,Bootstrap DIV没有填充100%背景颜色的高度
  11. 传输层协议的UDP和TCP
  12. IDEA如何打包可运行jar,外部引用jar包版
  13. echart制作环形图
  14. vagrant制作box
  15. 北邮计算机网络实践实验三,北邮计算机网络技术实践--实验三
  16. 使用VS+VisualGDB编译Linux版本RCF
  17. numpy 归一化 与 标准化
  18. 电音(4)House类电音
  19. java opencv 阀值分割_opencv-阈值分割
  20. ISCC2022--Writeup

热门文章

  1. ubuntu自动安装显卡驱动
  2. 腾讯云手游安全MTP怎么样?腾讯云手游安全MTP值得入手吗?
  3. Excel的单元格设置下拉选项并填充颜色
  4. excel日期转换为周数_VBA将日期转换为周数
  5. Android 实现短信接收监听--(短信动态权限添加)
  6. Android Path之Direction.CW、Direction.CCW
  7. 轻松打造xfce4轻快桌面
  8. C#如何遍历文件夹下的所有文件
  9. 【CTR预估】 xDeepFM模型
  10. 【Python】速度起飞!替代 pandas 的 8 个神库