php 搜索引擎 分词_PHP使用elasticsearch搜索安装及分词方法
一、背景
为什么会用到这个ES搜索?
是因为我在看乌云的漏洞案例库时候,搜索即为不方便。
比如说说我要搜索一个 SQL注入
那mysql匹配的时候是like模糊匹配,搜索必须要有SQL注入这四个字,连续的才能查找到那这样会不太方便。
然后我就想着做一个分词,搜索起来会方便不少,第一个想到的就是ES搜索了。
怎么去用ES呢?
二、安装ES搜索
我们只需要一个JAVA环境并且把Java的环境变量配置好,我相信这些JAVA环境大家之前都配置过,这里不多说。
那现在只需要下载ES的文件,也不需要编译,下载下来就行了,把他放到一个目录。
下载地址: https://www.elastic.co/downlo...
三、 安装head
head是基于node开发的,所以需要先安装node
node下载地址:http://cdn.npm.taobao.org/dis...
在电脑任意一个目录下(不要在elasticsearch目录里面),执行一下命令,
git clone https://github.com/mobz/elasticsearch-head.git
cd elasticsearch-head/
npm install
3、修改部分配置
修改两个地方:
文件:elasticsearch-headGruntfile.js
connect: {
server: {
options: {
port: 9100,
hostname: '*',
base: '.',
keepalive: true
}
}
}
增加配置,文件:elasticsearch-5.6.0configelasticsearch.yml
http.cors.enabled: true
http.cors.allow-origin: "*"
4、输入 npm run start 启动
5、访问head管理页面: http://localhost:9100/
四、安装composer
就是我们需要安装composer,安装composer干什么呢?
下载之后,直接下一步下一步就安装好了。
因为我们PHP如果调用ES搜索的接口,我们是需要去下载一个类库。
1. 在当前目录下载composer.phar
curl -sS https://getcomposer.org/installer | php
2. 在当前目录下创建一个composer.json的文件
{
"require": {
"elasticsearch/elasticsearch": "~2.0@beta"
}
}
3. 安装依赖
php composer.phar install
五、安装分词插件
就是说我们需要安装一个分词插件。
在ES搜索当中Ik分词插件是中文分词最好用的一个,安装也极为方便。
我们只需要到GitHub上把他对应版本的这个,文件下载下来,然后解压到ES的插件目录,然后重新启动一下ES搜索服务,就可以了。
怎么去验证这个插件有没有安装成功呢?
我们可以通过下面的URL,做分词测试。
http://localhost:9200/你的库名/_analyze?analyzer=ik_max_word&pretty=true&text=中华人民共和国
我们可以在这个URL中输入,中华人民共和国; 默认的分词器他会把中华人民共和国分别以以 中、华、人、民、共、和、国。
那我们选择用IK作为分词器后,它是可以把 中华人民共和国 作为一个词,把中华作为一个词。
六、导入数据
现在说一下怎么把数据库中的数据导入到ES中,
首先需要建立这样一个库,
然后把数据按照固定的格式插入到ES搜索中。下面是我的一个代码示例
require_once './vendor/autoload.php';
//连接MYSQL数据库
function get_conn()
{
@$conn = mysql_connect("localhost", "root", "") or die("error connecting");
mysql_select_db("wooyun", $conn);
mysql_query("SET NAMES 'UTF8'");
return $conn;
}
//插入数据到ES搜索中
function create_index($maxId, $client)
{
//查询数据库中的数据
$sql = "SELECT * FROM bugs where id > $maxId limit 0,300";
get_conn();
@$result_bugs = mysql_query($sql);
while (@$row = mysql_fetch_assoc(@$result_bugs)) {
$rtn[] = $row;
}
foreach ($rtn as $val) {
$params = array();
$params['body'] = array(
'id' => $val['id'],
'wybug_id' => $val['wybug_id'],
'wybug_title' => $val['wybug_title'],
);
$params['index'] = 'wooyun';
$params['type'] = 'title';
$client->index($params);
}
return (count($rtn) == 300) ? $val['id'] : false;
}
set_time_limit(0);
$client = Elasticsearch\ClientBuilder::create()->setHosts(['localhost'])->build();
//删除所有数据
$client->indices()->delete(['index' => 'wooyun']);
$a = true;
$maxId = 0;
while ($a) {
$maxId = create_index($maxId, $client);
if (empty($maxId)) {
$a = false;
}
}
七、查询数据
//引入mysql连接,和ES类库
require('conn.php');
require_once 'vendor/autoload.php';
function search($keyword, $page = 0, $size = 20)
{
//对象实例化
$client = Elasticsearch\ClientBuilder::create()->setHosts(['localhost'])->build();
//查询数据的拼装
$params = array();
$params['index'] = 'wooyun';
$params['type'] = 'title';
$params['body']['query']['match']['wybug_title'] = $keyword;
$params['from'] = $page;
$params['size'] = $size;
//执行查询
$rtn = $client->search($params)['hits'];
//结果组装组装数据
$data['total'] = $rtn['total'];
$data['lists'] = array_column($rtn['hits'], '_source');
$data['lists'] = formartData(array_column($data['lists'], 'id'));
return $data;
}
function formartData($ids)
{
$ids = implode($ids, ',');
$sql = "select * from bugs where id in($ids)";
$data = mysql_query($sql);
$rtn = [];
while (@$row = mysql_fetch_assoc(@$data)) {
$rtn[] = $row;
}
return $rtn;
}
$q0 = isset($_GET['q']) ? $_GET['q'] : 'SQL注入';
$num = "15"; //每页显示15条
$page = isset($_GET['page']) ? intval($_GET['page']) : 1;
$offset = ($page - 1) * $num;
$esData = search($q0, $offset, $num);
php 搜索引擎 分词_PHP使用elasticsearch搜索安装及分词方法相关推荐
- 如何在Elasticsearch中安装中文分词器(IK+pinyin)
如何在Elasticsearch中安装中文分词器(IK+pinyin) 如果直接使用Elasticsearch的朋友在处理中文内容的搜索时,肯定会遇到很尴尬的问题--中文词语被分成了一个一个的汉字,当 ...
- Elasticsearch下安装ik分词器
安装ik分词器(必须安装maven) 上传相应jar包 解压到相应目录 unzip elasticsearch-analysis-ik-master.zip(zip包) cp -r elasticse ...
- Elasticsearch中安装IK分词器
Elasticsearch中默认的分词器对中文的支持不好,会分隔成一个一个的汉字.而IK分词器对中文的支持比较好一些,主要有两种模式"ik_smart"和"ik_max_ ...
- Docker安装Elasticsearch及安装中文分词插件
下载镜像 docker pull elasticsearch:6.5.0 启动ES docker run -p 9200:9200 -d --name es_6_5_0 elasticsearch:6 ...
- Elasticsearch入门之从零开始安装ik分词器
起因 需要在ES中使用聚合进行统计分析,但是聚合字段值为中文,ES的默认分词器对于中文支持非常不友好:会把完整的中文词语拆分为一系列独立的汉字进行聚合,显然这并不是我的初衷.我们来看个实例: POST ...
- 指定搜索词的分词方法——elasticsearch
{"query": {"bool": {"should": [{"match": {"name": ...
- ElasticSearch,docker 安装ElasticSearch,Springboot 使用 ElasticSearch JavaAPI
什么是 ElasticSearch ? 数据库查询存在的问题: 性能低:使用模糊查询,左边有通配符,不会走索引,会全表扫描,性能低 关键字模糊查询比较麻烦 ElasticSearch概念 • Elas ...
- ElasticSearch的IK中文分词器
目录 概述 一.安装下载 二.设置es使用ik分词器 三.效果对比 四.ik分词器自定义字典 五.ik分词器自定义字典的配置 概述 本文主要介绍了 ik 分词器在es中的一些配置以及原理,包括 下载安 ...
- php 搜索引擎 分词_PHP 实现中文分词搜索功能
中文分词介绍 众所周知,英文是以词为单位的,词和词之间是靠空格隔开,而中文是以字为单位,句子中所有的字连起来才能描述一个意思.例如,英文句子I am a student,用中文则为:"我是一 ...
最新文章
- Linux 常用技巧记录
- python安装包多大-如何查看安装的pip包大小?
- 混沌系统 matlab仿真分析
- Valhalla LW2的进展–内联类型
- MDK升级后的头文件冲突
- SQLserver数据库反编译生成Hibernate实体类和映射文件
- catalog java,Java Connection getCatalog()方法与示例
- python基础之面向对象编程
- 利用Kubernetes名称空间来管理内存和CPU资源(二)
- bootstrap的html高度很低,Bootstrap DIV没有填充100%背景颜色的高度
- 传输层协议的UDP和TCP
- IDEA如何打包可运行jar,外部引用jar包版
- echart制作环形图
- vagrant制作box
- 北邮计算机网络实践实验三,北邮计算机网络技术实践--实验三
- 使用VS+VisualGDB编译Linux版本RCF
- numpy 归一化 与 标准化
- 电音(4)House类电音
- java opencv 阀值分割_opencv-阈值分割
- ISCC2022--Writeup