我是靠谱客的博主 落寞小甜瓜,最近开发中收集的这篇文章主要介绍Elasticsearch Mapping 中配置自定义Analyzer,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

多字段特性

默认text 类型会有一个keyword 字段类型

什么情况下使用多字段?

  • 公司名字实现精确匹配
  • 使用不同的Analyzer
    • 不同语言
    • pinyin字段的搜索
    • 还支持为搜索和索引指定不同的analyzer

精确值和全文本

区别:精确值不需要做分词处理

自定义Analyzer 介绍

 

  • Character Filters

在Tokenizer 之前对文本进行处理,例如增加删除及替换字符,可以配置多个Character Filters 。会影响TOkenizer 的position和offset 信息。

一些自带的Character Filters

HTML strip  去除html 标签

Mapping 字符串替换

Pattern replace 正则匹配替换

示例

POST _analyze
{
"tokenizer": "keyword",
"char_filter": ["html_strip"],
"text": "<b>hello world</b>"
}
// 使用char filter 进行替换
POST _analyze
{
"tokenizer": "standard",
"char_filter": [
{
"type": "mapping",
"mappings": ["- => _"]
}
],
"text": "123-456, I-test! test-990 650-555-1234"
}
// 替换表情符号
POST _analyze
{
"tokenizer": "standard",
"char_filter": [
{
"type": "mapping",
"mappings": [":) => happy", ":( => sad"]
}
],
"text": "my today :) ,but :( !!!"
}
// 正则表达式
GET _analyze
{
"tokenizer": "standard",
"char_filter": [
{
"type": "pattern_replace",
"pattern": "http://(.*)",
"replacement": "$1"
}
],
"text": "http://www.baidu.com"
}


TOkenizer

将原始的文本按照一定的规则,切分为词(term or token)

Elasticsearch 内置的Tokenizers

whitespace / standard / uax_url_email /pattern /keyword/ path hierarchy

可以用java 开发插件,实现自己的Tokenizer

示例:

// 文件路径切分
POST _analyze
{
"tokenizer": "path_hierarchy",
"text": "/usr/local/a/b/c/d/e"
}

Token Filters

将Tokenizer 输出的单词(term), 进行增加,修改,删除

自带的Token Filters

lowercase / stop / synonym (添加近义词)

示例

// whitespace 与stop 以空格切分,并且去掉in
the on 介词
GET _analyze
{
"tokenizer": "whitespace",
"filter": ["stop"],
"text": ["The rain in Spain falls mainly on the plain."]
}
// whitespace 加入lowercase 后,介词The 改为小写被删除
GET _analyze
{
"tokenizer": "whitespace",
"filter": ["lowercase","stop"],
"text": ["The rain in Spain falls mainly on the plain."]
}


设置一个自定义Analyzer

// 创建索引指定分词器
PUT my_inx
{
"settings": {
"analysis": {
"analyzer": {
"my_custom_analyzer": {
"type": "custom",
"char_filter": [
"emoticons"
],
"tokenizer": "punctuation",
"filter": [
"lowercase",
"english_stop"
]
}
},
"tokenizer": {
"punctuation": {
"type": "pattern",
"pattern": "[ .,!?]"
}
},
"char_filter": {
"emoticons": {
"type": "mapping",
"mappings": [
":) => _happy_",
":( => _sad_"
]
}
},
"filter": {
"english_stop": {
"type": "stop",
"stopwords": "_englist_"
}
}
}
}
}
POST my_inx/_analyze
{
"analyzer": "my_custom_analyzer",
"text": "I'm a :) persion, and you?"
}

 

最后

以上就是落寞小甜瓜为你收集整理的Elasticsearch Mapping 中配置自定义Analyzer的全部内容,希望文章能够帮你解决Elasticsearch Mapping 中配置自定义Analyzer所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(68)

评论列表共有 0 条评论

立即
投稿
返回
顶部