Elasticsearch分词器介绍、内置分词器及配置中文分词器
1、分词器、分词器是从一串文本中切分一个个的词条,并对每个词条进行标准化,包含三个部分:character filter:分词之前的预处理,过滤掉HTML标签、特殊符号转换(例如,将&符号转换成and、将|符号转换成or)等。tokenizer:分词token filter:标准化2、内置分词器standard分词器:(默认的)它将词汇单元转换成小写形式,并去...