我是靠谱客的博主 冷酷滑板,这篇文章主要介绍还在用 ClickHouse?事实证明 ES 更强大!,现在分享给大家,希望可以做个参考。

点击关注公众号,实用技术文章及时了解bfdb69b290b8d59f221aa8add3c04715.png

来源:zhuanlan.zhihu.com/p/353296392

Elasticsearch 是一个实时的分布式搜索分析引擎,它的底层是构建在Lucene之上的。简单来说是通过扩展Lucene的搜索能力,使其具有分布式的功能。ES通常会和其它两个开源组件logstash(日志采集)和Kibana(仪表盘)一起提供端到端的日志/搜索分析的功能,常常被简称为ELK。

Clickhouse是俄罗斯搜索巨头Yandex开发的面向列式存储的关系型数据库。ClickHouse是过去两年中OLAP领域中最热门的,并于2016年开源。

ES是最为流行的大数据日志和搜索解决方案,但是近几年来,它的江湖地位受到了一些挑战,许多公司已经开始把自己的日志解决方案从ES迁移到了Clickhouse,这里就包括:携程,快手等公司。

架构和设计的对比

ES的底层是Lucenc,主要是要解决搜索的问题。搜索是大数据领域要解决的一个常见的问题,就是在海量的数据量要如何按照条件找到需要的数据。搜索的核心技术是倒排索引和布隆过滤器。ES通过分布式技术,利用分片与副本机制,直接解决了集群下搜索性能与高可用的问题。

42b8d9a1526e1a5a1f4e9179694c9f3e.png

ElasticSearch是为分布式设计的,有很好的扩展性,在一个典型的分布式配置中,每一个节点(node)可以配制成不同的角色,如下图所示:

  • Client Node,负责API和数据的访问的节点,不存储/处理数据

  • Data Node,负责数据的存储和索引

  • Master Node, 管理节点,负责Cluster中的节点的协调,不存储数据。

bfca9484276682b4313dc10d160aa2f7.png

ClickHouse是基于MPP架构的分布式ROLAP(关系OLAP)分析引擎。每个节点都有同等的责任,并负责部分数据处理(不共享任何内容)。ClickHouse 是一个真正的列式数据库管理系统(DBMS)。

在 ClickHouse 中,数据始终是按列存储的,包括矢量(向量或列块)执行的过程。让查询变得更快,最简单且有效的方法是减少数据扫描范围和数据传输时的大小,而列式存储和数据压缩就可以帮助实现上述两点。

Clickhouse同时使用了日志合并树,稀疏索引和CPU功能(如SIMD单指令多数据)充分发挥了硬件优势,可实现高效的计算。Clickhouse 使用Zookeeper进行分布式节点之间的协调。

dcfd8c5e9a2c80d7876d8382d46ef7f6.png

为了支持搜索,Clickhouse同样支持布隆过滤器。

另外,附送学习资源:Java进阶视频资源

查询对比实战

为了对比ES和Clickhouse的基本查询能力的差异,我写了一些代码(https://github.com/gangtao/esvsch)来验证。

这个测试的架构如下:

d6ccc25c9ff6ae4fec76ea3ee8337bc1.png

架构主要有四个部分组成:

1.ES stack

ES stack有一个单节点的Elastic的容器和一个Kibana容器组成,Elastic是被测目标之一,Kibana作为验证和辅助工具。部署代码如下:

复制代码
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
version: '3.7' services:   elasticsearch:     image: docker.elastic.co/elasticsearch/elasticsearch:7.4.0     container_name: elasticsearch     environment:       - xpack.security.enabled=false       - discovery.type=single-node     ulimits:       memlock:         soft: -1         hard: -1       nofile:         soft: 65536         hard: 65536     cap_add:       - IPC_LOCK     volumes:       - elasticsearch-data:/usr/share/elasticsearch/data     ports:       - 9200:9200       - 9300:9300     deploy:       resources:         limits:           cpus: '4'           memory: 4096M         reservations:           memory: 4096M   kibana:     container_name: kibana     image: docker.elastic.co/kibana/kibana:7.4.0     environment:       - ELASTICSEARCH_HOSTS=http://elasticsearch:9200     ports:       - 5601:5601     depends_on:       - elasticsearch volumes:   elasticsearch-data:     driver: local

2.Clickhouse stack

Clickhouse stack有一个单节点的Clickhouse服务容器和一个TabixUI作为Clickhouse的客户端。部署代码如下:

复制代码
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
version: "3.7" services:   clickhouse:     container_name: clickhouse     image: yandex/clickhouse-server     volumes:       - ./data/config:/var/lib/clickhouse     ports:       - "8123:8123"       - "9000:9000"       - "9009:9009"       - "9004:9004"     ulimits:       nproc: 65535       nofile:         soft: 262144         hard: 262144     healthcheck:       test: ["CMD", "wget", "--spider", "-q", "localhost:8123/ping"]       interval: 30s       timeout: 5s       retries: 3     deploy:       resources:         limits:           cpus: '4'           memory: 4096M         reservations:           memory: 4096M      tabixui:     container_name: tabixui     image: spoonest/clickhouse-tabix-web-client     environment:       - CH_NAME=dev       - CH_HOST=127.0.0.1:8123       - CH_LOGIN=default     ports:       - "18080:80"     depends_on:       - clickhouse     deploy:       resources:         limits:           cpus: '0.1'           memory: 128M         reservations:           memory: 128M

3.数据导入 stack

数据导入部分使用了Vector.dev开发的vector,该工具和fluentd类似,都可以实现数据管道式的灵活的数据导入。

4.测试控制 stack

测试控制我使用了Jupyter,使用了ES和Clickhouse的Python SDK来进行查询的测试。

用Docker compose启动ES和Clickhouse的stack后,我们需要导入数据,我们利用Vector的generator功能,生成syslog,并同时导入ES和Clickhouse,在这之前,我们需要在Clickhouse上创建表。ES的索引没有固定模式,所以不需要事先创建索引。

创建表的代码如下:

复制代码
1
2
3
4
5
6
7
8
9
10
11
12
13
14
CREATE TABLE default.syslog(     application String,     hostname String,     message String,     mid String,     pid String,     priority Int16,     raw String,     timestamp DateTime('UTC'),     version Int16 ) ENGINE = MergeTree()     PARTITION BY toYYYYMMDD(timestamp)     ORDER BY timestamp     TTL timestamp + toIntervalMonth(1);

创建好表之后,我们就可以启动vector,向两个stack写入数据了。vector的数据流水线的定义如下:

复制代码
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
[sources.in]   type = "generator"   format = "syslog"   interval = 0.01   count = 100000 [transforms.clone_message]   type = "add_fields"   inputs = ["in"]   fields.raw = "{{ message }}" [transforms.parser]   # General   type = "regex_parser"   inputs = ["clone_message"]   field = "message" # optional, default   patterns = ['^<(?P<priority>d*)>(?P<version>d) (?P<timestamp>d{4}-d{2}-d{2}Td{2}:d{2}:d{2}.d{3}Z) (?P<hostname>w+.w+) (?P<application>w+) (?P<pid>d+) (?P<mid>IDd+) - (?P<message>.*)$'] [transforms.coercer]   type = "coercer"   inputs = ["parser"]   types.timestamp = "timestamp"   types.version = "int"   types.priority = "int" [sinks.out_console]   # General   type = "console"   inputs = ["coercer"]    target = "stdout"    # Encoding   encoding.codec = "json"     [sinks.out_clickhouse]   host = "http://host.docker.internal:8123"   inputs = ["coercer"]   table = "syslog"   type = "clickhouse"     encoding.only_fields = ["application", "hostname", "message", "mid", "pid", "priority", "raw", "timestamp", "version"]   encoding.timestamp_format = "unix" [sinks.out_es]   # General   type = "elasticsearch"   inputs = ["coercer"]   compression = "none"    endpoint = "http://host.docker.internal:9200"    index = "syslog-%F"   # Encoding   # Healthcheck   healthcheck.enabled = true

这里简单介绍一下这个流水线:

  • http://source.in 生成syslog的模拟数据,生成10w条,生成间隔和0.01秒

  • transforms.clone_message 把原始消息复制一份,这样抽取的信息同时可以保留原始消息

  • transforms.parser 使用正则表达式,按照syslog的定义,抽取出application,hostname,message ,mid ,pid ,priority ,timestamp ,version 这几个字段

  • transforms.coercer 数据类型转化

  • sinks.out_console 把生成的数据打印到控制台,供开发调试

  • sinks.out_clickhouse 把生成的数据发送到Clickhouse

  • sinks.out_es 把生成的数据发送到ES

运行Docker命令,执行该流水线:

复制代码
1
2
3
4
docker run    -v $(mkfile_path)/vector.toml:/etc/vector/vector.toml:ro    -p 18383:8383    timberio/vector:nightly-alpine

数据导入后,我们针对一下的查询来做一个对比。ES使用自己的查询语言来进行查询,Clickhouse支持SQL,我简单测试了一些常见的查询,并对它们的功能和性能做一些比较。

返回所有的记录

复制代码
1
2
3
4
5
6
7
8
9
# ES {   "query":{     "match_all":{}   } } # Clickhouse  "SELECT * FROM syslog"

匹配单个字段

复制代码
1
2
3
4
5
6
7
8
9
10
11
# ES {   "query":{     "match":{       "hostname":"for.org"     }   } } # Clickhouse  "SELECT * FROM syslog WHERE hostname='for.org'"

匹配多个字段

复制代码
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
# ES {   "query":{     "multi_match":{       "query":"up.com ahmadajmi",         "fields":[           "hostname",           "application"         ]     }   } } # Clickhouse、 "SELECT * FROM syslog WHERE hostname='for.org' OR application='ahmadajmi'"

单词查找,查找包含特定单词的字段

复制代码
1
2
3
4
5
6
7
8
9
10
11
# ES {   "query":{     "term":{       "message":"pretty"     }   } } # Clickhouse "SELECT * FROM syslog WHERE lowerUTF8(raw) LIKE '%pretty%'"

范围查询, 查找版本大于2的记录

复制代码
1
2
3
4
5
6
7
8
9
10
11
12
13
# ES {   "query":{     "range":{       "version":{         "gte":2       }     }   } } # Clickhouse "SELECT * FROM syslog WHERE version >= 2"

查找到存在某字段的记录

ES是文档类型的数据库,每一个文档的模式不固定,所以会存在某字段不存在的情况;而Clickhouse对应为字段为空值

复制代码
1
2
3
4
5
6
7
8
9
10
11
# ES {   "query":{     "exists":{       "field":"application"     }   } } # Clickhouse "SELECT * FROM syslog WHERE application is not NULL"

正则表达式查询,查询匹配某个正则表达式的数据

复制代码
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
# ES {   "query":{     "regexp":{       "hostname":{         "value":"up.*",           "flags":"ALL",             "max_determinized_states":10000,               "rewrite":"constant_score"       }     }   } } # Clickhouse "SELECT * FROM syslog WHERE match(hostname, 'up.*')"

聚合计数,统计某个字段出现的次数

复制代码
1
2
3
4
5
6
7
8
9
10
11
12
13
# ES {   "aggs":{     "version_count":{       "value_count":{         "field":"version"       }     }   } } # Clickhouse "SELECT count(version) FROM syslog"

聚合不重复的值,查找所有不重复的字段的个数

复制代码
1
2
3
4
5
6
7
8
9
10
11
12
13
# ES {   "aggs":{     "my-agg-name":{       "cardinality":{         "field":"priority"       }     }   } } # Clickhouse "SELECT count(distinct(priority)) FROM syslog "

我用Python的SDK,对上述的查询在两个Stack上各跑10次,然后统计查询的性能结果。

我们画出出所有的查询的响应时间的分布:

afac885f414a400ace60c6cb0f498bc8.png

总查询时间的对比如下:

d8c3562ca33782bdebb3dbdb53ace482.png

通过测试数据我们可以看出Clickhouse在大部分的查询的性能上都明显要优于Elastic。在正则查询(Regex query)和单词查询(Term query)等搜索常见的场景下,也并不逊色。

在聚合场景下,Clickhouse表现异常优秀,充分发挥了列村引擎的优势。

注意,我的测试并没有任何优化,对于Clickhouse也没有打开布隆过滤器。可见Clickhouse确实是一款非常优秀的数据库,可以用于某些搜索的场景。当然ES还支持非常丰富的查询功能,这里只有一些非常基本的查询,有些查询可能存在无法用SQL表达的情况。另外,附送学习资源:Java进阶视频资源

总结

本文通过对于一些基本查询的测试,对比了Clickhouse 和Elasticsearch的功能和性能,测试结果表明,Clickhouse在这些基本场景表现非常优秀,性能优于ES,这也解释了为什么用很多的公司应从ES切换到Clickhouse之上。

推荐:

主流Java进阶技术(学习资料分享)

30f62f9ba3f77d317202be6c137c5f06.png

PS:因为公众号平台更改了推送规则,如果不想错过内容,记得读完点一下“在看”,加个“星标”,这样每次新文章推送才会第一时间出现在你的订阅列表里。点“在看”支持我们吧!

最后

以上就是冷酷滑板最近收集整理的关于还在用 ClickHouse?事实证明 ES 更强大!的全部内容,更多相关还在用内容请搜索靠谱客的其他文章。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(53)

评论列表共有 0 条评论

立即
投稿
返回
顶部