Skip to main content
Version: Next

error-log-logger

描述#

error-log-logger 插件用于将 APISIX 的错误日志 (error.log) 推送到 TCP、Apache SkyWalking、Apache Kafka 或 ClickHouse 服务器,你还可以设置错误日志级别以将日志发送到服务器。

属性#

名称类型必选项默认值有效值描述
tcp.hoststringTCP 服务的 IP 地址或主机名。
tcp.portinteger[0,...]目标端口。
tcp.tlsbooleanfalse[false, true]当设置为 true 时执行 SSL 验证。
tcp.tls_server_namestringTLS 服务名称标记。
skywalking.endpoint_addrstringhttp://127.0.0.1:12900/v3/logsSkyWalking 的 HTTP endpoint 地址,例如:http://127.0.0.1:12800。
skywalking.service_namestringAPISIXSkyWalking 上报的 service 名称。
skywalking.service_instance_nameStringAPISIX Instance NameSkyWalking 上报的 service 实例名,如果希望直接获取本机主机名请设置为 $hostname
clickhouse.endpoint_addrStringhttp://127.0.0.1:8213ClickHouse 的 HTTP endpoint 地址,例如 http://127.0.0.1:8213
clickhouse.userStringdefaultClickHouse 的用户名。
clickhouse.passwordStringClickHouse 的密码。
clickhouse.databaseStringClickHouse 的用于接收日志的数据库。
clickhouse.logtableStringClickHouse 的用于接收日志的表。
kafka.brokersarray需要推送的 Kafka broker 列表。
kafka.brokers.hoststringKafka broker 的节点 host 配置,例如 192.168.1.1
kafka.brokers.portstringKafka broker 的节点端口配置
kafka.brokers.sasl_configobjectKafka broker 中的 sasl_config
kafka.brokers.sasl_config.mechanismstring"PLAIN"["PLAIN"]Kafka broker 中的 sasl 认证机制
kafka.brokers.sasl_config.userstringKafka broker 中 sasl 配置中的 user,如果 sasl_config 存在,则必须填写
kafka.brokers.sasl_config.passwordstringKafka broker 中 sasl 配置中的 password,如果 sasl_config 存在,则必须填写
kafka.kafka_topicstring需要推送的 Kafka topic。
kafka.producer_typestringasync["async", "sync"]生产者发送消息的模式。
kafka.required_acksinteger1[0, 1, -1]生产者在确认一个请求发送完成之前需要收到的反馈信息的数量。该参数是为了保证发送请求的可靠性。该属性的配置与 Kafka acks 属性相同,具体配置请参考 Apache Kafka 文档
kafka.keystring用于消息分区而分配的密钥。
kafka.cluster_nameinteger1[0,...]Kafka 集群的名称,当有两个及以上 Kafka 集群时使用。只有当 producer_type 设为 async 模式时才可以使用该属性。
kafka.meta_refresh_intervalinteger30[1,...]对应 lua-resty-kafka 中的 refresh_interval 参数,用于指定自动刷新 metadata 的间隔时长,单位为秒。
timeoutinteger3[1,...]连接和发送数据超时间,以秒为单位。
keepaliveinteger30[1,...]复用连接时,连接保持的时间,以秒为单位。
levelstringWARN进行错误日志筛选的级别,默认为 WARN,取值 ["STDERR", "EMERG", "ALERT", "CRIT", "ERR", "ERROR", "WARN", "NOTICE", "INFO", "DEBUG"],其中 ERRERROR 级别一致。

注意:schema 中还定义了 encrypt_fields = {"clickhouse.password"},这意味着该字段将会被加密存储在 etcd 中。具体参考 加密存储字段

本插件支持使用批处理器来聚合并批量处理条目(日志/数据)。这样可以避免插件频繁地提交数据,默认设置情况下批处理器会每 5 秒钟或队列中的数据达到 1000 条时提交数据,如需了解或自定义批处理器相关参数设置,请参考 Batch-Processor 配置部分。

启用插件#

该插件默认为禁用状态,你可以在 ./conf/config.yaml 中启用 error-log-logger 插件。你可以参考如下示例启用插件:

./conf/config.yaml
plugins:                          # plugin list
......
- request-id
- hmac-auth
- api-breaker
- error-log-logger # enable plugin `error-log-logger

完成插件配置后,你需要重新加载 APISIX,插件才会生效。

注意

该插件属于 APISIX 全局性插件,不需要在任何路由或服务中绑定。

配置 TCP 服务器地址#

你可以通过配置插件元数据来设置 TCP 服务器地址,如下所示:

curl http://127.0.0.1:9180/apisix/admin/plugin_metadata/error-log-logger \
-H 'X-API-KEY: edd1c9f034335f136f87ad84b625c8f1' -X PUT -d '
{
"tcp": {
"host": "127.0.0.1",
"port": 1999
},
"inactive_timeout": 1
}'

配置 SkyWalking OAP 服务器地址#

通过以下配置插件元数据设置 SkyWalking OAP 服务器地址,如下所示:

curl http://127.0.0.1:9180/apisix/admin/plugin_metadata/error-log-logger \
-H 'X-API-KEY: edd1c9f034335f136f87ad84b625c8f1' -X PUT -d '
{
"skywalking": {
"endpoint_addr": "http://127.0.0.1:12800/v3/logs"
},
"inactive_timeout": 1
}'

配置 ClickHouse 数据库#

该插件支持将错误日志作为字符串发送到 ClickHouse 服务器中对应表的 data 字段。

你可以按照如下方式进行配置:

curl http://127.0.0.1:9180/apisix/admin/plugin_metadata/error-log-logger \
-H 'X-API-KEY: edd1c9f034335f136f87ad84b625c8f1' -X PUT -d '
{
"clickhouse": {
"user": "default",
"password": "a",
"database": "error_log",
"logtable": "t",
"endpoint_addr": "http://127.0.0.1:8123"
}
}'

配置 Kafka#

该插件支持将错误日志发送到 Kafka,你可以按照如下方式进行配置:

curl http://127.0.0.1:9180/apisix/admin/plugin_metadata/error-log-logger \
-H 'X-API-KEY: edd1c9f034335f136f87ad84b625c8f1' -X PUT -d '
{
"kafka":{
"brokers":[
{
"host":"127.0.0.1",
"port":9092
}
],
"kafka_topic":"test2"
},
"level":"ERROR",
"inactive_timeout":1
}'

删除插件#

当你不再需要该插件时,只需要在 ./conf/config.yaml 中删除或注释该插件即可。

plugins:                          # plugin list
... ...
- request-id
- hmac-auth
- api-breaker
#- error-log-logger # enable plugin `error-log-logger