1.3. Logging 5.7.2
此发行版本包括 OpenShift Logging 程序错误修复 5.7.2。
1.3.1. 程序错误修复
-
在此次更新之前,因为存在待处理的终结器,无法直接删除
openshift-logging命名空间。在这个版本中,不再使用终结器 (finalizer),启用直接删除命名空间。(LOG-3316) -
在此次更新之前,如果 Red Hat OpenShift Service on AWS 文档更改了,
run.sh脚本会显示一个不正确的chunk_limit_size值。但是,当通过环境变量$BUFFER_SIZE_LIMIT设置chunk_limit_size时,该脚本会显示正确的值。在这个版本中,run.sh脚本会在这两种场景中都一致地显示正确的chunk_limit_size值。(LOG-3330) - 在此次更新之前,Red Hat OpenShift Service on AWS Web 控制台的日志记录视图插件不允许自定义节点放置或容限。在这个版本中,增加了为日志记录视图插件定义节点放置和容限的功能。(LOG-3749)
-
在此次更新之前,当尝试通过 Fluentd HTTP 插件将日志发送到 DataDog 时,Cluster Logging Operator 遇到 Unsupported Media Type 异常。在这个版本中,用户可以通过配置 HTTP 标头 Content-Type 为日志转发无缝分配内容类型。提供的值会自动分配给插件中的
content_type参数,确保成功传输日志。(LOG-3784) -
在此次更新之前,当
ClusterLogForwarder自定义资源 (CR) 中的detectMultilineErrors字段设置为true时,PHP 多行错误被记录为单独的日志条目,从而导致堆栈跟踪在多个消息间分割。在这个版本中,启用了 PHP 的多行错误检测,确保整个堆栈追踪包含在单一日志消息中。(LOG-3878) -
在此次更新之前,
ClusterLogForwarder管道的名称中包含空格会导致 Vector 收集器 pod 持续崩溃。在这个版本中,管道名称中的所有空格、短划线 (-) 和点 (.) 都被替换为下划线 (_)。(LOG-3945) -
在此次更新之前,
log_forwarder_output指标不包括http参数。在这个版本中,在指标中添加缺少的参数。(LOG-3997) - 在此次更新之前,Fluentd 在以冒号结尾时无法识别一些多行 JavaScript 客户端异常。在这个版本中,Fluentd 缓冲名称的前缀为下划线,从而解决了这个问题。(LOG-4019)
- 在此次更新之前,当将日志转发配置为写入与有效负载中键匹配的 Kafka 输出主题时,日志会因为错误而丢弃。在这个版本中,Fluentd 的缓冲区名称前缀为下划线,从而解决了这个问题。(LOG-4027)
- 在此次更新之前,LokiStack 网关返回命名空间的标签值,而无需应用用户的访问权限。在这个版本中,Loki 网关应用标签值请求的权限,从而解决了这个问题。(LOG-4049)
在此次更新之前,当
tls.insecureSkipVerify选项被设置为true时,Cluster Logging Operator API 需要一个由 secret 提供的证书。在这个版本中,Cluster Logging Operator API 不再需要在这样的情形中由 secret 提供证书。以下配置已添加到 Operator 的 CR 中:tls.verify_certificate = false tls.verify_hostname = false
(LOG-3445)
-
在此次更新之前,LokiStack 路由配置会导致查询运行时间超过 30 秒。在这个版本中,Loki global 和 per-tenant
queryTimeout设置会影响路由超时设置,从而解决了这个问题。(LOG-4052) -
在此次更新之前,删除
collection.type的默认修复会导致 Operator 不再遵循资源、节点选择和容限已弃用的 spec。在这个版本中,Operator 的行为总是首选collection.logsspec 而不是那些集合。这与之前允许使用首选字段和已弃用字段的行为不同,但在填充collection.type时会忽略已弃用的字段。(LOG-4185) - 在此次更新之前,如果输出中没有指定代理 URL,Vector 日志收集器不会生成 TLS 配置,用于将日志转发到多个 Kafka 代理。在这个版本中,为多个代理生成 TLS 配置。(LOG-4163)
- 在此次更新之前,为登录到 Kafka 的日志转发启用密码短语的选项不可用。这个限制会导致安全风险,因为它可能会公开敏感信息。在这个版本中,用户有一个无缝选项来为登录到 Kafka 的日志转发启用密码短语。(LOG-3314)
-
在此次更新之前,Vector 日志收集器不会遵循传出 TLS 连接的
tlsSecurityProfile设置。在这个版本中,Vector 可以正确地处理 TLS 连接设置。(LOG-4011) -
在此次更新之前,在 log_forwarder_output_info 指标中,并非所有可用的输出类型都包括在
log_forwarder_output_info指标中。在这个版本中,指标包含之前缺少的 Splunk 和 Google Cloud Logging 数据。(LOG-4098) -
在此次更新之前,当将
follow_inodes设置为true时,Fluentd 收集器可能会在文件轮转时崩溃。在这个版本中,follow_inodes设置不会使收集器崩溃。(LOG-4151) - 在此次更新之前,Fluentd 收集器可能会因为如何跟踪这些文件而错误地关闭应该监视的文件。在这个版本中,跟踪参数已被修正。(LOG-4149)
在此次更新之前,使用 Vector 收集器转发日志,并在
ClusterLogForwarder实例审核中命名管道,应用程序或基础架构会导致收集器 pod 处于CrashLoopBackOff状态,并在收集器日志中出现以下错误:ERROR vector::cli: Configuration error. error=redefinition of table transforms.audit for key transforms.audit
在这个版本中,管道名称不再与保留输入名称冲突,管道可以被命名为
audit,application或infrastructure。(LOG-4218)-
在此次更新之前,当将日志转发到带有 Vector 收集器的 syslog 目的地,并将
addLogSource标志设置为true时,将以下额外空字段添加到转发消息:namespace_name=、container_name=和pod_name=。在这个版本中,这些字段不再添加到日志日志中。(LOG-4219) -
在此次更新之前,当未找到
structuredTypeKey且没有指定structuredTypeName时,日志消息仍然被解析为结构化对象。在这个版本中,日志的解析如预期。(LOG-4220)
1.3.2. CVE
- CVE-2021-26341
- CVE-2021-33655
- CVE-2021-33656
- CVE-2022-1462
- CVE-2022-1679
- CVE-2022-1789
- CVE-2022-2196
- CVE-2022-2663
- CVE-2022-3028
- CVE-2022-3239
- CVE-2022-3522
- CVE-2022-3524
- CVE-2022-3564
- CVE-2022-3566
- CVE-2022-3567
- CVE-2022-3619
- CVE-2022-3623
- CVE-2022-3625
- CVE-2022-3627
- CVE-2022-3628
- CVE-2022-3707
- CVE-2022-3970
- CVE-2022-4129
- CVE-2022-20141
- CVE-2022-25147
- CVE-2022-25265
- CVE-2022-30594
- CVE-2022-36227
- CVE-2022-39188
- CVE-2022-39189
- CVE-2022-41218
- CVE-2022-41674
- CVE-2022-42703
- CVE-2022-42720
- CVE-2022-42721
- CVE-2022-42722
- CVE-2022-43750
- CVE-2022-47929
- CVE-2023-0394
- CVE-2023-0461
- CVE-2023-1195
- CVE-2023-1582
- CVE-2023-2491
- CVE-2023-22490
- CVE-2023-23454
- CVE-2023-23946
- CVE-2023-25652
- CVE-2023-25815
- CVE-2023-27535
- CVE-2023-29007