观测云产品更新 | 日志、场景、异常追踪、监控、Pipeline 等
观测云更新
功能更新
日志
1、日志查看器新增交互:长按 Ctrl 可针对查看器列表文本分词进行 「添加到查询」、「从查询中排除」、「复制」 操作,便捷目标数据的快速查询追加。同理日志详情页内容区域也支持此交互。
2、日志 > 数据访问优化:
新增数据访问导航页,页面右上角新增帮助文档跳转链接;
数据访问规则新增「名称」字段为唯一性 ID,新增规则「描述」字段,可自定义名称及描述以区分规则使用场景。
3、日志查看器筛选项优化:日志查看器列表「日志索引」筛选项支持搜索,可关键字搜索索引并进行勾选。
4、日志状态自定义:支持自定义日志状态值,并在控制台中为每个状态值设置颜色,适应不同的日志接入场景,同时使日志的状态显示更加个性化和直观。
场景
1、新增图表类型热力图:用户可以通过颜色深浅直观地查看数据的分布和趋势,帮助更好地理解数据。
2、图表链接重定向跳转:联动 Function 函数结合仪表板数据实现链接重定向跳转。
3、告警统计图表组件升级:更换列出逻辑,新版本的告警统计图列出效果同未恢复事件查看器一致,统一用户查看体验。
注意:跨工作空间列出情况下不支持 「创建 Issue」 和 「手动恢复」 操作。
4、分组表格图自定义显示列:在分组表格图中,新增自定义显示列功能,支持对返回的列设置显示或隐藏,提供更灵活的数据展示方式。
5、图表跨空间授权查询交互优化:开启空间授权功能后,可以直接在查询上方选择被授权的空间列表,操作更加直观和便捷。
异常追踪
异常追踪 Issue 和监控器事件:内容若存在 @成员
配置,则通过 Webhook 对外传递时 Issue 或事件会同步携带 @成员
的账号属性信息。
监控
1、外部事件检测:支持自定义事件发生时间和标签属性追加。注意:
字段值统一使用字符串类型;
字段名称不支持以
_
下划线和df_
前缀开头且不能与当前事件默认字段重名;自定义标签字段名不能与
dimension_tags
内定义字段名重名。
2、名词调整:「无数据」 正式更新为 「数据断档」 ,保证页面配置查看体验统一。
Pipeline
将拨测数据和日志数据分离处理,并新增了「可用性拨测」数据类型。避免在数据处理时的相互干扰,确保数据处理的准确性和效率。
注意:仅中心 pipeline 支持「可用性拨测」数据类型,且拨测节点的 DataKit 版本必须 >= 1.28.0
其他
1、工作空间列表显示优化:针对列表操作栏,新增显示创建人头像鼠标悬浮提示创建人、创建时间、更新人、更新时间;同时对操作项整体显示进行优化。
2、列表新增跳转审计事件:列表操作栏新增审计事件跳转链接,点击可跳转查看数据对应审计事件。
3、账号管理显示调整:单点登录用户【账号管理】菜单下不显示密码项。
Bug 修复
解决了本地 Function 函数做为数据源 查询时时间范围未联动时间控件问题。
解决了 PromQL 数据查询结果 展示顺序不正确的问题。
解决了监控器和图表查询的筛选组件不统一的问题。
解决了从异常追踪入口点击智能监控的相关事件会在非智能监控事件列表中显示导致无查询结果的问题。
解决了飞书异常追踪 Webhook 集成无数据、无回调的问题。
解决了万进制单位显示数字的问题。
解决了查看器分析模式下,添加筛选条件时无法搜索字段的问题。
解决了从监控事件创建 Issue 无来源链接的问题。
解决了日志导出到 CSV 失败的问题。
解决了未收到高消费预警邮件通知的问题。
解决了异常追踪切换频道,Issue 的列表无变化的问题。
解决了日志索引 a、b 存在相同字段名(忽略大小写)时,日志查看器中勾选索引 a、b 出现报错的问题。
观测云部署版更新
1、图表自定义返回数量:时序图、饼图、表格图、排行榜、矩形树图和地图支持自定义返回数据的数量,无最大限制,以满足不同的数据展示需求。
2、管理后台 > Datakit 管理,支持导出 Datakit 清单。
DataKit 更新
新加功能
新增 Graphite 数据接入
问题修复
修复 eBPF 网络数据聚合异常问题
修复 DDTrace telemetry 接口崩溃问题
修复 Jaeger UDP binary 格式数据采集问题
修复拨测采集器数据发送地址格式问题
功能优化
主机对象中,增加多个字段(
num_cpu/unicast_ip/disk_total/arch
)采集其它优化和修复
兼容调整
调整 Pipeline 执行优先级
在之前的版本中,对于特定的某个
source
,比如nginx
:1、如果用户在页面上指定了匹配 nginx.p2、如果此时用户还设置了默认 Pipeline(default.p)
那么 Nginx 日志不会通过 nginx.p 来切割,而是用 default.p 来切割。这个设置是不合理的,调整之后的优先级如下(优先级递减):
1、观测云页面上指定
source
对应的 Pipeline2、在采集器中指定source
对应的 Pipeline3、source
取值能找到对应的 Pipeline(比如source
为my-app
的日志,在 Pipeline 对应的存放目录中能找到一个 my-app.p)4、最后再使用 default.p这样调整之后,能保证所有数据都能被 Pipeline 切割,至少有 default.p 来兜底。
评论