写点什么

用 eBPF/bcc 分析系统性能的一个简单案例

用户头像
AI乔治
关注
发布于: 2020 年 11 月 13 日
用eBPF/bcc分析系统性能的一个简单案例

bcc是eBPF的一种前端,当然这个前端特别地简单好用。可以直接在python里面嵌入通过C语言写的BPF程序,并帮忙产生BPF bytecode和load进入kernel挂载kprobe、tracepoints等上面执行。之后,还可以从python取出来C函数里面导出的maps数据以及per-event数据并进行打印。





我们特别看一下其中的bitehist.py例子:





上述程序通过kprobe截获了内核的blk_account_io_completion()函数,并将每个request的data_len转换为单位KBytes后,进行取对数,加入一个HISTOGRAM(属于maps中的一种),之后python会调用

b[“dist”].print_log2_hist(“kbytes”)

打印出这个hist图,从而可以给用户呈现出request磁盘请求的size分布情况:





另外一个经典的例子是通过kprobe截获函数的入口和返回点,得到函数的调用延迟:





上面的这个BPF C程序把在函数进入(kprobe)的时候,把当前时间加入一个start HASH(key是进程的pid,value是函数的开始时间),在函数出口的地方(kretprobe)通过start.loopup(&pid)取得函数入口时间,然后在函数出口的时候,把出口时间减去入口时间的结果求对数后放入一个HISTOGRAM。之后python可以获取这个HIST并打印:





这样可以呈现出延迟的热点分布。

anyway,了解了BPF c和python的语法后,这样的程序并不难写。但是,很多时候,其实我们并没有必要自己写代码,因为牛人们已经给我们写了很多现成的工具了。

比如,分析bio的延迟:





大量的延迟集中在512-1023和1024-2047之间。另外4096-8191也是这个multimodal延迟的另外一个热点。

这个东西就要比iostat命令更加细致靠谱一些,因为iostat命令只是简单地显示平均延迟啥的,并不显示延迟的分布情况,比如man iostat可以获知:

await - The average time (in milliseconds) for I/O requests issued to the device to be served. This includes the time spent by the requests in queue and the time spent servicing them.

但是,很多时候延迟呈现为一个multimodal的特点,会有多个峰值区域:





平均值,看起来,有时候没有那么accurate。比如一个班上的学生,平均分70分,但是无法呈现这个班的童鞋的如下特点:

  1. 有一堆差生都是30分左右

  2. 有一堆中等生都是60分左右

  3. 有一堆优等生都是90分左右

如果是HIST图的话,它的分布会类似:





看起来更加精确一些。

下面我们尝试用funclatency这个现成的工具来分析代码里面的usleep(100)究竟真正延迟多少,写一个最简单的应用程序,编译为a.out:





运行后,我们来得到usleep(100)调用内核do_nanosleep的真实延迟:





其实usleep(100)大面积集中在256-511us。所以,这个usleep(100)究竟有多准,天知道。



看完三件事❤️

如果你觉得这篇内容对你还蛮有帮助,我想邀请你帮我三个小忙:



  1. 点赞,转发,有你们的 『点赞和评论』,才是我创造的动力。

  2. 关注公众号 『 java烂猪皮 』,不定期分享原创知识。

  3. 同时可以期待后续文章ing🚀

本文来自:Linux阅码场,作者:宋宝华



用户头像

AI乔治

关注

分享后端技术干货。公众号【 Java烂猪皮】 2019.06.30 加入

一名默默无闻的扫地僧!

评论

发布
暂无评论
用eBPF/bcc分析系统性能的一个简单案例