写点什么

Golang Profiling: 关于 pprof

用户头像
hedzr
关注
发布于: 2021 年 06 月 05 日
Golang Profiling: 关于 pprof

性能测试和性能分析从来都不分家。

所以在补发了一组 Golang 测试相关的旧文章之后,再将 pprof 的一篇内容加进来。这样这组文章也算勉强可成小小系列——在我的博客上它们就散布、混杂在较长时间线里,有点儿乱。


golang 自身提供的工具中包括性能分析工具 - pprof。这个工具被实现在两个位置:


  • runtime/pprof:采集器,负责采集应用程序的运行数据供给 pprof 可视化工具

  • net/http/pprof:通过一个 HTTP Server 将 prof 数据进行可视化分析。


golang 内建提供了多种性能收集器,它们负责收集这些性能数据:


  • Goroutine: stack traces of all current Goroutines。Go Routine 分析。

  • CPU: stack traces of CPU returned by runtime。CPU 分析。

  • Heap: a sampling of memory allocations of live objects。内存分析,堆分配情况以及内存泄漏等。

  • Allocation: a sampling of all past memory allocations。内存分析,对象分配统计以及内存泄漏等。

  • Thread: stack traces that led to the creation of new OS threads。OS 线程创建情况。

  • Block: stack traces that led to blocking on synchronization primitives。阻塞分析。记录 go routine 阻塞情况,等待以及同步情况,timer/channel 通讯等各项细节。

  • Mutex: stack traces of holders of contended mutexes。互斥锁分析。包括各种竞争情况。

在 app 中收集性能数据

当我们需要针对一个 app 进行性能分析时,首先的问题是如何收集性能数据。在 golang 中,上面提到的性能数据可以通过几种方式来收集:

go test 方式

go test 方式可以无侵入地从你的 app 中收集性能数据,你可以使用这样的命令行:


go test -cpuprofile cpu.prof -memprofile mem.prof -bench .
复制代码


由于我们被约定通过 benchmark 测试方式来测试 app 的运行性能,所以上面的命令行是发起 benchmark 测试的。但是你也可以采用 coverage 测试方式来做:


go test . -v -race -coverprofile=coverage.txt -covermode=atomic -timeout=20m -test.short -cpuprofile cpu.prof -memprofile mem.prof | tee coverage.loggo tool cover -html=coverage.txt -o cover.html
复制代码


无论采用哪一种 go testing 手段,你都可以加入命令行参数来收集性能数据。


可用的命令行选项有:


  • -memprofile mem.prof

  • -memprofilerate 4096

  • -cpuprofile cpu.prof

  • -blockprofile block.prof

  • -blockprofilerate 4096

  • -mutexprofile mutex.prof

  • -mutexprofilefraction 1

  • -trace trace.out


也可以查阅源码:src/testing/testing.go - The Go Programming Language

web 应用类

对于 Webapp 应用类,或者系统服务类等持续性工作的 app,我们可以做实时的性能数据分析,也即 live profile download 或者 live profiling。


最简单的方法是嵌入 "net/http/pprof" 包,当你使用标准的 DefaultServeMux 方式来启动 http 服务时,什么都不必做:


package main
import ( "net/http" _ "net/http/pprof")
func main() { http.ListenAndServe(":8080", nil)}
复制代码


"net/http/pprof" 包将会自动地添加一组 api 端点,该包的 init 函数会做这些事:


func init() {  http.HandleFunc("/debug/pprof/", Index)  http.HandleFunc("/debug/pprof/cmdline", Cmdline)  http.HandleFunc("/debug/pprof/profile", Profile)  http.HandleFunc("/debug/pprof/symbol", Symbol)  http.HandleFunc("/debug/pprof/trace", Trace)}
复制代码


所以你的 HTTP 服务器自动拥有上面这些端点。那么接下来你可以通过浏览器直接访问上述端点,也可以让 pprof 使用这些端点来进行交互式分析:


go tool pprof http://localhost:8080/debug/pprof/heap> top...> exit
复制代码


关于进一步的说明要在后续章节中详细剖析,详见 []。


如果你没有采用默认的 DefaultServeMux 方式,那就需要手动地链接端点到你的 mux。例如对于 gin 来说,可能会是这样:


r := gin.Default()r.GET("/debug/pprof/allocs", WrapH(pprof.Handler("allocs")))r.GET("/debug/pprof/block", WrapH(pprof.Handler("block")))r.GET("/debug/pprof/goroutine", WrapH(pprof.Handler("goroutine")))r.GET("/debug/pprof/heap", WrapH(pprof.Handler("heap")))r.GET("/debug/pprof/mutex", WrapH(pprof.Handler("mutex")))r.GET("/debug/pprof/threadcreate", WrapH(pprof.Handler("threadcreate")))r.Run(":8080")
func WrapH(h http.Handler) gin.HandlerFunc { return func(c *gin.Context) { h.ServeHTTP(c.Writer, c.Request) }}
复制代码

一般应用程序

如果你的 app 并非持续性 web 服务,那么也可以通过 runtime/pprof 包来手工插入 prof 专用代码到应用程序中,然后在运行结束后拿着产生的 cpu.prof 或 mem.prof 等数据收集文件到 pprof 中进行分析。

借助于 pkg/profile

这里有一个简单的应用程序:


package main
import ( "fmt" "github.com/pkg/profile")
func main(){ defer profile.Start(profile.ProfilePath(".")).Stop() a()}
func a(){ for i:=0;i<10000; i++{ fmt.Print(".") } fmt.Println()}
复制代码


它简单地收集 cpu 数据产生 cpu.prof 文件,你可以直接分析该文件:


go tool pprof -http=:6060 cpu.prof
复制代码


你还可以收集其他数据,这需要在 main 函数的开头加入这些调用:


// CPUProfile enables cpu profiling. Note: Default is CPUdefer profile.Start(profile.CPUProfile).Stop()
// GoroutineProfile enables goroutine profiling.// It returns all Goroutines alive when defer occurs.defer profile.Start(profile.GoroutineProfile).Stop()
// BlockProfile enables block (contention) profiling.defer profile.Start(profile.BlockProfile).Stop()
// ThreadcreationProfile enables thread creation profiling.defer profile.Start(profile.ThreadcreationProfile).Stop()
// MemProfile changes which type of memory profiling to // profile the heap.defer profile.Start(profile.MemProfile).Stop()
// MutexProfile enables mutex profiling.defer profile.Start(profile.MutexProfile).Stop()
复制代码


但一次只能加入一种性能数据的调用。如果你想要同时添加多种,需要这样做调用:


defer profile.Start(profile.MutexProfile, profile.MemProfile).Stop()
复制代码


此方法可以继续延展,因为 Start(...) 采用了 Options Pattern。


不过,如果你想要更多定制特性时,或许不得不通过 runtime/pprof 自行编码以便支持个性化选项。

自行编码

这里有一个简单的 demo 程序,向你展示了怎么进行定制性编码来收集性能数据,你可以在此基础上进一步地改善它:


package main
import ( "fmt" "github.com/hedzr/log" stdLog "log" "os" "runtime" "runtime/pprof" "sync")
func main() {
if cpuProfile != "" { defer enableCpuProfile(cpuProfile)() } if memProfile != "" { defer enableMemProfile(memProfile)() }
var wg sync.WaitGroup wg.Add(1) go a(&wg) wg.Add(1) go b(&wg) wg.Wait()}
func a(wg *sync.WaitGroup) { for i := 0; i < 10000; i++ { fmt.Print(".") } fmt.Println() wg.Done()}
func b(wg *sync.WaitGroup) { for i := 0; i < 10000; i++ { fmt.Print("_") } fmt.Println() wg.Done()}
var cpuProfile, memProfile string
func init() { stdLog.SetFlags(stdLog.LstdFlags | stdLog.Llongfile) cpuProfile, memProfile = "cpu.prof", "mem.prof"}
//// And review the pprof result in a web ui://// go tool pprof -http=:8555 ./cpu.pprof//// Now you can open 'http://localhost:8555/ui' in a browser//func enableCpuProfile(cpuProfilePath string) (closer func()) { closer = func() {} if cpuProfilePath != "" { f, err := os.Create(cpuProfilePath) if err != nil { log.Fatal("could not create cpu profile: %v", err) } err = pprof.StartCPUProfile(f) if err != nil { log.Fatal("error: %v", err) } closer = pprof.StopCPUProfile } runtime.SetBlockProfileRate(20) return}
func enableMemProfile(memProfilePath string) (closer func()) { closer = func() {} if memProfilePath != "" { closer = func() { f, err := os.Create(memProfilePath) if err != nil { log.Fatal("could not create memory profile: ", err) } defer f.Close() runtime.GC() // get up-to-date statistics if err := pprof.WriteHeapProfile(f); err != nil { log.Fatal("could not write memory profile: ", err) } } } return}
复制代码


以上

cmdr 集成

hedzr/cmdr (v1.7.46+) 中,我们提供了完整的附加包 pprof 来简化一般应用程序集成 go tool pprof 的简便方案。如果你正在利用 cmdr 进行命令行应用程序的开发,那么简单地:


package main
import ( "github.com/hedzr/cmdr" "github.com/hedzr/cmdr/plugin/pprof" "github.com/hedzr/log" "github.com/hedzr/logex/build" "gopkg.in/hedzr/errors.v2")
func main() { Entry() }
func Entry() { if err := cmdr.Exec(buildRootCmd(), cmdr.WithLogx(build.New(build.NewLoggerConfigWith(true, "logrus", "debug"))), pprof.GetCmdrProfilingOptions(), ); err != nil { log.Fatalf("error occurs in app running: %+v\n", err) }}
func buildRootCmd() (rootCmd *cmdr.RootCommand) { root := cmdr.Root(appName, cmdr.Version). Copyright(copyright, "hedzr"). Description(desc, longDesc). Examples(examples) rootCmd = root.RootCommand()
cmdr.NewBool(false). Titles("enable-ueh", "ueh"). Description("Enables the unhandled exception handler?"). AttachTo(root)
//pprof.AttachToCmdr(root.RootCmdOpt()) return}
复制代码


你可以如 Line 17 那样简单地集成 pprof 附加包,也可以像 Line 35 那样将其明确地附着在 root 上。它会为你提供一组命令行参数,如 -ep 等等:



对于这样的应用程序,可以简单地启用 profiling 和 pprof:


app -epapp --pprofapp --enable-profile
复制代码


默认情况下,它会产生 cpu.prof, mem.prof 等几个性能数据文件。如果你认为有必要改变要收集的性能数据类别,可以这样调用:


pprof.GetCmdrProfilingOptions("cpu", "mem", "mutex", "block", "thread-create", "trace", "go-routine"),// Orpprof.AttachToCmdr(root.RootCmdOpt(), "cpu", "mem", "mutex", "block", "thread-create", "trace", "go-routine")
复制代码


我们当然会强烈推荐你采用 cmdr 来简化 profiling 集成工作,而且不仅仅是对此的简化,也包含更多的 CLI 辅助特性。

可视化工具 pprof

一般来说我们有两种方式来启动 pprof 可视化工具:直接运行,或者编写一小段代码来启动。


无论你通过哪种方式获得了 prof 数据,你都可以简单地以其为待分析数据直接启动可视化工具:


go tool pprof -http=:6060 cpu.prof
复制代码

使用 pprof 命令行工具

pprof 有独立的命令行工具,你可以这样安装它:


go get -u github.com/google/pprof
复制代码


这条命令会拉取 pprof 的源代码编译为命令行执行文件 pprof 并放在 $GOPATH/bin 中,它需要你有完整的 golang 编译环境(这当然不必赘述了)。


尽管如此,这个独立的命令行工具其实和 go tool pprof 是没有任何区别的。所以假设我们有获得 prof 数据,那么以下方式都可以启动可视化工具:


pprof -http=:6060 cpu.profgo tool pprof -http=:6060 cpu.prof
复制代码

生成报告

在 pprof 交互模式中,可以使用 pdf 命令生成报告。

通过 TTY 交互终端

如果没有指定 -web 或者 -http 参数,则 pprof 会进入交互模式。

查看实时数据

如果你的 app 是 http 服务类型的,并且嵌入了 "net/http/pprof" 包,那么一系列端点(/debug/pprof/*)就是可用的,此时可以直接从对应端点下载性能数据并在交互模式中供你分析:


go tool pprof 'http://localhost:6060/debug/pprof/profile?seconds=30'(pprof) top
复制代码


但实际上你往往可以直接在浏览器中打开这些端点以便直接观察性能数据的快照。


在交互模式中,这些命令很常用:

q/exit/quit

退出交互模式,返回 Shell 命令行界面。

tree

显示调用结构的文字版本。


top

显示耗时前几名。可以加上数字,例如 top5, top10,还可以附加参数 -cum 按照 cumulative 累积时间排序,这个参数常常很有用地帮助你展示出调用序列。


list

List 命令显示指定的包中指定的函数的性能数据。


peek

peek 命令和 list 相似,但你可以在这里指定一个模糊的关键字,例如:


通过浏览器查看

当使用浏览器方式查阅 cpu 性能数据时,我们可以通过 pprof 的 web 界面查看多种视图。

top view


此视图较为简单,但由于 go 核心调用以及系统调用的比重较大,所以你需要耐心排除它们,然后才能找到业务逻辑的 topN。


如果你想要更好的检索 topN,可以通过交互方式直接执行 top10 -cumtop5 -cum 命令,或者在 web 视图中点击表头 cum 重新排序,此时业务代码通常会被优先排列。

Grpah 视图


Grpah 视图是按照 app 执行顺序排列的,几乎等价于流程图。此视图中字体越大代表着耗时越多。

Flame Graph 视图


火焰图也是按照执行顺序从上向下排列的,其中一个函数的宽度占比代表了其耗时比例,越宽则耗时越多,所以简单看的话能看清函数签名的就是耗时多的。但是由于程序结构(例如 goroutine,timerproc 等)的多样性,这样的简单判断并不确切。在大型程序中你需要仔细地排除杂音,正确地 REFINE 之后才能得到有价值的性能判定。

Peek 视图


Peek 视图以文字表格的形式列出耗时统计表,你可以对其做筛选。

Source View


Source view 可以列出函数调用的源代码。为了让此视图正确显示,你需要使用 go tool pprof 版本,命令行的 pprof 版本有可能不能呈现源码。此外,在加载视图时必须添加你的 app 的可执行文件:


go tool pprof -http :6060 bin/mdx-cli ref/cpu.prof
复制代码

Disassemble View


和 Source view 差不多,只不过显示的是汇编代码。

如何分析 pprof 性能数据

这是一个很难解说的话题。


一般来说,多数性能数据你可以望文生义。


如何筛选、如何聚焦可以借助 pprof 的 web 界面进行正则式筛选。


更详细的参考说明需要直接查看 Profiling Go Programs - The Go Blog


如何定位不良代码则需要长期的调试经验。

:end:

发布于: 2021 年 06 月 05 日阅读数: 29
用户头像

hedzr

关注

还未添加个人签名 2020.05.12 加入

https://hedzr.com

评论

发布
暂无评论
Golang Profiling: 关于 pprof