写点什么

Week7 学习总结(性能测试、全链路压测、性能优化的基本原则等)

用户头像
星河寒水
关注
发布于: 2020 年 07 月 18 日
Week7学习总结(性能测试、全链路压测、性能优化的基本原则等)

性能测试

  • 性能测试是性能优化的前提和基础,也是性能优化结果的检查和度量标准。

  • 不同视角下的网站性能有不同的标准,也有不同的优化手段。

  • 主观视角:用户感受到的性能

  • 比如可以数据来多少就显示多少,虽然最后接收完成的时间比较长,但过程中不会出现无响应的情况降低用户体验

  • 客观视角:性能指标衡量的性能

性能测试指标

  • 不同视角下有不同的性能标准,不同的标准有不同的性能测试指标,网站性能测试的主要指标有响应时间、并发数、吞吐量、性能计数器等。

  • 响应时间

  • 指应用系统从发出请求到收到最后响应数据所需要的时间。

  • 响应时间是系统最重要的性能指标,直观的反映了系统的“快慢”。

  • 并发数

  • 系统能够同时处理请求的数目,这个数字也反映了系统的负载特性。

  • 对于网站而言,并发数即系统并发用户数,指同时提交的用户数目

  • 于此对应,还有

  • 在线用户数(当前登录系统的用户数)

  • 系统用户数(可能访问系统的总用户数)

  • 吞吐量

  • 指单位时间内系统处理的请求的数量,体现了系统的处理能力

  • 对于网站可以用“请求数/秒”或是“页面数/秒”来衡量,也可以用“访问人数/天”或是“处理业务数/小时”等来衡量

  • TPS(每秒事务数)

  • HPS(每秒HTTP请求数)

  • QPS(每秒查询数)

  • 吞吐量=(1000 / 响应时间ms)x 并发数

  • 性能计数器

  • 描述服务器或操作系统性能的一些数据指标

  • 包括System Load、对象与线程数、内存使用、CPU使用、磁盘与网络I/O等指标。

  • 这些指标也是系统监控的重要参数,对这些指标设置报警阈值,当监控系统发现性能计数器超过阈值的时候,就向运维和开发人员报警,及时发现处理系统异常。

  • 性能测试方法

  • 性能测试

  • 以系统设计初期规划的性能指标为预期目标,对系统不断施加压力,验证系统在资源可接受范围内,是否能达到性能瓶颈。

  • 负载测试

  • 对系统不断地增加并发请求以增加系统压力,直到系统的某项或多项性能指标达到安全临界值,如某种资源已经呈饱和状态,这时候继续对系统施加压力,系统的处理能力不但不能提高,反而会下降。

  • 压力测试

  • 超过安全负载的情况下,对系统继续施加压力,直到系统崩溃或不能再处理任何请求,以此获得系统最大压力承受能力。

  • 稳定性测试

  • 被测试系统在特定硬件、软件、网络环境条件下,给系统加载一定业务压力,使系统运行一段较长时间,以此检测系统是否稳定。

  • 在生产环境,请求压力是不均匀的,呈波浪特性

  • 为了更好地模拟生产环境,稳定性测试也应不均匀地对系统施加压力。

  • 并发数与TPS关系、并发数与响应时间关系



  • [a,b)区间:可以认为服务器较多,资源较多,请求的响应时间基本是不变的,所以此区间可认为TPS是随着并发数的增加而线性增加的。

  • b点:刚好服务器数量合适,资源刚好够用,请求的响应时间也基本不变,是最佳运行点

  • (b,c)区间:服务器资源开始不够使用,请求的响应时间增加,但还是能够对每个请求进行处理,不会丢失响应。

  • [c,d]区间:c点之后,服务器资源随着并发数的增加已严重不足,请求响应时间急剧增加,新的请求得不到及时处理导致超时或无响应等结果,d点时请求响应时间已无限大,服务器完全无响应,认为此时系统已崩溃。

如何选择运行点?

  • 如果认为安全性比较重要,而且成本不是问题,则建议在[a,b]区间运行,在软件架构没问题的情况下随着服务器资源增多,TPS是随着并发数线性增加的,自然能够应对更大程度TPS激增场景,而不会使系统处于崩溃的边缘

  • 如果安全性不是那么重要或者成本受限,则选择在[b, c]区间运行,相应的系统很可能会轻易地达到最大负载点而导致系统开始丢失响应,这是必须要考虑清楚的



全链路压测

  • 指的是在特定的业务场景下,将相关的链路完整的串联起来同时施压,尽可能模拟出真实的用户行为。

  • 当系统整站流量都被打上来的时候,必定会暴露出性能瓶颈,才能够探测出系统整体的真实处理能力,以及有指导的在大促前进行容量规划和性能优化,这便是线上实施全链路压测的真实目的。

全链路压测的挑战

  • 压测相关的业务系统上众多,并且牵涉到整条链路上所有的基础设施和中间件,如何确保压测流量能够畅通无阻,没有死角?

  • 压测的数据怎么构造(亿万级的商品和用户),数据模型如何与真实贴近?

  • 全链路压测直接在线上的真实环境进行模拟,怎么样来保障对线上无影响?

  • 大型促销活动所带来的巨大流量要怎么样制作出来?

数据隔离

  • 逻辑隔离

  • 直接把测试数据和正常数据写到一起,通过特殊的标识能够区分开

  • 可能污染线上数据,破坏线上数据安全性

  • 虚拟隔离

  • 在所有写数据的地方做mock,并不真正的写进去

  • 这个方案不会对线上产生污染,但是mock对压测结果的准确性会产生干扰

  • 物理隔离

  • 所有写数据的地方对压测流量进行识别,判断一旦是压测流量的写,就写到隔离的位置,包括存储、缓存、搜索引擎等等

流量构造

  • 压测管控台

  • master

  • 管理上千个slave节点

  • 负责整个平台的运转控制、命令发送、数据收集、决策等

  • 压测引擎

  • slave

  • 部署在全球各地的cdn节点

  • 负责模拟从全球各地过来的用户请求

全链路压测平台化

  • 压测资源池子

  • CDNs

  • 引擎分组

  • CDNs

  • 需求绑定

  • 压测需求

  • 业务方

  • PE

软件性能优化的两个基本原则

  • 你不能优化一个没有测试的软件

  • 你不能优化一个你不了解的软件

性能优化的一般方法

  • 性能测试,获得性能指标

  • 指标分析,发现性能与资源瓶颈点

  • 架构与代码分析,寻找性能与资源瓶颈关键所在

  • 架构与代码优化,优化关键技术点,平衡资源利用

  • 性能测试,进入性能优化闭环

系统性能优化的分层思想

  • 机房与骨干网络性能优化

  • 异地多活的多机房机构

  • 专线网络与自主CDN建设

  • 服务器与硬件性能优化

  • 使用更优的CPU,硬盘(SSD优于HDD),内存,网卡





  • 对软件的性能优化可能是数量级的,有时候远远超过代码和架构的性能优化

  • 案例

  • Spark作业过程需要传输大量数据,进行资源瓶颈分析,发现大量时间消耗在网络传输上。

  • 优化方案:升级网卡,10G网卡代替1G网卡

  • 操作系统性能优化

  • 案例

  • 资源利用分析,发现大量CPU操作为sys类型,消耗大量计算资源

  • 调查发现,起因是部分Linux版本缺省情况打开transparent huge page导致

  • 优化方案:关闭transparent huge page

  • 虚拟机性能优化

  • GC Thread时间分散成小段

  • 基础组件性能优化

  • 升级所使用的基础软件版本或替换成其他的基础软件,有时可能性能提升4倍

  • 软件架构性能优化

  • 缓存

  • 从内存获取数据,减少响应时间

  • 减少数据库访问,降低存储设备负载压力

  • 缓存结果对象,而不是原始数据,减少CPU计算

  • 缓存主要优化读操作(不能是写多读少的场景,一般读写比在2:1以上,缓存才有意义)

  • 异步

  • 即时响应,更好的用户体验

  • 控制消费速度,合适的负载压力

  • 异步主要优化写操作

  • 措施

  • 添加消息队列服务器

  • 集群

  • 古老谚语

  • 如果一匹马拉不动车,无需换一匹更强的马,而是用两匹马拉车

  • 更多的用户访问需要消耗更多的计算资源,单一服务器计算资源的增加是有极限的,所以需要增加更多的服务器。关键是如何利用起来这些服务器。

  • 集群技术目标只有一个

  • 如何使很多台服务器对使用者而言看起来像一台服务器

  • 软件代码性能优化

  • 遵循面向对象的设计原则与设计模式编程,很多时候程序性能不好不是因为性能上有什么技术挑战,仅仅就是因为代码太烂了。

  • 并发编程,多线程与锁

  • 资源复用,线程池与对象池

  • 异步编程,生产者消费者

  • 数据结构,数组、链表、hash表、树

  • 优化案例

  • Spark任务文件初始化调优

  • 资源分析,发现第一个stage时间特别长,耗时长达14s,CPU和网络通信都有一定开销,不符合应用代码逻辑

  • 打开Spark作业log,分析这段时间的Spark运行状况

  • 根据log分析结果,阅读Spark相关源码

  • 发现Spark在任务初始化加载应用代码的时候,每个Executor都加载一次应用代码,当时每台服务器最多可启动48个Executor,每个应用代码包17M大小,导致网络通信加载开销巨大

  • 优化方案

  • Executor加载应用程序包启用本地文件缓存模式。[SPARK-2713]

  • 优化效果

  • Stage1运行时间从14s下降不到1s

程序运行时架构

  • 程序是静态的

  • 程序运行起来后,被称作进程

操作系统多任务运行环境

  • 单台计算机的CPU核心数是有限的。但是,服务器可以同时处理数以百计甚至数以千计的并发用户请求。

  • 计算机如何做到?

  • 进程分时执行

进程的运行期状态

  • 运行

  • 当一个进程在CPU上运行时,则称该进程处于运行状态

  • 处于运行状态的进程的数目≤CPU的核心数

  • 就绪

  • 当一个进程获得了除CPU以外的一切所需资源,只要得到CPU即可运行,则称此进程处于就绪状态,就绪状态有时候也被称为等待运行状态

  • 阻塞

  • 也称为等待或睡眠状态

  • 当一个进程正在等待某一事件发生(例如等待I/O完成,等待锁...)而暂时停止运行,这时即使把CPU分配给进程也无法运行,故称该进程处于阻塞状态

进程VS线程

  • 不同进程轮流在CPU上执行,每次都要进行进程间CPU切换,代价非常大。因此服务器应用通常是单进程多线程。

  • 进程从操作系统获得基本的内存地址空间,所有的线程共享着进程的内存地址空间。而每个线程也会拥有自己私有的内存地址范围,其他线程不能访问。

线程栈

int g(int x){
return x + 1;
}
void f(){
int x = g(1);
x++; //g函数返回,当前堆栈顶部为f函数栈帧,在当前栈帧继续执行f函数的代码。
}



Java Web应用多线程运行时视图

线程安全

  • 当某些代码修改内存堆(进程共享内存)里的数据的时候,如果有多个线程在同时执行,就可能会出现同时修改数据的情况

  • 比如,两个线程同时对一个堆中的数据执行+1操作,最终这个数据只会被加一次,这就是人们常说的线程安全问题,实际上线程的结果应该是依次+1,即最终结果应该是+2

临界区

  • 多个线程访问共享资源的这段代码被称为临界区,解决线程安全问题的主要方法是使用锁,将临界区的代码加锁,只有获得锁的线程才能执行临界区代码

lock.lock(); // 线程获得锁
i++; // 临界区代码,i位于堆中
lock.unlock(); // 线程锁释放

阻塞导致高并发系统崩溃

  • 锁(IO)会引起线程阻塞,阻塞导致线程既不能继续执行,也不能释放资源,进而导致资源耗尽,最终导致系统崩溃。

避免阻塞引起的崩溃

  • 限流

  • 控制进入计算机的请求数,进而减少创建的线程数

  • 降级

  • 关闭部分功能程序的运行,尽早释放线程

  • 避免阻塞

  • 异步I/O

  • 无临界区(Actor模型)

锁原语CAS

  • CAS(V,E,N)

  • V表示要更新的变量

  • E表示预期值

  • N表示新值

如果V值=E值,则将V值设为N

如果V值≠E值,则什么都不做

  • CAS是一种系统原语,原语的执行必须是连续的,在执行过程中不允许被中断

偏向锁 轻量级锁 重量级锁

  • 偏向锁

  • 指一段同步代码一直被一个线程所访问,那么该线程会自动获取锁,降低获取锁的代价

  • 轻量级锁

  • 指当锁是偏向锁时,被另一个线程所访问,偏向锁就会升级为轻量级锁,其他线程会通过自旋的形式尝试获取锁,不会阻塞,提高性能

  • 重量级锁

  • 指当锁是轻量级锁时,另一个线程虽然自旋,但自旋不会一直持续下去,当自旋到一定次数时,还没获取到锁,就会进入阻塞,该锁膨胀为重量级锁,重量级锁会让其他申请的线程进入阻塞,性能降低

多CPU情况下的锁

总线锁与缓存锁

  • 总线锁

  • 使用处理器的LOCK#信号,当一个处理器在内存总线上输出此信号的时候,其他处理器的请求将被阻塞,该处理器独占内存

  • 缓存锁

  • 指内存区域如果被缓存在处理器的缓存行中,并且在Lock操作期间被锁定,那么当它执行锁操作回写到内存时,处理器不在总线上声言LOCK#信号,而是修改内部的内存地址,并允许它的缓存一致性机制来保证操作的原子性,因为缓存一致性机制会阻止同时修改由两个以上处理器缓存的内存区域数据,当其他处理器回写已被锁定的缓存行数据时,会使缓存行无效

公平锁 非公平锁

  • 公平锁

  • 多个线程按照申请锁的顺序来获取锁

  • 非公平锁

  • 多个线程获取锁的顺序并不是按照申请锁的顺序,有可能后申请的线程比先申请的线程优先获取锁,可能会造成饥饿现象

可重入锁

某个线程已经获得某个锁,可以再次获取锁而不会出现死锁

独享锁/互斥锁 共享锁 读写锁

  • 独享锁/互斥锁

  • 该锁一次只能被一个线程所持有

  • 共享锁

  • 该锁可以被多个线程所持有

  • 读写锁

  • 多个线程之间并不互斥,而写线程则要求与任何线程互斥

乐观锁 悲观锁

  • 乐观锁

  • 认为对于同一个数据的并发操作,是不会发生修改的

  • 在更新数据的时候,检查是否已经被修改过,若修改过,就放弃

  • 悲观锁

  • 认为对于同一个数据的并发操作,一定是会发生修改的,哪怕没有修改,也会认为修改

  • 因此对于同一个数据的并发操作,悲观锁采取加锁的形式。悲观的认为,不加锁的并发操作一定会出问题

分段锁

分段锁的设计目的是细化锁的粒度,当操作不需要更新整个数组的时候,就仅仅针对数组的一段进行加锁操作。

JDK ConcurrentHashMap是通过分段锁的形式来实现高效并发操作的。

自旋锁

自旋锁是指尝试获取锁的线程不会立即阻塞,而是采用循环的方式去尝试获取锁,这样的好处是减少线程上下文切换的消耗,缺点是循环会消耗CPU。

用户头像

星河寒水

关注

还未添加个人签名 2018.09.17 加入

还未添加个人简介

评论

发布
暂无评论
Week7学习总结(性能测试、全链路压测、性能优化的基本原则等)