异数OS TCP协议栈测试(三)--长连接篇
本文来自异数OS社区
github:
异数OS社区QQ群: 652455784
异数OS-织梦师(消息中间件)群: 476260389
异数OS TCP长连接技术简介
说起长连接,则首先要谈对C10K的理解与认识,异数OS认为传统系统中C10K问题主要如下:
1. 传统OS 线程切换代价很大,线程资源有限(500以上可用性降低),这使得多线程阻塞IO性能达到1W时,线程切换将占满系统负载,应用并发session数量则被系统线程数量约束,但多线程阻塞IO这种模式对应用逻辑设计而言却是天然简单友好靠谱的,而异数OS线程切换能力为80M, 1亿线程4G内存,也不会降低太多线程切换能力以及IO能力, 所以使用这种方案。
2. 为了避免线程切换以及线程资源不够带来的问题,主流操作系统使用队列技术(iocp epoll)来批量成倍提升IO性能,每次线程切换完成10个甚至数百个IO操作或者event推送,使用异步技术来让单个线程管理多个session的能力,所以表面上看提高了并发容量,但这类技术却大大降低了并发质量反而造成了更严重的C10K问题,使用这一技术,每个链接必须要提供中间传输缓存,链接多了后,IO需求大时,队列会很长,延迟会很高,加重了系统负担,由于这类技术都是非阻塞异步IO,不能较好的阻塞session应用逻辑,因此无法为每链接做可靠的业务流程控制以及QOS控制,链接多了,就会有饿死的链接,出现大量错误IO,相对多线程阻塞IO模式,雪崩问题更加严重。
3. TCP协议栈没有为海量链接做优化,其常见的流控拥塞算法都只针对链接自身的IO性能,并不考虑上层应用实际需求,以及其他链接的IO需求,在这种情况下TCP检查网络拥塞的算法将没有任何意义,实际测试发现如果每链接IO不做控制,1000链接都很难上去,正确的做法是将拥塞控制算法提高到系统层以及应用层由系统QOS任务调度以及应用需求共同来实现。
4. 协议栈中间缓存太多,拷贝动作较多,传统OS每链接协议栈需要4K以上内存,实做一个1000W链接的系统一般要60G内存起步,这直接增加了系统负载,降低了系统可用性。
5. 协议栈IO性能不足,由于传统操作系统IO性能约束,实做的协议栈只能提供10-40W的IO性能,并且不能多核扩充,IO过载时会,协议栈会出现无响应丢包现象,丢包后协议栈性能需求会更高,能提供的IO性能会大大降低,如果应用不能适应这种IO性能变化,将会制造更多的中间缓存,导致雪崩,在这样的情况下,做1000W链接的应用可用性会受到极大的限制,比如微信使用这一类技术就只能用于心跳链接活跃检查。
一些号称实做了C10M的技术方案从本质上没有解决上述问题,仅仅靠硬件技术堆硬件配置来表面实现,但实际上却没有任何可用性。
异数OS TCP长连接技术演变
2015年,异数OS考虑开始使用海量线程同步阻塞IO的方案来解决iocp不能做QOS,队列过长的问题,异数OS使用任务调度来控制每链接的IO提交性能需求,并智能感知雪崩情况的发生,动态控制IO性能以及应用提交的中间缓存规模,从而减少了中间缓存开销,降低了海量并发下iocp队列深度,降低对宿主操作系统的负载压力,从而实现了1000W链接12W的消息推送性能。
2017年,由于发现宿主操作系统协议栈的能力约束,异数OS决定抛弃宿主操作系统协议栈,以及IO技术,开始自主研发TCP协议栈,实做0中间缓存,1次中间拷贝的技术,从而达到每链接300字节占用,并发容量相对异数OS 2015,提高15倍,IO性能提升100倍,且可以多核扩充,大大提高了海量并发环境的系统可用性。
测试目标
TCP 长链接IO性能测试,Client Server都采用单线程半双工模式,创建600W客户端(本机测试相当于1200W链接),链接服务端后做循环ECHO,测试ECHO IO性能,IO延迟,每链接性能稳定性。
基本测试环境
VMware 12
异数OS宿主操作系统 debian 8 64位
CPU : NUC i3 2.6G 双核
内存:5GB
相关参数
1. 带包头200字节负载,不带crc checksum, 无丢包,无硬件延迟情况。
2. TCP协议栈使用均衡IO调度策略。
测试方案一 (单核)
在同一个CPU核上创建Server,600W个Client, 以太层使用异数OS软件交换机本地核定向转发。
启动前期:
启动后期(2个多小时后):
总计ECHO IOPS 为2.3M ,软件交换机包交换能力9Mpps,由于Client占用60%的负载,软件交换机占用20%负载,所以预计真实环境中最大可达到6.0M左右的ECHO能力,IO延迟方面,在系统启动阶段由于大量链接的建立,每链接IO需求不稳定,系统QOS IO均衡并没有显著的发生作用,平均延迟达到了2秒,一些链接任然有饥饿现象,出现上百秒才响应的情况,在稳定链接后期,每链接IO需求稳定后,IO延迟下降,饥饿现象得到缓解,但还是有10s延迟的链接出现。
总结
由于只使用了TCP协议栈的任务均衡调度控制方案,因此每链接IO质量在应用负载不均的情况下还是不能得到及早的控制,这个问题后面会由应用系统的QOS来解决,比如mqtt等专业的APP QOS控制,下面是几种主流系统的海量链接平台能力性能对比,数据来自官网以及第三方测试,可比性可能不高,但也可做参考估算,读者如有其他海量并发的技术测试也欢迎提供
对比项目 | 异数OS 2018 | 异数OS 2015+Win7 | 异数OS 2015+Win10 | 360push | |
CPU占用数量 | 1 | 16 | 16 | 24 | 12 |
内存占用 | 4G | 64G | 64G | 256G | 128G |
实现的链接数 | 1200W | 1000W | 300W | 100W | 300W |
使用的技术平台 | 寄宿Linux下+异数自主协议栈 | 寄宿win下+iocp | 寄宿win下+iocp | Go+epoll | Erlang+epoll |
测试内容 | ECHO 推拉 | 仅推 | 仅推 | 仅推 | 仅推 |
推送性能 | 4.5M | 12W | 40W | 2W | 12W |
折算的IO性能 | 9M | 12W | 40W | 2W | 12W |
已知问题 | 缺乏经费支持 | 缺乏经费支持 | 缺乏经费支持 | 容易宕机,要反复重启 | 特制应用平台,不同用。 |