实例解析网络编程中的另类内存泄漏

x33g5p2x  于2022-04-08 转载在 其他  
字(9.9k)|赞(0)|评价(0)|浏览(540)

本文分享自华为云社区《【网络编程开发系列】一种网络编程中的另类内存泄漏》,作者:架构师李肯。

1 写在前面

最近在排查一个网络通讯的压测问题,最后发现跟“内存泄漏”扯上了关系,但这跟常规理解的内存泄漏有那么一点点不同,本文将带你了解问题的始与末。

面对这样的内存泄漏问题,本文也提供了一些常规的分析方法和解决思路,仅供大家参考,欢迎大家指正问题。

2 问题描述

我们直接看下测试提供的issue描述:

简单来说,就是设备再执行【断网掉线-》重新联网在线】若干次之后,发现无法再次成功联网,且一直无法成功,直到设备重启后,恢复正常。

3 场景复现

3.1 搭建压测环境

由于测试部有专门的测试环境,但是我又不想整他们那一套,麻烦着,还得整一个测试手机。

他们的测试方法是使用手机热点做AP,然后设备连接这个AP,之后在手机跑脚本动态开关Wi-Fi热点,达到让设备掉网再恢复网络的测试目的。

有了这个思路后,我想着我手上正好有一个 随身移动Wi-Fi,不就恰好可以实现无线热点吗?只要能实现在PC上动态切换这个360Wi-Fi热点开关,不就可以实现一样的测试目的吗?

具备以上物理条件之后,我开始找寻找这样的脚本。

要说在Linux下,写个这样的脚本,真不是啥难事,不过,要是在Windows下写个BAT脚本,还真找找才知道。

费了一会劲,在网上找到了一个还算不错的BAT脚本,经过我修改后,长以下这样,主要的功能就是定时开关网络适配器。

  1. @echo off
  2. :: Config your interval time (seconds)
  3. set disable_interval_time=5
  4. set enable_interval_time=15
  5. :: Config your loop times: enable->disable->enable->disable...
  6. set loop_time=10000
  7. :: Config your network adapter list
  8. SET adapter_num=1
  9. SET adapter[0].name=WLAN
  10. ::SET adapter[0].name=屑薪鈺犘も晲协
  11. ::SET adapter[1].name=屑薪鈺犘も晲协 2
  12. :::::::::::::::::::::::::::::::::::::::::::::::::::::::
  13. echo Loop to switch network adapter state with interval time %interval_time% seconds
  14. set loop_index=0
  15. :LoopStart
  16. if %loop_index% EQU %loop_time% goto :LoopStop
  17. :: Set enable or disable operation
  18. set /A cnt=%loop_index% + 1
  19. set /A result=cnt%%2
  20. if %result% equ 0 (
  21. set operation=enabled
  22. set interval_time=%enable_interval_time%
  23. ) else (
  24. set operation=disable
  25. set interval_time=%disable_interval_time%
  26. )
  27. echo [%date:~0,10% %time:~0,2%:%time:~3,2%:%time:~6,2%] loop time ... %cnt% ... %operation%
  28. set adapter_index=0
  29. :AdapterStart
  30. if %adapter_index% EQU %adapter_num% goto :AdapterStop
  31. set adapter_cur.name=0
  32. for /F "usebackq delims==. tokens=1-3" %%I in (`set adapter[%adapter_index%]`) do (
  33. set adapter_cur.%%J=%%K
  34. )
  35. :: swtich adapter state
  36. call:adapter_switch "%adapter_cur.name%" %operation%
  37. set /A adapter_index=%adapter_index% + 1
  38. goto AdapterStart
  39. :AdapterStop
  40. set /A loop_index=%loop_index% + 1
  41. echo [%date:~0,10% %time:~0,2%:%time:~3,2%:%time:~6,2%] sleep some time (%interval_time% seconds) ...
  42. ping -n %interval_time% 127.0.0.1 > nul
  43. goto LoopStart
  44. :LoopStop
  45. echo End of loop ...
  46. pause
  47. goto:eof
  48. :: function definition
  49. :adapter_switch
  50. set cmd=netsh interface set interface %1 %2
  51. echo %cmd%
  52. %cmd%
  53. goto:eof

注意:这个地方填的是发射AP热点的网络适配器,比如如下的。如果是中文的名称,还必须注意BAT脚本的编码问题,否则会出现识别不到正确的网络适配器名称。

3.2 压测问题说明

同时,为了精准定位掉网恢复的问题,我在网络掉线重连的地方增加了三个变量,分别记录总的重连次数、重连成功的次数、重连失败的次数。

另一方面,如issue描述所说,这是一个固定次数强相关的问题,也可能跟运行时长联系紧密的一个问题,且重启之后一切恢复正常,这一系列的特征,都把问题导向一个很常见的问题:内存泄漏

于是,在压测前,我在每次重连之后(不管成功与否)重新打印了系统的内存情况(总剩余内存,历史最低剩余内存),以便于判断问题节点的内存情况。

通过调整压测脚本中的disable_interval_time和enable_interval_time参数,在比较短的时间内就复现了问题,的确如果issue描述那样,在30多次之后,无法重连成功,且重启即可恢复。

4 问题分析

大部分的问题,只要有复现路劲,都还比较好查,只不过需要花点时间,专研下。

4.1 简单分析

首先肯定是我们怀疑最大可能的内存泄漏信息,初步一看:

由于在断网重连的操作中,可能对应的时间点下Wi-Fi热点还处于关闭状态,所以肯定是会重连失败的,当出现Wi-Fi热点的时候是可以成功的,所以我们会看到free空闲的内存在一个范围内波动,并没有看到它有稳定下降的趋势。

倒是和这个evmin(最低空闲内存)值,在出现问题之后,它出现了一个固定值,并一直持续下去,从这一点上怀疑,这个内存肯定是有问题的,只不过我在第一次分析这个情况的时候并没有下这个结论,现在回过头来看这是一个警惕信号。

我当时推测的点(想要验证的点)是,出现问题的时候,是不是因为内存泄漏导致系统空闲内存不足了,进而无法完成新的连接热点,连接网络等耗内存操作。

所以,通过上面的内存表,我基本笃定了我的结论:没有明显的内存泄漏迹象,并不是因内存不足而重连不上

问题分析到这里,肯定不能停下来,但是原厂的SDK,比如连热点那块的逻辑,对我们来说是个黑盒子,只能从原厂那里咨询看能不能取得什么有效的信息。

一圈问下来,拿到的有效信息基本是0,所以自己的问题还得靠自己!

4.2 寻找突破口

在上面的问题场景中,我们已排除掉了内存不足的可能性,那么接下来我们重点应分析三个方面:

  • 设备最后有没有成功连上Wi-Fi热点?能够正常分配子网的IP地址?
  • 设备成功连上Wi-Fi热点后,对外的网络是否正常?
  • 设备对外网络正常,为何不能成功回连服务器?

这三个问题是一个递进关系,一环扣一环!

我们先看第一个问题,很明显,当复现问题的时候,我们可以从PC的Wi-Fi热点那里看到所连过来的设备,且看到了分配的子网IP地址。

接下来看第二个问题,这个问题测试也很简单,因为我们的命令行中集成了ping命令,输入ping命令一看,居然发现了一个重要信息:

  1. # ping www.baidu.com
  2. ping_Command
  3. ping IP address:www.baidu.com
  4. ping: create socket failed

正常的ping log长这样:

  1. # ping www.baidu.com
  2. ping_Command
  3. ping IP address:www.baidu.com
  4. 60 bytes from 14.215.177.39 icmp_seq=0 ttl=53 time=40 ticks
  5. 60 bytes from 14.215.177.39 icmp_seq=1 ttl=53 time=118 ticks
  6. 60 bytes from 14.215.177.39 icmp_seq=2 ttl=53 time=68 ticks
  7. 60 bytes from 14.215.177.39 icmp_seq=3 ttl=53 time=56 ticks

WC!ping: create socket failed 这还创建socket失败了!!!?

我第一时间怀疑是不是lwip组件出问题了?

第二个怀疑:难道socket句柄不够了?因此创建内存大部分的操作就是在申请socket内存资源,并没有进行其他什么高级操作。

这么一想,第二个可能性就非常大,结合前面的总总迹象,是个需要重点排查的对象。

4.3 知识点补缺

在准确定位问题之前,我们先帮相关的知识点补充完整,方便后续的知识铺开讲解。

4.3.1 lwip的socket句柄

  • socket具备的创建

socket函数调用的路劲如下:
socket -> lwip_socket -> alloc_socket

alloc_socket函数的实现:

  1. /**
  2. * Allocate a new socket for a given netconn.
  3. *
  4. * @param newconn the netconn for which to allocate a socket
  5. * @param accepted 1 if socket has been created by accept(),
  6. * 0 if socket has been created by socket()
  7. * @return the index of the new socket; -1 on error
  8. */
  9. static int
  10. alloc_socket(struct netconn *newconn, int accepted)
  11. {
  12. int i;
  13. SYS_ARCH_DECL_PROTECT(lev);
  14. /* allocate a new socket identifier */
  15. for (i = 0; i < NUM_SOCKETS; ++i) {
  16. /* Protect socket array */
  17. SYS_ARCH_PROTECT(lev);
  18. if (!sockets[i].conn && (sockets[i].select_waiting == 0)) {
  19. sockets[i].conn = newconn;
  20. /* The socket is not yet known to anyone, so no need to protect
  21. after having marked it as used. */
  22. SYS_ARCH_UNPROTECT(lev);
  23. sockets[i].lastdata = NULL;
  24. sockets[i].lastoffset = 0;
  25. sockets[i].rcvevent = 0;
  26. /* TCP sendbuf is empty, but the socket is not yet writable until connected
  27. * (unless it has been created by accept()). */
  28. sockets[i].sendevent = (NETCONNTYPE_GROUP(newconn->type) == NETCONN_TCP ? (accepted != 0) : 1);
  29. sockets[i].errevent = 0;
  30. sockets[i].err = 0;
  31. SOC_INIT_SYNC(&sockets[i]);
  32. return i + LWIP_SOCKET_OFFSET;
  33. }
  34. SYS_ARCH_UNPROTECT(lev);
  35. }
  36. return -1;
  37. }

大家注意到,上述函数中的for循环有一个宏 NUM_SOCKETS,这个宏的具体数值是可适配的,不同的平台可根据自己的实际使用情况和内存情况,选择一个合适的数值。

我们看下这个NUM_SOCKETS宏定义的实现:

  1. 宏定义替换
  2. #define NUM_SOCKETS MEMP_NUM_NETCONN
  3. lwipopts.h中找到了其最终的替换
  4. /**
  5. * MEMP_NUM_NETCONN: the number of struct netconns.
  6. * (only needed if you use the sequential API, like api_lib.c)
  7. *
  8. * This number corresponds to the maximum number of active sockets at any
  9. * given point in time. This number must be sum of max. TCP sockets, max. TCP
  10. * sockets used for listening, and max. number of UDP sockets
  11. */
  12. #define MEMP_NUM_NETCONN (MAX_SOCKETS_TCP + \
  13. MAX_LISTENING_SOCKETS_TCP + MAX_SOCKETS_UDP)

看着这,有点绕,究竟这个值是多少啊?

  • socket句柄的销毁

具备的销毁,我们都知道使用close接口,它的函数调用路径如下:
close -> lwip_close -> free_socket

lwip_close函数的实现如下:

  1. int
  2. lwip_close(int s)
  3. {
  4. struct lwip_sock *sock;
  5. int is_tcp = 0;
  6. err_t err;
  7. LWIP_DEBUGF(SOCKETS_DEBUG, ("lwip_close(%d)\n", s));
  8. sock = get_socket(s);
  9. if (!sock) {
  10. return -1;
  11. }
  12. SOCK_DEINIT_SYNC(1, sock);
  13. if (sock->conn != NULL) {
  14. is_tcp = NETCONNTYPE_GROUP(netconn_type(sock->conn)) == NETCONN_TCP;
  15. } else {
  16. LWIP_ASSERT("sock->lastdata == NULL", sock->lastdata == NULL);
  17. }
  18. #if LWIP_IGMP
  19. /* drop all possibly joined IGMP memberships */
  20. lwip_socket_drop_registered_memberships(s);
  21. #endif /* LWIP_IGMP */
  22. err = netconn_delete(sock->conn);
  23. if (err != ERR_OK) {
  24. sock_set_errno(sock, err_to_errno(err));
  25. return -1;
  26. }
  27. free_socket(sock, is_tcp);
  28. set_errno(0);
  29. return 0;
  30. }

这里调用到了free_socket:

  1. /** Free a socket. The socket's netconn must have been
  2. * delete before!
  3. *
  4. * @param sock the socket to free
  5. * @param is_tcp != 0 for TCP sockets, used to free lastdata
  6. */
  7. static void
  8. free_socket(struct lwip_sock *sock, int is_tcp)
  9. {
  10. void *lastdata;
  11. lastdata = sock->lastdata;
  12. sock->lastdata = NULL;
  13. sock->lastoffset = 0;
  14. sock->err = 0;
  15. /* Protect socket array */
  16. SYS_ARCH_SET(sock->conn, NULL);
  17. /* don't use 'sock' after this line, as another task might have allocated it */
  18. if (lastdata != NULL) {
  19. if (is_tcp) {
  20. pbuf_free((struct pbuf *)lastdata);
  21. } else {
  22. netbuf_delete((struct netbuf *)lastdata);
  23. }
  24. }
  25. }

这个SYS_ARCH_SET(sock->conn, NULL);就会释放对应的socket句柄,从而保证socket句柄可循环使用。

4.3.2 TCP网络编程中的close和shutdown

为何在这里会讨论这个知识点,那是因为这个知识点是解决整个问题的关键。

这里就直接把结论摆出来:

  • close把描述符的引用计数减1,仅在该计数变为0时关闭套接字。shutdown可以不管引用计数就激发TCP的正常连接终止序列。
  • close终止读和写两个方向的数据发送。TCP是全双工的,有时候需要告知对方已经完成了数据传送,即使对方仍有数据要发送给我们。
  • shutdown与socket描述符没有关系,即使调用shutdown(fd, SHUT_RDWR)也不会关闭fd,最终还需close(fd)。

4.4 深入分析

了解了lwip组件中对socket句柄的创建和关闭,我们再回到复现问题的本身。

从最细微的log我们知道问题出在无法分配新的socket具备,我们再看下那个分配socket的逻辑中,有一个判断条件:

  1. if (!sockets[i].conn && (sockets[i].select_waiting == 0)) {
  2. //分配新的句柄编号
  3. sockets[i].conn = newconn;
  4. 。。。
  5. }

通过增加log,我们知道select_waiting的值是为0的,那么问题就出在conn不为NULL上面了。

在lwip_close中是有对.conn进行赋值NULL的,于是就猜想难道 lwip_close没调用?进行导致句柄没完全释放?

回答这个问题,又需要回到我们的软件架构上了,在实现架构了,我们不同的芯片平台使用了不同版本的lwip组件,而上层跑的MQTT协议是公用的,也就是如果是上层逻辑中没有正确处理close逻辑,那么这个问题应该在所有的平台都会出现,但为何唯独只有这个平台才出问题呢。

答案只有一个,问题可能出在lwip实现这一层。

由于lwip是原厂去适配,我第一时间找了原生的lwip-2.0.2版本做了下对比,主要想知道原厂适配的时候,做了哪些优化和调整。

结果一对比,果然发现了问题。

我们就以出问题的sockets.c为例,我们重点关注socket的申请和释放:

为了比较好描述原厂所做的优化,我把其添加的代码做了少量修改,大致就加了几个宏定义,这几个宏定义看其注释应该是为了处理多任务下新建、关闭socket的同步问题。

  1. #define SOC_INIT_SYNC(sock) do { something ... } while(0)#define SOC_DEINIT_SYNC(sock) do { SOCK_CHECK_NOT_CLOSING(sock); something ... } while(0)#define SOCK_CHECK_NOT_CLOSING(sock) do { \ if ((sock)->closing) { \ SOCK_DEBUG(1, "SOCK_CHECK_NOT_CLOSING:[%d]\n", (sock)->closing); \ return -1; \ } \ } while (0)

只是跟了一下它的逻辑,上层调用lwip_close的时候会调用到SOC_DEINIT_SYNC,同时它会调用到SOCK_CHECK_NOT_CLOSING,从而结束整一个socket释放的全流程。

但是偏偏我们做的MQTT上层在调用TCP链路挂断的时候,是这么玩的:

  1. /* * Gracefully close the connection */void mbedtls_net_free( mbedtls_net_context *ctx ){ if( ctx->fd == -1 ) return; shutdown( ctx->fd, 2 ); close( ctx->fd ); ctx->fd = -1;}

优雅地关闭TCP链路,这时候你应该要想起4.3.2章节的知识点。

这样调用对那几个宏会有影响?

答案是肯定的。

原来的,原厂适配时lwip_shutdown也同样调用了SOC_DEINIT_SYNC,这就导致了如果上层关闭链路既调用shutdown又调用close的话,它的逻辑就会出问题,会引发close的流程走不完整。

为了能够简化这个问题,我大概写了一下它的逻辑:

1)shutdown函数调过来的时候,开始启动关闭流程SOC_DEINIT_SYNC,进入到那几个宏里面,会有一步:(sock)->closing = 1;然后正常返回0;

2)等到close函数调过来的时候,再次进入关闭流程SOC_DEINIT_SYNC,结果一判断(sock)->closing已经是1了,然后报错返回-1;这样close的返回就不正常了;

3)再看lwip_close函数的逻辑:

于是就出现了之前的问题,socket句柄的index一直在上升,应该旧的scoket句柄一直被占用,知道句柄数被耗尽。

最大句柄数NUM_SOCKETS究竟是多少,可以参考之前我的文章将如何看预编译的代码,我们可以清晰地看到他的值就是38

所有的疑惑均打开,为了一定是30多次之后才出问题,这里给出了答案!

这里我大胆地猜想了一下,应该原厂在适配这段同步操作逻辑的时候,压根就没考虑上层还可以先shutdown再close,所以引发了这个问题。

5 问题修复

上面的分析中,已经初步定位了问题代码,接下来就是要进行问题修复了。

问题根源出在先调shutdown再调close,由于是一个上层代码,其他平台也是共用的,且其他平台使用并没有问题,所以肯定不能把上层优雅关闭TCP链路的操作给去掉,只能底层的lwip组件自行优化解决。所谓是:谁惹的祸,谁来擦屁股!

解决问题的关键是,要保证调完shutdown之后,close那次操作需要走一个完整流程,这样才能把占用的socket句柄给释放掉。

所以在执行shutdown和close的时候,SOC_DEINIT_SYNC需要带个参数告知是不是close操作,如果不是close那么就走一个简易流程,这样就能保证close流程是完整的。

当上层只调用close,也能确保close的流程是完整的。

但是,入股上层先调用close,再调shutdown,这样流程就不通了。

当然,上层也不能这么玩,具体参考4.3.2的知识点。

6 问题验证

问题修复之后,需要进行同样的流程复测,以确保这个问题确实被修复了。

问题验证也很简单,修改sockets.c中的NUM_SOCKETS,改成一个很小的值,比如3或5,加快问题复现的速度,同时把alloc_socket中获取的句柄id打出来,观察它有没有上升,正常的测试中,在没有其他网络通讯链路的情况下,它应该稳定值为0。

很快就可以验证,不会再复现这个问题了。

接下来,需要将NUM_SOCKETS的值还原成原理的值,真实测试原本复现的场景,确保真的只有这个地方引发了这个问题,而其他代码并没有干扰到。

幸运的是,还原之后的测试也通过了,这就证明了这个问题完全修复了,且没有带来副作用,是一次成功的bug修复。

7 经验总结

  • 内存泄漏的花样很多,但一定要注意其本质特点;
  • socket句柄泄漏,也是内存泄漏的一种;
  • 每一种优化都有它特定的场景,脱离了这个特定场景,你需要重新考虑这个优化的普适性;
  • 增强对关键log信息的敏感度,有利于在茫茫问题中找到排查的方向灯;
  • 准确理解TCP编程接口中的close函数和shutdown函数,能对解决掉网问题有所帮助;
  • 上线前的压力测试,必不可少。

8 参考链接

点击关注,第一时间了解华为云新鲜技术~

相关文章