当前位置: 首页 > news >正文

【Linux深入浅出】之全连接队列及抓包介绍

【Linux深入浅出】之全连接队列及抓包介绍

  • 理解listen系统调用函数的第二个参数
    • 简单实验
      • 实验目的
      • 实验设备
      • 实验代码
      • 实验现象
    • 全连接队列简单理解
      • 什么是全连接队列
      • 全连接队列的大小
  • 从Linux内核的角度理解虚拟文件、sock、网络三方的关系
    • 回顾虚拟文件部分的知识
    • struct socket结构体介绍
    • struct tcp_sock与struct udp_sock介绍
      • struct tcp_sock
        • struct inet_connection_sock结构体
        • struct inet_sock结构体
        • 总结
      • struct udp_sock
      • Tcp接收缓冲区与发送缓冲区
    • 分层介绍
  • tcp抓包介绍
    • Linux中使用tcp dump进行抓包并分析tcp过程
      • tcp dump的安装
      • tcp dump的简单使用
      • 实验
    • windows中使用wireshark进行抓包
      • wireshark的安装
      • 使用telnet作为客户端访问云服务器上的服务器程序
      • 设置wireshark过滤规则
      • 使用wireshark进行抓包

理解listen系统调用函数的第二个参数

listen函数是在进行TCP socket编程时的系统调用函数,它的功能是将普通套接字设置为监听状态,也就是将普通的套接字变成监听套接字,以便它能收到来自客户端的连接请求。

image-20250218101233322

第一个参数是我们之前创建的socket描述符,那么第二个参数应该如何理解呢?直接输出结论:backlog规定了全连接队列的最大长度,全连接队列是用于维护三次握手成功但是系统来不及接收的连接,backlog+1是这个队列的长度。

简单实验

实验目的

下面我们将做一个小实验,这个实验主要会验证如下几个点:

  • 三次握手成功建立连接,并不需要accept的参与,因为它是系统自动完成的,accept只是负责从全连接队列中取走已经建立好的连接。
  • backlog+1 = 全连接队列的长度。

因为accept函数会取走全连接队列中的连接,而且我们的实验就是模拟系统非常忙的情况,所以 TCP server端是不需要调用accept函数的。

实验设备

虚拟机一台,云服务器一台。

在同一台设备上会影响实验效果,因为TCP连接是双向的,从服务器->客户端,客户端->服务器都会维护一个连接,所以如果在一台设备上做实验,会有干扰。

实验代码

  1. TcpServer.cc:

    #include <iostream>
    #include <string>
    #include <cerrno>
    #include <cstring>
    #include <cstdlib>
    #include <memory>
    #include <sys/types.h>
    #include <sys/socket.h>
    #include <netinet/in.h>
    #include <arpa/inet.h>
    #include <sys/wait.h>
    #include <unistd.h>const static int default_backlog = 1;enum
    {Usage_Err = 1,Socket_Err,Bind_Err,Listen_Err
    };#define CONV(addr_ptr) ((struct sockaddr *)addr_ptr)class TcpServer
    {
    public:TcpServer(uint16_t port) : _port(port), _isrunning(false){}// 都是固定套路void Init(){// 1. 创建socket, file fd, 本质是文件_listensock = socket(AF_INET, SOCK_STREAM, 0);if (_listensock < 0){exit(0);}int opt = 1;setsockopt(_listensock, SOL_SOCKET, SO_REUSEADDR | SO_REUSEPORT, &opt, sizeof(opt));// 2. 填充本地网络信息并bindstruct sockaddr_in local;memset(&local, 0, sizeof(local));local.sin_family = AF_INET;local.sin_port = htons(_port);local.sin_addr.s_addr = htonl(INADDR_ANY);// 2.1 bindif (bind(_listensock, CONV(&local), sizeof(local)) != 0){exit(Bind_Err);}// 3. 设置socket为监听状态,tcp特有的if (listen(_listensock, default_backlog) != 0){exit(Listen_Err);}}void ProcessConnection(int sockfd, struct sockaddr_in &peer){uint16_t clientport = ntohs(peer.sin_port);std::string clientip = inet_ntoa(peer.sin_addr);std::string prefix = clientip + ":" + std::to_string(clientport);std::cout << "get a new connection, info is : " << prefix << std::endl;while (true){char inbuffer[1024];ssize_t s = ::read(sockfd, inbuffer, sizeof(inbuffer)-1);if(s > 0){inbuffer[s] = 0;std::cout << prefix << "# " << inbuffer << std::endl;std::string echo = inbuffer;echo += "[tcp server echo message]";write(sockfd, echo.c_str(), echo.size());}else{std::cout << prefix << " client quit" << std::endl;break;}}}void Start(){_isrunning = true;while (_isrunning){sleep(1);}}~TcpServer(){}private:uint16_t _port;int _listensock; // TODObool _isrunning;
    };using namespace std;void Usage(std::string proc)
    {std::cout << "Usage : \n\t" << proc << " local_port\n"<< std::endl;
    }
    // ./tcp_server 8888
    int main(int argc, char *argv[])
    {if (argc != 2){Usage(argv[0]);return Usage_Err;}uint16_t port = stoi(argv[1]);std::unique_ptr<TcpServer> tsvr = make_unique<TcpServer>(port);tsvr->Init();tsvr->Start();return 0;
    }
    
  2. TcpClient.cc

    #include <iostream>
    #include <string>
    #include <unistd.h>
    #include <sys/socket.h>
    #include <sys/types.h>
    #include <arpa/inet.h>
    #include <netinet/in.h>int main(int argc, char **argv)
    {if (argc != 3){std::cerr << "\nUsage: " << argv[0] << " serverip serverport\n"<< std::endl;return 1;}std::string serverip = argv[1];uint16_t serverport = std::stoi(argv[2]);int clientSocket = socket(AF_INET, SOCK_STREAM, IPPROTO_TCP);if (clientSocket < 0){std::cerr << "socket failed" << std::endl;return 1;}sockaddr_in serverAddr;serverAddr.sin_family = AF_INET;serverAddr.sin_port = htons(serverport);                  // 替换为服务器端口serverAddr.sin_addr.s_addr = inet_addr(serverip.c_str()); // 替换为服务器IP地址int result = connect(clientSocket, (struct sockaddr *)&serverAddr, sizeof(serverAddr));if (result < 0){std::cerr << "connect failed" << std::endl;::close(clientSocket);return 1;}while (true){std::string message;std::cout << "Please Enter@ ";std::getline(std::cin, message);if (message.empty())continue;send(clientSocket, message.c_str(), message.size(), 0);char buffer[1024] = {0};int bytesReceived = recv(clientSocket, buffer, sizeof(buffer) - 1, 0);if (bytesReceived > 0){buffer[bytesReceived] = '\0'; // 确保字符串以 null 结尾std::cout << "Received from server: " << buffer << std::endl;}else{std::cerr << "recv failed" << std::endl;}}::close(clientSocket);return 0;
    }
    

实验现象

  1. 验证:即使服务器端没有调用accpet函数,三次握手也能建立连接成功:

    image-20250218104617555

    image-20250218111030075

    • 结论:accept系统调用函数并不参与三次握手,它只负责从下层取走连接(socket文件描述符)。
  2. 验证Tcp全连接最多维护backlog+1个连接:

    image-20250218110201620

  • 可以看到,我们在虚拟机中同时运行了多个TcpClient客户端,但最终只有两个成功建立连接,这是因为全连接的大小不够了所以不会接收来自客户端的连接,只有上层调用accept拿走在全连接队列中已经建立的连接,全连接的空间才会腾出来。

全连接队列简单理解

什么是全连接队列

全连接队列就是我们内核(传输层)中某个结构体中维护的一个队列,每一个listen套接字都有一个全连接队列:

image-20250218111735714

在Linux内核中所谓的连接和全连接队列都是struct结构体,后面我们会结合Linux内核重点介绍。

  • 注意:全连接队列的大小并不是代表TcpServer服务器只能同时处理这么多,而是表示它来不及处理(来不及调用accept)的连接的最大数量。

全连接队列的大小

全连接队列的本质其实是生产者消费者模型,全连接队列作为生产者一直生产连接,而上层的accept作为消费者一直从全连接队列中取走连接。

全连接队列的大小不能太大,也不能太小

  • 如果backlog为0:会增加服务器的闲置率,如果有全连接队列,那么可能只需要等待一会,服务器就有空闲可以把连接取走处理了,如果backlog为0,直接就是三次握手建立不成功,用户就以为你的服务已经崩溃,短时间内就不会访问了。
  • 如果backlog过大:那么处于全连接队列结尾的用户就可能需要等待很久来能享受到服务,这样用户体验不好,还不如直接连接失败,而且维护连接也会占用内存,用多余的内存去给服务器处理数据可能效率更高。

过去,常用的默认值可能是5或者50左右,但是现代Linux系统的默认值通常要高得多。

通常这个值有一个上限,我的Linux系统中为4096:

image-20250218113737436

  • /proc/sys/net/core/somaxconn:这个内核参数定义了系统范围内每个端口的最大监听队列长度。它设置了listen()函数中backlog参数的上限值。
  • tcp_max_syn_backlog:这个文件中规定的是未完成连接请求的最大数量(半连接队列)。

从Linux内核的角度理解虚拟文件、sock、网络三方的关系

回顾虚拟文件部分的知识

我们都知道在运行服务器程序后,系统会给这个进程创建一个task_struct结构体,它是用来描述进程的,这个结构体中又会有一个file_struct*的指针,它指向了一个file_struct的对象,这个file_struct结构体是用来管理打开的文件的,它里面有一个文件描述符表,这个文件描述符表中的每一个下标都指向struct file*对象。

但是我们的网络socket是怎么和struct file这个结构体挂上联系的呢?这是我们今天要解决的问题之一,因为文件描述表中的文件描述符不仅仅有普通文件的还有网络套接字文件。

image-20250218114925683

struct socket结构体介绍

struct socket {socket_state		state;unsigned long		flags;struct proto_ops	*ops;struct fasync_struct	*fasync_list;struct file		*file;struct sock		*sk;wait_queue_head_t	wait;short			type;unsigned char		passcred;
};

struct socket结构体是我们网络socket的入口,它是一个通用的套接字类型。

  • short type:表示套接字的类型,是流式套接字还是数据报式的套接字:

    image-20250218120610357

  • struct proto_ops *ops:它是一个保存各种函数方法的类型,可以通过type字段让其指向不同的方法。

    image-20250218120414776

  • struct file*:指向虚拟文件层的struct file对象,但是我们不是需要通过socket文件描述符找到struct socket嘛,怎么顺序反过来,别担心,其实struct file对象中也有一个开放字段是可以指向struct socket对象的,它就是void*类型的private_data字段。

所以经过对struct socket结构体的学习,我们上面的图可以继续完善:

image-20250218121338553

并且调用socket系统调用的同时就创建了struct socketstruct file并在文件描述表中申请了空间,然后还让struct socketstruct file互相指向。

Tcp SocketUdp Socket岂不是没有区别了,既然调用socket都会创建struct socket的话,别急,我们继续往下学习。

struct tcp_sock与struct udp_sock介绍

struct tcp_sock

image-20250218133948690

tcp_sock结构体中有很多关于tcp的字段,譬如:

  • int tcp_header_len:即将要发送的TCP报文的头部的长度,以字节为单位。
  • rcv_nxt, snd_nxt: 分别表示期望接收的下一个序列号和发送方即将发送的下一个序列号。
  • snd_ssthresh, snd_cwnd: 慢启动阈值和拥塞窗口大小,是拥塞控制的重要参数。

但我们更想知道,它的第一个字段struct inet_connection_sock是什么:

  • struct inet_connection_sock inet_conn;:光看其名称,这个结构体肯定与连接有关。
struct inet_connection_sock结构体

这个结构体是描述的TCP与连接相关的属性,里面包括了全连接队列。全连接队列中不仅维护三次握手已经建立好的连接,也会维护只进行了二次或者一次的半连接,但是半连接的生命周期一般很短

image-20250218134723123

  • struct request_sock_queue icsk_accept_queue;:这个字段就是我们之前一直在谈的全连接队列,它由listensock维护,用于管理监听套接字上的半连接(SYN_RCVD状态)和全连接(ESTABLISHED状态但未被accept()接受)队列。

    image-20250218134936143

但我们最好奇的是它的第一个属性字段:

  • struct inet_sock inet:这是一个 struct inet_sock 类型的成员,包含了通用的因特网套接字信息。tcp_sock 以此为基础,添加TCP特定的信息。
struct inet_sock结构体

image-20250218123449300

struct inet_sock结构体中存储的是与网络通信相关的信息,例如:

  • _u32 daddr:外部IPv4地址。
  • _u32 rcv_saddr:本地IPv4地址。
  • _u32 dport:目的端口号。

我们进行Tcp网络通信,调用bind系统调用函数bindIP地址和端口号,不就是在往这个struct inet_sock结构体中写数据吗?

我们惊奇的发现这个inet_sock结构体的第一个字段的类型居然是struct sock,我们之前不是在struct socket里面见过这个字段吗,让struct socket指向它,不就可以通过通用套接字访问到Tcpsock了吗?

所以我们预测udp_sock中一定也存在struct sock字段,而且一定是在最前面。

image-20250218135232593

总结

看了这么多结构体,我们可以画图总结一下它们的关系了:

后续只需要通过socket中的struct sock*字段,通过强制类型转化,我们就可以访问到struct sockstruct inet_sockstruct inet_connection_sockstruct tcp_sock结构体的内容,因为它们的初始地址都是相同的,这样通过结构体嵌套,我们就实现了C风格的多态。

那么当我们客户端和服务器经过三次握手后,建立了一个新的连接,内核会帮助我们做哪些事情呢?

  1. 最最重要的是创建struct inet_connection_sock,这表示一个新的连接,里面的inet_sock字段存储着这个连接相关的属性字段(IP地址、端口号)。

  2. 然后就是struct tcp_sock对象,三次握手完成,内核实际上已经为这个新建立的连接创建了完整的struct tcp_sock结构体。它不仅包含了inet_connection_sock中的所有字段,还添加了许多TCP特有的属性和方法,例如序列号管理、窗口缩放、重传机制等。每当一个新的TCP连接被接受(即完成了三次握手),就会创建一个tcp_sock实例来管理这个连接的状态和行为。

  3. 除此之外,内核还会将这个连接(队尾的nextstruct sock*指向新连接的struct sock)加入listen套接字的全连接队列中(做类似链表的操作),然后需要将队列的元素个数加1。

    image-20250220112433080
    内核中会有实现上述功能的方法:

    image-20250218160530154

如果全连接队列中没有空间了,三次握手根本就不会完成,也就不会创建上述的结构体。

当调用accept函数时,它会做如下事情:

  1. 创建struct socket对象(三次握手完成时并没有创建这个通用的套接字类型),然后从全连接队列中取出队头连接的struct sock*,然后赋值给struct socketstruct sock*变量,就相当与让struct socket指向了struct tcp_sock,因为struct tcp_sock的最开始的字段是struct sock*

  2. 创建struct file,并在文件描述符表中开辟一个新的空间指向这个struct file对象。

  3. 最后,让struct filestruct socket互相引用。

  4. 返回文件描述符给上层。

    内核中的方法sock_map_fd就是实现类似功能的。

    image-20250220113021007

自此之后,我们就可以通过socket fd找到struct file,然后通过struct file中的private_data字段找到struct socket对象,而通用套接字的sk又指向struct tcp_sock的首地址空间的struct sock对象。然后通过强制类型转换,可以访问tcp这个连接相关的任何信息,包括报文、拥塞控制属性、滑动窗口属性、确认应答相关属性(序号、确认序号)。

struct udp_sock

image-20250218194218690

由于udp协议比tcp协议要简单,所以udp_sock结构体的字段也要少一些。

而且由于udp是无连接的协议,所以它没有连接相关的字段,它的第一个结构体对象就直接是struct inet_sock结构体。这和tcpinet_sock是一样的,因为网络套接字部分两者有很多相同的部分,所以可以复用。

对于udp_sock就是这样:

Tcp接收缓冲区与发送缓冲区

我们前面不是一直谈到TCP存在接收缓冲区和发送缓冲区吗?它们在内核中是否有体现呢?

当然有,在struct sock结构体中,存在着这两个字段:

image-20250218200122058

它们就是接收缓冲区与发送缓冲区,每个连接都有单独的struct sock,也就意味着有单独的接收缓冲区与发送缓冲区。

sk_buff_head是这个缓冲区的类型,它是一个类似队列的结构体:

image-20250218200326278

struct sk_buff是描述报文的,也就是解析出来或者即将发送的应用层的报文:

image-20250218200618750

分层介绍

自此之后,虚拟文件、socket、网络三者的关系我们就清楚了,我们也清楚了如何通过文件描述符找到关于套接字的各种信息。

它们自上而下是有层次的,可以分为虚拟文件层、通用套接字层和网络套接字层。其中通用套接字就像是一个基类,它提供了一种通用的方式来创建各种类型的套接字,但是当网络真的建立起来,又会有其它细微的不同。

tcp抓包介绍

Linux中使用tcp dump进行抓包并分析tcp过程

tcp dump的安装

ubuntu下

sudo apt update
sudp apt install -y tcpdump

通过检查版本号验证是否安装成功

tcpdump --version

image-20250220121020961

tcp dump的简单使用

  1. 捕获所有网络接口中的报文:

    sudo tcpdump -i any tcp
    
    • -i:interface是接口的意思,any代表任何,-i any的意思就是捕获所以网络接口中的报文。
    • tcp:只捕获tcp报文。

    image-20250220121732786

  2. 捕获指定网络接口的报文:

    sudo tcpdump -i [本机某网络接口名称] tcp
    

    我们可以通过命令ifconfig查看本主机的所有网络接口:

    image-20250220122051444

    image-20250220122247575

  3. 捕获指定源IP的报文:

    sudo tcpdump src host 192.168.0.1 and tcp
    

    上述命令的含义是:捕获源IP地址为192.168.0.1的到达本主机的tcp报文:

    image-20250220122953630

    • 现在的一般后端服务器都会使用反向代理来实现负载均衡技术,在大型应用或服务中,通常会部署多个反向代理服务器以提高性能、增加可用性和提供冗余。所以可能就会出现多次ping qq.com这个相同的域名,得到来自不同公网IP服务器的回复,这也不用惊讶,所以上面的实验存在一定的运气的成分。

      image-20250220123330174

      • 上面的显示的公网IP可能是反向代理服务器的IP地址,而不是后端服务真正的公网IP。
  4. 捕获指定目的IP地址的报文:

    sudo tcpdump dst host 192.168.0.1 and tcp
    

    上面命令的含义是捕获目的IP地址为192.168.0.1tcp报文:

    image-20250220125705218

    • 注意这个目的IP为什么是iZt8qyfqyfs47mZ呢?云服务提供商使用类似的随机字符串作为实例ID或设备标识:

      image-20250220134359259

      你也可以去云服务网站的控制台修改这个实例名称。

    • 但是如果我们希望它显示IP地址,而不是显示云服务器的实例名称该怎么办呢?加上选项-n即可:

      image-20250220134659966

  5. 捕获特定端口号的TCP报文:

    • 使用port关键字可以捕获特定端口号的报文,例如捕获80端口的TCP报文(通常是http请求):

      sudo tcpdump port 80 and tcp
      

      image-20250220135146901

实验

使用tcpdump工具,一般以捕获特定端口的形式居多,代码和上述的验证listen系统调用函数的第二个参数的代码一样,简单的tcp echo服务器:

  1. 服务器不给客户端发送数据,也不accept接受连接:

    image-20250220135716488

    • 将客户端在虚拟机上运行,观察抓包现象:

      1. 三次握手:

        image-20250220161715672

        • 因为三次握手是没有发送数据的,所以length为0。
      2. 当我们虚拟机客户端给服务器发送数据报文,但是服务器收到该报文,发送的ack报文数据为0,没有发送数据报文,我们有理由相信,服务器根本没有将这个连接拿上来给用户,但是三次握手肯定成功了,并且ack报文是OS自动发送的,不需要用户参与:

        image-20250220162304996

        image-20250220162559707

        • 看了一下代码果然没有将连接拿上来。
  2. accept函数注释取消后继续实验:

    • 三次握手部分(依旧正常):Flags中的S代表SYN标志位,win是窗口大小(用于滑动窗口中确定窗口大小),可以看到双方还协商了mss的大小。

      外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    • 服务器接收数据,发送数据:

      image-20250220163401186

      现在收发数据都正常了。

      image-20250220163505417

    • 四次挥手部分,客户端主动退出:

      外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

      • 就只有客户端给服务器发送了FIN报文,服务器OS自动给它回复了一个ACK报文,服务器并没有断开连接,我们有理由相信,服务器端忘记close关闭socket描述符了。

        image-20250220163807463

  3. 服务器端在客户端关闭连接后也要正常关闭连接,修改代码后继续测试四次挥手的过程:

    image-20250220165028109

    • 不是说四次挥手吗,为什么只有三次呢,我们有理由相信,在客户端给服务器发送FIN报文后,服务器立马就给客户端发送了FIN报文,并且这个时间和系统自动发送ACK报文的时间几乎是同时,所以触发了捎带应答,如果我们让服务器sleep上1s再关闭socketfd,就可以看到四次挥手:

      image-20250220170319069

    • sleep后的结果:

      image-20250220170355643

windows中使用wireshark进行抓包

wireshark的安装

wireshark-4.4.3-x64.exe

下载好之后,直接安装即可,没有太多要注意的地方。

使用telnet作为客户端访问云服务器上的服务器程序

默认windows上telnet服务是没有打开的,我们可以手动打开,打开telnet教程

设置wireshark过滤规则

  1. 首先选择你想捕获哪个网卡的流量(上行和下行):

    image-20250220174448817

  2. 选择好之后,顶部工具栏点捕获,点开始,就可以开始捕获该网卡的流量:

    image-20250220174611588

  3. 默认是捕获经过该网络接口的流量:

    image-20250220174732358

  4. 在顶部可以设置过滤规则,我们设置ip为服务器ip,只关心服务器所在的端口号8888

    ip.addr == 121.40.68.117 && tcp.port == 8888
    

    顶部过滤栏是绿色说明语法没有问题:

    image-20250220175032517

使用wireshark进行抓包

  1. 启动服务器程序:

    image-20250220175112957

  2. 启动windows上的telnet服务:

    telnet [服务器公网ip] [端口号]
    

    image-20250220175243523

    • 进入这个界面就代表启动成功了。
  3. 观察报文:

    1. 三次握手:

      image-20250220175444404

    2. telnet发送1字节的数据:

      image-20250220180035091

      点击某一个包,下面可以看到更详细的信息:

      image-20250220180214708

  4. 四次挥手,telnet输入ctrl ]进入命令行模式,然后点quit就可退出:

    image-20250220180532792

红色的报文为超时重传。

相关文章:

  • 阿里云服务器防御是怎么做出来的?服务器攻击方式有几种?
  • Java文件上传
  • 【算法基础】选择排序算法 - JAVA
  • ARM 指令集(ubuntu环境学习)第六章:ARM 编程技巧与优化策略
  • 供应链算法整理(一)--- 销量预估
  • 如何掌握 Lustre/Scade 同步数据流语言
  • 基于建造者模式的信号量与理解建造者模式
  • 每日算法-250502
  • Python爬虫实战:获取好大夫在线各专业全国医院排行榜数据并分析,为患者就医做参考
  • 传统银行服务和 区块链支付无缝融合的一种解决方案
  • 【AI面试准备】数据治理与GDPR脱敏机制构建
  • 4.Java中的注释
  • VBA宏即根据第一列的内容和第二列的数字,按照数字数量生成对应内容并依次放在第三列、第四列等
  • c++环境和vscode常用的一些有用插件
  • Qt C++简单图形界面与绘图实验
  • 开闭原则与依赖倒置原则区别:原类不变,新增类(功能)vs 接口类不变,原实现类可变
  • 算法篇(九)【滑动窗口】
  • 《筑牢防线:全方位守护移动应用免受逆向侵扰》
  • linux下如何在一个录目中将一个文件复制到另一个录目,删除目录
  • A2A 协议与 MCP 协议:智能代理生态系统的双轮驱动
  • 申活观察|人潮涌动成常态,豫园为何常来常新?
  • 央行4月开展12000亿元买断式逆回购操作
  • 笔墨如何“构城”?上海美院城市山水晋京展出
  • 俄罗斯纪念卫国战争胜利80周年阅兵式首次彩排在莫斯科举行
  • 港交所与香港证监会就“中概股回流意向”已与部分相关企业进行接触
  • 持续更新丨伊朗内政部长:港口爆炸已致14人死亡