当前位置: 首页 > news >正文

性能优化 - 理论篇:CPU、内存、I/O诊断手段

文章目录

  • Pre
  • 引言
  • 1. CPU 性能瓶颈
    • 1.1 top 命令 —— 多维度 CPU 使用率指标
    • 1.2 负载(load)——任务排队情况
    • 1.3 vmstat 命令 —— CPU 繁忙与等待
  • 2. 内存性能瓶颈
    • 2.1 操作系统层面的内存分布
    • 2.2 top 命令 —— VIRT / RES / SHR 三个关键列
    • 2.3 CPU 缓存与伪共享
    • 2.4 HugePage 技术
    • 2.5 预先加载(AlwaysPreTouch)
  • 3. I/O 性能瓶颈
    • 3.1 硬盘读写性能差异
      • “磁盘的速度这么慢,为什么 Kafka 操作磁盘,吞吐量还能那么高?”
    • 3.2 top/vmstat 中的 wa 指标
    • 3.3 iostat 命令 —— 磁盘 I/O 细节指标
    • 3.4 零拷贝原理与实践
      • 传统流程(无零拷贝)
      • 零拷贝(以 sendfile 为例)
  • 小结

在这里插入图片描述


Pre

性能优化 - 理论篇:常见指标及切入点

性能优化 - 理论篇:性能优化的七类技术手段


  1. 引言:木桶理论及短板概念,以及为何关注 CPU、内存、I/O 三大组件。
  2. CPU 性能瓶颈
    2.1 top 命令——多维度 CPU 使用率指标介绍;
    2.2 负载(load)——任务排队与多核计算机下的正确理解;
    2.3 vmstat 命令——Uninterruptible Sleep、交换分区及上下文切换指标。
  3. 内存性能瓶颈
    3.1 操作系统层面的内存分布(物理内存、虚拟内存、共享内存、逻辑内存、Swap);
    3.2 top 命令——VIRT/RES/SHR 三个关键列;
    3.3 CPU 缓存与伪共享——多级缓存结构、Cache line、@sun.misc.Contended;
    3.4 HugePage 技术——TLB、页表与大页优势;
    3.5 预先加载(AlwaysPreTouch)——JVM 堆内存预分配。
  4. I/O 性能瓶颈
    4.1 硬盘读写性能差异说明(顺序写 vs 随机写与 CPU/内存对比);
    4.2 top/vmstat 中 wa 指标;
    4.3 iostat 命令——%util、avgqu-sz、await、svctm 的含义与阈值;
    4.4 零拷贝原理与实践——传统拷贝流程 vs sendfile 零拷贝流程。

引言

在性能优化 - 理论篇:性能优化的七类技术手段 中,我们已经简要介绍了解决性能问题的常见切入点,如算法优化、缓存策略、并发模型等。但是,在实际运维与性能调优过程中,往往需要首先判断“系统的短板在哪儿”,才能更有针对性地展开优化工作。正如木桶理论所强调的,整体系统的性能取决于最薄弱的那一块。当 CPU、内存、I/O 这三大计算机资源之间存在速度差异时,就会产生性能瓶颈,拖累整个系统。

目标:

  1. 哪些系统组件容易成为性能瓶颈;
  2. 如何通过常用命令和指标判断它们是否真的已经成为瓶颈。

我们接下来将以 Linux 下常见的 top、vmstat、iostat 等工具为切入口,分别从 CPU、内存和 I/O 三个维度进行,快速锁定系统可疑短板,为后续深入分析提供方向。


1. CPU 性能瓶颈

CPU(中央处理器)是系统中最核心的计算单元,当 CPU 无法及时处理任务时,就会导致其他任务排队等待,进而产生明显的性能问题。下面介绍三种常用命令和思路,用于判断 CPU 是否出现瓶颈。

1.1 top 命令 —— 多维度 CPU 使用率指标

启动 top(或 htop)后,可以按下数字键 1 来查看每个逻辑核心的使用情况。

在这里插入图片描述

典型输出中,我们重点关注以下几列指标:

  • us(user):用户态占用的 CPU 百分比,即由普通应用程序耗费的 CPU 时间;
  • sy(system):内核态占用的 CPU 百分比,用于判断系统调用、驱动中断等是否频繁;
  • ni(nice):修改过优先级的进程占用的 CPU 百分比,通常比较少见;
  • wa(iowait):CPU 因等待 I/O 完成而空闲的时间百分比,当该值过高时,往往意味着 I/O 子系统可能成为瓶颈
  • hi(hardware interrupts):硬中断所占用的 CPU 百分比,用来评估中断处理对系统的开销;
  • si(soft interrupts):软中断所占用的 CPU 百分比;
  • st(steal time)在虚拟化环境中,虚拟机因等待宿主机 CPU 而被“偷取”的时间百分比,常出现在超卖(overcommit)严重的云服务器上;
  • id(idle):空闲 CPU 百分比,即未被任何用户态或内核态程序占用的时间。

关注要点:通常,当 id(空闲)低于 10% 时,就有必要进一步分析。

  • 如果 ussy,说明大多数开销来自应用程序本身的计算;
  • 如果 sy 较高,且伴随 cs(上下文切换)急剧上升,则可能是锁竞争或系统调用过于频繁;
  • 如果 wa 持续超过 10%以上,需重点检查磁盘或网络 I/O。

1.2 负载(load)——任务排队情况

除了 topuptimecat /proc/loadavg 也能查看系统负载(load average),通常显示最近 1 分钟、5 分钟、15 分钟的平均值。Load 本质上表示系统可运行队列(包括正在运行与可运行状态)的长度。

  • 单核 CPU

    • Load < 1:CPU 有闲置;
    • Load ≈ 1:CPU 满负载;
    • Load > 1:存在任务排队,开始出现瓶颈。
      在这里插入图片描述
  • 多核 CPU
    我们需要把 Load 与 CPU 核心数进行对比,比如一台 8 核机器,如果 Load ≈ 8,表明所有核心基本都在满负载;如果 Load ≈ 16,则代表有 8 个任务在排队等待。

正确理解

  • 若某时刻 Load = 10,而你使用的是一台 16 核服务器,说明系统还有剩余计算能力(仍可并行处理多达 6 个任务)。
  • 若 Load ≈ CPU 核心数 × 1.2 时,已有一定排队压力;若 Load ≈ CPU 核心数 × 1.5 或更高,则问题严重。

通过 Load 我们能够大致判断“CPU 是否不堪重负”,但无法区分是 CPU 本身饱和,还是等待 I/O 导致的大量进程处于可运行队列。


1.3 vmstat 命令 —— CPU 繁忙与等待

在这里插入图片描述

vmstat 2(每 2 秒刷新一次)能输出更细粒度的系统指标,其中几列指标与 CPU 相关:

procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----r  b   swpd   free   buff  cache    si   so    bi    bo   in   cs us sy id wa st2  1      0  10240  40844 124536     0    0     3    12  185  210 30  5  60  5  0
  • b(blocked)处于“不可中断睡眠(D 状态)”的进程数,通常是因 I/O 等待。如果 b 值持续大于 0,表明存在 I/O 队列或其他资源等待,可能是 I/O 瓶颈。它的意思是等待 I/O,可能是读盘或者写盘动作比较多.
  • si(swap in)/ so(swap out)每秒发生的换入换出页数;如果这两列不为 0,说明系统正在频繁地使用 Swap,这会严重影响性能,应尽快检查内存压力。
  • cs(context switches)每秒发生的上下文切换次数;当 cs 过高,且同时伴随 sy 较高时,说明进程/线程切换开销大,可能是线程数过多或锁竞争激烈。
  • us/sy/id/wa:与 top 中类似,判断用户/内核占用、空闲与 I/O 等待情况。

综合判断

  • b 持续上升、wa 较高时,初步判断可能是 I/O 瓶颈,需要结合 iostat 等工具深入排查;
  • si/so 不为 0,说明系统在用 Swap 分区,需检查内存是否不足;
  • cs 过高且 sy 上升,需分析是否存在锁竞争或短生命周期进程过多。

此外,可以通过查看单个进程的上下文切换次数来判断某个进程是否“频繁切换”,例如:

cat /proc/<PID>/status | grep ctxt_switches
voluntary_ctxt_switches:    93950
nonvoluntary_ctxt_switches: 171204
  • voluntary_ctxt_switches:该进程主动自愿让出 CPU(如等待某个事件完成);
  • nonvoluntary_ctxt_switches:该进程被操作系统抢占而发生的上下文切换次数。

如果某进程这两个值都非常高,说明它在不断被抢占或频繁等待,可能是线程数过多或锁等待。


2. 内存性能瓶颈

内存层面容易出现的问题,主要分为“物理内存不足导x致 Swap 大量使用”与“CPU 缓存相关的并发伪共享”两种大类。下面我们逐项介绍如何通过系统工具进行排查。

在这里插入图片描述

2.1 操作系统层面的内存分布

  • 物理内存(RAM):实际安装在主板上的内存条容量,例如 4GB、8GB 等。
  • 虚拟内存(Swap):将磁盘划分一部分用作内存,当物理内存不足时,操作系统会将部分冷数据迁移到 Swap 以腾出空间。虚拟内存容量 = 物理内存 + Swap 分区。
  • 共享内存(Shared Memo ry):多个进程可以映射同一段物理内存,用于进程间高速通信。例如,/dev/shm、某些动态链接库(.so 文件)加载到内存后可被多个进程复用。
  • 逻辑内存(Virtual Address):每个进程看到的“线性地址空间”,操作系统通过页表将其映射到实际的物理内存或 Swap。这也是为什么你在程序中看到的指针地址并非物理地址的原因。

注意:当物理内存 + Swap 均被占满时,新的内存请求会导致 OOM(OutOfMemory)或进程被杀死。

2.2 top 命令 —— VIRT / RES / SHR 三个关键列

在这里插入图片描述

top 中查看进程时,内存相关列通常有:

  • VIRT(Virtual Memory Size):进程使用的虚拟内存大小,包括代码段、库、堆、栈以及已映射但未实际占用物理内存的区域。通常很大,但并不代表真正占用物理内存。
  • RES(Resident Memory Size)进程当前实际占用的物理内存大小,也是最需要关注的数值。如果某个 Java 进程的 RES 一直飙高,说明物理内存压力较大。
  • SHR(Shared Memory Size):进程占用的可被其他进程共享的内存大小,例如共享库部分。如果多进程复用同一 .so 文件,这部分会重复显示在各个进程的 SHR 中。

监控要点

  • 持续监测关键服务(如 JVM 进程、数据库进程)的 RES 值。
  • 若系统物理内存使用已接近 phy_total – (buffer + cache),并且 Swap 使用量不断增长,则要警惕可能发生的内存抖动与性能下降。

2.3 CPU 缓存与伪共享

在这里插入图片描述

CPU 与主内存(DRAM)之间的速度差通常超过百倍,因而多级缓存(L1、L2、L3)成为不可或缺的高速存储层次:

  • L1 Cache:通常 32KB 左右(分为数据缓存与指令缓存),访问延迟约 4 ~ 5 周期;
  • L2 Cache:通常 256KB ~ 512KB,访问延迟约 12 ~ 15 周期;
  • L3 Cache(若存在):几 MB 级别,延迟约 30 ~ 40 周期;

伪共享(False Sharing) 是并发编程中常见的性能陷阱:

  • 当多个线程频繁修改位于同一个 Cache line(通常 64 字节)内的不同变量时,每次写操作会导致该整行缓存失效,并在其他 CPU 核之间反复淘汰与重载,极大增加内存系统开销
  • 举例:假设两个线程分别修改位于同一 64 字节 Cache line 内的 ab 两个变量。线程 A 写 a 时,整个 Cache line 被标记为 Modified,线程 B 如果此后写 b,则需要从主内存或其他 CPU 的缓存中重新加载该 Cache line,才可再写;如此反复执行,会导致大量缓存一致性流量,严重拖慢性能。

要获得 Cache line 大小,可以执行:

在这里插入图片描述

cat /sys/devices/system/cpu/cpu0/cache/index0/coherency_line_size
cat /sys/devices/system/cpu/cpu0/cache/index1/coherency_line_size
cat /sys/devices/system/cpu/cpu0/cache/index2/coherency_line_size
cat /sys/devices/system/cpu/cpu0/cache/index3/coherency_line_sizecat /proc/cpuinfo | grep cache_alignment

通常返回 64 表示 64 字节的 Cache line 大小。

在 Java 8+ 中,可以通过在类字段上添加 @sun.misc.Contended 注解(并在启动参数中加上 -XX:-RestrictContended)来避免某些字段被放在同一 Cache line 中,从而缓解伪共享。但要谨慎使用,因为开启 @Contended 会导致对象头占用增加。更常见的做法是:

  • 手动在频繁并发写的变量之间插入“填充字段”(padding),确保它们位于不同 Cache 行;
  • 尽可能使用无锁/弱同步的数据结构,如 LongAdderConcurrentHashMap 等,减少多个线程对同一变量的写冲突。

2.4 HugePage 技术

在这里插入图片描述

当系统物理内存较大时,传统 4KB 大小的页表(Page)在 TLB(Translation Lookaside Buffer)中能映射的页数量有限,频繁发生 TLB miss 会带来高昂的页表查找开销。HugePage(大页)通过将单页大小从 4KB 改为 2MB(或甚至 1GB,在某些架构上),可以显著减少页表条目数量与 TLB miss 的几率。

  • TLB:CPU 内部的一个小型缓存,用来保存最近访问的虚拟地址与物理地址映射,当访问的页不在 TLB 中时,会发生 TLB miss,引发多次内存访问以查找页表。

  • 使用 HugePage 的好处

    1. 减少页表条目数量,从而提升 TLB 命中率;
    2. 减少内核在处理 TLB 缺失时的访问开销;
    3. 对于大内存数据库、高并发 Java 堆环境(如需要分配 几十 GB 堆),HugePage 能带来更稳定的访问延迟。
  • 配置方式(Linux 示例)

    1. 编辑 /etc/sysctl.conf,例如:

      vm.nr_hugepages = 1024   # 预留 1024 个 2MB 大页(约 2GB)
      
    2. 重新加载:sysctl -p,并在 JVM 启动时添加 -XX:+UseLargePages-XX:UseTransparentHugePages(内核支持自动管理)。

  • 注意:HugePage 在申请时需要连续物理内存,如果系统已经运行很久并且内存较为分散,可能会申请失败;常见做法是在系统启动时一并保留大页。

2.5 预先加载(AlwaysPreTouch)

默认情况下,JVM 在启动过程中会根据 -Xms(初始堆)和 -Xmx(最大堆)设置为堆预留地址空间,但实际物理内存分配仅在真正访问某个页面时才发生(所谓“按需分配”)。

  • 添加参数 -XX:+AlwaysPreTouch 后,JVM 会在启动时预先触碰(touch)堆内存中的所有页面,使操作系统一次性分配所有物理页面。

  • 优点

    1. 在后续运行时能保证页面映射已经就绪,减少首次访问时因页面分配带来的延迟;
    2. 对于实时性要求较高的服务,可以避免运行过程中出现大规模“页面分配阻塞”。
  • 缺点:启动时间会明显变长,尤其是堆较大时需触摸的页更多;而且如果常驻内存要占用大量物理页,系统需要保证提前就有足够空闲内存。


3. I/O 性能瓶颈

在这里插入图片描述

I/O 子系统通常是整台机器中最慢的部分,因此一旦 I/O 无法跟上 CPU 和内存的处理速度,就会导致 iowait 升高、响应延迟拉长。下面介绍如何使用常用工具判断与排查 I/O 瓶颈。

3.1 硬盘读写性能差异

首先,了解不同存储介质的读写特性:

  • 机械硬盘(HDD):顺序读写性能较好(几十 MB/s 到上百 MB/s),但随机读写性能极差(可能只有几 MB/s)。
  • SSD(固态硬盘):顺序读写与随机读写性能都较高,但相对机械盘而言,顺序写入略逊一筹;而随机小文件 I/O 性能可达数十万 IOPS。
  • 内存(RAM):读写带宽可达数十 GB/s,延迟仅几十纳秒。

由于 CPU 与内存之间的速度差已经很大(百倍以上),因此存储层与内存层之间的速度差则更为悬殊:

CPU 缓存(L1):几十 GB/s,延迟 ~4 周期  
内存(DRAM):几十 GB/s,延迟 ~100 纳秒  
SSD 顺序写:500 MB/s ~ 1 GB/s,延迟数十 微秒  
SSD 随机写:1 ~ 10 MB/s (取决于块大小),延迟 ~100 微秒 ~ 1 毫秒  
机械盘随机写:1 ~ 5 MB/s,延迟 >1 毫秒  

因此,在某些高并发场景下,尤其要尽量减少随机 I/O、避免小文件频繁读写。

“磁盘的速度这么慢,为什么 Kafka 操作磁盘,吞吐量还能那么高?”

磁盘之所以“慢”,主要瓶颈在“寻道”(seek time)操作上。根据 Kafka 官方测试,机械硬盘的寻道时长平均可达到 10ms 左右。与此同时,磁盘对顺序写入与随机写入的性能差距极大——顺序写的吞吐往往是随机写的数千倍。Kafka 恰好将写日志(append log)设计为顺序写

  • 每条消息追加到分区对应的日志文件末尾,磁头仅需在当前写入位置连续移动,不要频繁跳转;
  • 借助操作系统页缓存(PageCache)和批量刷盘(batch flush)策略,将多条消息合并为一次大块写入,进一步降低寻道带来的延迟;
  • 通过零拷贝(sendfile)技术,将磁盘页缓存直接传输给网络套接字,减少内核与用户空间之间的内存拷贝。

因此,虽然机械磁盘的“随机写”极慢,但 Kafka 最大化地利用了“顺序写”的高吞吐特性,进而在每秒百万级消息写入场景下依然能够保持很高的磁盘利用率与整体吞吐。


3.2 top/vmstat 中的 wa 指标

在这里插入图片描述

top 中,wa(iowait)列显示 CPU 因等待 I/O 完成而空闲的百分比;在 vmstat 输出中同样会显示 wa

  • 如果 wa 持续超过 10%,意味着有大量进程在等待 I/O 完成,此时系统整体吞吐将明显下降。
  • b(Uninterruptible Sleep) 大于 0 时,也表明某些进程在等待 I/O。

案例:某 Web 服务在高并发下突然响应变慢,top 发现 id 几乎为 0,wa 常驻 20% 左右,说明大量请求在等待磁盘写日志或数据库 IO,可结合 iostat 查明是日志盘还是数据库盘出现瓶颈。

3.3 iostat 命令 —— 磁盘 I/O 细节指标

在这里插入图片描述

iostat -x 2(每 2 秒刷新一次扩展统计)能够展示各块设备(Device)的详细 I/O 性能指标,例如:

Device:         rrqm/s wrqm/s   r/s   w/s  rMB/s wMB/s avgrq-sz avgqu-sz  await  r_await w_await  svctm  %util
sda               0.00   20.00  0.50 10.00   0.02   0.80    160.00     5.20  30.40   10.20   35.80   2.80 28.00
sdb               0.00    0.00  0.00  0.10   0.00   0.01     80.00     0.02  20.00    0.00   20.00   2.00  0.20

重点关注以下几列:

  • %util设备利用率,表示磁盘忙碌时间占比。一般当 %util 超过 80% 时,就说明该块设备压力过大。
  • avgqu-sz(Average Queue Size):平均请求队列长度,类似“路口排队汽车数”。数值越小越好;若大于 5 左右,就要警惕排队严重。
  • await(Average Wait Time):平均请求等待时长(ms),包括排队时间与服务时间,经验上若 await > 5 ms,就说明磁盘响应变慢;若 await > 10 ms,说明磁盘 I/O 瓶颈明显。
  • svctm(Service Time):平均服务时间(ms),只包含处理时间(不含排队)。当 awaitsvctm 差距很大时,说明排队时间占比大;当两者接近时,说明磁盘本身速度接近瓶颈。

阈值参考

  • %util > 80%:磁盘带宽已接近极限;
  • avgqu-sz > 5 :队列较长,建议分散 I/O 或扩容;
  • await > 10 ms:I/O 响应明显变慢。

3.4 零拷贝原理与实践

在传统的数据从磁盘写入网络的流程中,需要 CPU 较多参与:

  1. read():将磁盘数据从内核空间拷贝到用户空间;
  2. write():将用户空间的数据再次拷贝回内核空间的网络缓冲区;
  3. 网络发送:内核将网络缓冲区数据通过网卡发出。

中间的两次拷贝(磁盘→内核→用户、用户→内核→网卡)都要经过内存拷贝,且需要在用户态与内核态之间频繁切换,增加了 CPU 与内存总线负担。

传统流程(无零拷贝)

在这里插入图片描述

磁盘 → [内核页缓存] → <拷贝> → [用户缓冲区] → <拷贝> → [网络缓冲区] → 网络发送

零拷贝(以 sendfile 为例)

在这里插入图片描述

磁盘 → [内核页缓存] ——sendfile——> [网络缓冲区] → 网络发送
  • 减少一次内存拷贝:sendfile 系统调用让内核直接将页缓存映射到网络缓冲区,省去磁盘→用户空间→内核网络缓存的拷贝。
  • 减少用户态/内核态切换:应用直接调用 sendfile(fd_in, fd_out, ...),内核内部完成整条链路数据流动,无需在中间将数据暴露到用户空间。

应用场景

  • Kafka:批量顺序写入磁盘并直接 sendfile 将日志 segment 切片零拷贝到 socket;
  • Nginx:静态文件服务时,使用 sendfile 减少 CPU 拷贝开销;
  • Netty:在 Linux 平台可结合 FileRegionsendfile 实现高效大文件传输。

并非所有场景都适合零拷贝:

  • 如果需要对文件内容做二次加工(如压缩、加密、转换等),就无法直接用 sendfile;
  • 若数据源并非文件而是来自内存生成的动态内容,则零拷贝价值有限。

小结

重点从“计算机资源短板”角度,阐述了 CPU、内存与 I/O 三大组件易成瓶颈的典型特征,以及如何通过 Linux 工具进行初步诊断:

  1. CPU

    • top 查看 us、sy、ni、wa、hi、si、st、id 等多维度指标;
    • load average 结合 CPU 核心数评估任务排队情况;
    • vmstat 查看 bsi/socs 等指标,判断 I/O 等待与上下文切换开销。
  2. 内存

    • 理解物理内存、虚拟内存(Swap)、共享内存与逻辑内存的关系;
    • 关注 top 中的 VIRT/RES/SHR,重点监控进程实际占用物理内存(RES)与 Swap 使用情况;
    • 理解多级 CPU 缓存架构及伪共享带来的惨重开销,学会使用 @Contended 或手动填充(Padding)缓解问题;
    • 掌握 HugePage 技术以减少 TLB miss 开销,了解 JVM -XX:+AlwaysPreTouch 预先加载对启动与运行性能的影响。
  3. I/O

    • 认识机械盘、SSD、内存之间的性能差异;
    • topvmstat 中关注 wab,结合 iostat%utilavgqu-szawaitsvctm 指标判断磁盘负载与响应状况;
    • 理解零拷贝原理,掌握何时通过 sendfile 等机制减少内核与用户空间拷贝,以提升大数据量传输效率。

这些方法只能帮助我们对 CPU、内存与 I/O 的基本瓶颈进行“定性判定”,但要精准到“真正的问题根源”——例如,哪个具体线程在抢占 CPU?哪个函数导致频繁上下文切换?哪个文件或逻辑请求引起高磁盘 I/O?——还需要依赖更深入的性能分析工具(如 perf、eBPF、JVM Flight Recorder、系统追踪工具等)收集更细粒度的数据。

在这里插入图片描述

相关文章:

  • Unity3D仿星露谷物语开发57之保存库存信息到文件
  • 精简多功能办公软件
  • CodeTop100 Day18
  • 用 Pandera 高效验证和清洗 Pandas 数据集——实用分步指南
  • offset三大家族
  • stm32默认复位刚开始由hsi作为主时钟源而后来才换成的pll
  • 硬件开发全解:从入门教程到实战案例与丰富项目资源
  • 【深度学习】14. DL在CV中的应用章:目标检测: R-CNN, Fast R-CNN, Faster R-CNN, MASK R-CNN
  • Python实现P-PSO优化算法优化循环神经网络LSTM分类模型项目实战
  • day23-计算机网络-1
  • Deepin 23.10安装Docker
  • Rk3568驱动开发_GPIO点亮LED_12
  • 生成https 证书步骤
  • Express中使用MySQL数据库的完整示例
  • VS Code / Cursor 将默认终端设置为 CMD 完整指南
  • C++:指针(Pointers)
  • 深入理解CSS常规流布局
  • SQL Server 事务详解:概念、特性、隔离级别与实践
  • 关于5090安装tensorrt(python api)的过程
  • reverse_ssh 建立反向 SSH 连接指南 混淆AV [好东西哟]
  • 做网站哪里/seo排名啥意思
  • 贵州网站建设设计公司/百家号关键词seo优化
  • 购物平台需要什么资质/宁波seo优化服务
  • 怎么做网页调查问卷/seo学堂
  • 涿州做网站/1688自然排名怎么做好
  • wordpress网站工具栏/排名前十的小说