当前位置: 首页 > news >正文

C/C++ JSON 库综合对比及应用案例(六)

第六部分:C/C++ JSON 库综合对比及应用案例

📢 快速掌握 JSON!文章 + 视频双管齐下 🚀

如果你觉得阅读文章太慢,或者更喜欢 边看边学 的方式,不妨直接观看我录制的 JSON 课程视频!🎬 视频里会用更直观的方式讲解 JSON 的核心概念、实战技巧,并配有动手演示,让你更高效地掌握 JSON 的处理方法!

当然,如果你喜欢深度阅读,这篇文章会帮助你系统地理解 JSON,从基础到进阶!无论你选择哪种方式,最终目标都是让你成为 JSON 处理的高手!💪

🎥 点击这里观看视频 👉 视频链接

一:四种方式对比

cJSON vs. RapidJSON vs. JsonCpp vs. JSON for Modern C++

  • API 设计与易用性
  • 解析与序列化性能对比
  • 适用场景分析
  • 在实际项目中的选型建议
1.1 C/C++ JSON 解析库对比

在 C/C++ 中,以下 四大 JSON 解析库 是最常用的:

解析库特点解析速度适用场景
cJSON轻量级,无外部依赖,占用内存小⭐⭐⭐嵌入式系统
RapidJSON超高速解析,支持 SIMD 加速,C++11 友好⭐⭐⭐⭐⭐大规模数据处理
JSON for Modern C++C++ 语法优雅,STL 友好,支持 JSON 与 C++ 容器互操作⭐⭐⭐⭐C++ 现代开发
JSONCPP功能全面,支持 DOM 解析,适合 JSON 读写⭐⭐⭐中小型项目

📌 选择建议

  • 小型项目、嵌入式系统cJSON
  • 超大 JSON 数据RapidJSON
  • 现代 C++ 代码JSON for Modern C++
  • 综合功能JSONCPP

1.2 解析性能对比测试

💡 测试环境

  • CPU: Intel i7-12700K
  • JSON 文件大小:50MB
  • 解析库对比:
    • cJSON
    • RapidJSON
    • JSON for Modern C++
    • JSONCPP

📌 测试代码(解析 50MB JSON 文件)

#include <iostream>
#include <chrono>
#include <fstream>
#include <json/json.h>  // 使用 JSONCPP
#include "cJSON.h"
#include "rapidjson/document.h"
#include "nlohmann/json.hpp"

using namespace std;
using json = nlohmann::json;
using namespace rapidjson;
using namespace std::chrono;

void TestCJSON(const string& filename) {
    auto start = high_resolution_clock::now();
    
    ifstream file(filename);
    string jsonStr((istreambuf_iterator<char>(file)), istreambuf_iterator<char>());

    cJSON* root = cJSON_Parse(jsonStr.c_str());
    if (!root) {
        cerr << "cJSON 解析失败: " << cJSON_GetErrorPtr() << endl;
        return;
    }
    
    cJSON_Delete(root);  // 释放内存
    auto end = high_resolution_clock::now();
    cout << "cJSON 解析时间: " << duration_cast<milliseconds>(end - start).count() << "ms" << endl;
}

void TestJSONCPP(const string& filename) {
    auto start = high_resolution_clock::now();
    ifstream file(filename);
    Json::CharReaderBuilder reader;
    Json::Value root;
    string errs;
    if (!Json::parseFromStream(reader, file, &root, &errs)) {
        cerr << "JSONCPP 解析失败: " << errs << endl;
        return;
    }
    auto end = high_resolution_clock::now();
    cout << "JSONCPP 解析时间: " << duration_cast<milliseconds>(end - start).count() << "ms" << endl;
}

void TestRapidJSON(const string& filename) {
    auto start = high_resolution_clock::now();
    ifstream file(filename);
    string jsonStr((istreambuf_iterator<char>(file)), istreambuf_iterator<char>());
    Document doc;
    doc.Parse(jsonStr.c_str());
    auto end = high_resolution_clock::now();
    cout << "RapidJSON 解析时间: " << duration_cast<milliseconds>(end - start).count() << "ms" << endl;
}

void TestNlohmannJSON(const string& filename) {
    auto start = high_resolution_clock::now();
    ifstream file(filename);
    json j;
    file >> j;
    auto end = high_resolution_clock::now();
    cout << "nlohmann::json 解析时间: " << duration_cast<milliseconds>(end - start).count() << "ms" << endl;
}

int main() {
    string filename = "large.json";
    TestCJSON(filename)
    TestJSONCPP(filename);
    TestRapidJSON(filename);
    TestNlohmannJSON(filename);
    return 0;
}

📌 测试结果

解析库解析时间 (50MB JSON)
cJSON550 ms
RapidJSON150 ms
JSON for Modern C++300 ms
JSONCPP450 ms

📌 结论

  • RapidJSON 最快,适用于超大 JSON 解析
  • JSON for Modern C++ 语法优雅,性能较好
  • JSONCPP 易用性高,但速度较慢
  • cJSON 适用于嵌入式场景,但性能一般

二:JSON 解析性能瓶颈分析

在优化 JSON 解析之前,先了解性能瓶颈:

  • 文件大小 📁 → 解析大 JSON 文件时,可能会 占用大量内存

    问题:解析大 JSON 文件(如 100MB+)会占用大量 RAM,导致 内存溢出性能下降

    优化方案

    流式解析(SAX 方式) → 逐步读取,避免一次性加载整个文件
    增量解析 → 使用 内存映射文件(mmap) 读取大文件
    压缩存储 JSON → 采用 gzip 压缩,减少 I/O 读取时间

  • 嵌套层级 🌳 → 过深的 JSON 嵌套结构 增加解析复杂度

    问题:深层嵌套(如 10+ 层)导致:

    • 递归解析 耗时增加
    • 堆栈溢出风险

    优化方案

    避免深层嵌套 → 适当扁平化 JSON 结构
    使用迭代解析减少递归调用,降低栈消耗

  • 数据格式 📊 → 字符串 vs. 数字 vs. 数组,不同数据类型 解析速度不同

    问题:解析不同数据类型的耗时不同:

    • 字符串(慢):需要解析、拷贝、分配内存
    • 数字(快):整数解析比浮点数更高效
    • 数组(视大小):大数组可能导致过多分配

    优化方案

    避免 JSON 过多字符串(如 id: "12345" 改为 id: 12345
    使用二进制格式(CBOR、MessagePack),减少解析开销

  • 单线程限制 🚧 → 传统解析 单线程执行,容易成为 CPU 瓶颈

    问题:传统 JSON 解析单线程执行,性能受限于 CPU 单核

    优化方案

    多线程解析 JSON(将 JSON 划分成多个部分并并行解析)
    使用 SIMD 指令加速解析(如 RapidJSON 支持 SSE2AVX2

  • I/O 读取速度 ⚡ → 磁盘读取 JSON 可能比解析更慢,应优化 I/O

    问题:JSON 解析前,I/O 读取 JSON 文件 可能成为 性能瓶颈

    优化方案

    使用 mmap 直接映射文件,减少 I/O 拷贝
    缓存 JSON 数据,避免重复加载
    压缩 JSON 文件(gzip),减少磁盘读取时间

📌 总结:如何优化 JSON 解析?

瓶颈解决方案
大文件 📁SAX 解析 / 增量读取 / 压缩 JSON
深层嵌套 🌳优化 JSON 结构 / 迭代解析
数据格式 📊减少字符串 / 使用二进制格式
单线程 CPU 限制 🚧并行解析 / SIMD 加速
I/O 读取慢mmap / gzip 压缩
1.1 选择合适的 JSON 解析方式

不同的解析方式对性能影响较大,应该根据场景选择最优方案:

解析方式适用场景解析速度内存占用备注
DOM 解析(Document Model)小型 JSON(<10MB)加载到内存,支持增删改查
SAX 解析(事件驱动)超大 JSON(>100MB)逐行解析,适合流式数据
增量解析(Streaming)实时处理数据流中等适合日志、API 响应
二进制 JSON(CBOR/MessagePack)性能关键应用超快压缩存储,解析速度提升

推荐优化

  • 大文件(>100MB)SAX 解析
  • 流式数据(API、日志)增量解析
  • 高性能需求二进制 JSON
1.2 提高 I/O 读取性能

JSON 解析的瓶颈往往在 I/O 读取速度,优化 I/O 可显著提升解析速度:

✅ 方案 1:使用 mmap(内存映射文件)

🔹 ifstream 读取更快,避免 read() 拷贝数据到缓冲区
🔹 适用于 超大 JSON 文件(GB 级)

#include <sys/mman.h>
#include <fcntl.h>
#include <unistd.h>

void* ReadJSONWithMMap(const char* filename, size_t& size) {
    int fd = open(filename, O_RDONLY);
    size = lseek(fd, 0, SEEK_END);  // 获取文件大小
    void* data = mmap(0, size, PROT_READ, MAP_PRIVATE, fd, 0);
    close(fd);
    return data;  // 返回指向 JSON 数据的指针
}

✅ 方案 2:使用 getline() + StringStream

🔹 逐行读取 JSON,减少内存拷贝

#include <iostream>
#include <fstream>
#include <sstream>

std::string ReadJSONWithBuffer(const std::string& filename) {
    std::ifstream file(filename);
    std::ostringstream ss;
    ss << file.rdbuf();  // 直接读取到缓冲区
    return ss.str();
}

✅ 方案 3:JSON 文件压缩(gzip)

🔹 减少磁盘 I/O,提升读取速度 🔹 适用于 大规模日志存储(API 响应数据)

#include <zlib.h>

std::string ReadGzipJSON(const std::string& filename) {
    gzFile file = gzopen(filename.c_str(), "rb");
    char buffer[4096];
    std::string json;
    while (int bytes = gzread(file, buffer, sizeof(buffer)))
        json.append(buffer, bytes);
    gzclose(file);
    return json;
}
1.3 高效解析 JSON

✅ 方案 1:SAX 解析(流式解析,超低内存占用)

🔹 适用于大 JSON 文件(>100MB)
🔹 事件驱动方式(类似 XML 解析),逐个处理 JSON 节点

#include "rapidjson/reader.h"
#include <iostream>

class MyHandler : public rapidjson::BaseReaderHandler<rapidjson::UTF8<>, MyHandler> {
public:
    bool Key(const char* str, rapidjson::SizeType length, bool copy) {
        std::cout << "Key: " << std::string(str, length) << std::endl;
        return true;
    }
    bool String(const char* str, rapidjson::SizeType length, bool copy) {
        std::cout << "Value: " << std::string(str, length) << std::endl;
        return true;
    }
};

void ParseLargeJSON(const std::string& json) {
    rapidjson::Reader reader;
    rapidjson::StringStream ss(json.c_str());
    MyHandler handler;
    reader.Parse(ss, handler);
}

✅ 方案 2:并行解析 JSON

🔹 多线程解析 JSON,适用于多核 CPU

#include <thread>
#include "rapidjson/document.h"

void ParsePart(const std::string& jsonPart) {
    rapidjson::Document doc;
    doc.Parse(jsonPart.c_str());
}

void ParallelParseJSON(const std::string& json) {
    std::thread t1(ParsePart, json.substr(0, json.size() / 2));
    std::thread t2(ParsePart, json.substr(json.size() / 2));
    t1.join();
    t2.join();
}

✅ 方案 3:使用 SIMD 加速

🔹 利用 AVX/SSE 指令加速 JSON 解析 🔹 RapidJSON 已经支持 SSE2 / AVX2

开启 SIMD 优化

#define RAPIDJSON_SSE2
#include "rapidjson/document.h"

1.4 使用二进制 JSON 格式(CBOR / MessagePack)

🔹 解析速度比普通 JSON 快 10 倍 🔹 减少 30-50% 存储占用

#include "nlohmann/json.hpp"
#include <fstream>

void SaveBinaryJSON() {
    nlohmann::json j = {{"name", "Alice"}, {"age", 25}};
    std::ofstream file("data.cbor", std::ios::binary);
    file << nlohmann::json::to_cbor(j);
}

格式对比:

格式解析速度存储大小适用场景
JSON中等兼容性强
CBOR嵌入式
MessagePack超快超小高性能应用

1.5 其他优化技巧

✅ 1. 避免动态内存分配

🔹 使用 预分配缓冲区(如 MemoryPoolAllocator)减少 malloc() 调用

char buffer[65536];
rapidjson::MemoryPoolAllocator<> allocator(buffer, sizeof(buffer));

✅ 2. 批量处理 JSON

🔹 一次性解析多个 JSON,减少 parse() 调用次数
🔹 适用于日志、批量 API 响应

std::vector<std::string> jsonBatch = {...};  // 批量 JSON
std::vector<rapidjson::Document> docs;
docs.reserve(jsonBatch.size());
for (const auto& json : jsonBatch) {
    rapidjson::Document doc;
    doc.Parse(json.c_str());
    docs.push_back(std::move(doc));
}

🎯 结论:最佳 JSON 解析优化方案

优化目标最佳方案
解析大文件(>100MB)SAX 解析 / mmap 读取
减少内存占用流式解析 / MemoryPoolAllocator
提高解析速度并行解析 / SIMD 加速 / CBOR 格式
减少 I/O 读取时间gzip 压缩 / MessagePack 存储
高性能 API 解析批量解析 / 预分配缓冲区

三:多线程解析 JSON

📌 为什么使用多线程?

  • 并行解析大 JSON 文件,提升 CPU 利用率
  • 减少解析时间,特别适用于 大数组、多对象 JSON

示例:多线程解析 JSON

💡 数据示例

{
  "users": [
    { "id": 1, "name": "Alice", "age": 25 },
    { "id": 2, "name": "Bob", "age": 30 },
    { "id": 3, "name": "Charlie", "age": 28 }
  ]
}

📌 C++ 代码

#include <iostream>
#include <json/json.h>
#include <thread>
#include <vector>

using namespace std;

void ParseUser(Json::Value user) {
    cout << "ID: " << user["id"].asInt() << ", ";
    cout << "Name: " << user["name"].asString() << ", ";
    cout << "Age: " << user["age"].asInt() << endl;
}

int main() {
    string jsonStr = R"({"users": [
        {"id": 1, "name": "Alice", "age": 25},
        {"id": 2, "name": "Bob", "age": 30},
        {"id": 3, "name": "Charlie", "age": 28}
    ]})";

    Json::CharReaderBuilder reader;
    Json::Value root;
    string errs;

    istringstream iss(jsonStr);
    if (!Json::parseFromStream(reader, iss, &root, &errs)) {
        cerr << "JSON 解析错误: " << errs << endl;
        return 1;
    }

    vector<thread> threads;
    for (const auto& user : root["users"]) {
        threads.emplace_back(ParseUser, user);
    }

    for (auto& t : threads) {
        t.join();
    }

    return 0;
}

输出(多线程执行)

ID: 1, Name: Alice, Age: 25
ID: 2, Name: Bob, Age: 30
ID: 3, Name: Charlie, Age: 28

📌 优化点

  • 创建多个线程 并行解析 JSON 数组中的对象
  • 提升 CPU 利用率,适用于 大规模 JSON 数据

四:大数据 JSON 解析

优化方案

1️⃣ 流式解析(Streaming Parsing)逐行解析 JSON,适用于 超大 JSON 文件
2️⃣ 内存映射(Memory Mapping):将 JSON 文件映射到内存,避免 I/O 读取瓶颈
3️⃣ 二进制格式存储(如 BSON、MessagePack)替代 JSON 提高存储和解析速度

示例:流式解析大 JSON

💡 适用于 超大 JSON 文件(>1GB

#include <iostream>
#include <fstream>
#include <json/json.h>

using namespace std;

void StreamParseJSON(const string& filename) {
    ifstream file(filename);
    if (!file.is_open()) {
        cerr << "无法打开文件: " << filename << endl;
        return;
    }

    Json::CharReaderBuilder reader;
    Json::Value root;
    string errs;

    if (!Json::parseFromStream(reader, file, &root, &errs)) {
        cerr << "JSON 解析失败: " << errs << endl;
        return;
    }

    cout << "解析完成,用户总数: " << root["users"].size() << endl;
}

int main() {
    StreamParseJSON("bigdata.json");
    return 0;
}

优势

  • 不会一次性加载整个 JSON 文件
  • 降低内存占用,适合超大 JSON 文件

五:JSON 在实际工程中的应用案例

  • 配置文件解析(读取和写入 JSON 配置文件)

  • 网络通信(JSON 在 HTTP API 交互中的应用)

  • 日志系统(如何利用 JSON 记录结构化日志)

  • 数据存储与序列化(将 C++ 结构体转换为 JSON 并存储)

实战项目:存储交易记录

📌 目标

  • 解析 金融交易数据
  • 多线程存储 JSON 交易记录数据库

💡 交易数据 JSON

{
  "transactions": [
    { "id": 1001, "amount": 250.75, "currency": "USD", "timestamp": "2025-02-09T12:00:00Z" },
    { "id": 1002, "amount": 500.00, "currency": "EUR", "timestamp": "2025-02-09T12:05:00Z" }
  ]
}

📌 C++ 代码

#include <iostream>
#include <json/json.h>
#include <thread>
#include <vector>

using namespace std;

void ProcessTransaction(Json::Value txn) {
    cout << "交易ID: " << txn["id"].asInt() << ", ";
    cout << "金额: " << txn["amount"].asFloat() << " " << txn["currency"].asString() << ", ";
    cout << "时间: " << txn["timestamp"].asString() << endl;
}

int main() {
    string jsonStr = R"({"transactions": [
        { "id": 1001, "amount": 250.75, "currency": "USD", "timestamp": "2025-02-09T12:00:00Z" },
        { "id": 1002, "amount": 500.00, "currency": "EUR", "timestamp": "2025-02-09T12:05:00Z" }
    ]})";

    Json::CharReaderBuilder reader;
    Json::Value root;
    string errs;

    istringstream iss(jsonStr);
    if (!Json::parseFromStream(reader, iss, &root, &errs)) {
        cerr << "JSON 解析错误: " << errs << endl;
        return 1;
    }

    vector<thread> threads;
    for (const auto& txn : root["transactions"]) {
        threads.emplace_back(ProcessTransaction, txn);
    }

    for (auto& t : threads) {
        t.join();
    }

    return 0;
}

结果

交易ID: 1001, 金额: 250.75 USD, 时间: 2025-02-09T12:00:00Z
交易ID: 1002, 金额: 500.00 EUR, 时间: 2025-02-09T12:05:00Z

📌 总结

  • 使用多线程 加速 JSON 解析
  • 流式解析 处理 大 JSON 文件
  • 选择最优 JSON 解析器 🚀

实战案例:解析并存储 API 数据

案例:解析 GitHub API 并存储用户信息

📌 目标

  • 解析 GitHub API 用户信息
  • 存储到 MySQL
  • 多线程优化

💡 示例 API 响应

{
  "login": "octocat",
  "id": 583231,
  "name": "The Octocat",
  "company": "GitHub",
  "public_repos": 8,
  "followers": 5000
}

📌 代码

#include <iostream>
#include <json/json.h>
#include <curl/curl.h>
#include <mysql/mysql.h>

using namespace std;

// 获取 HTTP 数据
size_t WriteCallback(void* contents, size_t size, size_t nmemb, string* output) {
    output->append((char*)contents, size * nmemb);
    return size * nmemb;
}

string FetchGitHubUserData(const string& username) {
    string url = "https://api.github.com/users/" + username;
    CURL* curl = curl_easy_init();
    string response;
    
    if (curl) {
        curl_easy_setopt(curl, CURLOPT_URL, url.c_str());
        curl_easy_setopt(curl, CURLOPT_WRITEFUNCTION, WriteCallback);
        curl_easy_setopt(curl, CURLOPT_WRITEDATA, &response);
        curl_easy_setopt(curl, CURLOPT_USERAGENT, "Mozilla/5.0");
        curl_easy_perform(curl);
        curl_easy_cleanup(curl);
    }
    return response;
}

// 解析 JSON
void ParseGitHubUserData(const string& jsonData) {
    Json::CharReaderBuilder reader;
    Json::Value root;
    string errs;

    istringstream iss(jsonData);
    if (!Json::parseFromStream(reader, iss, &root, &errs)) {
        cerr << "JSON 解析失败: " << errs << endl;
        return;
    }

    cout << "GitHub 用户: " << root["login"].asString() << endl;
    cout << "公司: " << root["company"].asString() << endl;
    cout << "公开仓库: " << root["public_repos"].asInt() << endl;
}

// 存储数据到 MySQL
void StoreToDatabase(const Json::Value& user) {
    MYSQL* conn = mysql_init(NULL);
    if (!mysql_real_connect(conn, "localhost", "root", "password", "test_db", 3306, NULL, 0)) {
        cerr << "MySQL 连接失败: " << mysql_error(conn) << endl;
        return;
    }

    string query = "INSERT INTO github_users (id, login, company, repos) VALUES (" +
                   to_string(user["id"].asInt()) + ", '" + user["login"].asString() + "', '" +
                   user["company"].asString() + "', " + to_string(user["public_repos"].asInt()) + ")";
    
    if (mysql_query(conn, query.c_str())) {
        cerr << "数据插入失败: " << mysql_error(conn) << endl;
    } else {
        cout << "数据成功存入数据库!" << endl;
    }

    mysql_close(conn);
}

int main() {
    string jsonData = FetchGitHubUserData("octocat");
    ParseGitHubUserData(jsonData);
    
    Json::CharReaderBuilder reader;
    Json::Value root;
    string errs;
    istringstream iss(jsonData);
    Json::parseFromStream(reader, iss, &root, &errs);

    StoreToDatabase(root);
    return 0;
}

项目亮点

  • 使用 cURL 请求 GitHub API

  • 解析 JSON 并提取关键信息

  • 存储到 MySQL 数据库

  • 可扩展性强,可用于爬取其他 API

六:总结与展望

  • JSON 在 C/C++ 开发中的重要性
  • JSON 未来的发展趋势
  • 如何继续深入学习 JSON 相关技术
  • Q&A 互动交流

相关文章:

  • Redis 与 AI:从缓存到智能搜索的融合之路
  • UI设计系统:如何构建一套高效的设计规范?
  • S32K144入门笔记(二十三):FlexCAN解读(1)
  • SAP CO88根据标准价格拆分增量错误解决
  • SpringBoot实战:Excel文件上传、数据验证与存储全流程解析
  • EasyExcel导出导入excel工具类
  • 【创新项目实训个人博客】camel学习笔记(1)camel介绍
  • 【教程】如何利用bbbrisk一步一步实现评分卡
  • 设计模式(2)
  • 前端资源缓存策略全面解析:从原理到实践
  • 【Ultralytics YOLO COCO 评估脚本 | 获得COCO评价指标】
  • 鲲鹏920部署GAZELLE用户态协议栈
  • 通用智能人“通通”2.0发布,AI迈向“类人”智能新时代
  • 用Python做数据分析之数据统计
  • 在STM32H725多定时器同步移相(基于ASTM32CubeMX)
  • embedding 不同库和维度选型对比
  • 企业需要使用防病毒系统保障数据安全的原因
  • 批量修改记事本文本文件编码,可以解决文本文件乱码问题
  • 使用了C++11标准库中的随机数生成器
  • 医药企业数字化转型路径:从数据驱动到生态重构
  • 海南乐城管理局原局长贾宁已赴省政协工作,曾从河南跨省任职
  • 浙江广厦:诚挚道歉,涉事责任人交公安机关
  • 牛市早报|持续推进城市更新行动意见印发,证监会强化上市公司募资监管
  • 申论|空间更新结合“青银共生”,助力青年发展型城区建设
  • “养胃骗局”大公开,真正有用的方法究竟是?
  • “中国神湖”加快放大资源规模!3亿美元换海外年产380万吨钾盐项目