当前位置: 首页 > news >正文

基于机器学习的侧信道分析(MLSCA)Python实现(带测试)

一、MLSCA原理介绍

基于机器学习的侧信道分析(MLSCA)是一种结合传统侧信道分析技术与现代机器学习算法的密码分析方法。该方法通过分析密码设备运行时的物理泄漏信息(如功耗、电磁辐射等),利用机器学习模型建立泄漏数据与密钥信息之间的关联模型,从而实现对密钥的恢复攻击。与传统分析方法相比,MLSCA能够自动提取特征并处理复杂的非线性关系,显著提高了攻击效率。

MLSCA的核心思想是将侧信道攻击转化为分类或回归问题。在本文中,攻击者针对AES算法的S盒输出汉明重量构建分类模型。汉明重量反映了数据在硬件处理时的功耗特征,是侧信道分析中最常用的泄漏模型之一。通过采集大量已知明文的功耗曲线,机器学习模型学习不同汉明重量对应的功耗模式特征,进而预测未知曲线对应的中间值,最终通过统计分析恢复出密钥信息。

该方法通常包含两个阶段:模板构建阶段和匹配攻击阶段。模板构建阶段使用已知密钥的功耗数据训练机器学习模型,建立中间值与功耗特征的映射关系。匹配攻击阶段则利用训练好的模型分析目标设备的未知功耗曲线,通过比较预测结果与假设中间值的匹配程度,逐步缩小密钥候选范围,最终确定最可能的密钥值。支持向量机(SVC)等分类算法在此过程中表现出色,能够有效处理高维非线性特征。

二、Python代码实现

1. 数据加载与预处理函数

load_trs_to_dict函数负责读取trs格式的侧信道数据文件,这种格式专门用于存储能量迹数据。该函数将文件头信息、能量迹曲线和附加参数分别存储在字典结构中,便于后续处理。函数支持指定读取的能量迹范围,有效管理内存使用。

get_intermediate_values函数根据AES算法的S盒操作生成中间值矩阵。它采用汉明重量作为泄漏模型,计算真实密钥和256种假设密钥对应的中间值。该函数返回两个关键矩阵:实际中间值向量和假设中间值矩阵,为后续的机器学习分析提供基础数据。

2. 机器学习核心组件

ProbCalculator类实现了密钥猜测的似然概率计算,采用对数似然累加方式评估各个密钥假设的可能性。该类维护一个256元素的数组,记录每个可能密钥的累积得分,支持增量更新和结果查询。

train_model函数使用支持向量机(SVC)作为分类器,训练模型建立能量迹特征与汉明重量标签之间的映射关系。SVC模型启用概率估计功能,可以输出每个类别的预测概率,这对后续的密钥排名计算至关重要。

3. 攻击评估与分析函数

single_attack函数执行单次攻击实验,通过分批处理能量迹数据并更新密钥似然值,跟踪真实密钥的排名变化。该函数体现了MLSCA的核心攻击流程,展示了如何利用训练好的模型逐步缩小密钥候选范围。

guess_entropy函数是综合评估模块,通过多次重复实验计算猜测熵和成功率两个关键指标。它自动记录攻击过程中密钥排名的演变情况,并统计达到特定成功率所需的最小能量迹数量,为评估攻击效果提供量化依据。

具体代码如下:

"""
对AES算法的软件实现进行基于机器学习的侧信道分析(MLSCA)的Python代码
泄漏模型:S盒输出的汉明重量
运行前先激活Python环境,执行pip install numpy tqdm trsfile matplotlib scikit-learn命令安装所需的库
'AES_POWER_STM32F_NO-PROTECT_60000.trs'是功耗曲线文件,请点击https://download.csdn.net/download/weixin_43261410/91057055免费下载
查看.trs格式文件介绍请浏览https://blog.csdn.net/weixin_43261410/article/details/148737286?fromshare=blogdetail&sharetype=blogdetail&sharerId=148737286&sharerefer=PC&sharesource=weixin_43261410&sharefrom=from_link
"""import os
import numpy as np
from sklearn.svm import SVC # 导入支持向量机
from tqdm import tqdm  # 用于显示进度条
from trsfile import trs_open  # 用于读取.trs格式的侧信道数据文件
import matplotlib.pyplot as plt  # 用于画图AES_SBOX = np.array([0x63, 0x7C, 0x77, 0x7B, 0xF2, 0x6B, 0x6F, 0xC5, 0x30, 0x01, 0x67, 0x2B, 0xFE, 0xD7, 0xAB, 0x76,0xCA, 0x82, 0xC9, 0x7D, 0xFA, 0x59, 0x47, 0xF0, 0xAD, 0xD4, 0xA2, 0xAF, 0x9C, 0xA4, 0x72, 0xC0,0xB7, 0xFD, 0x93, 0x26, 0x36, 0x3F, 0xF7, 0xCC, 0x34, 0xA5, 0xE5, 0xF1, 0x71, 0xD8, 0x31, 0x15,0x04, 0xC7, 0x23, 0xC3, 0x18, 0x96, 0x05, 0x9A, 0x07, 0x12, 0x80, 0xE2, 0xEB, 0x27, 0xB2, 0x75,0x09, 0x83, 0x2C, 0x1A, 0x1B, 0x6E, 0x5A, 0xA0, 0x52, 0x3B, 0xD6, 0xB3, 0x29, 0xE3, 0x2F, 0x84,0x53, 0xD1, 0x00, 0xED, 0x20, 0xFC, 0xB1, 0x5B, 0x6A, 0xCB, 0xBE, 0x39, 0x4A, 0x4C, 0x58, 0xCF,0xD0, 0xEF, 0xAA, 0xFB, 0x43, 0x4D, 0x33, 0x85, 0x45, 0xF9, 0x02, 0x7F, 0x50, 0x3C, 0x9F, 0xA8,0x51, 0xA3, 0x40, 0x8F, 0x92, 0x9D, 0x38, 0xF5, 0xBC, 0xB6, 0xDA, 0x21, 0x10, 0xFF, 0xF3, 0xD2,0xCD, 0x0C, 0x13, 0xEC, 0x5F, 0x97, 0x44, 0x17, 0xC4, 0xA7, 0x7E, 0x3D, 0x64, 0x5D, 0x19, 0x73,0x60, 0x81, 0x4F, 0xDC, 0x22, 0x2A, 0x90, 0x88, 0x46, 0xEE, 0xB8, 0x14, 0xDE, 0x5E, 0x0B, 0xDB,0xE0, 0x32, 0x3A, 0x0A, 0x49, 0x06, 0x24, 0x5C, 0xC2, 0xD3, 0xAC, 0x62, 0x91, 0x95, 0xE4, 0x79,0xE7, 0xC8, 0x37, 0x6D, 0x8D, 0xD5, 0x4E, 0xA9, 0x6C, 0x56, 0xF4, 0xEA, 0x65, 0x7A, 0xAE, 0x08,0xBA, 0x78, 0x25, 0x2E, 0x1C, 0xA6, 0xB4, 0xC6, 0xE8, 0xDD, 0x74, 0x1F, 0x4B, 0xBD, 0x8B, 0x8A,0x70, 0x3E, 0xB5, 0x66, 0x48, 0x03, 0xF6, 0x0E, 0x61, 0x35, 0x57, 0xB9, 0x86, 0xC1, 0x1D, 0x9E,0xE1, 0xF8, 0x98, 0x11, 0x69, 0xD9, 0x8E, 0x94, 0x9B, 0x1E, 0x87, 0xE9, 0xCE, 0x55, 0x28, 0xDF,0x8C, 0xA1, 0x89, 0x0D, 0xBF, 0xE6, 0x42, 0x68, 0x41, 0x99, 0x2D, 0x0F, 0xB0, 0x54, 0xBB, 0x16
], dtype=np.uint8)# 汉明重量查找表,用于快速计算一个字节的汉明重量(二进制中1的个数)
HW_ARRAY = np.array([0, 1, 1, 2, 1, 2, 2, 3, 1, 2, 2, 3, 2, 3, 3, 4,1, 2, 2, 3, 2, 3, 3, 4, 2, 3, 3, 4, 3, 4, 4, 5,1, 2, 2, 3, 2, 3, 3, 4, 2, 3, 3, 4, 3, 4, 4, 5,2, 3, 3, 4, 3, 4, 4, 5, 3, 4, 4, 5, 4, 5, 5, 6,1, 2, 2, 3, 2, 3, 3, 4, 2, 3, 3, 4, 3, 4, 4, 5,2, 3, 3, 4, 3, 4, 4, 5, 3, 4, 4, 5, 4, 5, 5, 6,2, 3, 3, 4, 3, 4, 4, 5, 3, 4, 4, 5, 4, 5, 5, 6,3, 4, 4, 5, 4, 5, 5, 6, 4, 5, 5, 6, 5, 6, 6, 7,1, 2, 2, 3, 2, 3, 3, 4, 2, 3, 3, 4, 3, 4, 4, 5,2, 3, 3, 4, 3, 4, 4, 5, 3, 4, 4, 5, 4, 5, 5, 6,2, 3, 3, 4, 3, 4, 4, 5, 3, 4, 4, 5, 4, 5, 5, 6,3, 4, 4, 5, 4, 5, 5, 6, 4, 5, 5, 6, 5, 6, 6, 7,2, 3, 3, 4, 3, 4, 4, 5, 3, 4, 4, 5, 4, 5, 5, 6,3, 4, 4, 5, 4, 5, 5, 6, 4, 5, 5, 6, 5, 6, 6, 7,3, 4, 4, 5, 4, 5, 5, 6, 4, 5, 5, 6, 5, 6, 6, 7,4, 5, 5, 6, 5, 6, 6, 7, 5, 6, 6, 7, 6, 7, 7, 8
])def load_trs_to_dict(trs_file_path: str, start_trace: int = None, end_trace: int = None):"""加载.trs文件到字典结构中参数:trs_file_path: .trs文件路径start_trace: 起始能量曲线索引(可选)end_trace: 结束能量曲线索引(可选)返回:包含头信息、能量曲线数据和额外参数的字典"""header, traces, param = {}, [], {}with trs_open(trs_file_path, 'r') as trs_file:# 读取文件头信息for key, value in trs_file.get_headers().items():header[key.name] = value# 处理能量曲线范围number_traces = header['NUMBER_TRACES']start_trace = 0 if start_trace is None else min(start_trace, number_traces - 1)end_trace = number_traces if end_trace is None else min(end_trace, number_traces)header['NUMBER_TRACES'] = end_trace - start_trace# 初始化能量曲线数据数组traces = np.zeros((header['NUMBER_TRACES'], header['NUMBER_SAMPLES']), dtype=np.float32)# 初始化参数数组param = {}for key in trs_file[0].parameters:param_len = len(trs_file[0].parameters[key].value)param[key] = np.zeros((header['NUMBER_TRACES'], param_len), dtype=np.uint8)# 读取能量曲线数据和参数for i, trace in enumerate(trs_file[start_trace:end_trace]):for key in trace.parameters:param[key][i] = trace.parameters[key].valuetraces[i] = np.array(trace.samples)# 返回结构化数据trs_dict = {"HEADER": header,"TRACES": traces,"PARAM": param}return trs_dictdef get_intermediate_values(plaintext, target_byte, real_key):"""生成中间值矩阵(基于汉明重量模型)参数:plaintext: 明文数组 (N x 16)target_byte: 目标字节位置(0-15)real_key: 真实密钥字节返回:actual: 真实中间值向量(长度等于能量曲线数量)hypo: 假设中间值矩阵(能量曲线数量 × 256种密钥假设)"""# 计算真实的S盒输入actual_sbox_in = plaintext[:, target_byte] ^ real_key# 计算S盒输出actual_sbox_out = AES_SBOX[actual_sbox_in]# 计算汉明重量作为功耗模型actual = HW_ARRAY[actual_sbox_out]# 生成256种可能的密钥假设hypo_key = np.array(range(256), np.uint8)# 计算S盒输入hypo_sbox_in = np.array([pt ^ hypo_key for pt in plaintext[:, target_byte]], np.uint8)# 计算S盒输出hypo_sbox_out = AES_SBOX[hypo_sbox_in]# 将汉明重量作为功耗模型hypo = HW_ARRAY[hypo_sbox_out]return actual, hypoclass ProbCalculator():"""计算密钥假设的似然概率"""def __init__(self):# 初始化密钥假设的似然累加器,256个可能的密钥假设self.guess_key_likelihood = np.zeros((256))def update(self, predict, hypo):"""更新似然值参数:predict: 当当前批次的概率值hypo: 当前批次的假设中间值"""# 获取每个假设对应的概率值likelihood_matrix = np.array([predict[i, hypo[i]] for i in range(predict.shape[0])])# 处理概率为0的情况,避免对数运算出错min_nzero = min(min(likelihood_matrix[likelihood_matrix != 0]), 0.01)likelihood_matrix = np.where(likelihood_matrix == 0, min_nzero ** 2, likelihood_matrix)# 计算对数似然并累加guess_key_likelihood = np.sum(np.log(likelihood_matrix), axis=0)self.guess_key_likelihood = self.guess_key_likelihood + guess_key_likelihooddef __call__(self):"""返回当前似然值向量"""return self.guess_key_likelihooddef train_model(traces, actual):"""训练SVC模型参数:traces: 用于训练SVC模型的能量曲线actual: 每条曲线对应的真实汉明重量返回:model: SVC模型"""# 使用支持向量机分类器,启用概率估计model = SVC(probability=True, verbose=True)model.fit(traces, actual)return modeldef single_attack(predict_matrix, hypo, real_key, index):"""执行单次攻击参数:predict_matrix: 模型预测的概率值数据hypo: 假设中间值数据real_key: 真实密钥字节(用于评估攻击效果)index: 分批处理的索引列表返回:key_rank_list: 每次更新后真实密钥的排名列表"""# 初始化概率计算器probability = ProbCalculator()key_rank_list = []# 分批处理能量曲线数据for i in range(len(index) - 1):# 获取当前批次的曲线和中间值start_idx = index[i]end_idx = index[i + 1]current_predict = predict_matrix[start_idx:end_idx]current_hypo = hypo[start_idx:end_idx]# 更新密钥似然值probability.update(current_predict, current_hypo)# 获取当前所有密钥假设的似然值prob = probability()# 计算密钥排名(似然值越小排名越高)prob_sort = np.argsort(np.argsort(-prob))# 记录真实密钥的当前排名key_rank = prob_sort[real_key]key_rank_list.append(key_rank)return key_rank_listdef guess_entropy(traces, hypo, model, real_key, result_path='result.txt', repeat_n=100, sample=500, header='', step=1):"""计算猜测熵和成功率参数:traces: 能量曲线数据hypo: 假设中间值数据model: SVC模型real_key: 真实密钥字节result_path: 结果保存路径repeat_n: 重复实验次数sample: 每次实验使用的能量曲线数量header: 结果文件头部信息step: 能量曲线数量增加的步长"""def get_value_n(arr, value, traces_number, less):"""辅助函数: 获取达到特定值所需的最少能量曲线数量"""if less:mask = arr <= valueelse:mask = arr >= valuevalid_index = np.cumprod(mask[::-1])[::-1]valid_index = np.where(valid_index)[0]return traces_number[valid_index[0]] if len(valid_index) > 0 else None# 设置分批索引列表index = [i for i in range(0, sample, step)]index.append(sample)# 准备随机排列key_rank_arr = []permutations = np.zeros((repeat_n, sample), dtype=int)for i in range(repeat_n):permutations[i] = np.random.permutation(traces.shape[0])[:sample]# 获取模型对所有能量曲线的预测结果predict_matrix = model.predict_proba(traces)# 多次重复实验for i in tqdm(range(repeat_n)):predict_random = predict_matrix[permutations[i]]hypo_random = hypo[permutations[i]]key_rank_list = single_attack(predict_random, hypo_random, real_key, index)key_rank_arr.append(key_rank_list)key_rank_arr = np.array(key_rank_arr)traces_number = np.array(index[1:])# 计算猜测熵guess_entropy = np.mean(key_rank_arr, axis=0)guess_entropy_10 = get_value_n(guess_entropy, 10, traces_number, True)guess_entropy_1 = get_value_n(guess_entropy, 1, traces_number, True)guess_entropy_0 = get_value_n(guess_entropy, 0, traces_number, True)# 计算成功率success_rate = np.mean(key_rank_arr < 10, axis=0)  # 排名小于10被认为攻击成功success_rate_p9 = get_value_n(success_rate, 0.9, traces_number, False)success_rate_p99 = get_value_n(success_rate, 0.99, traces_number, False)success_rate_1 = get_value_n(success_rate, 1, traces_number, False)# 保存结果到文件mode = 'a' if os.path.exists(result_path) else 'w'with open(result_path, mode, encoding='utf-8') as f:f.write(header)trs_n = ' '.join(f"{int(x)}" for x in traces_number)f.write('traces number: ' + trs_n + '\n')success_rate = ' '.join(f"{x:.2f}" for x in success_rate)f.write('success rate: ' + success_rate + '\n')guess_entropy = ' '.join(f"{x:.2f}" for x in guess_entropy)f.write('guess entropy: ' + guess_entropy + '\n')f.write(f'tips: When guess entropy equals 10, 1, or 0, the corresponding traces number are {guess_entropy_10}, {guess_entropy_1}, and {guess_entropy_0}.\n')f.write(f'tips: When success rate equals 0.9, 0.99, or 1, the corresponding traces number are {success_rate_p9}, {success_rate_p99}, and {success_rate_1}.\n\n')def stratified_sampling(X, y, sample_n):"""分层抽样函数,确保每个类别的样本比例均衡参数:X: 特征数据y: 标签数据sample_n: 总样本数返回:X_resampled: 重采样后的特征数据y_resampled: 重采样后的标签数据"""unique_classes, class_counts = np.unique(y, return_counts=True)n_classes = len(unique_classes)base_samples_per_class = sample_n // n_classesremainder = sample_n % n_classesbalanced_samples = []for i, cls in enumerate(unique_classes):target_sample_index = np.where(y == cls)[0]n_samples = class_counts[i]if i < remainder:required = base_samples_per_class + 1else:required = base_samples_per_classif required > n_samples:repeats = required // n_samplesremainder_samples = required % n_samplessamples = np.concatenate([np.tile(target_sample_index, repeats),np.random.choice(target_sample_index, remainder_samples, replace=False)])else:samples = np.random.choice(target_sample_index, required, replace=(required > n_samples))balanced_samples.append(samples)balanced_samples = np.concatenate(balanced_samples)np.random.shuffle(balanced_samples)X_resampled = X[balanced_samples]y_resampled = y[balanced_samples]return X_resampled, y_resampleddef show_result():"""可视化攻击结果从result.txt文件中读取数据并绘制成功率与猜测熵曲线"""result_path = 'result.txt'# 读取结果文件with open(result_path, 'r', encoding='utf-8') as f:lines = f.readlines()# 初始化数据列表traces = []success_rate = []guess_entropy = []# 解析结果文件for line in lines:if line.startswith('traces number:'):traces = list(map(int, line.split(':')[1].strip().split()))elif line.startswith('success rate:'):success_rate = list(map(float, line.split(':')[1].strip().split()))elif line.startswith('guess entropy:'):guess_entropy = list(map(float, line.split(':')[1].strip().split()))# 检查是否成功读取数据if not traces or not success_rate or not guess_entropy:print("Error: Could not find valid data in result file.")return# 创建图形和双轴fig, ax1 = plt.subplots(figsize=(12, 6))# 绘制成功率曲线(左轴,蓝色)color = 'tab:blue'ax1.set_xlabel('Number of Traces', fontsize=12)ax1.set_ylabel('Success Rate', color=color, fontsize=12)ax1.plot(traces, success_rate, color=color, label='Success Rate', linewidth=2)ax1.tick_params(axis='y', labelcolor=color)ax1.grid(True, linestyle='--', alpha=0.7)ax1.set_ylim(0, 1.05)  # 设置成功率y轴范围# 创建第二个y轴用于猜测熵ax2 = ax1.twinx()color = 'tab:red'ax2.set_ylabel('Guess Entropy', color=color, fontsize=12)ax2.plot(traces, guess_entropy, color=color, label='Guess Entropy', linewidth=2)ax2.tick_params(axis='y', labelcolor=color)ax2.set_ylim(0, 256)  # 固定猜测熵y轴范围为0-256# 添加图例lines1, labels1 = ax1.get_legend_handles_labels()lines2, labels2 = ax2.get_legend_handles_labels()ax1.legend(lines1 + lines2, labels1 + labels2, loc='upper right', fontsize=10)# 添加标题plt.title('MLSCA (SVC) Attack Performance: Success Rate and Guess Entropy', fontsize=14, pad=20)# 调整布局并保存图像(同时保存svg格式和png格式)fig.tight_layout()plt.savefig('result.svg', format='svg', bbox_inches='tight')plt.savefig('result.png', dpi=600, bbox_inches='tight')plt.show()def test():"""测试函数:执行完整的MLSCA流程"""target_byte = 0  # 攻击的字节位置(0表示第一个字节)traces_train_n = 50000  # 用于训练模型的曲线数量sample_n = 10000  # 实际用于训练的样本数量(经过分层抽样后)# 主密钥(16字节)mkey = [0x01, 0x23, 0x45, 0x67, 0x89, 0xab, 0xcd, 0xef, 0xfe, 0xdc, 0xba, 0x98, 0x76, 0x54, 0x32, 0x10]# 加载能量曲线数据trs_path = 'AES_POWER_STM32F_NO-PROTECT_60000.trs'trs_dict = load_trs_to_dict(trs_path)traces, plaintext = trs_dict['TRACES'], trs_dict['PARAM']['plaintext']# 生成真实中间值向量和假设中间值矩阵actual, hypo = get_intermediate_values(plaintext, target_byte, mkey[target_byte])# 分割数据集traces_build, traces_match = traces[:traces_train_n], traces[traces_train_n:]actual_build, hypo_match = actual[:traces_train_n], hypo[traces_train_n:]# 对训练数据进行分层抽样,平衡各类样本数量traces_build, actual_build = stratified_sampling(traces_build, actual_build, sample_n)# 训练SVC模型model = train_model(traces_build, actual_build)# 设置实验参数repeat_n = 100  # 重复次数sample = 100  # 每次实验使用的能量曲线数量step = 1  # 能量曲线数量增加的步长# 执行猜测熵分析guess_entropy(traces_match, hypo_match, model, mkey[target_byte], repeat_n=repeat_n, sample=sample, step=step)# 可视化结果show_result()if __name__ == '__main__':test()

 三、实验结果

实验使用STM32F系列芯片采集的60,000条AES加密功耗曲线,其中50,000条用于模型训练,剩余10,000条用于攻击。结果显示,经过分层抽样的SVC模型表现出色,仅需约10条能量曲线即可将猜测熵降至10以下,约25条曲线能使成功率超过90%。当使用51条曲线时,猜测熵接近0,成功率稳定在100%,表明密钥被完全恢复。

结果可视化展示了猜测熵和成功率随能量曲线数量增加的变化趋势。两条曲线呈现明显的负相关关系,符合理论预期。值得注意的是,在曲线数量较少时,指标改善速度较快,随后趋于平缓,这种非线性特性反映了机器学习模型的特征学习过程。实验结果验证了MLSCA方法对未加防护AES实现的有效性,也为评估防护措施的安全性提供了基准参考。

四、总结 

本文研究了基于机器学习(SVC)的侧信道分析方法(MLSCA)在AES算法实现上的应用。通过采集STM32F芯片的功耗曲线,以S盒输出的汉明重量作为泄漏模型,构建支持向量机分类器建立功耗特征与密钥信息的映射关系。实验采用分层抽样优化数据分布,使用50,000条曲线训练模型,10,000条曲线测试攻击效果。结果表明,该方法仅需约25条功耗曲线即可实现90%以上的密钥恢复成功率,51条曲线时猜测熵趋近于0,完全破解密钥。研究验证了MLSCA对未防护AES实现的高效攻击能力,揭示了硬件密码实现中侧信道防护的重要性。 

相关文章:

  • 【Linux】Ubuntu 24.04 远程桌面控制
  • RA4M2开发涂鸦模块CBU(2)----配置按键开启LED
  • 神经中枢革命:对象模型耦合CMMM,AI进化引擎重塑PLM-实现智能工厂从卓越级到领航级的自驱跃迁,打造制造业数字进化操作系统
  • 【批量文件查找】根据文件名清单一次性查找多个文件复制到指定位置,批量查找文件的使用步骤和注意事项
  • WevServer实现:异步日志写与HTTP连接
  • [muduo] ThreadPool | TcpClient | 异步任务 | 通信测试
  • 基于Python、tkinter、sqlite3 和matplotlib的校园书店管理系统
  • SimpleITK——创建nrrd体素模型
  • 电子电气架构 --- 实时系统评价的概述
  • 实战-通过Hutool实现双ID链法
  • (二)yolov5——模型检测
  • 华为云 Flexus+DeepSeek 实战:华为云单机部署 Dify-LLM 开发平台全流程指南【服务部署、模型配置、知识库构建全流程】
  • Mac电脑-触摸板增强工具-BetterTouchTool
  • ZZNU大一下 英语选填期末复习
  • 深入解析ID3算法:信息熵驱动的决策树构建基石
  • Python元组及字符串
  • 微处理器原理与应用篇---计算机系统的结构、组织与实现
  • 七、Redis的持久化策略
  • 前端实现截图的几种方法
  • aardio 并行任务处理
  • dz做网站缺点/广告投放是做什么的
  • 成都信用体系建设网站/百度广告推广费用
  • 深圳市宝安区怎么样/建设优化网站
  • 销售网站怎么做/软文标题和内容
  • 织梦做招聘网站/媒体宣传推广方案
  • 双公示网站专栏建设情况/百度极速版免费下载安装