当前位置: 首页 > news >正文

人工智能时代数据“淘金”:Python数据预处理与特征工程十大技术要点解析

在机器学习这门现代最伟大的学科之一的宏伟圣殿之中,数据预处理与特征工程,听起来神秘高大上,其实一点儿也不简单。

好吧,哈哈!

下面进入正题,Python预处理与特征工程技术要点有哪些关键点,我总结了十大要点,献给同为初学者的你,读完这篇文章,相信你会深有感触。

一、数据“淘金”的价值提炼

当我们将原始数据比作"矿井采掘的粗粝矿石"时,强调的是数据从现实世界采集时固有的不完美性。

当原始数据如同刚从矿井采掘的粗粝矿石般杂乱无章地呈现在我们面前的时候,让我们祭出神器Python, Python便化作当代炼金术士的坩埚与滤网,在代码的火焰中将混沌转化为精纯的信息金砂。

这就是人工智能数据“淘金”。

这过程远非简单的技术规程,而是融合数学直觉、领域洞见与工程智慧的艺术实践.。

理解这一过程需要摒弃工具主义的肤浅认知,转而深入数据流动的哲学本质——我们不是在清洗数据,而是在重建被观测世界的数字镜像;我们不是在创造特征,而是在为算法设计感知世界的感官系统。

水了这么多,让我们继续开始讲正题。

Python作为"当代炼金术士的坩埚"的隐喻,揭示了数据预处理本质是价值提炼过程——通过代码实现的三重转化:

举个例子,三重转化的示例代码如下:

# 三重转化实例
raw_logs = ["2023-08-01 12:05:23 GET /home 200", ...]  # 原始矿石
structured = pd.DataFrame([split_log(log) for log in raw_logs])  # 结构转化
structured["is_peak"] = (structured["hour"].between(18,22)).astype(int)  # 语义转化
structured["req_freq"] = grouped.transform("count")  # 维度转化

分别完成的对应动作是对数据不断进行结构化的数据管理过程。

三重分别是:

  1. 结构转化:将非结构化日志、图像等转为矩阵格式;
  2. 语义转化:将业务概念(如"用户活跃度")转为数学表征;
  3. 维度转化:通过特征工程创建高维信息空间。

转化的目的在于让原始数据变成模型可用可理解的模式。从原始杂乱的信息变成所需要和被关注的数据形式。就是这么简单一个过程,但是它却是构建人工智能的基础,甚至一定程度上直接决定了项目表现好坏以及是否能够成功。

二、缺失值处理的奇技淫巧

只要是做过实际工程或是项目系统管理的就都很清楚,数据从来都不能规规矩矩完美的。

我们获取到的数据总是有大量的字段信息缺失和错漏。

缺失值处理作为数据预处理的关键步骤,其表面简单的均值填补背后隐藏着深刻的概率图模型哲学。适当对数据修补也是数据增强技术的一种体现。

想象一下这样的画面,每个缺失值的填补,都如同修复古籍残页的谨慎落笔,每项特征变换,都似调整光学仪器的精密旋钮,最终,完成在模型输入层构建起真实世界的镜像,以及与数学空间的精妙映射。

搞艺术的同志总喜欢留白,让我们自行脑补,这就是美妙的想象空间啊!

如果不是这些数据让我非常头疼,这还是很有诗情画意的说。

现在我们就利用均值的科学技术来填补这些缺失的数据。

传统均值填充的局限在于忽视缺失机制(MCAR/MAR/MNAR)。

没关系,我们来用迭代填充器,它英文名叫IterativeImputer,其精妙在于构建动态贝叶斯网络

  1. 将每个特征视为图节点
  2. 基于其他节点预测缺失值
  3. 通过多轮迭代收敛概率分布

我来举个栗子给你们看看就明白了,实现代码如下:

from sklearn.experimental import enable_iterative_imputer
from sklearn.impute import IterativeImputer# 构建金融数据拓扑
financial_data = stock_data.join(macro_data).merge(sentiment_scores, on="date")
imputer = IterativeImputer(estimator=BayesianRidge(),  # 贝叶斯回归作预测器max_iter=20, sample_posterior=True  # 从后验分布采样
)
imputed_data = imputer.fit_transform(financial_data)

此过程实质是在特征间建立条件依赖关系(如苹果股票与微软股票、VIX指数的概率关联哪种关联关系),填充!填充就完事了。

pandas.DataFrame中那些刺眼的NaN标记如同古籍中的虫蛀孔洞般散布时,现代实践早已超越SimpleImputer的机械填充!

啊,扯远了~!

这个代码的意思是:真正的艺术在于构建缺失机制的条件概率模型,我们通过sklearn.experimental.enable_iterative_imputer激活的IterativeImputer

实质是在执行贝叶斯网络的信念传播,它将每个缺失变量视为待求解节点,利用BayesianRidge构建的高斯过程在特征拓扑图上传递概率消息。

这种方法的精妙在金融时序数据中尤为显著。

再然后,我们创建三维面板数据。panel = data.set_index(['ticker','date']).sort_index()

volatility_features = np.log(data['high']/data['low']).rolling(5).agg(['mean','std'])

不好意思啊,这种多层次协变量网络的构建就是这么朴实无华,但是,它使得填补值不再是冷冰冰的统计均值,而是承载市场微观结构的概率实体。

三、离群检测的数学判别视角

我们研究人工智能的时候就是要研究数学。不要害怕复杂的公式和逻辑。其实蕴含的都是非常巧妙的技巧,搞懂这个就够了,不用死记硬背该怎么实现。

离群值检测是什么?说人话那就是异常值处理啊!

它本质上是从数据分布中识别显著偏离常规模式的观测值。

在特征空间中,我们将稀疏区域的点定义为离群点。

我们看方法Z-score,它是从简单的Z分数阈值跃迁到基于拓扑流形的异常度量。

Z-score方法的根本缺陷在于假设高斯分布,而真实数据常呈多模态流形结构

其实根本上来说还是根据距离算法评估异常点,谁是离群体最远的那个?谁不符合高斯分布就干掉谁。

大概打个比方说,异常活动和那些刷数据的挂哥们常伪装在正常分布的边缘区域,只有通过数据拓扑分析才能识别这种"分布幽灵"。

MinCovDet与隔离森林的核心突破是:

  1. 密度敏感检测:基于数据局部密度而非全局阈值;
  2. 拓扑感知:识别流形结构中的异常位置;
  3. 路径度量:量化点在数据树中的孤立程度。

借助sklearn方便的功能库,参考代码如下:

from sklearn.covariance import MinCovDet
from sklearn.ensemble import IsolationForest# 马氏距离检测
robust_cov = MinCovDet().fit(transaction_data)
mahalanobis_dist = robust_cov.mahalanobis(transaction_data)
fraud_idx = np.where(mahalanobis_dist > np.quantile(mahalanobis_dist, 0.99))[0]# 隔离森林检测
iso_forest = IsolationForest(n_estimators=500, contamination=0.01, behaviour="new"
)
outlier_scores = iso_forest.decision_function(transaction_data)

此时sklearn.covariance.MinCovDet揭示的马氏距离几何本质开始闪耀光芒。

当正常交易数据在高维空间形成椭球状簇时,算法通过最小化协方差行列式找到最紧凑的数据包络体,此时计算各样本到分布中心的马氏距离mahalanobis_dist = np.sqrt((X - center).dot(inv_cov).dot((X - center).T))

实则在度量穿越数据流形所需的曲率变化能量。

更精密的方案则引入隔离森林的深度分裂机制。

IsolationForest通过随机分割构建路径长度二叉树,异常点因难以被正常数据包围而坠入浅层叶节点。就像一个筛子一样完成筛查。这种路径深度path_length = _average_path_length(tree)本质上是量化了数据点嵌入主流形所需的局部维度压缩强度。

四、特征构造的卷积提取原理

特征构造是一样最为关键的技术了,它的艺术则体现在将原始观测转化为模型可感知的物理量语言。

原始信号到特征的本质是构建模型可感知的物理量

  1. 时频转换:将振动信号从时间域转到位频域,暴露和凸显出数据的关键特征;
  2. 熵值编码:小波包能量熵量化信号混乱度;
  3. 图卷积:将关系建模为图结构。

这里用到神通广大无处不在的numpy, 代码如下:

import pywt
import numpy as np# 小波包能量熵计算
def wavelet_energy_entropy(signal, wavelet='db4', level=5):wp = pywt.WaveletPacket(data=signal, wavelet=wavelet, mode='symmetric')nodes = [node.path for node in wp.get_level(level, 'natural')]energies = [np.sum(np.abs(wp[node].data)**2) for node in nodes]total_energy = np.sum(energies)prob = energies / total_energyreturn -np.sum(prob * np.log(prob))# 图卷积特征提取
from spektral.layers import GCNConv# 设备拓扑邻接矩阵
adjacency = [[0,1,0], [1,0,1], [0,1,0]]  # 组件连接关系
sensor_data = np.array([[0.2, 1.3], [0.5, 0.8], [1.1, 0.3]])  # 传感器读数
gcn_out = GCNConv(32)([sensor_data, adjacency])  # 拓扑特征提取

在工业设备预测性维护项目中,原始振动传感器信号vibration = pd.Series(np.random.normal(0,0.3,10000))不过是时间域的噪声曲线,

而通过from scipy.signal import stft进行短时傅里叶变换获得的频域能量矩阵,时频变换这就是搞通信领域的人最喜欢的高招。

说白了就是把数据特征像是折纸或是转魔方一样进行各种翻转,也就是换个量度空间看数据,但是万变不离其宗。

数据特征提取不是正常的聚焦数据本身,而是聚焦数据的相对性。

frequencies, times, Zxx = stft(vibration, fs=1000, nperseg=256)才真正揭露出数据背后的秘密。

更精妙的特征诞生于时频融合——我们计算小波包分解的节点能量熵。def wavelet_energy_entropy(coeffs): energy = np.sum(coeffs**2, axis=1); return -np.sum(energy/np.sum(energy) * np.log(energy/np.sum(energy))),这个标量神奇地编码了振动信号在时频平面上的能量扩散模式。

我们要知道人工智能离不开神经网络,在神经网络领域你绕不过卷积核数据特征这些概念,特征构造总是离不开卷积操作进行特征提取。这也是一种无形的学习门槛。

对于多传感器系统,特征工程升维为图信号处理:将设备组件抽象为图节点,传感器数据作为节点特征,通过spektral.layers.GCNConv执行图卷积操作X_gcn = GCNConv(channels=32)([X, adjacency_matrix]),从而在非欧空间中提取拓扑振动模式。

五、特征选择的信息遴选过程

毫无疑问,不是每个特征都同样有用或者说同样重要。

那么就涉及到选择了!

特征选择演变为基于信息瓶颈的压缩竞赛。

传统递归特征消除(RFE)的问题在于单模型依赖线性假设。基于互信息的谱聚类方法实现:

  1. 信息去冗余:通过互信息矩阵识别特征相关性
  2. 簇内代表:从特征簇中选取信息量最大的代表
  3. 端到端优化:神经架构搜索实现特征权重学习
from sklearn.feature_selection import mutual_info_classif
from sklearn.cluster import SpectralClustering# 互信息矩阵构建
MI_matrix = np.zeros((n_features, n_features))
for i in range(n_features):for j in range(i+1, n_features):MI_matrix[i,j] = mutual_info_classif(X[:, [i,j]], y, discrete_features=False)[0]# 特征谱聚类
clustering = SpectralClustering(n_clusters=10, affinity='precomputed'
).fit(MI_matrix)
selected_features = []
for cluster_id in range(10):cluster_features = np.where(clustering.labels_ == cluster_id)[0]rep_feature = cluster_features[np.argmax(MI_matrix[cluster_features].sum(1))]selected_features.append(rep_feature)

传统递归消除法RFECV如同盲人摸象般依赖单一模型反馈,而现代方法将特征集视为信息传输信道。

通过sklearn.feature_selection.mutual_info_classif计算互信息矩阵MI_matrix = np.zeros((n_features, n_features))后,我们构建特征图网络,采用谱聚类算法from sklearn.cluster import SpectralClustering将高度相关的特征划分为信息共同体,然后从每个簇中遴选代表特征——这实质是应用香农信息论的信道容量优化。

更前沿的路径是神经架构搜索与特征选择的共进化:构建双通道网络,一个通道学习特征权重feature_weights = tf.Variable(tf.ones(n_features))。

另一个通道执行主任务,通过Gumbel-Softmax技巧gumbel_noise = -tf.log(-tf.log(tf.random.uniform(shape)))实现特征子集的端到端微分选择。

六、分类编码的语义空间映射

独热编码是机器学习中处理分类变量的基础技术,其本质是将离散型分类特征转化为二进制向量空间中的正交基表示,这种转换的核心在于通过数学上的正交性消除类别间的虚假序关系,同时为算法提供可量化的输入维度。

这个听起来是不是有点狠拗口?

当面对一个包含K个可能取值的分类特征时,独热编码会创建K个新的二进制特征列,每个列对应原始特征的一个可能取值,形成维度为K的稀疏向量空间。

独热编码在基因数据中的灾难在于:

  • 1000种基因突变 → 1000维稀疏向量
  • 丢失突变类型间的生物学关联

目标编码和实体嵌入的核心价值是:

  1. 概率压缩:将类别映射到目标变量期望
  2. 关系保持:在向量空间中保持类别语义关联

分类变量编码早已脱离独热编码的原始阶段。在处理医疗诊断中的基因突变类型时,传统编码将导致维度灾难。

实现代码如下:

from category_encoders import TargetEncoder
import tensorflow as tf# 目标编码
encoder = TargetEncoder(cols=['gene_mutation'])
encoded_train = encoder.fit_transform(X_train, y_train)# 实体嵌入
embedding_layer = tf.keras.layers.Embedding(input_dim=1000,  # 突变类型数output_dim=20,   # 嵌入维度 √1000≈31.6 → 20embeddings_initializer='uniform'
)
mutation_input = tf.keras.Input(shape=(1,), dtype='int32')
embedded = embedding_layer(mutation_input)

此时from category_encoders import TargetEncoder的目标编码通过encoded = encoder.fit_transform(X_cat, y)将离散类别映射到目标变量期望值,其本质是构建条件概率估计器。

更高阶的方法则采用实体嵌入embedding_layer = tf.keras.layers.Embedding(input_dim=n_categories, output_dim=int(np.sqrt(n_categories)))),让神经网络在连续向量空间中自动学习类别语义关系,这种嵌入向量最终可通过t-SNE投影from sklearn.manifold import TSNE可视化出疾病亚型的聚类拓扑。

七、不平衡处理的生成对抗策略

在数据不平衡场景,生成对抗网络(GAN)通过‌合成少数类样本‌来平衡数据集,核心是生成器与判别器的对抗训练机制。‌ ‌其中,生成器用于输入随机噪声,输出合成样本模仿少数类分布 ‌。‌判别器用于区分真实样本与生成样本,迫使生成器提升逼真度 ‌。对抗过程‌则是双方博弈至平衡(纳什均衡),生成样本用于扩充少数类 ‌。

举个例子。

SMOTE的线性插值问题在医疗数据中尤为危险:

  • 在正常与癌症样本间插值生成"半癌"伪样本
  • 破坏临床指标间的病理约束关系

Wasserstein GAN的解决方案:

  1. 梯度惩罚:强制判别器满足Lipschitz连续性
  2. 条件生成:基于少数类特征生成合规样本
  3. 分布匹配:最小化生成分布与真实分布的Wasserstein距离

代码如下:

def build_generator(latent_dim):model = Sequential()model.add(Dense(128, input_dim=latent_dim))model.add(LeakyReLU(alpha=0.2))model.add(Dense(256))model.add(LeakyReLU(alpha=0.2))model.add(Dense(n_features, activation='tanh'))return modeldef build_critic(n_features):model = Sequential()model.add(Dense(256, input_dim=n_features))model.add(LeakyReLU(alpha=0.2))model.add(Dense(128))model.add(LeakyReLU(alpha=0.2))model.add(Dense(1))return model# 带梯度惩罚的Wasserstein损失
def gradient_penalty_loss(critic, real_samples, fake_samples):alpha = tf.random.uniform([len(real_samples), 1])interpolates = alpha * real_samples + (1 - alpha) * fake_sampleswith tf.GradientTape() as tape:tape.watch(interpolates)pred = critic(interpolates)gradients = tape.gradient(pred, interpolates)slopes = tf.sqrt(tf.reduce_sum(tf.square(gradients), axis=[1]))return tf.reduce_mean((slopes - 1.) ** 2)

处理不平衡数据时,SMOTE过采样技术from imblearn.over_sampling import SMOTE的几何插值可能生成违背物理规律的伪样本。

革新方案是引入生成对抗网络的条件生成:构建Wasserstein GANgenerator = make_generator_model(); critic = make_critic_model(),在梯度惩罚约束下grad_penalty = _compute_gradient_penalty(critic, real_samples, fake_samples)让判别器指导生成器合成符合少数类流形几何的样本。

这种方法的威力在罕见病诊断中爆发——生成器不仅学习病理特征分布,更捕获临床指标间的非线性约束关系。

八、特征缩放的分布重塑哲学

特征缩放的目的就一句话:‌把不同规格的数据拉到同一“起跑线”上,防止某些数据仗着数值大“欺负”数值小的数据‌。就像让大象和蚂蚁公平赛跑,得先给大象缩小体型或者给蚂蚁穿增高鞋垫。

特征缩放超越标准化的表层意义。为什么要搞这么一下Scale,其实就是切换观察角度。

分位数变换的深刻性在于实现概率积分变换: Xtransformed=Φ−1(F(Xraw)) 其中:

  • F 是经验分布函数
  • Φ−1 标准正态逆函数 此变换使线性模型能学习非线性关系:

代码如下:

from sklearn.preprocessing import QuantileTransformer# 将偏态分布转为正态分布
qt = QuantileTransformer(output_distribution='normal', n_quantiles=1000
)
transformed = qt.fit_transform(skewed_data)# 验证转换效果
plt.figure(figsize=(12,5))
plt.subplot(121); plt.hist(skewed_data, bins=50)
plt.subplot(122); plt.hist(transformed, bins=50)
plt.show()

在融合金融领域的宏观指标与高频交易数据时,sklearn.preprocessing.RobustScaler的中位数缩放保护模型免受市场极端波动干扰。

而更深刻的处理是分位数变换QuantileTransformer(output_distribution='normal'),它将原始分布扭曲为高斯形态,实则是通过累积分布函数F(x) = P(X ≤ x)进行概率积分变换,使线性模型得以窥见非线性关系的本质。

九、时空数据的张量认知模型

时空数据的张量是指用于结构化表示时空信息的多维数组,它在数学上满足坐标变换不变性,同时融合空间位置、时间维度和属性特征的数据组织形式。

‌时空数据的张量就像“多维度数据魔方”‌——把空间位置(在哪)、时间变化(何时)、观测指标(什么数据)全部打包进一个统一容器里,方便整体分析和计算。这就是我们构建它的目的。

时空立方体的构建实现四维张量表达: T∈RW×H×T×C

  • W: 空间宽度(如城市网格)
  • H: 空间高度
  • T: 时间步长
  • C: 特征通道(车流量、速度等)

当数据具备 ‌空间+时间+多指标‌ 特性时,张量是唯一能保持三者内在关联的结构化表达方式 ‌。

示例:城市交通数据可构建为(路口位置×时间序列×车流量)的张量

实现代码示例如下:

import xarray as xr# 构建时空立方体
traffic_data = xr.DataArray(data=np.random.rand(100, 80, 24, 3),  # 网格100x80, 24小时, 3指标dims=('longitude', 'latitude', 'hour', 'metric'),coords={'longitude': np.linspace(-74.5, -73.5, 100),'latitude': np.linspace(40.4, 41.0, 80),'hour': pd.date_range('2023-01-01', periods=24, freq='H'),'metric': ['flow', 'speed', 'occupancy']}
)# 3D卷积提取时空特征
model = Sequential([Conv3D(64, kernel_size=(3,3,3), input_shape=(100,80,24,3)),MaxPooling3D(pool_size=(2,2,2)),Flatten(),Dense(128, activation='relu')
])

处理城市交通流量数据时,我们首先创建时空立方体cube = data.pivot_table(values='flow', index=['station_id','date'], columns='hour'),然后通过三维卷积核conv3d = tf.keras.layers.Conv3D(filters=64, kernel_size=(3,3,3))同时提取车站邻域拓扑、时间周期模式及日期演变趋势的三重关联。

这种张量操作实质是在模拟人类对时空场认知的视觉皮层-海马体联合处理机制。

自动化特征工程平台如Featuretools通过深度特征合成:deep_features = ft.dfs(entityset=es, target_entity="customers")虽然高效却缺乏可解释性。

将特征生成视为程序归纳问题,我们来采用遗传编程框架from gplearn.genetic import SymbolicTransformer,通过适应度函数fitness = _root_mean_squared_error(y, y_pred)驱动原始特征间的符号组合,最终如log((trip_distance + 1) / (pickup_hour * precipitation + 0.5))这般,是具有物理意义的特征表达式。

十、特征漂移的统计过程控制

特征漂移,Feature Drift,是指机器学习模型训练阶段与应用阶段之间,输入数据的统计分布发生显著变化的现象。

特征漂移是动态系统中模型性能衰减的关键诱因,需通过持续数据监控、特征重加权或在线学习机制缓解‌。

它通常表现为训练数据的特征分布与实际应用数据的特征分布不一致,但特征与标签之间的关系保持不变。它肯定会导致预测模型的准确率大幅降低,误判率上升。

所以一定不嫩漂啊!

那为什么会发生这种事情呢?

特征漂移的发生主要原因如下:
  1. 环境变化‌:外部因素(如季节、政策、用户行为)导致数据分布变化。
  2. 数据源不一致‌:训练数据与应用数据的采集方式或来源不同。
  3. 系统更新滞后‌:业务规则或知识库未及时调整,导致输入特征失效。

生产环境中特征漂移的监测需要:

  1. 分布距离监测:Wasserstein距离量化特征分布变化;
  2. 重要性拓扑追踪:SHAP值矩阵揭示特征关系演变;
  3. 控制限预警:基于历史波动设置动态阈值。

构建代码如下:

from scipy.stats import wasserstein_distance
import shap# 特征分布漂移监测
train_feat = training_data['feature']
live_feat = live_data['feature']
wd = wasserstein_distance(train_feat, live_feat)
control_limit = np.percentile(historical_wd, 95)  # 95%历史分位数# SHAP值漂移监测
explainer = shap.TreeExplainer(model)
train_shap = explainer.shap_values(X_train)
live_shap = explainer.shap_values(X_live)
shap_corr = np.corrcoef(train_shap.T, live_shap.T)[:len(features), len(features):].diagonal()

监控特征漂移需建立统计过程控制体系。在生产系统中持续计算特征分布的Wasserstein距离wd = scipy.stats.wasserstein_distance(train_feature, live_feature),当距离超过control_limit = np.percentile(historical_wd, 95)时触发警报。同时通过SHAP值矩阵shap_values = explainer.shap_values(X)监测特征重要性拓扑的演变,捕捉概念漂移的早期信号。

最终完成的特征矩阵应是物理现实与算法认知的精密接口。在计算机视觉领域,我们通过卷积核提取的边缘特征本质是人类视网膜神经节的数字模拟;自然语言处理中的词向量实质是重建语言皮层的语义拓扑。

总结一下

综上,本文讨论了Python预处理与特征工程技术要点有哪些关键点,我总结了十大要点,献给同为初学者的你,读完这篇文章,相信你会深有感触。特征工程是连接现象与本质的认知桥梁——这才是预处理之道的至高境界:通过Python代码实现人类智能与机器智能在数据炼金炉中的完美融合。

喜欢本文的朋友请点赞关注加收藏,谢谢!

http://www.dtcms.com/a/296024.html

相关文章:

  • 物联网十大应用领域深度解析
  • 【水文水资源] SWAT、AquaCrop模型、HYPE、Aquatox、Delft3D、FVCOM、3s水文、
  • 从“耗电大户”到“节能先锋”:政策驱动下,智慧照明如何改写城市能源格局?
  • Visual Studio 2010-.Net Framework 4.0项目-NPOI安装
  • redis常用数据类型
  • golang 1.24在密码相关领域的改动
  • linux 应用层直接操作GPIO的方法
  • Java 异常处理:从理解到实践的全面指南
  • 项目部署卡脖子?EasyCVR视频汇聚平台5种部署方案适配百变监控需求
  • 线段树学习笔记 - 练习题(2)
  • 教程:如何通过代理服务在国内高效使用 Claude API 并集成到 VSCode
  • LeetCode 23:合并 K 个升序链表
  • QT框架,关于WebEngine打包
  • DPU 是什么?
  • 达梦数据库报错“回滚记录版本太旧,无法获取用户记录”问题根源原理和解决方法
  • JVM原理及其机制(二)
  • Python图像数据处理
  • 浅谈程序运行之编译和链接 - 翻译环境和运行环境
  • go语言基础教程:1. Go 下载安装和设置
  • JVM Java虚拟机
  • JVM 垃圾收集器CMS和G1
  • 单片机的硬件结构
  • 人形机器人加快先进AI机器人开发
  • Spring Boot 全方位指南:从项目初始化到分层架构搭建
  • 设置后轻松将 iPhone 转移到 iPhone
  • 管网监测是指什么?管网监测的内容与应用场景
  • 小程序生命周期及页面操作执行过程详解
  • jupyter lab使用(linux环境)
  • 在 Windows 上安装设置 MongoDB及常见问题
  • MySQL--day13--视图存储过程与函数