当前位置: 首页 > news >正文

Python创意:AI图像生成

1. 基本概念

AI 图像生成通常基于以下几种方法:

一.生成对抗网络 (GAN)

生成对抗网络(GAN,Generative Adversarial Network)是一种深度学习框架,主要用于生成新的、类似于训练数据的样本。自2014年由Ian Goodfellow及其同事提出以来,GAN 已在许多领域得到了广泛应用。

1. GAN 的基本构架

GAN的基本构架包括两个主要组件:

  1. 生成器(Generator)

    • 生成器是一个神经网络,其任务是从一种随机噪声中生成看起来像真实数据的样本。
    • 生成器通过训练优化其参数,以生成能够欺骗判别器的图像。
  2. 判别器(Discriminator)

    • 判别器同样是一个神经网络,其任务是区分输入数据是真实的(来自训练数据)还是伪造的(由生成器生成的)。
    • 判别器通过输入真实样本和生成样本来学习,以提高其判断的准确性。

这两个组件在训练过程中相互竞争,生成器不断改进其生成的样本,而判别器也在不断提高区分真实与虚假样本的能力。

2. GAN 的工作原理

GAN 的训练过程可以分为以下几个步骤:

  • 初始化:生成器和判别器的网络结构被建立,并初始化参数。

  • 训练过程

    1. 首先,使用真实数据训练判别器,使其能够辨别真实数据和生成数据。
    2. 然后,生成器使用随机噪声生成虚假样本,并训练判别器去识别这些样本。生成器的目标是使判别器无法正确分辨。
    3. 判别器预测生成样本的真实性,并根据结果更新其参数。
    4. 最后,根据判别器的反馈更新生成器的参数,以生成更真实的样本。
  • 迭代:上述步骤交替进行,直到达到预定的训练轮数或生成样本的质量达到标准。

3. GAN 的损失函数

GAN 的损失函数可以解释为两个网络之间的对抗过程:

  • 判别器的损失函数 @D:

D(x)=−log⁡(D(x))−log⁡(1−D(G(z)))D(x)=−log(D(x))−log(1−D(G(z)))

其中,D(x)D(x) 是判别器对真实样本 xx 的输出,G(z)G(z) 是生成的虚假样本,zz 是随机噪声。

  • 生成器的损失函数 @G:

G(z)=−log⁡(D(G(z)))G(z)=−log(D(G(z)))

生成器的目标是最大化判别器对生成样本 G(z)G(z) 预测的概率。

4. GAN 的变种

随着 GAN 的发展,研究者们提出了多种变体,以适应不同的应用需求,常见的包括:

  • 条件 GAN (Conditional GAN):在生成过程中引入条件信息,使生成样本可以根据特定条件生成(例如,生成特定类型的图像)。

  • 深度卷积 GAN (DCGAN):利用卷积神经网络(CNN)来构建生成器和判别器,提高生成图像的质量。

  • 渐进式 GAN (Progressive GAN):通过逐步增加生成器和判别器的复杂度,使生成的图像更加精细。

  • CycleGAN:允许在没有配对训练数据的情况下进行风格转换,例如将马的图像转换为斑马的图像。

5. 应用领域

生成对抗网络在许多领域具有广泛的应用,包括但不限于:

  • 图像生成:生成高分辨率的图像,广泛用于艺术创作、照片编辑等。

  • 超分辨率重建:将低分辨率图像转换为高分辨率图像,提高图像质量。

  • 图像风格迁移:将一种艺术风格应用于照片或视频,例如将照片转化为梵高风格。

  • 数据增强:在计算机视觉任务中,生成更多的训练样本以提高模型的泛化能力。

  • 生成文本:在某些变种中,GAN也被应用于生成自然语言文本。

6. 挑战与未来方向

尽管 GAN 取得了显著成就,但也面临一些挑战:

  • 不稳定性:训练过程中生成器和判别器往往难以收敛,可能导致训练不稳定。

  • 模式崩溃:生成器可能只生成有限的样本类型,失去多样性。

  • 评估标准:缺乏统一的标准来量化生成图像的质量。

未来的研究可能集中在提高训练的稳定性、减轻模式崩溃以及开发更有效的评估指标上。

7. 结论

生成对抗网络是当前深度学习和机器学习领域的重要研究方向,凭借其强大的图像生成能力, GAN 在多个应用场景中展现出巨大潜力。随着技术的不断进步,成为AI生成内容的重要工具。

二. 变分自编码器 (VAE)

变分自编码器(Variational Autoencoder,简称 VAE)是一种生成模型,结合了概率图模型与深度学习的优势,用于生成新数据样本。自2013年由D. P. Kingma和M. Welling提出以来,VAE已成为生成建模的一个重要工具。以下是对 VAE 的详细介绍。

1. VAE 的基本概念

变分自编码器是一种自编码器,它允许从潜在空间中生成样本。VAE的主要构架包括两个部分:

  • 编码器(Encoder): 该网络将输入数据映射到潜在空间的参数(通常是均值和方差)。

  • 解码器(Decoder):该网络将从潜在空间采样得到的点映射回原始数据空间,以生成新样本。

VAE 的核心在于其利用变分推理来优化生成模型的参数,这使得它可以有效生成多样化的样本。

2. VAE 的工作原理

VAE 的工作原理可以分为以下步骤:

2.1 编码过程
  1. 输入数据:将输入数据 xx 传递给编码器。

  2. 潜在空间表示:编码器输出用于形成潜在分布的两个参数:均值 μμ 和对数方差 log⁡(σ2)log(σ2)。

q(z∣x)=N(z;μ,σ2)q(z∣x)=N(z;μ,σ2)

这里的 zz 是在潜在空间中的表示,NN 表示高斯分布。

  1. 重参数化技巧:为避免在反向传播中出现不连续性,从标准正态分布中随机采样:

z=μ+σ⋅ϵ,ϵ∼N(0,I)z=μ+σ⋅ϵ,ϵ∼N(0,I)

2.2 解码过程
  1. 生成样本:将潜在样本 zz 输入到解码器中,生成输出样本 x^x^:

p(x∣z)=N(x;x^,σx2)p(x∣z)=N(x;x^,σx2​)

其中,x^x^ 是重构的数据。

3. 损失函数

VAE 的损失函数由两部分组成,通常称为重构误差Kullback-Leibler(KL)散度

L=Eq(z∣x)[log⁡p(x∣z)]−DKL(q(z∣x)∣∣p(z))L=Eq(z∣x)​[logp(x∣z)]−DKL​(q(z∣x)∣∣p(z))

  • 重构误差:衡量生成样本与真实样本之间的差异,一般使用均方误差(MSE)或二元交叉熵。

  • KL 散度:衡量编码器生成的潜在分布 q(z∣x)q(z∣x) 与先验分布 p(z)p(z)(通常为一个标准正态分布)之间的差异。

4. VAE 的优势

  • 高效生成:VAE 能够通过参数化的方式来描述潜在空间,允许对新样本进行高效生成。

  • 连续性:由于潜在空间是通过正态分布进行描述,VAE 能够有效生成多样化的样本。

  • 推理能力:具有生成模型的特性,可用于推理新样本并进行数据回归分析。

5. VAE 的变种

随着研究的深入,许多变种的 VAE 出现,以适应不同的任务和需求:

  • 条件 VAE (Conditional VAE):通过条件变量来控制生成样本的特定属性,适用于生成特定类别的数据。

  • 离散 VAE:用于处理离散数据(如文本),通过变分推理结合离散变量。

  • 深度 VAE:增加网络的深度与复杂性,能够生成更复杂的样本。

  • β-VAE:在损失函数中引入超参数 β,以平衡重构误差和 KL 散度,从而提高生成样本的多样性。

6. 应用领域

变分自编码器在多个领域均有广泛的应用,包括:

  • 图像生成:VAE 被广泛用于生成新的图像,例如人脸、手写数字等。

  • 数据增强:通过生成新样本增强训练数据集,提高模型的泛化能力。

  • 缺失数据填充:在数据不完整的情况下,VAE 能够生成合理的填充数据。

  • 异常检测:通过学习正常数据的分布,VAE 可以有效识别与众不同的数据点。

7. 挑战与未来方向

尽管 VAE 在生成建模中具有许多优点,但仍面临一些挑战:

  • 生成质量:相比于 GAN,VAE生成的图像质量通常较低,有时出现模糊现象。

  • KL 散度的选择:如何选择合适的先验分布和超参数仍是研究的热点。

未来的研究方向可能集中在改进生成质量、处理高维数据和将 VAE 应用于更复杂的任务等方面。

8. 结论

变分自编码器是生成模型中的一个重要工具,集生成与编码于一体,具备生成新样本的潜力。随着研究的深入,VAE 的应用范围不断扩大,为各类任务提供了新的解决方案。

三. 扩散模型

扩散模型(Diffusion Models)是一类新兴的生成模型,近年来在图像生成领域取得了显著成功。这种模型最早是通过模拟物理过程(如扩散和去噪)来生成数据样本,尤其在生成高质量图像方面表现出色。以下是对扩散模型的详细介绍。

1. 扩散模型的基本概念

扩散模型的核心思想是通过逐步添加噪声,然后反向去噪来生成数据样本。该模型由两个主要过程组成:

  • 正向扩散过程(Forward Diffusion Process):向真实数据样本逐渐添加噪声,最终将其转化为纯噪声。
  • 反向扩散过程(Reverse Diffusion Process):从噪声开始,逐步去除噪声以生成新的样本。

2. 扩散过程

2.1 正向扩散过程

在正向扩散过程中,原始样本 x0x0​ 经过 T 个时间步骤 tt 加入噪声,生成中间样本 xtxt​:

xt=αtxt−1+1−αtϵxt​=αt​​xt−1​+1−αt​​ϵ

其中:

  • ϵϵ 是来自某个已知分布(如标准正态分布)的噪声。
  • αtαt​ 是一个逐渐减小的超参数,控制着噪声的添加。

最终,通过多次这样的扩散过程,真实样本 x0x0​ 变成接近于随机噪声的 xTxT​。

2.2 反向扩散过程

在反向扩散过程中,模型旨在通过来自噪声 xTxT​ 的样本进行重建,逐步去除噪声以生成新的样本 x~0x~0​。

反向过程中可以表达为:

xt−1=1αt(xt−1−αt1−αt−1ϵθ(xt,t))xt−1​=αt​​1​(xt​−1−αt−1​​1−αt​​​ϵθ​(xt​,t))

这里的 ϵθϵθ​ 是我们要训练的神经网络,负责预测在时间步骤 tt 添加到样本中的噪声。

3. 损失函数

扩散模型通常使用均方误差(MSE)作为损失函数,以使得网络预测的噪声与实际噪声相对应。损失函数可以表示为:

L(θ)=Et,x0,ϵ[∥ϵ−ϵθ(xt,t)∥2]L(θ)=Et,x0​,ϵ​[∥ϵ−ϵθ​(xt​,t)∥2]

4. 扩散模型的优点

扩散模型相较于传统生成模型(如 GAN 和 VAE)具有一些显著的优点:

  • 生成质量:扩散模型能够生成高质量的图像,尤其是在细节和纹理上表现突出。

  • 模式崩溃问题:扩散模型不易发生模式崩溃,这是 GAN 中常见的问题。

  • 样本多样性:通过多步噪声去除,扩散模型产生的样本通常具有更高的多样性。

5. 应用领域

扩散模型在多个领域显示出广泛的应用潜力:

  • 图像生成:如 DALL-E 2 和 Stable Diffusion 等都是基于扩散模型的高质量图像生成工具。

  • 图像修复与超分辨率:应用于低质量图像的修复和提升图像分辨率。

  • 文本到图像生成:通过给定文本描述生成对应图像,已广泛应用于创意行业。

  • 医学图像生成:在医学成像中用于生成合成样本,改善数据稀缺问题。

6. 当前研究方向与挑战

尽管扩散模型在生成任务中取得了显著进展,但仍有一些挑战和研究方向:

  • 效率问题:扩散模型通常需要多个步骤才能生成样本,这导致计算速度相对较慢。研究者们正在探索如何加速生成过程。

  • 推理能力:改进模型的推理能力,使其能够更好地处理复杂任务,如条件生成。

  • 可调性与控制:通过调整模型的参数或引入先验知识,提高生成结果的可控性和可靠性。

7. 结论

扩散模型是一种值得关注的生成建模方法,展示了与其他生成模型相比的优势。随着研究的深入,该模型在图像生成及其他领域的应用潜力将不断扩大。

2. 常用工具和库

在机器学习和深度学习领域,有许多常用的工具和库可供研究和开发使用。以下是一些流行的工具和库,以及它们的主要功能和应用场景。

1. TensorFlow

概述
  • 开发者:Google
  • 语言:Python(支持多种语言)
主要功能
  • 深度学习框架,支持构建和训练各种类型的神经网络。
  • 提供高效的计算图机制和自动微分功能。
  • 支持分布式训练和多 GPU 计算。
  • 具有丰富的工具集,如 TensorBoard(可视化工具)、TensorFlow Serving(模型服务)等。
应用场景
  • 图像识别、自然语言处理、时间序列预测等。

2. PyTorch

概述
  • 开发者:Facebook(Meta)
  • 语言:Python
主要功能
  • 动态计算图,允许灵活地构建和修改模型。
  • 丰富的社区支持,有许多现成的模型和库可供使用。
  • 集成了 TorchScript 用于在生产环境中高效执行模型。
应用场景
  • 学术研究、计算机视觉、语言处理、生成模型(如 GAN 和 VAE)。

3. Keras

概述
  • 开发者:François Chollet(后并入 TensorFlow)
  • 语言:Python
主要功能
  • 高级神经网络 API,易于使用,适合初学者。
  • 可以在 TensorFlow 或 Theano 后端上运行。
  • 提供简单的模型构建、训练和评估接口。
应用场景
  • 快速原型开发、教育和简单的深度学习模型实现。

4. Scikit-learn

概述
  • 开发者:社区驱动
  • 语言:Python
主要功能
  • 提供简单易用的机器学习工具,支持多种算法,包括分类、回归、聚类等。
  • 包含数据预处理、特征选择、模型选择和评估工具。
  • 易于与 NumPy 和 Pandas 等库结合使用。
应用场景
  • 传统机器学习算法的实现,如决策树、支持向量机、随机森林等。

5. OpenCV

概述
  • 开发者:OpenCV.org(社区驱动)
  • 语言:C++,Python,Java
主要功能
  • 计算机视觉库,提供实时图像处理函数。
  • 支持图像和视频的读取、写入、处理和分析。
  • 包含机器视觉、特征检测、目标跟踪等高级功能。
应用场景
  • 图像和视频处理、人脸识别、物体检测等。

6. Hugging Face Transformers

概述
  • 开发者:Hugging Face
  • 语言:Python
主要功能
  • 提供用于自然语言处理的预训练模型和工具,支持 BERT、GPT、T5 等多种架构。
  • 支持模型的快速部署和微调。
  • 提供易于使用的接口,适合初学者和研究者。
应用场景
  • 问答系统、文本生成、语言翻译、情感分析等。

7. FastAPI

概述
  • 开发者:Sebastián Ramírez
  • 语言:Python
主要功能
  • 高性能的 Python Web 框架,适合快速构建 API 和微服务。
  • 采用异步编程,支持高并发。
  • 自动生成 OpenAPI 文档,便于前后端协作。
应用场景
  • 部署机器学习模型的 API、数据服务和微服务。

8. NVIDIA CUDA 和 cuDNN

概述
  • 开发者:NVIDIA
  • 语言:低级 API(C/C++),Python 可通过 TensorFlow 和 PyTorch 等框架使用
主要功能
  • CUDA:并行计算平台和 API,支持 GPU 加速计算。
  • cuDNN:针对深度学习的 GPU 加速库,加速卷积神经网络的训练和推理。
应用场景
  • 从 GPU 加速的深度学习训练,提高大规模模型的计算效率。

9. Jupyter Notebook

概述
  • 开发者:开源社区
  • 语言:Python(支持多种语言)
主要功能
  • 交互式计算环境,支持数据分析、可视化和动态代码执行。
  • 支持 Markdown,便于创建文档和报告。
应用场景
  • 数据探索、模型实验、文档编写和分享。

10. Matplotlib 和 Seaborn

概述
  • 开发者:社区驱动
  • 语言:Python
主要功能
  • Matplotlib:用于创建静态、动态和交互式可视化的基础库。
  • Seaborn:基于 Matplotlib 的绘图库,提供更美观的统计图表和简单的接口。
应用场景
  • 数据可视化、模型评估和结果展示。

结论

以上这些工具和库为机器学习和深度学习研究提供了强大的支持,涵盖了数据处理、建模、训练、推理和可视化的方方面面。根据具体的项目需求和个人的技术背景,选择合适的工具和库可以大大提高工作效率。

3. 应用案例

在机器学习和深度学习领域,应用案例涵盖了从图像生成到自然语言处理等众多方向。以下是一些具体的应用案例,展示了各种模型(如 GAN、VAE 和扩散模型)在实际生活和行业中的应用场景。

1. 图像生成与编辑

应用案例:艺术创作
  • 模型:GAN、VAE、扩散模型
  • 描述:使用 GAN 或扩散模型生成新的艺术作品,根据提示或风格输入生成图像。例如,OpenAI 的 DALL-E 和 Stable Diffusion 模型可以基于用户输入的自然语言描述生成图像。
  • 实例
    • DALL-E:可接受用户的文本输入,如“一个穿着宇航服的猫”,并生成相应的图像。
    • Artbreeder:利用变分自编码器允许用户混合不同风格的图像,创建新的艺术作品。

2. 文本生成与处理

应用案例:自然语言处理
  • 模型:BERT、GPT、Transformers
  • 描述:使用预训练的语言模型生成文本、进行文本补全或翻译。GPT-3 可以生成连贯的段落或回答问题。
  • 实例
    • ChatGPT:用于智能客服、教育辅导和内容创作,通过自然对话生成合适的响应。
    • Google Translate 和 DeepL:通过对比大量语言对的样本进行翻译,提高翻译的流畅性和准确性。

3. 图像分类与识别

应用案例:计算机视觉
  • 模型:卷积神经网络(CNN)
  • 描述:使用深度学习模型对图像进行分类和对象识别,例如自动标记照片中的人物或物体。
  • 实例
    • ImageNet:通过大量标注的图片训练深度学习模型,提高图像分类的准确率。
    • YOLO(You Only Look Once):可以实时检测和识别物体,广泛应用于无人驾驶、安防监控等领域。

4. 医学影像分析

应用案例:医疗诊断
  • 模型:深度学习模型(如 CNN)、VAE
  • 描述:利用深度学习模型分析医学影像,如 MRI 或 CT 扫描,以帮助医生进行疾病诊断。
  • 实例
    • 肺结节检测:通过深度学习模型分析 CT 扫描图像,自动检测肺结节的存在。
    • 病理图像分类:对切除的组织样本进行分类,帮助检测癌症等疾病。

5. 自动化与机器人

应用案例:自主导航
  • 模型:强化学习、深度学习
  • 描述:使用强化学习训练机器人或无人机,通过环境反馈进行自主导航。
  • 实例
    • 无人驾驶汽车:通过深度学习模型分析传感器数据,识别路况和行人,实现自主驾驶。
    • 机器人手臂:通过学习在特定任务(如装配、抓取)中的操作,优化动作序列。

6. 情感分析与舆情监测

应用案例:社交媒体分析
  • 模型:循环神经网络(RNN)、BERT
  • 描述:使用情感分析模型评估用户在社交媒体上的评论情绪。
  • 实例
    • 品牌监测:通过分析社交媒体帖子,评估人们对某品牌或产品的情感倾向。
    • 市场调研:分析顾客反馈,帮助公司改进产品和服务。

7. 推荐系统

应用案例:个性化推荐
  • 模型:协同过滤、深度学习
  • 描述:根据用户的历史行为数据(如观看历史、购买记录)为其推荐商品或内容。
  • 实例
    • Netflix:通过分析用户观看历史,推荐可能感兴趣的电影和电视剧。
    • Amazon:根据用户的购买记录和偏好,推荐相关商品。

4. 发展趋势

机器学习和深度学习领域正在快速发展,随着新技术和方法的不断涌现,许多发展趋势正在形成。以下是一些主要的发展趋势,涵盖了模型架构、应用、数据处理和伦理等方面。

1. 新的模型架构与算法

1.1 长短期记忆网络 (LSTM) 和 Transformer
  • 趋势:Transformer 结构(如 BERT 和 GPT 系列)的成功促使更多研究者探索基于此的模型。相较于 RNN,Transformer 处理长程依赖和并行计算更为高效,已被广泛应用于自然语言处理。
  • 实例:GPT-4、BERT、T5 等。
1.2 自监督学习
  • 趋势:自监督学习方法越来越多,允许模型通过未标注的数据学习特征,降低对人工标注数据的需求。
  • 实例:SimCLR、BYOL 和 MoCo 等自监督学习方法用于图像和表示学习。
1.3 多模态学习
  • 趋势:研究者越来越关注将图像、文本、音频等不同模态的数据结合,以提高理解和生成能力。
  • 实例:CLIP(Contrastive Language-Image Pretraining)可以将文本和图像配对。

2. 计算与基础设施的发展

2.1 边缘计算
  • 趋势:随着 IoT 设备和边缘设备的普及,更多的模型开始在边缘计算环境中运行,以减少延迟和带宽消耗。
  • 实例:使用轻量级模型(如 MobileNet、SqueezeNet)在智能手机和工业设备上实时处理数据。
2.2 TPU 和 GPU 的演进
  • 趋势:计算硬件的快速发展(如 TPU、GPU 和 FPGA)为训练深度学习模型提供了更高的性能,提高了模型的训练速度和效率。
  • 实例:Google Cloud 提供的 TPU 可以处理大规模深度学习任务,提高训练和推理的速度。

3. 数据利用与处理

3.1 数据增强
  • 趋势:数据增强技术在减少过拟合的同时,提升模型的鲁棒性和性能,得到了广泛研究。
  • 实例:使用对抗性训练、颜色变换、旋转等技术增强图像数据集。
3.2 强化学习与数据生成
  • 趋势:通过生成对抗网络(GAN)、变分自编码器(VAE)和扩散模型,生成新的训练数据,尤其在数据稀缺的情况下。
  • 实例:合成医学图像、生成文本等场景的应用。

4. 应用领域的扩展

4.1 人工智能在医学领域的应用
  • 趋势:机器学习和深度学习技术逐渐被应用于医疗影像分析、个性化医疗、药物发现等领域,能提高诊断的准确率和效率。
  • 实例:使用深度学习模型检测肺癌、白内障等疾病。
4.2 生成内容的使用
  • 趋势:随着生成模型的进步,如 DALL-E 和 ChatGPT,内容生成(图像、文本、音频等)正逐渐流行,影响媒体、广告、娱乐等行业。
  • 实例:AI 生成音乐、文章、艺术作品等。

5. 可解释性与伦理

5.1 模型可解释性
  • 趋势:随着 AI 应用在金融、医疗等关键领域中的普及,人们越来越关注 AI 模型的可解释性,以便信任和理解模型决策。
  • 实例:LIME、SHAP 等方法的应用,使得模型决策的透明度提高。
5.2 伦理与公平性
  • 趋势:对 AI 系统的伦理及社会影响的关注不断上升,例如数据隐私、算法偏见等问题。
  • 实例:企业和组织日益重视公平性,实施非歧视策略来缓解偏见。

6. 跨领域合作与开放科学

6.1 组织与社区合作
  • 趋势:越来越多的研究和开发都聚焦于跨学科合作,结合不同领域的知识和技术来解决复杂问题。
  • 实例:医疗、环境科学和社会科学领域的合作,利用 AI 技术应对全球性挑战。

5. 结论

AI 图像生成是一个充满创意和潜力的领域,Python 提供了强大的工具支持,使得开发者能够容易地实现复杂的模型。无论是艺术创作、游戏开发还是其他应用场景,AI 图像生成都在推动着技术的前沿。

相关文章:

  • [特殊字符] 第十四讲 | 空间异质性检验与地统计局部指标(LISA)应用
  • 《AI大模型应知应会100篇》第13篇:大模型评测标准:如何判断一个模型的优劣
  • KWDB创作者计划—KWDB场景化创新实践:多模态数据融合与边缘智能的突破性应用
  • opensuse安装需要手动添加仓库的软件包
  • TripoSG:高保真单张图像到3D生成模型——15亿参数的革新性突破
  • 学点概率论,打破认识误区
  • python可变对象与不可变对象
  • 探索 HTML5 新特性:提升网页开发的现代体验
  • 【模拟电路】开关二极管
  • 关于群晖安装tailscale后无法直链的问题
  • Skynet入门(二)
  • ABC-CNN-GRU-Attention、CNN-GRU-Attention、ABC-CNN-GRU和CNN-GRU四类对比模型多变量时序预测
  • 用纯Qt实现GB28181协议/实时视频/云台控制/预置位/录像回放和下载/事件订阅/语音对讲
  • 【LeetCode Solutions】LeetCode 160 ~ 165 题解
  • java基础 this和super的介绍
  • 教育舆情知识图谱构建与危机干预策略研究
  • C语言超详细指针知识(二)
  • Python爬虫-爬取全球股市涨跌幅和涨跌额数据
  • LSTM-SVM长短期记忆神经网络结合支持向量机组合模型多特征分类预测/故障诊断,适合新手小白研究学习(Matlab完整源码和数据)
  • 经颅磁刺激靶向治疗的特异性网络
  • 免费拿货的代理商/嘉兴优化公司
  • python做网站的开发/win10系统优化软件
  • 外贸做消防的网站/自动连点器
  • 旅游网站建设色彩搭配表/seo搜索引擎优化名词解释
  • wordpress构建企业网站/seo标签优化
  • 天水建网站/重庆seo1