当前位置: 首页 > news >正文

人工智能学习:机器学习相关面试题(二)

7、有监督学习和无监督学习的区别

有监督学习:

        对具有概念标记(分类)的训练样本进行 学习,以尽可能对训练样本集外的数据进 标记(分类)预测。   ,所有的标记(分类)是已知的。 因此 ,训练样本的岐义性低。监督学习中只要输 样本集,机器就可以从中推演出 制定标变量的可能结果.如协同过滤推荐算法,通过对训练集进 监督学习,并对测试集进预测,从 达到预测的 的.

监督学习: 

        对没有概念标记(分类) 的训练样本进 学习, 以发现训练样本集中的结构性知识。这 所有的标记 (分类)是未知的。 因此 ,训练样本的岐义性。聚类就是典型的无监督学习。监督学习的典型例 就是决策树、神经以及疾病监测, 而无 监督学习就是很早之前的西 洋双陆棋和聚类。

8、有了解过哪些机器学习的算法?

问题分析:

        考官主要考察的是学员是否对于人工 智能方面 的感兴趣 ,是否有空闲时间了解过机器学习算法这方面 的知 ,有则更好。

答案讲解:

        学员需要根据自己 的实际情况去回答 ,学员也可以自己 课下空余的时间去掌握 两常的机器学习算法,以此来增  的筹码。

决策树模型:

构建决策树三要素

1、特征选择

信息熵---信息增益---信息增益

H(x) = -sum(pi*log(pi))

Gain(A) =Info(D)-Info_A(D)

43Gini Gini系数是对信息熵关于ln(x)在x =0处的 阶泰勒展开近似得到是信息GIni系数

2、决策树的构成

ID3算法:

算法输:特征和样本构成的数据集

算法输出: ID3的决策树

算法步骤:

(1)如果所有的属性都被处理完毕

(2)计算各个节点的信息增益 ,选择最的信息增益所代表的特征构建决策树(信息熵--sum(pi*log(pi)))

(3)如果上述的属性没有处理完毕 ,需要从剩余的属性中继续获取其他的信息增益较的值对应的特征。

(4)递归构建决策树算法模型算法优化

选择信息增益率--C4.5算法算法的停 迭代条件:

(1)迭代次数

(2)树的深度

(3)树的叶 节点的个数

(4)树的分 节点含有样本的个数

(5)树的最 不纯度的下降

(Cart树---gini系数)

3、决策树剪枝

先剪枝

后剪枝

问题扩展:

        在算法的推导过程中 ,会 量的使到数学的推导公式,  数学思想对于程序员来说是必不可缺的 种思想 ,可以 在讲解的时候 ,概括性的给学员讲 下数学的相关知识。

        信息熵数学公式(sum(pi*log(pi)))+信息增益数学公式(总体的信息熵-以A节点作为划分节点的信息熵)

结合项中使用:

        此问题在项目 中是没有什么体现的,  试官就是想考察  试者本身具有的学习能 以此来评估该试者的可 培养价值 ,以及潜。但是机器学习算法在推荐系统 中、以后数据挖掘 作中会起到 关重要作 

9、你对LR是怎么理解的? LR的损失函数是怎样的?

先,LR是逻辑斯特回归 ,是分类算法。

        LR的原理是在线性回归的基础上增加  线性函数 ,这里 用 的是sigmod函数 ,得到的结果是以概率的形式输出类别的结果。

        LR的损失函数是似然函数 ,似然函数的log对数的形式 ,得到是交叉熵损失 ,对应的是分类中最重要交叉熵损失函数。

        交叉熵损失和其他的损失函数区别就在于交叉熵损失是定义在概率分布基础上的, 它通常是被于基于多项式的逻辑斯 特回归和神经 络中 ,还有 EM算法中。对数损失是来度量分类器的预测输出的概率分布和真是分布的差距,  不是 较离散类标签是否相等。

10、二分类模型如何做多分类?

        决策树中ID3和C4.5算法都是可以解决多分类问题 logisticModelSVM只能解决 分类问题,如何将二分类问题拓展到多分类上 ,使 法有两种:

Ovo-One vs one :通过将任意两个分类的组合形式来进 多分类

Ovr-One vs rest: C( n,2)f分类结果

scikit-learn: machine learning in Python

11、KMeans算法和KNN算法区别?

KMeans算法是聚类的算法, KNN 个分类算法

        KNN是通过K值设定最近邻的个数,通过当前样本点到各个点之间的距离的求解,通过少数服从多数的投票原则划分当前样本点

        KMeans通过K值设定有 个聚类中,通过将各个样本点到聚类中的距离 ,将离中 点最 距离的样本 组合 ,从   将样本点分成不同的簇 ,通过均值的 法迭代聚类,直到迭代次数或mse误差或聚类 不在改变停 迭代。

12、请问GBDT和XGBoost的区别是什么?

        XGBoost类似于GBDT的优化版 ,不论是精度还是效率上都有了提升。与GBDT ,具体的优点有:

        损失函数是用 泰勒展式 项逼近  不是像GBDT的就是阶导数;对树的结构进了正则化约束 ,防模型过度复 杂, 降低了过拟合的可能性;节点分裂的 式不同, GBDT的基尼系数 XGBoost是经过优化推导后的分裂增益。

http://www.dtcms.com/a/359954.html

相关文章:

  • 【开题答辩全过程】以 基于vue+springboot的校园疫情管理系统的设计与实现为例,包含答辩的问题和答案
  • 企业级开发模型:从软件生命周期到 Git 分支管理
  • 【C++ 】string类:深拷贝与浅拷贝解析
  • DSPFilters实现低通滤波器(QT)
  • 电力电子技术知识学习-----晶闸管
  • 前端组件拆分与管理实战:如何避免 props 地狱,写出高可维护的项目
  • 接口测试:如何定位BUG的产生原因
  • Python实现异步多线程Web服务器:从原理到实践
  • 萌宝喂养日志-我用AI做喂养记录小程序1-原型设计
  • 微服务的编程测评系统18-判题功能-Rabbitmq-用户拉黑
  • Elasticsearch面试精讲 Day 3:分片与副本策略详解
  • 【图论】 Graph.jl 概览
  • Linex进程管理
  • OC-属性关键字
  • GEE 实战:计算 Landsat8 月均 NDVI 并导出(2013-2024)_后附完整代码
  • 【pve】
  • 秋招 AI 方向 —— 华为机考
  • 【学习笔记】LLM Interview(Agent相关)
  • 计算机视觉与深度学习 | 低照度图像处理算法综述:发展、技术与趋势
  • 大数据毕业设计选题推荐-基于大数据的大气和海洋动力学数据分析与可视化系统-Spark-Hadoop-Bigdata
  • (数组的定义与使用) 本篇目标 1. 理解数组基本概念 2. 掌握数组的基本用法 3. 数组与方法互操作 4. 熟练掌握数组相关的常见问题和代码
  • 同类软件对比(三):Python vs Anaconda vs Miniconda:深入解析与选择策略
  • 2025.8.18-2025.8.24第35周:备稿演讲有进步
  • Paimon——官网阅读:Spark 引擎
  • 【图论】Graph.jl 核心函数
  • 如何通过 AI IDE 集成开发工具快速生成简易留言板系统
  • Java面试-微服务(spring cloud篇)
  • 飞牛Docker部署免费frp内网穿透
  • RK3568平台开发系列讲解:瑞芯微平台4G模块篇移植
  • TFS-2005《A Possibilistic Fuzzy c-Means Clustering Algorithm》