1.0 机器学习实际上是什么
从本质上来说,机器学习是一种让计算机"从过去的观察中学习,进而预测未来"的技术。放到工厂场景里,就是先收集机器运行的历史数据,再构建一个计算机程序分析这些数据,最终用它预判机器未来的运行状态。
构建这样的预测程序,和我们编写常规软件的思路截然不同。在传统编程中,程序员要先设计一套完整算法:明确输入数据是什么,制定一套固定规则,再通过代码把规则落地成输出结果。要是想用传统编程预测机器故障,程序员必须先搞清楚"哪些数据指标组合能代表故障前兆"——比如明确"温度超过85℃且振动频率高于15Hz持续5分钟"就是危险信号,然后把这些判断逻辑写成代码逐一校验。
这种思路在很多明确性问题上很高效。比如我们知道水的沸点与海拔强相关,在海平面就是100℃,那么编写"预测水是否沸腾"的程序就很简单,只需录入当前温度和海拔两个参数即可。但在更复杂的场景里,想精准定位"哪些因素组合能预测特定状态"却异常困难。就像那台工厂机器,可能存在几十种"生产率+温度+振动"的组合都指向故障,这些隐秘的关联藏在数据里,靠人工直接观察根本无法识破。
而机器学习的出现,正好破解了这个难题。用机器学习构建程序时,程序员无需手动拆解"故障特征",只需将收集到的机器运行数据(生产速度、温度、振动等)输入专门的机器学习算法,让算法自行从数据中挖掘"故障前兆"的隐藏规律。这个过程中,我们不用深究数据背后的复杂逻辑,却能构建出精准的预测程序——算法会根据输入的数据自动构建一个"系统模型",这个让模型学会规律的过程,我们称之为"训练";训练完成后,把新的运行数据输入模型得到预测结果,这个过程则叫"推理"。
机器学习涵盖多种方法,如今应用最广泛、能力最突出的当属深度学习——它的核心灵感,源于人类大脑神经元的工作机制,虽经过了大幅简化,却能高效处理复杂数据。在深度学习的体系里,一组由数字数组模拟的"神经元"会被训练,进而学会映射各种输入与输出的关系。而不同的"神经元排列架构",适配的任务也各不相同:有的架构擅长从图像数据中提取信息(比如识别产品缺陷),有的则在预测序列数据(比如机器未来1小时的振动趋势)上表现出众。
本专栏案例会重点聚焦深度学习,原因在于它是解决"微控制器适配问题"的灵活且强大的工具。你可能会惊讶:即便在内存和处理能力都有限的小型设备上,深度学习也能稳定运行。实际上,在本书的学习过程中,你将掌握构建"轻量高效"深度学习模型的方法——这些模型既能完成令人惊叹的预测或识别任务,又能完美适配小型设备的性能限制。
