网站建设朋友圈专业网页制作服务商
目标:继续学习
个人理解:
 - AI幻觉:一本正经的胡说八道,你还觉得很道理,倾向于相信;事实不一致,指令(预期)与实际不一致:跑题
 - 潜在风险:把AI带坏了;信息误导、过度信任导致的误判、失控、恶意利用,伦理不设限(比如回答中可以带脏话)
 - 事实幻觉? -- 指AI生成的内容与现实世界事实相矛盾
 - RAG:RAG(Retrieval-Augmented Generation,检索增强生成)是一种结合了检索和生成的技术,旨在提高语言模型生成内容的准确性和可靠性。RAG的核心思想是通过从外部知识库中检索相关信息,辅助模型生成更符合事实、更高质量的文本。
 - AI幻觉,有风险,同样存在迷之创造,可能帮你打开新思路,关键是你如何提问和使用
DeepSeek与AI幻觉
- 什么是AI幻觉
 - 学术:指模型生成与事实不符、逻辑断裂或脱离上下文的内容,本质是统计概率驱动的“合理猜测”
 - 说人话:一本正经地胡说八道
 - 事实性幻觉:指模型生成的内容与可验证的现实世界事实不一致
 - 忠实性幻觉:指模型生成的内容与用户的指令或上下文不一致
 
 提问:画一幅画:有山 、有河、有人、有飞机、有大炮、有亭子、有跑车、有雪、有瀑布 -- 这样的场景存在吗?
  
- DeepSeek为什么会产生幻觉
 - 数据偏差:训练数据中的错误或片面性被模型放大(如医学领域过时论文导致错误结论)-- 错误引导
 - 泛化困境:模型难以处理训练集外的复杂场景(如南极冰层融化对非洲农业的影响预测)-- 解构、重构偏离实际
 - 知识固化:模型过度依赖参数化记忆,缺乏动态更新能力(如2023年后的事件完全虚构)-- 知识库更新不及时
 - 意图误解:用户提问模糊时,模型易“自由发挥”(如“介绍深度学习”可能偏离实际需求)-- 自主意识?
 
 - 主观较多的内容一般不易产生幻觉 -- 正确性评价缺少量化,多以描述为主(非数据化度量),结果与评价人喜好、所处的文化环境、语境有极大关系
 
 - AI幻觉的潜在风险
 > 信息污染风险:由于DeepSeek的低门槛和普及度高,大量AI生成内容涌入中文互联网,加剧了虚假信息传播的“雪球效应”,甚至污染下一代模型训练数据
 > 信任危机:普通用户难以辨别AI内容的真实性,可能对医疗建议、法律咨询等专业场景的可靠性产生长期怀疑
 > 控制欠缺:DeepSeek的对齐工作较其他闭源大模型有所欠缺,其开源特性也允许使用者随意使用,可能会成为恶意行为的工具
 > 安全漏洞:若错误信息被用于自动化系统(如金融分析、工业控制),可能引发连锁反
- AI幻觉评测
 - 不同模型、相同条目的通用提示语、相同应用场景 -- 人工判断、标注、交叉验证
 - 不同模型、相同条目、随机抽取事实幻觉测试题 -- 事实幻觉?
 - 推理逻辑能力强,幻觉率减少,同样AI会“处以为是”的“增强”问答
- 如何减缓AI幻觉
 - 增加AI数据库的容量,使AI能从既有事实经验中得到更准确的结果
 - 交叉验证,使用不同的AI工具相互验证结果 -- 同样要有自我的经验判断
 - 提示词技巧:少开放性问题(推理性),多指令性问题;复杂问题简单化,问题层层递进、迭代,增加连界约束,增加结果验证、反思步骤
 > RAG框架:利用检索增强生成(如先搜索权威数据库,再生成答案)
 > 外部知识库:结合外部知识库,砍通用知识,强化垂直领域
 > 精细训练:针对不同任务类型进行具体的微调或强化
 > 评估工具:开发高效的自动化AI幻觉识别工具,对生成内容进行及时验证
 
 - 应对AI幻觉
 > 三角验证法:交叉比对多个AI回答或权威来源。
 > 警惕“过度合理”:越细节丰富的回答越需谨慎(如AI虚构论文标题与作者)。-- 只回答你想听到的,过度迎合:需要关注提示词有意向引导
 > 理解幻觉,享受幻觉:理解幻觉的特点和应对方法,享受幻觉带来的创意灵感 -- 创造性
- AI幻觉的创造力价
 - 科学发现:从“错误”到突破的范式跃迁 -- AI的胡说八道带给我们的判断和新思考
 - 文艺与设计:突破人类思维定式的“超现实引擎” -- 非量化的创新,带来不一样的天马行空,灵感
 - 乐与游戏:创造新的视觉和听觉体验
 - 技术创新:从“缺陷”到方法论的转化 -- 不一样的思考方式、不同角色和行业的思维融合
 新型科研范式:科学界正构建“AI幻觉-实验验证-理论重构”的三阶段研究流程 -- 狂创意→理性筛选
提问:AI幻觉
| DeepSeek | 文心一言 | 
| I幻觉(AI Hallucination)是指人工智能模型(尤其是生成模型,如大型语言模型或图像生成模型)在生成内容时,产生与输入不符、不符合事实或逻辑上不合理的输出。这种现象通常是因为模型在训练数据中学习到的模式不够准确,或者在生成过程中缺乏对真实世界的精确理解。 AI幻觉的表现 
 AI幻觉的原因 
 AI幻觉的影响 
 解决AI幻觉的方法 
 实际案例 
 AI幻觉是当前生成式AI面临的重要挑战之一,但随着技术的进步和方法的改进,这一问题有望逐步得到缓解。 | AI幻觉是指人工智能系统(尤其是自然语言处理模型)生成的内容与真实数据不符,或偏离用户指令的现象。以下是对AI幻觉的详细解析: 一、AI幻觉的类型 AI幻觉主要分为两类:事实幻觉和忠诚度幻觉。 
 二、AI幻觉的特点 
 三、AI幻觉的产生原因 
 四、如何避免AI幻觉 
 五、AI幻觉的实例 在实际应用中,AI幻觉可能导致严重的问题。例如,在商标侵权案件中,原告通过非正常搜索触发搜索引擎系统故障,导致大模型出现幻觉,认为被告的推广页面是“正确答案”,从而输出了貌似侵权的结果。这类案件的发生提醒我们,在使用AI技术时需要谨慎对待其生成的内容,并进行充分的核实和审查。 综上所述,AI幻觉是人工智能系统在使用过程中可能出现的一种现象。了解AI幻觉的类型、特点、产生原因以及避免方法对于提高AI技术的准确性和可靠性具有重要意义。 | 
