在人工智能领域中,幻觉是由人工智能生成的一种回应,它含有貌似事实的虚假或误导性资讯。
该术语源自幻觉的心理学概念,因为它们具有相似的特征。人工智能幻觉的危险之处之一是模型的输出看起来是正确的,而它实际上是错误的。
Groundedness Detection微软的 Groundedness Detection 类似于谷歌在 Vertex AI 中推出的 Google Search Grounding,主要对比 AI 输出内容和源文件,从而识别没有证据或者幻觉内容。
微软强调,虽然该工具提高了人工智能输出的可靠性,但并不能保证完全准确,只是能提高生成内容与源材料之间的一致性。
当系统检测到一个支持不足的句子时,就会触发一个新的请求。要求一个较小的人工智能模型进行修正,该模型会根据基础文档对句子进行评估。
如果一个句子不包含基础文档中的相关信息,它就会被完全过滤掉。对于包含一些相关内容的句子,模型会对其进行改写,匹配源材料。
附上官方介绍视频如下:
相关教程
2024-03-29
2024-10-21
2024-04-20
2023-11-02
2023-11-30
2024-08-18
2024-11-16
2024-11-15
2024-11-14
2024-11-14
2024-11-14
Copyright © 2009-2024 鹿大师 www.ludashiwj.com 版权声明