Openai的Chatgpt-5在无法自信地回答查询时开始以“我不知道”的回应,这与提供答案的典型聊天机器人的行为是重大变化,无论其可靠性如何。在用户在社交媒体上分享互动后,这项新功能引起了人们的关注,这是解决AI生成的错误信息的长期问题的一部分。
解决AI幻觉的问题
对于大型语言模型来说,持续的挑战是“幻觉”的问题,在该问题中,AI以一种自信的语气生成了捏造的信息,例如假引号或不存在的研究。这在医学或法律等领域尤其危险,在这种领域,用户可能会在不正确的情况下采取不可靠的信息行事。用户通常会以面值接受这些输出,因为AI的权威交付掩盖了捏造的细节。 Chatgpt-5的新方法直接通过选择诚实而不是发明来反驳这一点。当该模型遇到一个不超出培训数据或涉及无法验证的索赔的查询时,它现在将陈述其不确定性,而不是产生投机性或错误的答案。
“我不知道”功能如何有效
大型语言模型(例如ChatGpt)不会从数据库中检索事实。相反,他们通过基于从大量文本中学到的统计模式来预测下一个单词来运行。这种方法可以进行流利,类似人类的对话,但当当训练数据受到特定主题的限制时,也可能导致听起来不准确。 Openai已对Chatgpt-5实施了信心门槛。当模型的答案预测低于一定的可靠性评分时,它会触发“我不知道”的响应。这种机制可防止该模型提供语法正确但实际上毫无根据的答案。开发人员通过广泛的测试对这些阈值进行了校准,以平衡提供有用的信息并保持准确性。
通过传达限制来建立用户信任
新功能旨在通过清晰地限制AI的限制来建立用户信任。通过明确标记在不确定的情况下,Chatgpt-5鼓励用户寻求外部验证并更严格地使用该工具。这促进了更负责任的互动,将AI定位为有用的助手,而不是无误的信息来源。由于其他公司喜欢的公司,这种发展朝着更大的透明度与更广泛的行业趋势保持一致 Google的双子座 和 人类的克劳德(Claude) 还在探索在其AI模型中构建类似保障措施的方法。接受不确定性反映了人类专家的运作方式,他们经常承认其知识的局限并咨询其他来源。该功能代表了迈向更细微和负责的AI系统的一步,可以有效地传达其边界。





