AI擅长于模式识别,但在推理方面挣扎。同时,人类认知深深植根于逻辑和连贯性。如果我们可以 结合两全其美– 大语言模型(LLM)的原始处理能力和基于规则的符号AI的思维?
这是背后的目标 Neurosymbolic AI这是一种新方法,将深度学习与连贯驱动的推理(CDI)融合在一起。研究人员Huntsman和Thomas提出了一种允许LLM的方法 构建逻辑关系 从自然语言开门 更好的决策,解决问题,甚至是AI驱动的法律推理。
这项研究,“”通过大语言模型和连贯驱动的推理神经肯定人工智能史蒂夫·亨斯曼(Steve Huntsman)和Cynnovative的Jewell Thomas进行的”探索了一种新颖的方法,可以将相干驱动的推理(CDI)与大语言模型(LLMS)(LLMS)相结合。通过开发一种将自然语言命题转换为结构化相干图的算法,研究人员基准AI建模了重建逻辑关系的能力。
什么是连贯驱动的推理?
连贯驱动的推理(CDI)是一种基于一组命题的合适状态来做出决策的方式。 CDI不简单地接受或拒绝个人事实,而是建立 关系图,将权重分配给 持续的 和 矛盾 语句。
连贯的图将连接这些命题,并 评分他们的一致性,帮助AI确定 哪些陈述最有可能是真实的。
问题?到现在为止,这些图必须是 手动建造– 艰苦而不切实际的过程。新研究提出了一种可以 自动生成 这些图 自然语言输入 并测试LLM可以重建它们的效果。
教LLM建立逻辑结构
研究人员的方法涉及两个关键步骤:
- 产生命题:以自然语言创建了一组语句,反映了逻辑结构。
- 重建相干图:然后提示LLMS分析这些语句并重建基础图结构。
这样,AI模型被迫 想像人类,不仅评估个人事实,还会评估 他们如何连接到更广泛的知识网络。
人工智能可以做对吗?
该研究从 GPT-4O和Claude 3.5 到 QWEN-32B和LLAMA-3.3等开源型号。结果是 令人惊讶的有希望– 一些模型能够以高精度重建相干图,即使在 不确定或模棱两可的条件。
有趣的是, 用于推理的模型, 喜欢 O1-Mini和QWQ-32B,表现最好。这表明AI系统经过专门培训 结构化解决问题 处理复杂的推理任务时,可以超越通用LLM。
核心 连贯驱动的推理(CDI) 是知识不仅仅是一个想法 孤立的事实– 这是一个网络 相互依存的真理。 Huntsman和Thomas引入的方法将知识作为一种 相干图, 在哪里:
- 节点 代表命题(例如,“海牙是资本”)。
- 边缘 代表 一致性 或者 不一致 在这些命题之间。
如果是命题 支持另一个,有一个 正连接。如果两个陈述与 负面连接。目标?到 最大化连贯性 通过分开 真假语句 变成不同的集群。
在图中找到最连贯的分区的问题在数学上等同于 最大切割,众所周知的计算挑战。 Neurosymbolic AI通过将LLMS的自然语言理解与CDI基于图的推理相结合来解决这一问题。
研究人员的方法从 心理学和计算机科学。 CDI已用于建模 人类决策,法律推理,甚至 科学的因果推论。但是直到现在,必须手动构造CDI图。
为了自动化此过程,研究提出了一种算法,该算法:
- 将自然语言命题转换为结构化相干图。
- 训练LLM重建这些图,测试他们识别事实之间关系的能力。
- 不同AI模型的基准性能,分析它们保持逻辑一致性的能力。
为了测试LLM处理相干驱动的推理的效果,研究人员生成了合成相干图并将其馈入各种AI模型。这些图包含一致和矛盾的陈述,挑战了模型以识别逻辑结构,而不仅仅是反流信息。
他们测试了:
- Claude 3.5和GPT-4O (高端商业LLM)
- QWQ-32B,O1-Mini和Llama-3 (为推理优化的开源模型)
- PHI-4和双子座1.5/2.0 (较小和中型型号)
结果表明:
- 用于推理的模型(例如O1-MINI和QWQ-32B)明显优于通用LLM。
- 一些模型成功地重建了原始的连贯图,即使面对不确定或模棱两可的信息也是如此。
- LLM在更复杂的逻辑结构中挣扎,尤其是当多个命题相互依存时。
这项研究是迈向的重要一步 真正聪明的AI。而不是将语言视为 统计猜测游戏,相干驱动的推理迫使AI迫使AI 评估逻辑一致性,导致:
- 更可靠的AI输出 (减少幻觉,更准确的推理)
- 更好的解释性 (基于明确逻辑结构的AI决定)
- 加强问题解决 (适用于法律,科学和治理)
特色图片来源: Tara Winstead/Pexels