思维机器实验室的资助为20亿美元,并与前OpenAI研究人员配备了成员,他们分享了其首个详细的研究见解。该实验室周三发表了一篇博客文章,研究了如何创建AI模型,以产生更一致和可再现的响应,从而解决了人工智能开发中的基本挑战。
AI模型一致性研究针对大语言模型中的非确定性
博客文章,标题为“在LLM推论中击败非确定性,“研究为什么AI模型通常会产生各种各样的答案。尽管这种可变性已被接受为大语言模型的固有特征,但思考机器实验室将这种非确定性视为可解决的问题,而不是不可避免的限制。
GPU内核编排会导致响应随机性
研究员霍拉斯(Horace)撰写了这篇文章,认为AI模型中的随机性源于在推理处理过程中如何精心策划的GPU内核。推理处理是指用户提交查询后发生的计算步骤,例如按ChatGpt中的Enter。 GPU内核是在NVIDIA计算机芯片上运行的专业程序。他认为,对这个编排层的仔细管理可以使AI模型能够产生更可预测和一致的输出。
一致的回应改善了强化学习培训
除了提高企业和科学应用的可靠性外,他建议可重复的响应可以简化加强学习(RL)培训。强化学习奖励AI模型以获取正确的答案,但是不一致的答案将噪声引入训练数据中。更一致的响应可以改善RL流程,这与信息以前的报告相吻合,即思考机实验室计划将RL用于将AI模型量身定制特定业务需求。
计划未来几个月的第一个产品发布
前Openai首席技术官Mira Murati在7月宣布,Thinkines Machines Lab将很快发布其第一个产品。她指出,该产品将“对开发自定义模型的研究人员和初创公司有用”,尽管具体细节以及是否包含可重复性技术仍然没有公开。
开放研究承诺反映了早期的Openai方法
思维机实验室 宣布了定期发布博客文章,代码和研究成果的计划,以“使公众受益,但也改善我们自己的研究文化”。最近的帖子推出了一个名为“ Connectionism”的新系列,反映了这种透明度的承诺。这种方法反映了Openai的早期开放研究承诺,尽管Openai随着它的增长而变得不那么透明。该研究博客提供了对思维机实验室运营的罕见见解,并表示该公司正在应对AI研究的挑战,同时致力于证明其120亿美元估值合理的产品。




