谷歌推出了一种名为“社交学习”的创新人工智能框架,旨在提高语言模型的协作能力,同时保护用户隐私。 这个新框架允许人工智能模型进行自然语言交换、分享见解并增强其在不同任务上的集体能力,而不会侵犯隐私。
- 这个概念汲取灵感 来自 Bandura 和 Walters 1977 年的社会学习理论,强调通过观察来学习,无论是通过口头指导还是通过模仿观察到的行为。
- 与可能涉及直接数据共享的传统协作学习方法不同,这种方法 使法学硕士能够使用自然语言相互教学和学习,规避隐私问题。
- 本文讨论了该框架在各种任务中的应用,包括 垃圾邮件检测、解决小学数学问题以及基于文本的问答,展示其多功能性。
“大型语言模型 (LLM) 显着提高了解决使用自然语言指定的任务的技术水平,通常达到接近人类的性能。 随着这些模型越来越多地支持辅助代理,他们有效地相互学习可能是有益的,就像人们在社交环境中所做的那样,这将使基于法学硕士的代理能够提高彼此的表现。”
-谷歌
Google 的社交学习如何运作?
在社交学习设置中,“老师”模型将知识传递给“学生”模型不需要传输敏感或私人信息,在有效学习和隐私保护之间取得平衡。 这些学生模型借鉴了各种教师模型的经验教训,每个模型都专门从事特定的任务,例如检测垃圾邮件、解决数学难题或根据文本内容提供答案。
通过利用人类审查的示例,教师模型可以在不交换原始数据的情况下教育学生模型, 从而解决与数据共享相关的隐私问题。 此外,教师模型能够设计新的场景或创建特定的任务指令,从而丰富教育旅程。
研究试验强调了社会学习在提高学生模型完成一系列任务的能力方面取得的成功。 人们发现,教师模型炮制的合成场景与真实数据一样有影响力,同时大大减少了隐私风险。 同样,教师模型制定的任务指令有助于提高学生模型的表现,展示了语言模型在遵守指令方面的多功能性。
为了锚定隐私保护, 研究界采用了诸如秘密共享者指标之类的措施来评估学习阶段数据暴露的程度。 研究结果显示,隐私数据渗漏可以忽略不计,验证了该框架在不泄露原始数据池详细信息的情况下进行指导的能力。
通过模拟人类的社会学习过程,这些模型是 善于交流专业知识并共同提高其能力,同时优先考虑用户隐私。 这一战略为跨领域创建具有隐私意识的人工智能技术开辟了新途径。 展望未来,研究团队将进一步完善社交学习框架,并深入研究其在各种任务和数据环境中的效用。
“我们引入了一个社交学习框架,允许能够访问私人数据的语言模型通过文本通信传输知识,同时维护该数据的隐私。 在此框架中,我们将共享示例和共享指令确定为基本模型,并在多个任务上对其进行评估。 此外,我们将秘密共享者指标调整到我们的框架中,提出了衡量数据泄漏的指标。”谷歌在其声明中表示。 博客文章。
“下一步,我们正在寻找改进教学过程的方法,例如通过添加反馈循环和迭代。 此外,我们希望研究将社交学习用于文本以外的方式,”博客文章进一步写道。
特色图片来源: 罗米切尔/Unsplash