Google正在推出Gemini 2.5 Flash,一种更快,更高效的AI模型 宣布 在Google Cloud Next会议上,将其最新AI架构的覆盖范围扩大到了最初的实验阶段。
在Gemini 2.5 Pro上个月转头之后,Google现在在其生态系统中部署了改进的AI,阐明了其模型阵容。 Flash加入Pro,从以开发人员为中心的顶点AI平台而不是消费者Gemini应用程序开始生活。
Gemini 2.5闪存源于与Gemini 2.5 Pro相同的基本代码,但其设计为更快,更便宜。 Google从Pro的实验版本中收集了用户交互数据,这有助于塑造Flash的开发。
Flash模型小于其专业对应物,尽管Google并未披露特定的参数计数,但加速了答案以进行简单查询并降低操作成本。 2.5 Pro和Flash具有动态思维,使AI能够根据查询调整其模拟推理工作。
根据 ars tecnicaGoogle的Tulsee Doshi指出,最初的实验2.5 PRO偶尔会“过度思考”简单的要求。 Gemini 2.5 Flash结合了更高级的“动态和可控的推理”来解决这一问题,选择“思考预算”相对于及时的复杂性,以减少等待时间和处理需求。
开发人员使用顶点AI对该思维预算获得颗粒状控制,从而进一步降低成本和速度优化。 Google还计划在接下来的几周内为Vertex AI上的Gemini 2.5型号添加监督的调整和上下文缓存。
另外,较大的Gemini 2.5 Pro模型现在为Google的深入研究工具提供动力,从前的Gemini 2.0 Pro升级。深度研究使用提示来收集互联网数据并综合有关某个主题的详细报告。
Google指出,对Gemini 2.5 Pro的升级增强了深入研究报告的准确性和实用性。 Google引用用户评估,与OpenAI类似工具相比,其报告对报告的偏好大于一对一。
虽然可以在免费帐户上使用深度研究,但运行Gemini 2.5 Pro的版本目前仅限于双子座高级订户。