2025年即将结束,人工智能热潮的账单正式到期。尽管企业路线图仍然充斥着生成性试点,但人工智能创收的“魔法”和“利润”之间的差距正在扩大。
最近的数据描绘了这种“投资回报率差距”的鲜明景象。根据麻省理工学院 2025 年 12 月的一项研究,几乎 95% 的企业人工智能项目目前未能带来可衡量的回报。同样,Forrester 报告称,只有 15% 的高管认为利润率有所改善 来自他们去年的人工智能投资。
董事会中令人不安的沉默不再是技术是否有效的问题,而是技术为何不付费的问题。
从一个有前途的演示转变为一个创收引擎需要的不仅仅是干净的数据和良好的模型;它需要战略上的根本转变——弥合执行野心和工程现实之间的鸿沟。
为了解决这个分歧,我们转向 弗拉迪斯拉夫·切克雷若夫,数据科学与人工智能总监 自动文档。 Chekryzhov 在 27 个不同的欧洲市场开展业务,处于执行产品所有权和实践系统架构的罕见交汇点。与经常占据头条新闻的理论未来学家不同,他的任务基于主要电子商务的高风险现实:提供直接影响定价、保留和客户忠诚度的生产级系统。
他代表了一种我们可以称之为“收入现实主义”的学科——即人工智能模型的价值取决于其在野外生存并产生可衡量的商业影响的能力。
将人工智能炒作转变为损益现实所需的五个战略支点。
“效用过滤器”:无情的优先顺序
许多组织陷入的第一个陷阱是“寻找问题的解决方案”。随着生成式人工智能的进入门槛比以往任何时候都低,构建“酷”功能的诱惑很大。然而,要创造收入,就需要有纪律地拒绝追逐那些不会带来改变的趋势。
对于 Chekryzhov 来说,功能和业务驱动程序之间的区别非常明显。它不是从代码开始,而是从财务建模开始。
“最终,任何 AI/ML 计划的优先级都取决于建立假设的原则。不要依赖直觉;首先对影响进行建模 – 在编写代码之前就可以在 Excel 中赚钱。”
他将举措分为三个级别:优化当前经济(第 1 级)、解锁新产品经济(第 2 级)和重塑商业生态系统(第 3 级)。他指出,危险区通常是第 3 级,其中的战略故事常常掩盖了薄弱的假设。
“常见的失败模式是制造一个昂贵的玩具……我强迫供应商进行测试:我们是否会按照供应商的价格(例如 OpenAI)支付此功能的费用,并且仍然保持利润?如果没有可靠的收入增长途径或运营费用的逐步变化,那么这只是一个代价高昂的实验。”
平衡算法:定价与保留
在电子商务中,人工智能的任务通常是优化。但优化很少是零和的。旨在最大化即时利润(动态定价)的模型可能会无意中惩罚长期忠诚度(保留)。
切克雷佐夫认为,管理这种紧张关系并不是要找到完美的神经网络架构,而是要建立适当的组织边界。
“最起码效果出人意料的是文化,而不是架构:使用正确的护栏进行严格的实验。每次定价或促销的变化不仅要根据即时效率来衡量,还要根据“光环效应”来衡量:它如何改变不同群体和细分市场的行为……我们预先定义允许哪些指标移动、向哪个方向移动以及移动多少。如果利润率的胜利伴随着留存率或 CLV 超出了这些范围,那么它就不是胜利。”
为了从技术上实现这一点,他建议避免“黑匣子”整体,而采用分层方法,让业务领导者无需重新训练完整的模型即可进行控制。
“一种实用的方法是使用级联模型:定价模型提出候选价格,然后轻量级模型预测用户结果并充当过滤器或加权重新排序器。这样做的好处是控制:您可以通过更改最终配置来调整业务逻辑,而不是每次优先级发生变化时重新训练重型模型。”
“生产差距”:投资回报率消失的地方
概念验证 (POC) 是一项受控实验;生产是一个战区。许多收入预测失败是因为它们低估了保持模型大规模运行所需的工程开销。
Chekryzhov 警告说,人工智能引入了传统软件工程师经常忽略的一种特定类型的技术债务:非确定性。
“诚实的答案是,成功的 PoC 并不能证明你拥有可扩展的产品……该模型是不确定的:重新运行可以产生不同的输出。这会增加调试成本,使事件更难以重现,并提高监控的标准。技术债务在人工智能系统中比在传统软件中出现得更快,成为整个团队开发速度的负担。”
从战略上讲,这意味着您的投资回报率计算必须包括可靠性成本。如果您只为开发制定预算,而不考虑维护“税”,那么您的利润将会蒸发。
“我在这里看到的最好的投资并不陌生……我提倡基本的卫生(MLOps 文化和 ML 系统设计的持续过程),永不过时的部件:可衡量的质量、可调试性和可逆性。”
隔离信号:归因挑战
也许需要回答的最复杂的战略问题是:“人工智能做到了吗?”在涉及数十个市场、季节性和营销支出的复杂生态系统中,将收入归因于特定来源在统计上是混乱的。然而,如果没有明确的归属,持续投资就不可能向最高管理层证明是合理的。
切克雷佐夫以科学家的严谨态度对待这一问题,拒绝接受复杂模型产生信任的观点。相反,他依靠反事实——证明如果没有人工智能的话会发生什么。
“板着脸声称‘人工智能驱动 X’的唯一方法是锚定可信的反事实。我依赖两个证据:可行时采用随机实验 (A/B),不可行时采用准实验方法。如果决定在测试窗口之外很重要,我们会在 A/B 设置中添加一个全局抵制:一个永远不会看到该功能的持久对照组。这很痛苦 – 你实际上是在赔钱。但这通常是唯一可靠的联系现实。”
“对于最高管理层来说,传达的信息是一致的:信任并非来自复杂的模型。它来自透明的方法和可以清楚解释的衡量设计。”
安全栏:信任机器
最后,自动化收入决策(例如出价或定价)会带来固有的风险。一个“产生幻觉”的聊天机器人是令人尴尬的;以 90% 的损失出售库存的定价算法是灾难性的。
战略实施需要“人在环”的理念,进而演变成“人在环”的治理。切克雷佐夫建议在授予自主权之前评估错误的成本。
“我从 ML/AI 系统设计开始,这里有一个最重要的工件:错误的成本。如果缺点很大且难以逆转,我不会追求完全自主……当风险状况可以接受时,我喜欢“自主滑块”。早期迭代是经过人工验证的。当您积累数据和信心时,您可以按照受控步骤将滑块移向自动化。”
即使系统是完全自治的,它也必须在业务而不是模型定义的严格范围内运行。
“自治必须受到政策即代码的限制。系统应该有明确的约束、断路器和安全后备……你不是在理论上争论自治;你是在赢得自治。”
AI收入需要成熟度升级
从AI实验到AI收入的转变不是技术升级;这是成熟度的升级。它需要摆脱新奇的诱惑,拥抱工程的严谨性、归因的复杂性和优先顺序的纪律。
正如 Chekryzhov 在 AUTODOC 的经验所表明的那样,获胜的公司不一定是那些拥有最先进模型的公司,而是那些在数据科学和业务战略之间拥有最强大桥梁的公司。





