非营利性部门的拥抱速度比预期的要快。现在,超过一半的非营利组织以某种形式使用AI工具(chatgpt,自动化系统,预测分析),但不到10%的人已经制定了有关如何使用AI的政策。这不仅是程序的监督。
这是一个结构性脆弱性。这些组织(其中许多组织都为历史上边缘化的社区提供服务,他们都将进入高风险的技术景观,这些景观很少有道德护栏,甚至更少的内部框架来指导它们。采用和治理之间的这种差距构成了真正的风险,即偏见,隐私漏洞和意外危害 – 尤其是在不深刻理解或监督的情况下部署现成的工具时。急于效率可能会无意中侵蚀信任,损害价值观,并使非营利组织面临声誉和法律影响。
现在的效率,后来后悔
这些数字讲述了一个惊人的故事。根据BDO的说法 2024年非营利基准测试调查,现在有82%的美国非营利组织使用AI报告。其中,大多数人将其应用于内部运营:44%的人正在使用AI进行预算和支付自动化等财务任务,而36%的人将其应用于计划优化和影响评估。换句话说,重点是行政效率,而不是任务交付。
这与有效慈善事业的2024年中心一致 非营利组织 调查还发现,生产力提高是AI使用的最常见原因。但是同样的调查揭示了道德滞后:不到十分之一的组织制定了正式政策。而且,确实使用AI的组织通常正在使用有限的基础架构,很少的内部专业知识以及预算有限的预算,从而阻止其构建自定义的,域名的系统。取而代之的是,他们依靠并非为其独特背景而设计的商业工具,增加了偏见,滥用或任务失误的可能性。
在信任是非营利性信誉至关重要的时候,这种治理真空令人震惊。 AI不是中立的。它反映了,放大和操作训练的数据,并且数据通常充满了历史不平等。没有指导使用的政策,非营利组织有可能加强其旨在拆除的结构性不平等。他们还有可能无法达到自己的价值观。作为Adie Achan,AID ACHAN,AI计划的总监 说:“组织更好地定义围绕该用途的规则和期望,而不是让人们使用它并无意间造成更大的伤害。”在这种情况下,“危害”可能意味着从服务提供的歧视性决策到敏感受益数据的无意泄漏。对道德AI政策的需求不是理论上的关注,而是一种实用的问题。
谨慎成本和行动价格
根据BDO的调查,指出了抵抗力的三连胜:缺乏知识,基础设施不足和资金限制。但是约有三分之一的受访者也引用了员工抵抗和道德问题。当经理担心风险时,员工可能会担心更换。因此,怀疑主义既实用又存在。而且它表现不均匀。大多数AI部署仅限于后台功能,在该功能中,技术可以悄悄提高准确性和效率。但是,更具变革性的应用程序(由驱动的能源跟踪,全球教育计划的实时数据综合)在很大程度上是有抱负的。这些与任务一致的用途要求财务肌肉和道德清晰度。目前,大多数非营利组织都有一个或另一个。很少有两个。
《金融平衡法》
具有讽刺意味的是,该行业的财务状况比多年来更稳定。根据BDO的数据,在过去的财政年度中,有52%的非营利组织的收入增长,高于2023年的44%。与此同时,现在有62%的人持有7个或更长时间的营业储备,这是自2018年以来最强的缓冲。这是与大流行期的精益年代的重大转变。这使领导者有信心考虑更多雄心勃勃的操作转变。
近四分之三的非营利组织表示,他们计划在未来12个月内扩大或改变其任务范围。但是谨慎仍然是主要的金融姿势。与2023年相比,大多数组织在2024年全面支出的支出较少,尤其是在倡导,筹款和捐助者关系方面。例外是新的计划开发和人才获取,这使得支出适度增加。换句话说,非营利组织正在储蓄,招聘和测试新的方向,但是他们是在政治日历上进行的,而另一种则是宏观经济不稳定的。
具有实际后果的政策真空
那么这将离开该行业呢?这是一个安静矛盾的时刻。一方面,非营利组织正在建设储备金,雇用人才和不断扩大的任务,这是机构信心的明确迹象。另一方面,他们迅速采用了一项强大的,不可预测的技术,而没有治理结构来管理它。该行业以与进入数字时代相同的方式进入AI时代,即即兴创作和适应而不是战略设计。那可能一段时间了。但是,如果没有确保透明度,问责制和与使命的一致性的政策,风险只会增加。这些工具可能是新的,但是道德困境(谁被遗漏,决定谁)已经既旧又尚未解决。
经过验证的市场研究:AI代理商将在2032年达到51.58B美元
接下来需要发生什么
为非营利组织制定道德AI政策并不是要放慢创新。这是关于指导它。这意味着建立反映每个组织的使命和价值观,投资于AI系统如何工作的内部教育以及实施监督过程以评估福利和危害的监督程序。政策不仅应澄清可以使用的AI,还应澄清它不应使用的。他们应该确定人类审查是强制性审查的决策点,概述数据隐私期望,并在危害发生时提供补救程序。
非营利组织有一个狭窄的窗口,可以以身作用。他们可以表明,不仅可以有效地使用AI,而且在道德上可以使用AI。