在企业争相探索人工智能(AI)潜力的今天,法务、风控等职能控制部门的谨慎态度常常阻碍创新。传统的AI项目审批模式,即在后期才将方案提交给风控部门,往往导致项目停滞或风险累积。本文指出,问题在于业务与技术部门未能将风控视为盟友,而是将其视为审批的“守门员”。为解决这一困境,企业需将风控部门从“对手”转变为“盟友”,共同设计安全护栏,加速AI运营模式。文章强调,AI放大了现有风险的速度和规模,传统治理模式不足以应对。成功的企业通过成立AI委员会、早期引入风险伙伴、明确最低风险要求、采用适应性成熟度模型,并实现持续的审批后监控等措施,构建了“安全护栏”,确保AI项目安全、迅速地规模化应用。
如果你让公司的法务总顾问或首席风险官批准一个人工智能(AI)的应用场景,你得到的回答很可能是一个充满顾虑的‘不’字,瞬间扼杀一个充满潜力的创新项目。这并非因为他们有意阻挠,而是出于其职业责任——在信息不充分、风险轮廓模糊的情况下,规避潜在的未知风险是他们最安全,也是最合乎逻辑的选择。但如果我们换个问法,不去问“行不行”,而是问“怎么才能行”——通过共同定义清晰的成功标准,明确最低风险要求,并利用现有的风险评估体系来共同寻找解决方案——那么对话的性质就会彻底改变,从一次对立的审查,转变为一次富有策略性和成效的合作。
如今,企业和技术领袖们正争先恐后地发掘AI的全部潜力,但他们的热情常常会遇到来自法务、风控、合规,甚至财务和人力资源等“职能控制部门”的谨慎态度,甚至是直接的阻力。问题出在哪呢?
问题在于,业务高管们通常在项目后期,才把风险和控制部门的负责人请进来。想象一下这个典型的场景:一个AI产品已经开发了九个月,投入了大量资源,营销计划也已就绪,即将上线,这时才将最终方案交给法务和风险部门寻求批准。此时,任何重大的修改都意味着高昂的沉没成本和项目延期。在这种被动的局面下,当风险控制团队的角色只剩下在最后阶段盖上“批准”或“拒绝”的章时,他们自然没有动力“积极参与”。他们很可能既不了解项目的具体情况,也没有足够的安全护栏来权衡其价值与风险。结果,他们往往会采取一种防御性的行为模式。
业务和技术主管们提出的问题通常是“我们能上线这个项目吗?”这种“行或不行”的二元对立问题,迫使风险控制负责人要么为了尽职而提出一连串尖锐的问题,要么干脆为了安全起见而选择拒绝,从而在无形中制造了一种对立而非协作的紧张关系。
如果企业没有一个合适的跨部门合作模式来让风险与控制团队参与进来,那么AI项目——无论是传统的AI/机器学习,还是生成式AI,甚至是日益兴起并能自主行动的AI智能体——要么会停滞不前,要么会在风险敞口不断增大的情况下继续推进,最终酿成危机。最终,创新放缓,企业实现其远大抱负的能力也会受到损害。
因此,高管们需要一个行动指南,将风险与控制部门的负责人从“对手”变成“盟友”,让他们成为帮助安全导航的伙伴,而不仅仅是终点线的守门员。通过一条务实的前进道路,他们可以设计出一个能够加速而非抑制创动的AI运营模式。
大多数AI运营模式错在哪里?
AI本身并不会带来全新的客户伤害形式,但它确实以一种前所未有的速度和规模,放大了企业已在管理的运营、模型、道德和声誉风险。例如,一个存在偏见的贷款审批模型(这是早已存在的风险),在AI的加持下可能在一天之内做出数百万个带有偏见的决定(速度和规模的放大),从而迅速引发大规模的声誉危机和监管罚款。同样,在医疗领域,一个微小诊断偏差的AI模型,可能在全国范围内被用于筛查,导致成千上万的误诊。AI技术本身的特性和其快速发展的步伐,也暴露了传统治理模式在应用于AI场景时的不足。对于金融服务、医疗保健和电力公用事业等受到严格监管的行业的公司来说,这种压力尤其大。然而,在部署AI方面行动过于迟缓,本身也可能成为一种战略风险,让企业在竞争中落后。
领导AI项目的高管们正面临着一系列独特的组织、运营和治理方面的挑战:
- 去中心化:“影子IT”(指未经IT部门批准而在公司内部使用的软硬件)和分散的数据管理,使得统一监督变得更加困难。例如,当市场部自行采购并使用一款AI文案工具时,法务和信息安全团队可能完全不知道敏感的客户数据正如何被第三方处理,这不仅带来了数据泄露的风险,还可能因AI生成内容的版权问题或不当言论而引发法律和声誉危机。统一监督因此变得至关重要。
- 角色和职责不明确:在现有的分类和框架中,与AI相关的风险由谁负责可能没有被充分界定。比如,当一个AI驱动的医疗诊断工具给出错误建议时,责任该由谁承担?是开发模型的数据科学家,使用该工具的医生,提供平台的供应商,还是负责系统集成的IT部门?这种责任的模糊不清会使决策过程陷入瘫痪,并在出现问题时导致内部互相指责,无人负责。
- 陈旧的验证流程:大多数组织仍然依赖于生成式AI出现之前的模型验证方法。这些方法通常是一次性的、静态的。但新模型需要的不再是使用前的一次性测试和批准,而是持续的监督和不断的实证验证。AI模型会随着新数据的输入而发生“概念漂移”或“数据漂移”,即其性能会因现实世界情况的变化而下降。这意味着要持续监控模型在真实世界中的表现,并根据需要进行重新训练。
- 供应商和第三方风险:对于那些内嵌了生成式AI功能的供应商模型,采购和第三方运营风险团队需要进行更严格的审查。公司还必须警惕第三方软件中“意外植入的AI”。比如,一个公司常用的项目管理软件在某次更新中增加了一个AI智能排期功能,如果未经审查,公司就等于在无意中引入了一个可能接触到核心项目数据的AI系统,而这个系统的数据处理方式和安全标准对公司来说完全是个黑箱。
- 不断变化的监管环境:AI运营模式必须不断发展,以适应不同司法管辖区(如欧盟的《AI法案》、美国各州以及中国的相关法规)不断变化的AI规则和法规,这给跨国企业带来了复杂的合规挑战。一个在一个地区合规的AI应用,在另一个地区可能就是非法的。
这些挑战导致的结果,往往是在评估、确定优先级和批准AI应用场景时,采取一种缺乏协调、零散割裂的方法。像风险评估这样的核心流程,没有根据快速变化的技术和敏捷的工作方式进行调整。大多数法务、风控和合规团队既不习惯敏捷的工作节奏,也没有足够的人手去参与到每一个冲刺团队或站会中。
更重要的是,由于过往的经验和培训,这些职能部门中的一些人将他们的监督角色定义为需要保持独立和客观。他们视自己为‘保护者’,而非‘顾问’。‘保护者’的职责是筑起高墙,防止任何可能的失败;而‘顾问’的使命是绘制地图,指引通往成功的安全路径。保护者会问‘这个项目有什么风险?’,他们的目标是识别并消除威胁。而顾问则会问‘为了在可接受的风险水平下达成目标,我们需要什么样的护栏和导航系统?’,他们的目标是赋能成功。
与此同时,一些制度性和结构性因素也在很大程度上影响着风险控制团队的参与方式。这些因素包括:
- 风险偏好:指一个组织为了实现战略目标而愿意承担的风险数量和类型。如果这一点被明确界定并适当量化,组织就可以将其作为风险承担行为的“分界线”,否则每个决策都可能变得主观和不一致。
- 风险文化:指一个组织如何识别和奖励良好的风险行为,以及如何处理不良行为。这通常反映在绩效管理和激励薪酬中。例如,那些主动提出潜在风险的员工,是被视为贡献者还是麻烦制造者?
- 角色定义:指二线风险与控制团队的范围和职责。这一定义往往会影响团队成员是作为“赋能者”参与,还是采取更具防御性的“保护者”姿态。
为速度设计“安全护栏”
在AI应用方面处于领先地位的领导者们正在改变游戏规则。他们的业务和技术团队不再是请求许可,而是询问如何“获得批准”,以便他们能够从实验阶段走向规模化应用。
这在实践中是什么样子的呢?首先,建立正确的AI“安全护栏”至关重要。这就像赛车道上的护栏,它的目的不是让你减速,恰恰相反,是为了让你敢于踩下油门,在安全的轨道内超越竞争对手,而不用担心偏离赛道坠入悬崖。安全护栏既包括治理,也包括控制。
- 治理包括组织方面,比如召集一个由技术、业务、法务、道德和隐私专家共同组成的集中批准AI应用场景的委员会;也包括工具方面,比如围绕该技术的框架、政策和AI使用原则。
- 控制则涵盖了检测性和预防性的IT、访问和流程控制。其中最有效的是自动化控制,它可以嵌入到AI应用场景或系统的IT架构中,例如自动屏蔽敏感信息、自动记录决策日志等。
良好的安全护栏需要新的工作方式来支持。我们观察到,成功的公司通常会采取以下四项举措:
- 成立AI委员会:一些组织认识到风险与控制负责人能带来宝贵的见解,因此将他们纳入跨职能的指导委员会,共同评估价值与风险的权衡。这个委员会不仅是审批机构,更是战略导航中心。它的产出不只是一份份审批文件,更是一套动态的‘AI创新热力图’,清晰地标示出哪些领域是鼓励探索的‘绿灯区’,哪些是需要谨慎试点的‘黄灯区’,以及哪些是必须严格管制的‘红灯区’,从而为整个组织的创新提供了清晰的导航。这让他们在战略决策点上拥有了可见度和话语权,而不仅仅是在事后审查。
- 尽早让风险与控制伙伴参与:领导者们会在构思、设计和原型制作阶段,为团队指派一名“风险伙伴”。这位风险伙伴帮助业务和技术发起人驾驭风险审批流程。在设计阶段发现一个数据隐私缺陷可能只需要几个小时的讨论就能重新设计数据流,但如果在上线前才发现,则可能需要数周时间来重新编码和测试,甚至可能导致整个项目被否决。这一举措也改变了组织的心态,帮助风险与控制负责人扮演起创新者伙伴的角色。
- 明确最低风险要求:AI领导者们并没有把所有事情都推给资源紧张的风险与控制部门,而是为团队配备了必要的风险管理知识。例如,可以为市场团队提供一张“风险自查小抄”,包含诸如“本次应用是否涉及欧洲用户的个人数据(GDPR风险)?”、“AI生成的内容是否可能被视为歧视(声誉风险)?”、“AI的决策过程是否可以向用户解释(透明度要求)?”等问题。这能帮助他们完成第一轮风险筛查,提高提交给专业部门的材料质量,并加快审批速度。在引入快速合规培训和小抄后,一家网上银行大幅减少了不合规的客户沟通和最后一刻的紧急上报。
- 采用与实际情况相适应的成熟度模型:例如,可以考虑将AI成熟度分为三个简单的级别:级别一,AI作为工具或助手(如开发者使用AI辅助编码);级别二,AI在人类监督下执行(如信贷员在AI建议的基础上做最终贷款审批);级别三,AI自主执行(如电商平台的AI根据市场供需自动调整价格)。每个级别需要的控制措施截然不同。级别一可能只需要明确的使用指南和数据安全培训。级别二需要强大的审计日志、清晰的人机交接点和申诉机制。级别三则需要复杂的实时监控系统、“紧急制动”开关以及能够解释自身行为的工具。大多数公司仍处于一二级,但随着人类逐渐从工作流中脱离,将需要更强的控制。因此,领先的组织正在根据每个AI成熟度级别,定义相应的控制方法和要求。
许多AI智能体平台已经在构建工具,用于监控、评估和微调智能体的行为及其对安全护栏的遵守情况。技术会不断进步,但组织不应坐等。现在就应该认真思考智能体在监督和运营中的位置。公司可以从小处着手,在低风险领域进行试点,以学习有效的方法。他们将逐步建立起安全扩展智能体的能力,确保智能体成为风险缓解的力量,而不是风险暴露的源头。
如何开始行动?
想要安全、迅速地规模化应用AI的公司,应该启动以下六个步骤:
- 自上而下地支持职能控制部门:这需要超越口头支持。领导层需要通过宣传、绩效管理和有利的酌情薪酬,来表明他们角色的重要性,并在一个被妥善管理的风险最终发生时为他们提供保护,以此证明公司真正支持经过计算的风险承担。当一个经过周密评估的AI项目未能达到预期效果时,参与其中的风控人员不应受到惩罚,而应因其严谨的过程受到认可。
- 重新设计业务、技术、风险和人力资源流程:这并非要凭空创造一套“AI流程”,而是要将AI相关的考量嵌入到现有的工作流中,如采购、招聘和产品开发等,让风险评估成为常态。例如,在采购新软件时,标准问卷中应增加“该软件是否包含AI/ML功能?其数据如何处理?”等问题。
- 明确不可动摇的底线:一个应用场景要向前推进,必须满足哪些条件?这些是企业的“红线”。例如,明确规定“我们绝不使用AI在没有人类复核的情况下做出最终招聘决定”,或者“所有面向客户的AI都必须明确标识其身份,不能伪装成人类”。没有这些明确的定义,审批和优先级排序就无法进行,导致应用场景陷入无休止的辩论和僵局。
- 采用风险分级的方法进行评估和审批:利用分层监督模型,将低风险的应用场景(如用于优化内部供应链的预测模型)作为预先批准的快速通道处理,而将高风险应用(如用于刑事司法的面部识别技术)置于最严格的审查之下。这能将宝贵的专家资源从低风险项目中解放出来,让他们可以集中精力对真正高风险的领域进行深度审查。
- 建立测试与学习的循环:每六个月对AI治理的工作方式进行一次质量控制审查。在审计应用案例时,要反思:“那些被快速通道批准的项目,风险真的低吗?我们的风险清单是否有效?是否有新的、未预料到的风险出现?”这个过程旨在持续改进,而非一次性审查。它承认AI治理不是一个一劳永逸的静态项目,而是一个需要不断迭代和适应的动态过程。
- 实施持续的审批后监控:让风险与控制负责人持续参与,因为与传统软件不同,AI模型的性能可能会随时间推移而“漂移”或退化。一个在夏季训练的销售预测模型,可能在冬季购物季到来时表现不佳。因此,监控不是可选项,而是确保AI系统长期安全有效的必要维护,需要定期检查模型的准确性、公平性和稳定性。
最优秀的公司不把风险与控制视为障碍——他们将其视为战略性的赋能者。这种思维上的转变,区分了那些仅仅停留在AI实验阶段的公司,和那些成功将AI融入核心战略以驱动真实、可持续增长的公司。这种行为上的转变,使职能控制部门能够敏捷地运作,确保负责任地使用AI、更快地规模化应用和持续的创新。那些现在就着手打好基础的公司,不仅仅是在规避风险,更是在为未来十年的发展铺设高速公路,构建一种对手难以模仿的、由AI驱动的核心竞争优势。而犹豫不决者,则可能发现自己不仅错过了机遇,更被时代远远甩在了身后。