AI工作助理

生成式AI很有可能大幅改变我们各个领域的工作样貌。我们必须学习与它合作,才能在AI时代胜出。本文具体介绍AI时代人们必备的3种技能:智慧询问、整合判断、互为学徒。只有当你掌握这些技能,才能获得成功。

预计在未来几年内,生成式人工智能将从根本上改变各种工作。人工智能不再是技术专家的专利,现在几乎任何人都可以使用日常语言命令而不是代码来工作。根据我们的研究,大多数业务职能和超过 40% 的美国工作活动都可以通过人工智能技术实现增强、自动化或重塑。这些变化预计将对法律、银行、保险和资本市场行业产生最大影响,其次是零售、旅游、医疗和能源行业。

对于企业及其员工来说,这种迫在眉睫的转变具有巨大的影响。未来,我们中的许多人都会发现,我们的职业成功取决于我们能否从大型语言模型(LLM)(如 ChatGPT)中获得最佳输出,以及能否与它们一起学习和成长。要想在这个人工智能与人类合作的新时代脱颖而出,大多数人将需要一种或多种我们称之为 “融合技能 ”的技能——智能询问、判断整合和互惠学徒

「智慧询问」是指下提示(或是说得通俗一点,下指令)给LLM,来产出明显更好的推理与结果。简单说,它就是运用AI来思考的技能。例如,当金融服务公司的客服人员在为一个复杂的顾客问题寻找解答时,当药物科学家在仔细检视调配药品与分子交互作用时,当行销人员在探勘数据集以寻找最佳零售订价时,可能都会用到这项技能。

「判断整合」是指当生成式AI模型不确定该做什么,或是在推理过程中缺乏必要的商业或道德背景脉络时,就需要加入你的人类判断力。这是为了让人机互动的结果更值得信任。判断整合需要能领会人类该在何处、何时、以何种方式介入,而它的成效是用AI输出结果的可靠性、准确性与可解释性来衡量。

透过「互为学徒」,你可以将丰富的数据与组织知识纳入你给AI的提示,来帮助AI了解你的业务任务和需求,进而训练AI成为你的共创者。这种技能就是根据你公司的特定商业脉络来客制化生成式AI,让它能够达到你想要的结果。你在这么做的时候,自己也在学习如何训练AI来处理更复杂的难题。曾经,只有负责建立数据模型的数据科学家和分析专家才需要这项互为学徒的能力,但现在,这项能力在非科技职位上变得愈来愈关键。

为什么你需要有系统地培养这些新技能来思考、建立信任与客制化?经验研究一致表明,视当下情况临时下的指令(现在大多数员工都是这样下提示给LLM),会产生不可靠或品质低劣的结果,尤其是在处理复杂的推理任务时。从客服、营销、物流到研发等各种职能,情况都是如此。我们都需要在工作中更严谨地使用生成式AI。我们将在本文说明做法。

1.有智慧地询问AI

如何改进像 LLM 这样大规模复杂系统的输出?你可以使用几种技术。

一步一步思考。在提示生成式人工智能时,你需要将它应该遵循的流程分解为各个组成部分,然后努力优化每个步骤–就像第一波科学管理在工业制造中所做的那样。然而,人工智能的流程并不涉及流水线,它涉及的是一个思考链,通过这个链条来寻求结果。研究表明,当指导生成式AI工具以这种方式分解推理任务时,它们的性能会显著提高。正如最早探索思维链推理的 OpenAI 研究员 Jason Wei 所证明的那样,这在处理棘手问题时尤为明显。

事实上,在 LLM 的指令中加入 “让我们一步一步思考 ”这样简单的短语,就能在从数学到战略推理等一系列任务中将其输出的准确性提高三倍以上。比方说,你的生成式AI提示是这样的 “我的部门有 50 万美元的预算。我们已经花了 20% 在设备上,并为一名新员工分配了 30%。我们的预算刚刚增加了 5 万美元。我们的剩余预算是多少?让我们一步步思考。该模型将提出 “最初,你们部门有 50 万美元。你们花了 20% 或 100,000 美元购买设备,剩下 400,000 美元。您为一名新员工拨款 30%,即 15 万美元,这样预算就降到了 25 万美元。最后,您最近获得了 50,000 美元的预算增长。您的剩余预算为 30 万美元。虽然大多数人都能在头脑中算出这样的数学题,但问题是,可以让LLM(他们的工作速度要快得多)详细说明他们在解决复杂得多的定量问题方面的工作,比如为销售代表在几个城市之间寻找最短的可能路线。这将创建一个可追溯的推理链,而不是在黑箱流程的最后吐出一个答案,从而让你能够验证结果的准确性。

立即登录阅读全文
登录或注册即可解锁全站内容,即表示你理解并同意 服务协议 与 隐私政策

分阶段训练 LLM。对于需要职业和领域专业知识的复杂任务(如法律、医学、科学研发或库存管理)的人机协作,可以分阶段将人工智能引入工作中,以产生更好的结果。

例如,麻省理工学院的研究人员泰勒-D-罗斯(Tyler D. Ross)和阿什温-戈皮纳特(Ashwin Gopinath)最近探索了开发 “AI科学家 ”的可能性,他们能够整合各种实验数据并提出可检验的假设。他们发现,当研究人员将复杂的任务分解成一系列子任务让模型掌握时,ChatGPT-4o 可以进行微调,以学习 DNA 的结构生物物理学。在库存管理等非科学领域,子任务阶段可能包括需求预测、库存水平数据收集、重新订货预测、订单数量评估和绩效评估。对于每一个连续的子任务,管理人员都要利用他们在该领域的专业知识和信息对模型进行培训、测试和验证。

与 LLM 一起进行创造性探索。从战略设计到新产品开发,许多工作流程都是开放式和迭代式的。要在这些活动中充分发挥人机交互的作用,就需要引导机器将通往解决方案的多种潜在路径可视化,并以不那么线性和二元对立的方式做出响应。

正如研究人员菲利普-肖内格(Philipp Schoenegger)、菲利普-特特洛克(Philip Tetlock)及其同事最近展示的那样,这种智能询问可以提高 LLM 对复杂金融和政治事件做出准确预测的能力。他们将人类预测者与 GPT-4 助手配对,GPT-4 助手已被详细提示成为 “超级预测者”–为可能的结果分配概率和不确定性区间,并提供支持和反对每种结果的论据。研究人员发现,这些助手所做的预测(从道琼斯运输平均指数在某日的收盘值到 2023 年 12 月通过地中海进入欧洲的移民数量等各种预测),比未经提示的 LLM 所做的预测准确率高出 43%。

2.结合你的判断力

要生成可信、准确、可解释并对社会产生积极影响的人工智能输出结果,将专家和人类的道德判断力纳入等式至关重要。以下是您可以使用的一些技巧:

整合 RAG。LLM不仅会产生幻觉,而且他们接受训练所依据的信息和数据集往往都是多年前的。与LLM合作时,人们必须经常判断产出中可靠、相关和最新的信息在多大程度上至关重要。如果是这样,您可以使用检索增强生成(RAG)将权威知识库中的信息添加到现成的 LLM 训练源中。这样做有助于防止错误信息、过时的回答和不准确的信息。例如,制药研究人员可以使用 RAG 查找人类基因组数据库、科学杂志上的最新出版物、涵盖临床前研究的数据库以及 FDA 指南。要在 RAG 上进行设置,人们通常需要 IT 团队的帮助,他们可以告诉他们 RAG 是否已经或可以集成到他们的工作流程中,从而为他们的工作增加一个额外的质量层。

保护隐私,避免偏见。如果您要在人工智能提示中使用机密数据或专有信息,那么只能使用公司防火墙内经公司批准的模型,绝不能使用开源或公共 LLM。在公司政策允许的情况下,如果 LLM 应用程序编程接口的服务条款规定不会保留私人信息用于模型训练,那么您就可以使用私人信息。

注意提示中可能包含的偏见。例如,一位金融分析师要求一位 LLM 解释昨天的季度报告如何预示着该公司将迎来五年的增长周期,这就表现出了 “回顾偏差”(recency bias),即在预测未来事件时偏重最新信息的倾向。

避免盲目性。LLM提供商正在想方设法帮助用户解决这些问题。微软和谷歌正在增加一些功能,帮助用户检查有害的提示和回应。Salesforce开发了人工智能架构,在构建提示时掩盖任何机密的客户数据;防止这些数据与第三方LLM共享;对输出的毒性、偏差和隐私等风险进行评分;并收集有关改进提示模板的反馈意见。不过,归根结底,最重要的还是你–环路中的人–的判断。

仔细检查可疑输出。对幻觉和错误保持高度警惕,根据目前的研究,即使有大量的数据工程和其他干预措施,幻觉和错误也是不可避免的。正如加州大学伯克利分校研究人员 Jinwoo Ahn 和 Kyuseung Shin 所指出的那样,当 LLM 用户遇到似乎不正常的输出时,他们往往会条件反射地促使模型反复尝试,从而逐渐降低响应的质量。研究人员建议,先找出人工智能出错的步骤,然后让一个单独的 LLM 执行这一步,先将其分解成更小的单个问题,然后利用输出结果调整第一个 LLM。想象一下,一位科学家使用 OpenAI 的 ChatGPT 帮助开发一种新的聚合物,并进行了一系列逐步计算。如果她发现链条中的任何一点出现错误,她可以要求 Anthropic Claude 将该步骤分解成更小的子问题,并解释其推理。然后,她可以将这些信息反馈给 ChatGPT,要求它完善答案。从本质上讲,这种技术将思维链原则应用于纠正你判断错误的输出。

3.将AI变成你的学徒

随着 LLM 规模和复杂性的增加,它们可能会表现出 “突现属性”(emergent property)——强大的新能力,例如高级推理能力,这些能力并没有经过训练,但在你通过提供上下文数据或知识对 LLM 进行定制后,它们就会出现。为了促进它们的发展,你可以采取以下步骤。

为模型提供 “思维演示”。在给 LLM 提供一个要解决的问题之前,你可以先让它以某种方式进行思考。例如,你可以教它 “从最少到最多 ”(least to most)的推理方法,向AI展示如何将一个复杂的难题分解成几个更小、更简单的难题;先解决难度最小的难题;将答案作为解决下一个难题的基础;以此类推。Denny Zhou 和谷歌 DeepMind 的同事已经证明,从最少到最多的方法可以将人工智能输出的准确率从 16% 提高到 99%

一个健身服装品牌的营销经理希望人工智能帮助他思考新产品线。他可以这样为 LLM 分解问题:

  1. 受众。找出潜在客户中的健身爱好者–这是一项相对容易的任务,尤其是对于根据公司客户数据训练的模型而言。
  2. 设计信息。在先前确定受众的基础上,设计强调性能、舒适度和风格的信息,这是一个更具挑战性和创造性的问题。
  3. 渠道。选择社交媒体、健身博客和有影响力的合作伙伴,将这些信息传递给受众。
  4. 资源。根据渠道的选择来分配预算(这往往是任何组织中最有争议的问题)。

培训你的 LLM 学习新流程。您可以在提示中通过一组上下文中的示例来教人工智能如何执行任务。这就是所谓的 “上下文学习”,它可以让你调整 GPT-4、Claude 和 Llama 等预先训练好的 LLM,而无需调整它们的参数这一有时非常耗费人力的过程。例如,研究人员在《自然》(Nature)杂志上报告说,他们向 LLMs 演示了如何总结医疗信息,方法是用放射学报告、病人提问、进展记录和医患对话的例子来提示它们。之后他们发现,81% 的 LLM 生成的摘要等同于或优于人类生成的摘要。

您还可以向 LLM 提供上下文信息,然后向它提问,直到它解决您的问题为止,以此来训练 LLM。考虑两家软件公司,它们都希望提高销售额。在第一家公司,销售团队一直在努力有效地预测软件许可证的需求。因此,公司领导首先向 LLM 提供历史销售数据,然后询问下一季度的预期需求。接下来,他向模型提供客户软件功能升级和年度预算的信息,并询问季节性的影响。最后,他向模型提供来自客户关系管理系统和营销报告的详细统计数据,并询问营销活动对销售的影响。

在第二家公司,销售团队希望改进客户选择。其领导可能会提供具体的财务数据,并提示法律硕士按照收入贡献对客户进行排序,然后继续询问客户的地理覆盖范围、客户群、技术专长等。在每一个步骤中,两位高管都要对 LLM 进行培训,提高其在公司特定销售战略背景下执行任务的能力。他们为互动带来了组织和行业知识。随着双方使用的 LLM 在公司特定销售流程中积累更多经验,它就能提供更好的答案。

当用户从使用简单的问题或指令开始,逐渐以越来越复杂和细微的方式描述任务时,就会产生相互学习。他们可以添加上下文、调整措辞,并观察模型的反应,不断尝试,直到达到预期效果。

4.习得新的融合技能

要广泛掌握AI技能,不仅需要企业的大量投资,还需要个人的主动性、学习和努力。虽然有少数公司正在提供相关培训,但大多数公司尚未制定出健全的计划。事实上,在我们对 7000 名专业人士进行的 2024 年调查中,我们发现,虽然 94% 的人表示他们已经准备好学习新技能来使用AI,但只有 5% 的人表示他们的雇主正在积极地对员工进行大规模培训。因此,你们中的很多人都需要自己动手,跟上LLM的快速发展,以及将高水平研究转化为各种工作和行业实践的步伐。您可以报名参加 Coursera、Udacity(最近被Accenture收购)、德克萨斯大学奥斯汀分校、亚利桑那州立大学和范德比尔特大学等机构提供的在线课程;尝试我们已经讨论过的提示技巧以及新出现的技巧;推动您的雇主提供更多使用LLM的机会,并指导他们如何使用法律硕士的最佳实践。

下一步:掌握为代理工作流(agentic workflow)和多模态大型语言模型(MLLM)进行思维链提示的技能,这些模型整合了文本、音频、视频和图像等不同类型的数据,同时还提供这些格式的输出。一组研究人员发现,思维链提示可将 MLLM 的性能提高 100%。早期采用者已经在测试这些方法,但它们还不够成熟,无法广泛采用。

人工智能革命并没有到来,而是已经到来,领先的公司正在利用这项技术重新构想跨行业、跨职能和跨岗位的流程。新一代人工智能大大提高了标准,要求我们用人工智能思考问题,确保我们信任AI,并不断调整人工智能和我们自己,使其发挥更好的作用。虽然新一代AI是建立人与机器之间更紧密共生关系这一长期运动的一部分,但它也是技术史上的一个独特现象。历史上没有其他重大创新能如此迅速地发展起来。知识工作的变革速度之快、力度之大,甚至超出我们的想象。做好准备吧。商业的未来不仅取决于新一代AI,更取决于懂得如何最有效地利用它的人。

作者介绍

H. James Wilson:埃森哲咨询(Accenture)思维领导暨科技研究的全球管理董事。与Paul R. Daugherty合著有《科技超人性》,以及《人+机器:在AI时代重新构想工作》(Human + Machine: Reimagining Work in the Age of AI, HBR Press, 2018) 。

Paul R. Daugherty:埃森哲咨询(Accenture)科技集团CEO。与James Wilson合著有《科技超人性》(Radically Human: How New Technology Is Transforming Business and Shaping Our Future),以及《人+机器:在AI时代重新构想工作》(Human + Machine: Reimagining Work in the Age of AI)。

点个赞鼓励一下作者吧~

加入创新交流群

免费送7大行业30案例 及时看最新指南/研报
点赞
收藏
请用微信扫码分享哦~
分享

勿删,用于自定义目录加锚点,隐藏即可

相关文章推荐

发表回复

点赞
收藏
请用微信扫码分享哦~
分享

还差一步
扫码锁定入群名额

加我时请备注下方群名

创新战略交流群

免费送“2024新业务孵化/战略创新指南”

B2C增长创新群

免费送“10大消费行业50个增长案例汇总”

B2B增长创新群

免费送“7大B2B行业30个增长案例汇总”

AI应用创新群

免费送“20篇AI研报+110套GPT提示”
关闭按钮
欢迎来到Runwise即能创新社区!
登录装饰图,三个人围坐在电脑前,对某个灵感进行沟通和讨论
已有账号?
电话咨询
7x24热线,欢迎致电咨询
微信咨询
扫码添加专家微信
扫码添加专家微信
享专家1V1咨询