人工智能和自然语言处理技术将在未来的战略制定中发挥越来越重要的作用,因为它可以帮助企业更加快速和准确地分析和理解复杂的战略问题。本研究以ChatGPT为例分享AI辅助战略研究的三个重要教训:当生成式人工智能的战略制定能力受到考验时,也揭示了其优势所在——以及人类仍然拥有优势的地方。
ChatGPT如何辅助我进行战略研究?
首先,战略制定需要考虑不确定性和变革的因素。企业需要通过不断的监测和分析来预测未来的趋势和变化,并制定相应的战略和计划。其次,战略需要考虑组织的文化和价值观。企业需要确保其策略与组织文化和价值观相一致,以确保其战略的可行性和可持续性。最后,策略制定需要进行持续的执行和反馈。企业需要通过不断的反馈和调整来确保其策略的成功和可持续性。
为了测试GPT,我决定看看我的一个旧研究项目。主题是:学生的福祉如何影响学生的成功。当我第一次做这项研究时,这个工具还不存在,所以它的所有工作都是手动完成的。现在,随着人工智能的增强,我正在测试不同的场景,看看ChatGPT如何帮助进行研究。
ChatGPT在战略研究中的6个优点
✅可以帮助您找到有关您主题的最新来源
✅可以根据您的需求总结文章
✅可以根据您的目标提供用户体验研究方法的建议
✅可以就如何分析数据提供建议
✅可以帮助竞争对手的研究
✅可以帮助为您的用户体验研究设置一个总体时间表
ChatGPT在战略研究中的6个缺点
🚫(尚未)在APA中引
🚫无法完全为你制定研究计
🚫无法为您构建用户体验研究方
🚫无法分析您的成绩
🚫无法分析人类行
🚫在解决方案生成方面有点偏
当深度学习的先驱杰弗里·辛顿(Geoffrey Hinton)最近退出谷歌时,他明确表示担心人工智能的风险。他并不孤单。在 ChatGPT-4 推出后,数千名人工智能专家签署了一封信,呼吁暂停开发更强大的人工智能系统。
另一方面,人们对大型语言模型(LLM)带来的机会及其采用速度感到前所未有的兴奋。Microsoft迅速将新技术整合到其Bing搜索引擎中,该公司的创始人比尔盖茨表示,ChatGPT将“改变我们的世界”,而不一定会使工作面临风险。
虽然猜测人工智能的未来是不可抗拒的,但更实际的问题是我们现在如何使用它。关于这一点的对话正在世界各地的教室、新闻编辑室和工作场所进行。
作为商业战略家,我们想看看生成式人工智能可以为我们的工作增加什么。我们通过对策略创建过程不同方面的一系列实验来探讨这个问题。在每个实验中,我们都会向 ChatGPT 提出一个现实的策略问题,然后进行长时间的来回以完善初始响应。目的是了解该工具如何支持构思、实验、评估和故事构建——以及它在哪里失败。
从这些实验中得出了三个教训。
1. 期待有趣的输入,但不是绝对正确的建议
在我们的一个实验中,我们要求 ChatGPT 为一家大型欧洲运输提供商提出一些颠覆性的商业理念。聊天机器人提出了一个个性化的规划应用程序,一个乘车共享服务,超级高铁运输和智能行李运送服务。巧合的是,前三个与最近与另一个欧洲国家的运输提供商的研讨会的想法相匹配。该工具还能够为这些商业理念提供商业模式和成本估算。
一方面,这令人印象深刻。与此同时,它强调该工具似乎不太可能提出人类无法提出的想法,尽管它更快、更省力地获得结果。其他几个实验证实了这一点。
该工具似乎不太可能提出人类无法提出的想法,尽管它可以更快,更省力地获得结果。
在另一项实验中,很明显,人类更善于将想法转化为行动。例如,当我们要求 ChatGPT 提出新的流媒体服务的想法时,建议列表包括一项专注于教育的服务。当我们问到如何实现这样的想法时,它提议与大学或成熟的咨询公司合作。虽然这是有道理的,但ChatGPT关于如何赢得这些合作伙伴的建议不够具体和现实。该工具的当前迭代基于公共领域的训练集数据,无法捕捉每个企业现实的细微差别。
尽管如此,LLM在战略过程中仍然有帮助,原因有几个:
- 它们快速且易于使用。您可以避免同时将合适的人员送入房间所需的所有后勤工作。
- 传统思维的倾向可以通过提出正确的后续问题来缓解。例如,当我们要求为面包店提供创新的新概念时,ChatGPT 最初建议只提供咸味产品。然后,我们要求更多创意,并得到了一家以太空为主题的面包店,有机器人助手和面包师,零重力餐饮和3D食品打印机,这太昂贵了,无法实现。在第三次尝试中,这些想法变得更加有趣——例如,一家面包店使用人工智能来分析有关客户偏好和食品趋势的数据,为烘焙食品创造和设计独特的风味组合。从那里,我们能够探索开始实现这个想法的步骤。
- 产生许多想法很容易。然而,最有趣的想法与难以置信、不切实际和未经测试的想法混合在一起。只有以辨别的方式筛选它们,你才能更好地了解什么可能真正有效。
2.有经验的战略师将从ChatGPT中受益更多
ChatGPT 就像一个世俗的智慧和有说服力的朋友,他容易过度自信,有时甚至断言虚构是事实,要么是因为初始训练集中存在错误,要么是通过专家仍在试图理解的一些紧急过程。
虽然毫无疑问地依赖这样一个容易犯错的朋友的建议是愚蠢的,但事实上,只要我们充分运用我们的判断力,它的建议实际上在几个方面非常有用。我们可以利用这位朋友的广泛知识来描述竞争环境。我们可以产生作为战略基础的想法。我们可以模拟不同策略在不同情况下的表现,并突出风险和突发事件。
但是,提取见解和避免被误导需要我们行使我们的自由裁量权,以正确的顺序提出正确的问题,判断建议与我们自己的知识和经验的一致性,检查断言和假设的准确性,并判断最终策略的可行性。换句话说,通过应用经验丰富的战略家必须经常使用但新手可能缺乏的相同歧视能力,我们将受益。
ChatGPT在战略工作中的主要吸引力可能是它写得好的能力,补充了许多战略家的盲点。战略家往往低估了如何传达想法的重要性,错误地认为他们的建议是最重要的。只有28%的管理者能够正确命名组织的三个战略优先事项,这表明对在实践中产生影响需要什么的误解。但 ChatGPT 绝对可以为经理提供一些东西,对他们来说,创建引人入胜的故事既耗时又具有挑战性。如果提供或优化命题,该工具可以添加样式。
创新领导者最爱的AI智能体
『业务创新GPT』👈
一款帮助你加速新业务探索与增长的AI智能体!
3.战略师用不同的数据以不同的方式使用
ChatGPT 处理数十亿个数据点来构建输出。这可能会造成它超出人类认知能力的错误印象。人们很容易忽视由于对该数据集的确切性质及其差距缺乏透明度而施加的限制。战略家通常严重依赖专有信息,因为有效的战略必须独特地反映每个公司的地位和能力。我们确信当前的工具无法访问此类内部知识。因此,毫不奇怪,ChatGPT的答案有些笼统——或多或少根据教科书,但缺乏趣味。
最重要的是,有效的战略往往不依赖于一般情况或普遍有效的情况,而是依赖于异常来创造新的和独特的方法。与此相关的是,正如塔克商学院的乔瓦尼·加维蒂(Giovanni Gavetti)和哈佛商学院的扬·里夫金(Jan Rivkin)所解释的那样,战略家经常依赖类比。这意味着他们能够在很少或没有适用于特定情况的数据的情况下做出决策。ChatGPT似乎没有能力使用类比推理来推断有用的反事实。
即使LLM能够断言所有事实,而不是在受约束的数据集中进行语言相关性,它们仍将面临限制。经验丰富的战略家知道要对“事实”持怀疑态度。大多数时候是正确的,在特定情况下可能并非如此。过去是真的,将来可能不是真的。碰巧是真的,可能不是必然的,也是持久的。即使一个陈述在这些意义上是完全正确的,也总有其他方法来构建问题和解决方案。
战略家知道,这个框架步骤通常是制定战略中最微妙和最重要的步骤。从某种重要意义上说,战略既是有用的虚构,也是既定事实。通过旨在塑造环境以实现新目标,战略创造了新的事实。在这方面,战略家们致力于区分有用的虚构和误导性或不可行的虚构——这也是只有经验丰富的战略家才可能具备的技能。
一个有趣的问题是,随着技术的进步,这种效用和限制的模式是否可能保持稳定。为了评估这一点,我们对 ChatGPT-3 和 ChatGPT-4 进行了相同的实验。答案的实质内容仍然非常相似。在某种程度上,在该工具的更高级版本中,限制更加明显,其答案平均是其两倍。较新的版本似乎更小心一些,就像一个稍微年长的朋友,之前被抓了,想要对冲自己的意见。这表现为对赞成和反对列表的品味以及不太明显的判断力——这是我们在战略家身上寻找的特征。
ChatGPT究竟如何改变战略规划的工作?
底线:ChatGPT 和类似的工具更有可能在特定的战略步骤(如想法生成和讲故事)中有用,并且对经验丰富的战略家而不是天真的初学者有用。因此,这些工具不能替代战略思维的培养。正如航空公司飞行员必须避免过度依赖自动驾驶仪一样,未来的战略家也必须避免阻碍自己的辨别力的发展。