生成式AI正在改变管理者的决策方式,带来效率提升的同时也潜藏着控制型管理的风险。本文详细分析了AI在管理中的应用,揭示了它如何影响员工体验和组织效能,并提供了有效避免“控制陷阱”的策略。阅读本文,您将了解如何利用AI的优势,同时保持对员工需求的关注,从而实现技术和人本管理的平衡。
随着人工智能技术的快速发展,管理者们正积极寻求从中获取最大收益。生成式AI工具如今被广泛应用于帮助管理者进行战略决策,并在多种场景下辅助解决问题,从产品开发、流程优化到员工冲突处理等各个方面。ChatGPT——一种常见的生成式AI工具——甚至被当作管理决策过程中的共创伙伴,帮助管理者评估不同选项。然而,AI的介入方式与人类专家的咨询方式本质上有所不同,这种差异在于AI系统天生追求效率、可预测性和数据驱动的解决方案,而这些特性可能让管理者陷入未曾预料的管理困境。
我们的最新研究表明,当管理者使用生成式AI工具辅助决策时,这些工具可能在无意中推动他们采用更加僵化和机械化的管理方法。具体来说,我们的研究发现,当管理者使用ChatGPT来解决与员工行为和工作条件相关的问题时,他们更倾向于提出以控制为导向的解决方案,而不是以人为本的解决方案。这意味着管理者在做出管理决策时,可能不自觉地更依赖AI的建议,而这些建议通常偏向于通过监控和控制来解决问题,而非通过关注员工的需求和福祉来进行改善。
几十年来,研究人员和管理实践者一直在强调以人为本的管理方式的诸多好处。以人为本的管理能够提高员工的工作满意度、增加参与度,并建立更高的信任度。而我们的研究显示,如果生成式AI工具的使用不加以妥善管理和考虑,它们可能会导致意外回归到更加机械和以控制为主的管理风格。这对组织而言是一个严峻的挑战,因为传统的命令与控制管理方式往往无法带来持久的员工参与度或信任,甚至可能导致员工士气低落和工作效率的降低。
管理困境:ChatGPT与人类经验的对比
在我们的研究中,我们采用了实验设计,参与者(MBA学生)被分配阅读了一个情境,并假设他们是亚马逊配送部门的经理。(见“研究说明”部分)在该情境案例中,经理被告知,司机们没有遵守强制使用手机应用程序的规定,该应用程序用于监控他们的驾驶表现和跟踪如急刹车、超速和使用手机等行为。
在情境中,司机们表示,他们觉得应用程序过于侵入,有时也不公平,因为它不允许他们解释被追踪行为的背景。司机们向经理表达了由于应用程序的误差以及必须遵守严格的配送期限而增加的压力和焦虑。经理得知,由于这些压力和焦虑,一些司机选择关闭应用程序,没有遵守使用规定。这种不遵守行为是一个显著的问题,因为应用程序的数据是组织安全和效率报告所必需的,若缺乏这些数据,将会影响到公司的整体运营效率和员工的安全性。
在评估了案例后,研究参与者被要求提出针对该挑战的管理解决方案。参与者在提出解决方案时,是否有受到具体指导,例如提供关于如何评估员工需求或考虑不同管理风格的提示,也被记录在内,以帮助我们理解他们的决策过程。其中一组参与者被指示使用ChatGPT来获取解决问题的见解,然后再提供解决方案。而对照组的参与者则被要求仅基于他们自己的反思和经验提供解决方案,不得使用ChatGPT。
两组参与者均被要求详细描述三个针对组织问题的解决方案。值得注意的是,即使是与ChatGPT互动的那组参与者,也必须自行提出三个“自由书写”的解决方案(尽管我们研究者可以看到他们与ChatGPT交流的输出内容)。
研究说明
- 研究人员从2023年第一季度到2024年第一季度进行了一项实验,其中239名研究生参加了全球MBA课程的最后一个学期。
- 在这个基于小插曲的实验中,参与者阅读了一个案例场景,并被要求假设他们是亚马逊送货部门的经理。
- 参与者的任务是根据亚马逊经理面临的关于送货服务司机行为的真实问题来解决一个问题。
- 在一个小组中,参与者被指示先阅读案例,然后登录ChatGPT,以深入了解如何解决问题。在对照组中,参与者阅读了案例,并被要求仅使用他们的MBA培训和个人经验,在没有额外的人工智能支持的情况下,为问题提供三种解决方案。参与者被随机分配到每个小组。
研究结果非常清晰:当管理者在提出解决方案前咨询了ChatGPT时,工具增强了他们对控制和监督为主的解决方案的关注,往往忽略了司机的自主性和福祉。具体而言,使用ChatGPT的管理者提出控制型解决方案的概率约为对照组的两倍,例如惩罚未使用追踪应用程序的司机、增加监控摄像头、雇佣外部审计员确保合规,以及鼓励同事举报违规行为。
对照组的参与者则更有可能提出倾听司机意见、与司机协商改善工作条件和/或重新评估司机工作量等相关的解决方案。他们的方案更侧重于解决司机面临的实际问题,体现了对员工情绪和心理需求的关注,而不是简单地通过增加控制和监督来解决问题。
此外,当我们回顾ChatGPT的互动内容时发现,即使工具在与参与者的对话中建议了更具人文关怀的解决方案,这些参与者最终仍倾向于提出更多集中于控制、监控和效率的解决方案,这与对照组的建议相比明显不同。这表明,单纯使用这种技术本身——而不仅仅是其提供的建议内容——就会让人更倾向于提出控制导向而非以人为本的回应。这种现象可能是因为与技术互动时,管理者更容易受到效率和数据驱动的启发,从而淡化了对员工个人需求和情境复杂性的考虑。
参与ChatGPT的经理提出基于控制的解决方案的可能性大约是其两倍,例如惩罚不使用跟踪应用程序的司机。
避免“控制陷阱”
生成式AI工具在管理决策中可以发挥积极的作用,尤其是在快速生成数据驱动的洞察方面。例如,在销售预测和库存管理方面,生成式AI工具能够快速分析历史数据和市场趋势,帮助公司做出更准确的决策。此外,在员工绩效评估中,AI工具可以通过整合多种数据源,提供更加全面的分析,从而帮助管理者优化激励措施和工作安排。然而,我们的研究警示,如果组织在将这些工具纳入管理问题解决过程中不加以谨慎,可能会重回“科学管理”的时代——这种管理方式更注重效率和控制,而忽略了对员工和情境的考量,这对于员工的士气和长期的组织成功来说是危险的。
我们的研究建议,管理者在使用生成式AI工具进行问题解决时,尤其是涉及工作条件和员工福祉的决策,应当特别谨慎。管理者可以通过确保在决策过程中始终包含员工的反馈来保持对员工需求的重视,建立定期的员工访谈或调查机制,以了解员工对工具使用的感受和建议。此外,还可以通过增加面对面的沟通机会,确保AI建议不会完全取代人际互动。在这种情况下,生成式AI的使用可能会在管理者与相关员工之间产生心理距离,使得管理者不再以同理心对待员工,而更多地关注如何通过科技手段提高效率和监控水平。
关键管理启示
警惕生成式AI工具的启发效应
使用生成式AI工具使管理者从直接经验和以人为本的思维中转移注意力,推动他们使用更为冷漠和分析的思维模式。因此,使用生成式AI可能会导致期望问题的解决方案应该是“先进的”或技术驱动的,从而更倾向于使用控制和监控解决方案,这些解决方案利用了类似的技术能力。管理者必须更加意识到他们潜在的偏见,不仅关注AI工具提供的内容,还应意识到使用生成式AI工具本身可能会影响一个人解决问题的方法。
启示: 领导者在将生成式AI作为人本挑战中的问题解决“伙伴”时,应主动意识到可能发生的启发效应。在人力管理中使用生成式AI作为决策支持时,应采用一种决策框架,主动整合员工福利和人文因素,确保解决方案不仅有效率且有助于改善员工的福祉。
理解生成式AI工具可能滋生的道德脱离
我们的研究结果表明,生成式AI的数据驱动特性可能会导致管理者将员工视为数据点,而不是具有独特需求和环境的个体。对于使用生成式AI工具的管理者来说,相比更为复杂、以人为本的替代方案,控制为导向的解决方案可能更直接,实施和管理起来也更为简单。这种情况会促使道德脱离——即个体脱离他们的道德准则和价值观,将决策的责任转移到第三方实体上,而不是对自己的决策负责。
启示: 保持人类参与其中,管理者应定期与员工互动,征求他们的意见,以平衡生成式AI驱动的建议与员工的实际经验见解。通过这种方式,管理者可以确保他们的决策不仅基于数据,还包括对员工实际需求和情境的理解。
使用生成式AI工具时,过度强调透明度
很多员工,比如我们案例研究中的亚马逊配送司机,往往并不了解AI工具如何影响公司关于他们绩效和工作时间表的决策。这种透明度的缺失会让人们尝试“规避”系统。当组织在AI系统如何评估绩效、决定工作时间表或调整工作条件方面未对员工保持透明时,领导者可能会培养出一种不信任的环境,并因此面临意想不到的后果。
这种沟通缺口还可能导致工人压力增大,他们会觉得自己被一个难以理解且可能不公平的系统所评判。如果没有对AI驱动的评估背后的指标和理由有清晰的理解,员工可能会感到缺乏动力去提升自己的绩效。组织必须优先考虑透明度,建立关于AI使用的清晰沟通渠道,公开领导者决策的理由,并建立员工反馈和申诉机制。
启示: 领导者应实施明确的沟通和披露政策,说明生成式AI何时、如何被使用,以及在管理决策中考虑了哪些数据。通过这种透明度,员工可以更好地理解管理者的决策,并对绩效改进和工作调整持积极态度。
总结与未来展望
自工业革命以来,组织的思维已经超越了弗雷德里克·温斯洛·泰勒所倡导的以效率为中心的科学管理原则。领导者不断改进管理方法,在提高生产力的同时兼顾员工的福祉和满意度。研究表明,以人为本的管理实践,如给予员工更多自主权,建立自我管理的工作团队,重视员工关于激励和工作条件的反馈,能带来许多绩效和生产力的好处。然而,当生成式AI工具进入管理决策领域时,它们可能会使管理者不自觉地走向控制型管理风格。
领导者面临的挑战是如何在利用生成式AI工具的同时,保持对员工自主性、参与感和福祉的重要性的关注。这种平衡需要管理者与员工(甚至生成式AI工具开发者)之间的持续对话,以确保技术进步能够增强而非削弱组织中的人文因素。只有在技术和人文因素之间找到平衡,才能真正实现组织的长期成功和可持续发展。
未来,领导者可以考虑建立明确的政策和指南,确保生成式AI在管理中的使用不偏离人本管理的初衷。通过有意识地制定决策框架、促进员工与技术的互动,并不断审视和改进AI工具的使用方式,组织可以实现科技与人文关怀的和谐共生。
作者简介
J. Mauricio Galli Geleilate, Ph.D.,是马萨诸塞大学洛厄尔分校曼宁商学院的战略学副教授。Beth K. Humberd, Ph.D.,也是曼宁商学院的管理学副教授。