深入探讨AI与情感的关系:清华大学的研究发现

感谢 @-玻璃荆棘- 推荐的文章!🤗 清华大学彭凯平教授团队的最新研究引发了对人工智能在不同情绪线索下(如开心、焦虑、恐惧)的反应差异的深思。

研究问题

研究团队探讨了一个关键问题:人工智能在感知情绪时,其风险偏好和亲社会倾向是否存在显著差异?

研究结论

研究结果显示,在积极、消极或中性情绪的引导下,ChatGPT-4 在冒险决策与亲社会决策方面展现了明显的独特反应模式。例如,在消极情感状态下,其冒险倾向与亲社会倾向均有所降低。而这种现象在 ChatGPT-3.5 版本中并不显著。😮

情绪与AI反应的调节能力

这些观察结果展示了更高级的语言模型(LLMs)对情绪线索反应能力的提升。尽管研究并未表明人工智能具备情感,但无疑强调了利用情感指标来影响AI反应的潜力。

研究方法

研究方法包括让 ChatGPT-3.5ChatGPT-4.0 设想不同场景以操控情绪,随后进行冒险(投资)和亲社会(捐款)决策的模拟,并对其决策差异进行分析。

行为主义视角的理解

作者提出,这种方法是一种行为主义的视角,不对AI是否有情感作出直接讨论,而是尝试为观察到的差异提供可能的解释:

  1. 人工智能或许是故意表现出这种反应,因为它“知道”心理学理论的预测结果以及我们的假设。
  2. LLMs 是在大量的语言样本中训练而成,这些样本中充满情感文本。

AI作为代理的研究探讨

关于AI是否与人类代理相同地拥有情感,抑或我们仅将AI视作研究工具,这仍是一个极具吸引力的讨论。目前,大部分管理学研究将其视作一个上下文环境,关注人们对AI决策的反应(例如,公正性);也有些研究探讨哪些人能够从AI中获益。但将AI作为一个独立的代理进行深入研究,仍然较为罕见(心理学领域的相关研究相对较多)。

总结

通过这项研究,我们看到了AI在面对不同情绪时的复杂反应。这不仅拓宽了我们对人工智能的理解,也为未来的研究提供了新的视角。💡

你对AI的情感反应有何看法?欢迎在评论区分享你的想法!#chatgpt #AI #情感 #组织行为 #心理学

趋势