伟易博

  • ?北大主页
  • |
  • 一带一起书院
  • |
  • 用户登录
    • 教职员登录
    • 学生登录
    • 伟易博邮箱
  • |
  • 教员招聘
  • |
  • 捐赠
  • 伟易博(中国区)官方网站
  • |
  • English
头脑伟易博

AI行为科学:大语言模子怎样模拟人类行为特征

2024-04-02

随着GPT等大语言模子与人类关系越来越亲近,AI也体现出与人类更相似的行为甚至个性。怎样更好地明确AI行为,从而更好地与之相处 ?克日,受《美国科学院院刊》(PNAS)约请,伟易博孟涓涓教授对探索ChatGPT与人类行为相似性的研究(Mei et al. 2024)睁开谈论。

孟涓涓体现,AI行为科学成为新前沿,有助于辅助人类决媾和设计去偏识趣制。随着大语言模子展现出更普遍的人类行为特征,它们不但能在决议中模拟人类行为,还能在实验中替换人类加入者,为政策评估和调解提供经济有用的手段。虽然,它们也会对人类心智和社会关系爆发不确定的影响。

目今,随着大语言模子(LLM)特殊是天生式预训练转换器(GPT)驱动的应用程序普遍撒播,AI越来越多地体现出人类特征,好比AI模子对危害、时间和社交互动爆发了明确偏好,甚至会爆发奇异的个性和看似情绪化的反应,这些征象引发了学术界的好奇心,一些近期的研究探索了ChatGPT的理性水平(Chen et al. 2023)和认知能力(Binz et al. 2023)。

Mei et al. (2024)将经济学和心理学的经典行为评估要领应用于探索ChatGPT-3和ChatGPT-4等AI谈天机械人的行为特征。该研究使用了一个特征数据库,席卷了来自50多个国家108314小我私家类主题的综合行为,实现了人类和AI决议之间的较量。

孟涓涓体现,这些研究标记着一个新的研究偏向的泛起,可以称之为“AI行为科学”,即使用人类行为科学的要领来评估和设计AI的行为。接纳行为科学要领研究AI时,应该坚持以人为中心的视角。

研究AI行为有何意义 ?

谈及研究AI行为的意义,孟涓涓枚举了以下三个方面:

首先,明确AI尤其是大语言模子的行为,可以更好地辅助人类决议。在大语言模子泛起之前,一个常见的征象是“算法厌恶”:例如人们不肯接受算法作为劳动者,或倾轧在消耗时与AI谈天机械人互动,这种倾向源于人类的太过自信、对AI能力的嫌疑或对与算法互动的本能抵触。这对施展AI潜力资助人类决议组成了挑战。然而,随着AI在大语言模子泛起后最先更靠近地模拟人类行为,算法厌恶的倾向可能已经最先削弱。为了让人们能够有信心将他们的选择交给大语言模子,这些模子需要在要害决议中体现出与人相似的行为。因此,让大语言模子的偏好与基本的人类行为特征一致是至关主要的。

其次,行为经济学已经证实,人们经常体现出行为偏误,设计助推或选择架构机制来纠正这些行为偏误是行为科学和政策设计中的一个开创性主题。使用大语言模子消除偏误是手艺前进带来的新可能性,或比现有的要领更系统化。人们不需要一步一步地被推着做出决议,只需要一次性把决议委托给大语言模子,就能做出更系统、更好的选择。事实上,现在的证据批注,ChatGPT在选择一致性方面体现出比人类更高的理性水平,这也成为一个值得探索的新偏向。

别的,大语言模子可以在实验中替换人类加入者,饰演差别配景的个体举行政策实验或模拟。这使得政策的评估和调解越发经济有用。随着大语言模子体现出更普遍的人类行为特征,也可以设计出基于异质反应的个性化政策。

怎样应用行为科学要领研究AI ?

“接纳行为科学要领来研究人工智能时应该建设一个周全的行为评估框架,其中需要包括适用于主要决议情形的行为特征维度。”孟涓涓说,“例如,若是目的是让大语言模子协助资产设置决议,那么识别影响此类配景的行为特征就至关主要。”

孟涓涓先容,Mei et al. (2024)主要接纳了一个经济学的框架,将主要的决议配景分为两种类型:小我私家决媾和人际决议。

从经济学的角度来看,小我私家决议通常分为四种情境:直接消耗选择(例如选择苹果照旧香蕉)、在不确定性下的选择、跨期选择和概率判断(包括信心更新和学习)。这几类情境支持了人们经常做出的大大都决议。关于每种情境,经济学家都会识别出驱动这些决议的基本行为特征。例如,不确定性下的选择在很洪流平上受到危害偏好和损失厌恶的影响。关于跨期选择,一小我私家的耐心水平起着主要的作用,激动的决议或拖延也经常影响这些选择。关于概率判断,凭证信息形成准确的信心是至关主要的。这一历程中的常见偏误包括信息回避、先入为主和太过自信。

在这一偏向上,Mei et al. (2024)接纳了一种扫雷游戏来丈量危害偏好,他们的图灵测试较量了GPT和人类的决议,效果显示66.0%(ChatGPT-4)和61.7%(ChatGPT-3)的情形下,GPT的选择看起来与人类相似。然而,与人类规避危害的倾向差别,GPT主要体现出危害中立性。有趣的是,ChatGPT-3似乎能够从已往的损失中学习,变得越发审慎,而ChatGPT-4则不然。这种转变是否来自对未来危害水平判断的改变,或来自某种形式的路径依赖偏好,仍有待进一步研究。

人际决议涉及到如利他主义、信托、互惠、社会从众和战略考量等社交偏好。孟涓涓进一步先容,Mei et al. (2024)在研究人机决议时通过几个游戏(包括专制者游戏、最后通牒游戏、信托游戏、公共物品游戏和有限重复囚徒逆境游戏等),来研究GPT是否体现出如利他主义、不一律厌恶、信托和互惠等偏好。一个值得注重的发明是,GPT在这些游戏中一致地体现出比人类更高的慷慨水平,体现出更强的利他主义和相助倾向。然而,ChatGPT-4的慷慨并非是无条件的,它确实展现出了一定水平的战略思索,在有限重复的囚徒逆境游戏中使用了以牙还牙的战略。

孟涓涓体现,接纳行为科学要领研究人工智能涉及两项使命:

第一项是基于特定框架的AI行为评估。这类框架使用包括数值偏好参数的数值模子,在统一结构中捕获行为特征。这项使命中一个主要的探索偏向是结构预计要领,即以建模的方法展现潜在偏好参数。Mei et al. (2024)以预计一小我私家与另一小我私家收益之间的权重函数为例来证实这种要领,他们发明AI通常给予他人的权重约莫是0.5,这比人类通常的做法要多。对此,孟涓涓以为,这个预计值有助于展望AI在差别场景(如团队相助或企业社会责任等涉及利他主义的场景)中的行为。这种跨情境展望的能力来自于在结构模子中预计基本行为参数,使AI能够在种种情形下辅助人类做出决议。

第二个使命是设计AI行为。Mei et al. (2024)自然地引出了一些问题,例如为什么ChatGPT 4.0体现出比人类更慷慨的行为,以及为什么它似乎与ChatGPT 3.0有所差别。鉴于目今训练历程的不透明性,为这些问题提供明确的谜底是具有挑战性的。因此,孟涓涓体现,未来一个有趣的研究偏向有可能是:探索怎样训练大语言模子以体现出特定的行为特征。将捕获基本行为参数的结构引入到训练历程中或许是要领之一。设计AI行为的其他可能途径包括调解奖励函数,在训练历程中引入明确的规则或约束,或者对体现出所需行为的数据举行模子训练。找到设计人工智能行为的最有用要领是一项重大的挑战,需要盘算机科学家和行为科学家细密相助。

AI生长会对人类心智和社会关系爆发何种影响 ?

孟涓涓体现,接纳行为科学要领来研究人工智能,有助于使人工智能更快更自然地融入人类社会。然而,人工智能的生长也可能会影响人类行为和社会文化。

首先,算法私见是一个主要问题,由于它会影响人类的决议。当算法受到利润最大化的商业念头的驱动,从而强化人类已保存的私见时,就会泛起更重大的问题。例如,社交媒体上的个性化推荐系统可能会加剧人们对证实其现有信心的信息的私见,导致极端化。Levy (2021)发明,这些系统对Facebook回声室效应的孝顺率为40%,而小我私家订阅的孝顺率则为27%。

其次,太过依赖诸如GPT之类的人工智能,可能会导致人类在多个方面泛起认知退化。由于AI能够迅速提供解决计划,人们的探索欲、创立性和自力思索能力可能会下降。更主要的是,由于人工智能提供的看法往往较量集中,人们的行为特征可能变得越发同质化。Mei et al. (2024)发明GPT的行为显着比人类的反应更同质化,ChatGPT-4的决议比ChatGPT-3更集中。这种多样性的缺乏可能在进化角度对人类倒运,可能会降低人类应对危害的能力。

只管保存潜在弱点,但AI也可以对人类行为爆发起劲影响,例如增强人们的一律看法。研究显示 ,ChatGPT-4普遍体现出比人类更多的利他行为。更普遍地说,大语言模子可以在劳动力市场上显著缩小“外行”和“专家”之间的体现差别,使时机越发一律;在消耗市场上,随着AI产品变得越发实惠,它们可能有助于构建越发一律的社会。例如,大语言模子驱动的个性化教育可以使农村地区的学生接触到以前只有都会孩子才华接触到的一流教育资源,也许会作育出越发一律的天下观。

(文末点击“阅读原文”可获取完整谈论文章)

参考文献:

1. Q. Mei, Y. Xie, W. Yuan, M. O. Jackson, A Turing test of whether AI chatbots are behaviorally similar to humans. Proc. Natl. Acad. Sci. U.S.A. 121, e2313925121 (2024).

2. Y. Chen, T. X. Liu, Y. Shan, S. Zhong, The emergence of economic rationality of GPT. Proc. Natl. Acad. Sci. U.S.A. 120, e2316205120 (2023).

3. M. Binz, E. Schulz, Using cognitive psychology to understand GPT-3.

Proc. Natl. Acad. Sci. U.S.A. 120, e2218523120 (2023).

4. J. W. Burton, M.-K. Stein, T. B. Jensen, A systematic review of algorithm aversion in augmented decision making. J. Behav. Decis. Mak. 33, 220–239 (2020).

5. K. Kawaguchi, When will workers follow an algorithm? A field experiment with a retail business. Manage. Sci. 67, 1670–1695 (2021).

6. X. Luo, S. Tong, Z. Fang, Z. Qu, Frontiers: Machines vs. humans: The impact of artificial intelligence chatbot disclosure on customer purchases. Mark. Sci. 38, 937–947 (2019).

7. Y. Zhang, R. Gosline, Human favoritism, not AI aversion: People’s perceptions (and bias) toward generative AI, human experts, and human–GAI collaboration in persuasive content generation. Judgm. Decis. Mak. 18, e41 (2023).

8. M. Karata?, K. M. Cutright, Thinking about God increases acceptance of artificial intelligence in decision-making. Proc. Natl. Acad. Sci. U.S.A. 120, e2218961120 (2023).

9. S. Benartzi et al., Should governments invest more in nudging? Psychol. Sci. 28, 1041–1055 (2017).

10. S. DellaVigna, E. Linos, RCTs to scale: Comprehensive evidence from two nudge units. Econometrica 90, 81–116 (2022).

11. S. Mertens, M. Herberz, U. J. J. Hahnel, T. Brosch, The effectiveness of nudging: A meta-analysis of choice architecture interventions across behavioral domains.

Proc. Natl. Acad. Sci. U.S.A. 119, e2107346118 (2022).

12. J. J. Horton, Large language models as simulated economic agents: What can we learn from homo silicus? National Bureau of Economic Research working paper. https://www.nber.org/papers/w31122. Accessed 11 February 2024.

13. L. Brinkmann et al., Machine culture. Nat. Hum. Behav. 7, 1855–1868 (2023).

14. B. Cowgill et al., “Biased programmers? Or biased data? A field experiment in operationalizing AI ethics” in Proceedings of the 21st ACM Conference on Economics and Computation, P. Biró, J. Hartline, Eds. (ACM,

2020, New York), pp. 679–681.

15. J. Chen et al., Bias and debias in recommender system: A survey and future directions. ACM Trans. Inf. Syst. 41, 1–39 (2023).

16. R. Levy, Social media, news consumption, and polarization: Evidence from a field experiment. Am. Econ. Rev. 111, 831–870 (2021).

17. E. Brynjolfsson, D. Li, L. Raymond, Generative AI at work. National Bureau of Economic Research working paper. https://www.nber.org/papers/w31161. Accessed 11 February 2024.

(参考文献可上下滑动审查)

孟涓涓,现任伟易博应用经济系系主任、教授,伟易博行为科学和政策干预交织立异团队召集人之一。现在任国际期刊Management Science副主编。2022年获国家自然科学基金国家优异青年科学基金项目资助,2019年获国家自然科学基金优异青年科学基金项目资助。孟涓涓恒久专注于行为经济学与行为金融学的研究。她的研究效果揭晓在诸多外洋一流学术期刊上,如American Economic Review, Management Science, International Economic Review, Journal of Public Economics, Journal of Development Economics, Games and Economic Theory等。

分享
【网站地图】【sitemap】