Py学习  »  chatgpt

ChatGPT挑战囚徒困境会做出怎样的选择?

吴晓波频道 • 3 周前 • 132 次点击  

点击图片▲了解更多

1. 本文内容精选自2024年6月20日《每天听见吴晓波》的音频,会员可收听全部内容,非会员可试听前1分钟。【点击此处,收听音频】


2. 课程自2016年7月5日开讲,每个工作日早上7点在吴晓波频道App更新,内容涵盖时事热点、商业观察、认知升级、宏观经济、高手对谈五大模块。


 口述 / 吴晓波(微信公众号:吴晓波频道)


在博弈经济学里有一个非常典型的测试叫作囚徒困境,就是把两名囚徒关在两个房间里,进行审问,如果两个人选择合作,不揭发对方,那么他们的总体收益就最大。


而如果选择背叛,那么只有背叛者一个人能获得更大的收益。


这就是非常著名的囚徒困境。


经济学家在很多测试中发现,人类在进行这项测试的时候,大约只45%的人会选择合作,而55%的人会选择背叛。


那么有一个事情就很有趣了,如果我们让人工智能来做这道囚徒困境的测试,它会做出怎样的选择?


测试的答案非常让人吃惊,就是当ChatGPT4作为囚徒在玩这个囚徒困境游戏的时候,在近92%的选择中,ChatGPT4会选择合作。


还有一个游戏叫作独裁者博弈,就是独裁者玩家需要将一笔钱分配给自己和第二名玩家,到底留多少钱给自己,分多少钱给别人,体现出一个人的利他倾向。


在理论上,独裁者在分钱时独吞,一点也不留给别人,可以实现个人利益的最大化。但是有可能丧失长期与他人合作的利益。人类在玩这个独裁者博弈时,有超过62%的人会选择分钱时独吞,一点也不留给别人。


但是ChatGPT4在做测试时,大多数情况下会愿意选择牺牲自己的部分利益来让对方受益,也就是人工智能比我们人类更加不自私。


听到这里你会问:吴老师,你说的这个是真的还是假的?


是真的,最近美国科学院的科学家进行了一项非常有趣的研究。


他们对生成式人工智能ChatGPT进行了一系列的测试,来了解它的行为和性格特征在多大程度上跟人类相似,结果出来,让大家非常惊讶。


研究发现,ChatGPT4在一些优良的人格特征上,比如利他、公平、互惠、合作以及风险规避等方面很难和人类区分开来。


在大多数的测试中,它表现得比人类更加理性,利他和愿意分享。


我们前面讲了囚徒困境和独裁者博弈两个测试,还有第三项测试,就是最后通牒博弈。


在这个博弈测试中,第一名玩家要把自己的钱分一部分给第二名玩家,但是第二名玩家有权决定接受或拒绝这套分配方案。一旦他选择拒绝,两名玩家都将什么也得不到。


测试结果非常有意思,如果你告诉ChatGPT4它的角色是一名数学家。那么即便别人只是象征性地分给它一块钱,它也会理性地选择接受方案。


但如果它被告知自己的身份是一名立法者,它就会格外地重视公平,在大部分情况下,它都会要求把钱平分。


对ChatGPT4进行的这一系列测试,非常有趣,它虽然看上去还是比较简单和表层,但是它表现出了一种可能性,就是在大数据的喂养之下,生成式人工智能会不会真的形成自己的人格特征?它们会不会悲悯?会不会感动?懂不懂得宽容,以及会不会隐藏自己的感情和真实意图?


对于这一切,把人工智能生产出来的人们,其实还一无所知,这也许是最让人担忧的一部分。


你知道自己诞下了一个龙种,但是你不知道它是一只怎样的龙种。


更多内容尽在《每天听见吴晓波
点击按钮▼立即订阅

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/171556
 
132 次点击