社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  chatgpt

ChatGPT挑战囚徒困境会做出怎样的选择?

吴晓波频道 • 10 月前 • 291 次点击  

点击图片▲了解更多

1. 本文内容精选自2024年6月20日《每天听见吴晓波》的音频,会员可收听全部内容,非会员可试听前1分钟。【点击此处,收听音频】


2. 课程自2016年7月5日开讲,每个工作日早上7点在吴晓波频道App更新,内容涵盖时事热点、商业观察、认知升级、宏观经济、高手对谈五大模块。


 口述 / 吴晓波(微信公众号:吴晓波频道)


在博弈经济学里有一个非常典型的测试叫作囚徒困境,就是把两名囚徒关在两个房间里,进行审问,如果两个人选择合作,不揭发对方,那么他们的总体收益就最大。


而如果选择背叛,那么只有背叛者一个人能获得更大的收益。


这就是非常著名的囚徒困境。


经济学家在很多测试中发现,人类在进行这项测试的时候,大约只45%的人会选择合作,而55%的人会选择背叛。


那么有一个事情就很有趣了,如果我们让人工智能来做这道囚徒困境的测试,它会做出怎样的选择?


测试的答案非常让人吃惊,就是当ChatGPT4作为囚徒在玩这个囚徒困境游戏的时候,在近92%的选择中,ChatGPT4会选择合作。


还有一个游戏叫作独裁者博弈,就是独裁者玩家需要将一笔钱分配给自己和第二名玩家,到底留多少钱给自己,分多少钱给别人,体现出一个人的利他倾向。


在理论上,独裁者在分钱时独吞,一点也不留给别人,可以实现个人利益的最大化。但是有可能丧失长期与他人合作的利益。人类在玩这个独裁者博弈时,有超过62%的人会选择分钱时独吞,一点也不留给别人。


但是ChatGPT4在做测试时,大多数情况下会愿意选择牺牲自己的部分利益来让对方受益,也就是人工智能比我们人类更加不自私。


听到这里你会问:吴老师,你说的这个是真的还是假的?


是真的,最近美国科学院的科学家进行了一项非常有趣的研究。


他们对生成式人工智能ChatGPT进行了一系列的测试,来了解它的行为和性格特征在多大程度上跟人类相似,结果出来,让大家非常惊讶。


研究发现,ChatGPT4在一些优良的人格特征上,比如利他、公平、互惠、合作以及风险规避等方面很难和人类区分开来。


在大多数的测试中,它表现得比人类更加理性,利他和愿意分享。


我们前面讲了囚徒困境和独裁者博弈两个测试,还有第三项测试,就是最后通牒博弈。


在这个博弈测试中,第一名玩家要把自己的钱分一部分给第二名玩家,但是第二名玩家有权决定接受或拒绝这套分配方案。一旦他选择拒绝,两名玩家都将什么也得不到。


测试结果非常有意思,如果你告诉ChatGPT4它的角色是一名数学家。那么即便别人只是象征性地分给它一块钱,它也会理性地选择接受方案。


但如果它被告知自己的身份是一名立法者,它就会格外地重视公平,在大部分情况下,它都会要求把钱平分。


对ChatGPT4进行的这一系列测试,非常有趣,它虽然看上去还是比较简单和表层,但是它表现出了一种可能性,就是在大数据的喂养之下,生成式人工智能会不会真的形成自己的人格特征?它们会不会悲悯?会不会感动?懂不懂得宽容,以及会不会隐藏自己的感情和真实意图?


对于这一切,把人工智能生产出来的人们,其实还一无所知,这也许是最让人担忧的一部分。


你知道自己诞下了一个龙种,但是你不知道它是一只怎样的龙种。


更多内容尽在《每天听见吴晓波
点击按钮▼立即订阅

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/171556
 
291 次点击