邮箱:econometrics666@126.com所有计量经济圈方法论丛的code文件, 微观数据库和各种软件都放在社群里.欢迎到计量经济圈社群交流访问.
近期,大型语言模型LLMs因其能够生成类似人类的文本和对话而备受瞩目。然而,这些系统在输出中不可避免地存在一些不准确之处,这种现象被广泛称为"AI幻觉"。我们认为,这些模型在生成虚假信息以及整体行为上,更符合法兰克福在《论Bullshit》(2005年,普林斯顿大学出版)中所探讨的"Bullshit"概念。这些大模型在关键方面对其输出内容的真实性表现出一种漠然态度。
我们进一步分析了两种情况,大语言模型可能被视为"bullshit":一是它们在生成文本时,对事实的真实性缺乏必要的关注;二是它们在输出时,对信息的准确性不够重视。我们认为,将AI的这些误述行为定义为"bullshit",不仅是一种更为准确和有用的方式,也有助于我们更深入地理解和讨论这些系统的行为模式。
简要介绍:
随着技术的飞速发展,大型语言模型(LLMs)通过分析海量文本和应用概率计算,创造出越来越逼真的文本,其技术日益精湛,令人信服。一些评论家甚至认为,我们可能正站在实现通用人工智能(AGI)的门槛上。然而,除了对自动化带来的潜在威胁和LLMs取代人类工作的担忧,学术界还关注这些程序的行为本质,尤其是它们生成文本的真实性问题。
本文开篇部分,我们概述了ChatGPT及其同类大型语言模型(LLMs)的运作机制。随后,将分析一种观点,即当这些模型出现事实性错误时,它们是否在有意撒谎或无意中产生幻觉。换句话说,它们是故意发布虚假信息,还是基于错误的输入信息而无意识地这样做。我们认为,这两种观点都未能准确捕捉LLMs的本质,因为无论是撒谎还是幻觉,都要求对陈述的真实性有一定的关注。然而,LLMs的设计初衷并非是精确反映现实,而是给人以它们正在这样做的印象。我们认为,这与法兰克福对bullshit的描述在某种程度上是相吻合的。
我们进一步区分了两种bullshit类型,分别命名为“硬bullshit”和“软bullshit”。硬bullshit涉及积极地试图欺骗听众关于其言论的真实性;而软bullshit则是在缺乏对真实性的关注下产生的。我们认为,像ChatGPT这样的LLMs生成的输出属于软bullshit:这些言论或文本是在不关心其真实性的情况下产生的,且没有意图误导听众。我们还提出了一个更具争议的观点,即ChatGPT可能在某些情况下产生硬bullshit:如果我们将其视为具有某种意图,那么它被设计为给人以关心真实性的印象,这可能使它试图误导听众关于其目标、目的或议程的性质。
因此,尽管ChatGPT输出的bullshit类型可能取决于对心智或意义的不同理解,我们得出结论,将由ChatGPT生成的文本称为bullshit是恰当的。我们强调,重要的是不将其不真实的声明称为谎言或幻觉,而应认识到ChatGPT实际上是在进行bullshit。关于GPT,参看1.前沿: 财务报表分析师和机器学习那套可能会失业, GPT大语言模型极具优势,2.
突发: Stata最为激烈的自救行动! 在大语言模型GPT等攻势下不得不为之!3.必备神器: 各专业领域代表性大语言模型GPT与数据资源!4.最新: 学或做量化金融和量化交易的人员估计得失业! ChatGPT文本基础上的策略完胜!5.GPT在文本分析中的应用, 一个基于Stata 的集成命令用法介绍,6.综述: ChatGPT, 金融学研究, ChatGPT, 金融学研究!7.美国经济学会首次就GPT大模型对经济学研究影响发文, 应用案例与研究者使用指南!8.前沿: 以ChatGPT打开了经济学和其他社会科学研究范式的巨大新空间,9.ChatGPT数据分析和可视化新功能, 算是彻底革了实证研究者的命了!10.GPT前沿: 图神经网络GNN在经济金融领域中的研究应用进展!11.阿里达摩院前沿研究: GPT-4已能取代搞纯数据定量分析的研究人员! 关键成本极低!12.最新: ChatGPT大模型对经济学研究的影响,13.ChatGPT为主题的经济金融等等社科领域的最新论文!14.聊天绘图ChatGPT诞生! 各种技术图形都不再是学术难题!15.太强悍了!英文文献阅读版ChatGPT,一站式文献阅读神器!
下面这些短链接文章属于合集,可以收藏起来阅读,不然以后都找不到了。
7年,计量经济圈近2000篇不重类计量文章,
可直接在公众号菜单栏搜索任何计量相关问题,
Econometrics Circle
计量经济圈组织了一个计量社群,有如下特征:热情互助最多、前沿趋势最多、社科资料最多、社科数据最多、科研牛人最多、海外名校最多。因此,建议积极进取和有强烈研习激情的中青年学者到社群交流探讨,始终坚信优秀通过感染优秀而互相成就彼此。