社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  chatgpt

AI觉醒前夜的预言:ChatGPT也许是个“坏主意”|共读时刻

钛媒体 • 2 年前 • 936 次点击  


我们该畏惧的,永远不该是科技本身。



“降低人工智能灭绝的风险”,应该与其它社会规模的风险(如大流行病和核战争)一样,成为全球的优先事项。


图灵奖得主Bengio和Hinton,同时警告AI可能灭绝人类!


5月31日,一封签署名单多达350人的公开信迅速传播开来,信中核心只有一句话:


“降低人工智能灭绝的风险”,应该与其它社会规模的风险(如大流行病和核战争)一样,成为全球的优先事项。



签署这封公开信的,包括三大AI巨头的CEO,即ChatGPT老板、OpenAI的山姆·阿尔特曼,DeepMind的戴密斯·哈萨比斯和Anthropic的达里奥·阿莫迪。

而早在5月31号之前的3月29日,“生命未来研究所”(Future of Life Institute,FLI)发布的《暂停人工智能巨模型实验》公开信中就已经出现类似警示:


呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,至少暂停6个月。

这次的签字人有:特斯拉创始人马斯克、2018年度图灵奖得主约书亚·本希奥、苹果联合创始人斯蒂夫·盖瑞·沃兹尼亚克、《人工智能:现代方法》作者斯图尔特·罗素。

而这一切的开始其实源自2014年,“未来生命研究所”打响的第一枪。

斯图尔特·罗素、史蒂芬·霍金和泰格马克联合在赫芬顿邮报上发表的《超越我们对超级智能机器的自满》一文,表达了作者对迅速发展的AI潜在的风险与隐忧。


而这篇文章的发布也引发了媒体对AI安全报道的热潮,伊隆·马斯克、比尔·盖茨等科技领袖纷纷加入讨论。


也许你不难发现,有一个人的名字总是和人工智能的发展史重叠,他到底是何许人也?


斯图尔特·罗素是最早和霍金等人发表了署名文章号召大家警惕人工智能可能给我们带来威胁的人,并共同发起了英国剑桥大学生存风险研究中心(Board of the Centre for the Study of Existential Risk),并成为人工智能领域唯一科学家任职理事会成员。

他也是历史上第二位获得过两项IJCAI主要奖项(卓越研究奖、计算机与思想奖)的科学家(国际人工智能联合会议(简称为IJCAI)是人工智能领域中最主要的学术会议之一)。


作为当今世界上人工智能领域的权威专家,他曾与谷歌研究总监彼得·诺维格合著出版了人工智能领域里的“标准教科书”《人工智能:现代方法》,该书被100多个国家的1500多所大学使用。

这本书几乎是为全世界范围的人工智能教育提供了标准范本,推动了人工智能知识的快速普及,为人工智能教育做出了重大贡献。今年年初,该书的第四版中文版也与中国读者见面。


人们越来越担心 ChatGPT 等人工智能模型的发展可能对社会和就业带来的潜在威胁,唯恐它将对社会造成不可挽回的破坏。


那此时,我们不禁要问:AI觉醒前夜,ChatGPT真的会是那个最优解么?


近日钛媒体集团合伙人、区块链知名媒体数据平台链得得(ChainDD)总裁——李非凡与《人工智能:现代方法》作者——斯图尔特·罗素,一起开启了一场谈AI论未来的尖峰对话,共同探讨关于人工智能技术的现状发展以及未来趋向。



人们期望着人工智能将我们从繁琐的劳动中解放出来,却又恐惧人工智能将我们“取而代之”,未来我们应当如何去驾驭它们呢?


以下为直播实录精编处理版本,内容精编自6月7日「钛空时间|共读时刻」直播栏目,直播完整视频回放可进入钛媒体官网观看:


01.如果 Siri 的宿命是“人工智障”,
那 ChatGPT 是不是真正的“人工智能”


李非凡表示,在中国,很多人对于人工类智能产品的最初记忆,都来自于像微软小娜、亚马逊 Alexa、苹果 Siri 这样的智能语音助手,目前看来,ChatGPT 在“智能”方面已经领先于这些智能助手,并以此向罗素博士提问:如何看待 ChatGPT 在这个领域所带来的颠覆性革命?以及这些“古老”的人工智能交互类产品是否是一种“失败”?


对此,罗素博士表示,他并不认为 Siri 这类的产品是一种“失败”,他认为,技术是会随着时间的推移不断发展的。罗素博士举例道:“比如说,我们买一辆新车,新车往往会比旧车好一点,但是我们并不会说旧车是失败的,因为我们在这个领域使用的技术是具有延续性的。”


在他看来,像 Alexa,还有 Siri 这些智能语音助手,是更早期的技术,它们更多的是基于预先计算好的问题和答案,也就是大家过去称之为“聊天本”,这些技术的本质,是基于一个问题模板的列表,当人们问类似问题时,就会产生标准答案。


罗素博士认为和 Siri 这类的产品相比,ChatGPT 这种新型技术是完全不同的,这个新型技术是大家所说的“语言模型”,它并不是基于一套问题的答案。它只是一个通用工具,会根据前面的单词序列预测下一个单词,可能是一次谈话,也可能是一篇放进去的报纸文章,然后用 ChatGPT 对它进行分析。然而这些功能,是不可能用 Alexa 做到的,因为 Alexa 只是设计用来回答很基本问题的工具。



对于 “ChatGPT 不是真正的人工智能”这个观点,以及未来 5 年内大家能看到的真正的人工智能是什么?这个问题,罗素博士表示,他认为 GPT-2 很明显没有实现太多的内部改善,它能够生成看似可信的文本,但它在回答问题等方面表现得却不是特别好。


罗素博士表示,关于新一代大语言模型的有趣之处就在于,即便在 5 年前,语言模型也已经算是人工智能科学研究的一个小分支,那个时候它们就可以有助于提高语音识别的准确性。



说到这里他举例道:“比如我说 “Happy B******”,你可能会认为我是想说生日快乐,因为 Birthday 是一个常见的单词,以 B 开头,在 Happy 之后。我相信你应该不会认为是 Happy Breakfast(快乐早餐)之类的。所以那时候的智能语音助手差不多就是这样的功能,你可以用语言模型来完善机器翻译的输出,使得输出的语言更符合语法,但是除此之外,就没有更多人关注语言模型了。



后来人们发现可以选择扩大判断上下文的词汇数量,以前只通过一个单词去判断上下文,所以如果我说 Happy,你可能会说下一个词可能是 Birthday,这是上下文中的单一词汇语境的判断,即只是通过 Happy 一个单词来预测下一个单词是 Birthday。接下来可以开始根据上下文写出 5 到 10 个单词,这就给了人们更多的帮助,然后又把词汇数量扩大到几百个。”


罗素博士认为,现在有了 GPT-4 和 32000 字的上下文语义处理,要基于这么多的上下文词汇进行预测,就需要一个更大的模型,就需要更多的参数。而且人们发现,随着词汇规模的扩大,输出准确性的改善。


如果大家问ChatGPT一个问题,那么这个问题的自然延续刚好就是这个问题的答案。



所以ChatGPT更像是我们“回应”这些常规问题的方式。我们并不是真的在“回答”,我们只是在“回应”。所以这只是一种从表面看上去的“回答”,而大多数人类对这种技术最大的疑惑是:我们其实并不知这个“回答”背后实际上发生了什么。”


与此同时,罗素博士认同,ChatGPT 在不断给大家带来惊喜,因为它有能力做一些非常了不起的事情,比如写诗,以诗的形式来证明一个数学定理。但大家却不知道它是如何做到这些事情的,这就是令人惊讶的地方。


但这也是同样令人担忧的地方。因为ChatGPT在很多方面事实上不如人类聪明,但它们在很多方面也比人类更有能力。比如,OpenAI 的测试结果表明,GPT-4 能够以高分通过几乎所有的大学入学考试。以及通过律师资格考试,和医生执照考试。



但 ChatGPT 从未上过学,也没有借助人为的代码就已经通过了所有这些考试。所以罗素博士认为,即使 ChatGPT 不能完全达到人类的智力水平,就其影响和作用而言,大家也可以大致认为它与人类的智力不相上下。


它的出现相当于给这个世界增加了几十亿“新人类”,人们正在不断地在生活中加入这些“高智商的人类”,它们会给大家的世界带来巨大的影响,但这个影响到底是什么谁也不知道。


02.中国如何在硅谷的对岸
与ChatGPT“失之交臂”?


李非凡认为,在中国他发现人们一直在思考一个问题,为什么 ChatGPT 能在这个时间点诞生在硅谷的创新土壤里?中国离 ChatGPT 有多远?


对于这个问题,罗素博士觉得,ChatGPT诞生于硅谷确实有一定技术上的原因,他分析道,硅谷有更多训练有素的人才。

首先,是有伯克利、斯坦福、还有很多顶级的学府,它们吸引了全世界最优秀的学生。

其次,硅谷对于非常有才华的人,薪资水平很高,他补充道,据可靠信息来源透露,一名硅谷人工智能研究人员的年薪是 1000 万美元。这的确是太令人震惊的数字。



再者,硅谷的公司有大量的算力基础支撑,也有承担风险的意愿。

正如 OpenAI 公司创始人山姆·阿尔特曼所说:“当大家谈论的是创造通用人工智能,就会有足够多的人愿意投入大量资金,进行一场赔率相当高的长期赌注,我认为一开始成功的几率很小,但是他们也的确成功了,所有这些东西在硅谷汇集到一起,而这是世界上任何其他地方都做不到的。”


罗素博士表示,在很多大学和创业公司中他都看到了这种心态:对于任何有趣的想法,都应该自由地去追求它,而不应该先去寻求老板的认可。


罗素博士说道,他曾经有一份工作是在伯克利大学担任委员会主席,该委员会是评估大学所有教师的任命和晋升的。而在伯克利的奖励制度运作方式是这样的,大家真的希望奖励那些愿意冒风险,愿意探索的人,他们可能工作 5 年或 10 年依然没有解决一个问题。


他们可能会失败,他们可能在 5 年内不怎么发表文章。但是如果他们确实会做出很大的贡献,也会被认为是成功的。所以委员会希望更多的人可以做到这样的标准:“我们不会强行要求他们每年必须发表 5 篇论文或 10 篇论文,不然就会让自己陷入麻烦。我们希望每个人都可以选择自己的研究方向。人们自然会对这种学术自由做出正向反馈,并基于他们自己的理解来做出正确的事情。”

03.不安全的人工智能
将失去任何价值

基于目前的全球政治经济环境的不确定性,以及出于数据跨境合规和数据安全角度考虑,李非凡提出了自己的疑问:未来应该如何用合理的法律法规对人工智能加以规范和引导?


罗素博士表示,很多关于大语言模型的法规草案是很严格的,它们要求大模型不能输出错误信息,但事实是,大语言模型的一个大问题,就是它们的确会输出错误的信息。因为它们的工作并不是说真话,而是被训练为能像人一样说话。



罗素博士举例:“比如我可以说我已经 49 岁了,这句话看起来像一个正常人说的话,但其实它是假的,因为我已经 61 岁了而并不是 49 岁,我的意思是,能“像人一样说话”才是 ChatGPT 所关注的,但它不在乎这句话是否是事实。”

所以罗素博士认为有必要对规章制度进行一些修订,否则规则本身就已经禁止了大语言模型在公共场合的使用,与此同时,他也认为大语言模型存在的一个大问题,就是它能否很好地去遵守任何一项合理的规则。

他解释道,在大多数国家,除非是有执照的医疗专业人员,否则提供医疗建议是非法的。因此OpenAI 表示 ChatGPT 和 GPT-4 不能用于提供医疗建议。但是 OpenAI 没有办法强制执行这一点,因为它们不明白它是如何运作的,所以没有办法去执行这个规定。但是 OpenAI 团队可以做的是,每次 ChatGPT 给出医疗建议,他们会对 ChatGPT 反馈说“你做错了”。



有些时候 ChatGPT 会因此开始有所改善,但大多数情况下,ChatGPT 并不明白为什么说它“做错了”,并且不会产生任何的变化。但仍然可以让大家感到非常自豪的是,ChatGPT 的错误行为依然还是比以前减少了29%,当然它仍然有许多错误行为。它还是会给你一些不符合逻辑的或者违法的建议,所以现在很多人都在思考,到底什么是对于ChatGPT更合理的规定。

罗素博士个人认为,合理的规定包括不提供医疗建议,不描述如何制造化学武器。而目前大语言模型还无法通过这些测试。人们会认为错误的诞生是因为相关法律法规出现了问题,不过他还是认为大语言模型才是错误的那一方,而人们必须去修正它们,这样才能更好地去遵守那些合理的法律法规。



在他看来,各国政府正在积极做出回应,尤其是中国政府已经做出了很好的回应。美国参议院查尔斯·舒默也已经提议计划引入一些法规,虽然目前还不知道要引入的法规是什么,但欧盟制定了《人工智能法》草案,将对这些人工智能系统的使用方式施加非常严格的规定。

他相信人工智能未来将会产生巨大的价值,它们可以改善各类人群的能力,它们可以被用作个人助理,可以用来帮助大家处理海量信息。



所以人工智能可以做各种有用的事情,但在人们能信任这个系统会正确运行,能忠于事实,说出真相,而且不会违反人类制定的政策之前,他认为使用它还是太危险了。



罗素博士表示,他不可能放心地用它来处理自己的邮件,因为他本人承担不起这些风险。

所以罗素博士总结道,人类可能要过很多年,才能理解如何制造出既有能力又安全的人工智能,而不安全的人工智能是没有任何价值的。

04.人类也可以避免被ChatGPT淘汰的命运


李非凡提出,类似于医学顾问这样的行业,它们容易被 ChatGPT 类的技术取代 ,人类面对ChatGPT这种强烈的被取代感,是否会对人工智能行业的发展节奏产生负面影响?


罗素博士认为,普通人实际上非常了解这一点,他们知道自己虽然有一定的教育水平和工作能力,但是这些人工智能系统,至少表面上在许多方面确实更胜自己一筹,这自然就会让人感到焦虑。

如果为自己的孩子着想,就会担心他们在 10 年或 20 年后会有什么样的就业机会。



经济学家会说,技术在摧毁旧的工作岗位的同时,也在不断创造新的工作岗位,而且新的工作机会会更好。但是如果人工智能也能做新的工作怎么办?

所以他认为各国政府必须非常认真地对待这个问题,他表示他曾与经济学家、科幻作家和未来派艺术家合作,试图设想出一个未来,在这个未来中,人工智能系统几乎可以完成目前人类可以做到的所有事情,那会是一个真正令人向往的未来。

但是很遗憾迄今为止,他们都失败了,他们真的无法描述出这个未来。


而如果没有准确的目标,就很难制定这个发展引渡计划。每个人都知道世界将会在人工智能的影响下面临一个巨大的转变,但是如果大家不知道明确的目的地,就很难围绕这个目的制定计划。



在人们所设想的未来里,大多数人类扮演的角色将是处理人际关系的角色,那不是在工厂里去生产成千上万的电视机或者汽车和机器打交道,而是直接与个人合作。而这一切需要大家对人类心理学有比现在更好的理解。


如果没办法更好地解释和解决人与人之间关系的问题,那么即使人类目前所取得的经济成就也不能算作成功,而这种技术基础不应该基于传统意义上的自然科学,而应基于人类科学。因为只有这样,人们才能通过人际关系更好地准确地为生活增加价值。



罗素博士举例,比如,有一些著名的心理治疗师在做类似的事情,但这只是因为这些人在直觉上有一些天赋,但总的来说,大家对于如何做好这些事情还缺乏足够的了解。想要获得足够的了解,可能需要花费几十年的研究、在所关注的重点和支援研究上都需要有非常大的转变。

现在人类主要资助的科学领域是基于物理学的科学、基于生物学的科学,但是并没有真正资助人类科学的。



所以这可能将是这个世界一个巨大的变化,这也将是教育体系的一个巨大变化,现在教给孩子们的很多东西可能都与人类科学无关,还有很多本该教给孩子的东西,也并没有教。


而教育体系恰恰是世界上所有体系中更新速度最慢的体系,就改变的能力而言,它甚至比医疗保健体系的更新还要慢。


05.ChatGPT和人工智能的疯狂与泡沫


李非凡认为,现在每个人都疯狂地赞美和追逐人工智能,伴随 ChatGPT 的发展,中国人工智能行业的热浪也迅速升温,连幼儿园的学生都能谈起一些关于人工智能的事情,对此钛媒体也冷静地表达了自己的观点:自嗨满足于过去, 而科技看的永远是“下一个”。那面对疯狂这个行业现在需要什么样的冷静和理性的声音?


对于这个问题罗素博士认为:“如果你是一个投资者,这将是一个非常重要的问题。创造真正通用人工智能所需花费的金钱成本,我们称通用人工智能为 AGI,这是几千万亿美元级别的投资领域。”

他表示,在美国每个月大约有 100 亿美元投入研发 AGI 的创业公司当中。这看起来是很大一笔钱,但与所预期创造的价值相比,这些投资都只是沧海一粟。



但问题是目前这种建立越来越大的语言模型的方向,是否能抵达真正的通用人工智能?他个人觉得是不会的。他还补充道,不仅他这么认为,OpenAI 的现任首席执行官和联合创始人山姆·阿尔特曼在演讲中也发表了同样的观点。


对此观点罗素博士也给出了他的原因:因为大语言模型不具备让人变得更聪明的能力。

所以他认为想要抵达真正的通用人工智能,需要在两个方向上投入大量的努力:


第一,如何把已经建立起来的东西,比如 ChatGPT,变成可以在实际环境中使用的工具。

罗素举例道:“比如我是一家保险公司,我想使用语言模型与我的客户交流,那么语言模型必须告诉客户产品的真相,它必须按照规定推荐给每个用户合适的保险产品,如果它违反了这些规定,那么保险公司将面临政府的巨额罚款。因为保险业受到严格监管,所以目前不能在这些领域中使用大语言模型,所以大家要付出巨大的努力来驯化这个“野兽”,如何将一只野狗驯化成一只行为规矩的家犬,这是众多人工智能领域的公司正在努力的一个大方向。”



第二,如果大语言模型不是创造 AGI 的答案,那么什么才是?它们是拼图的一部分,但不是整个拼图。

这个的困难在于大家并不真正理解它们是拼图的哪一部分,甚至不知道这些碎片的形状,也不知道上面的图案是什么。所以也并不知道还需要什么,才能创造出通用人工智能,这些都是更为基础的研究问题。

06.元宇宙可能是普通人驾驭人工智能的一次机会

李非凡以几个月前,自己公司做的嵌入人工智能功能的元宇宙产品为例,向罗素博士提出问题,他表示,由硅基生命形式为主导的人类世界首次在虚拟游戏中实现,NPC 成为虚拟世界的原住民,人类玩家则变成了这个世界偶尔出现的访客,对于这样的事情罗素博士有怎样的看法?


对此罗素博士认为,虚拟现实这种沉浸式的体验,可能性还没有得到充分利用。他认为这是有巨大潜力的,这种沉浸式体验可以形成一种比书籍、电影或音乐更强大的艺术形式。


它可以涵盖所有这些形式,甚至更多,因为它能以各种有趣的方式回应人们,说到这里,罗素博士也希望艺术家们能利用这一点,尝试开始探索在这个领域能做些什么,这样大家就不会仅仅把虚拟现实,想象成一个只去打怪升级的地方。



与此同时他认为还有很多有趣的商业模式与虚拟现实和元宇宙有关,例如:使用由人工智能系统驱动的虚拟人NPC这样的非玩家角色,利用这些角色来做生意,说服大家买东西。

但罗素博士也表示,这其中也很多具有欺骗性的,它们假装自己是人类,假装和你交朋友。它们花几个小时、几天或几周的时间来了解,谈论家庭,谈论个人,了解家庭情况,然后它们可能随口提到自己刚买了一辆新车很不错,然后安利给大家。这种商业模式或许非常有效,但却是完全建立在欺骗的基础上。所以对此他认为作为人类,知道与自己互动的是人还是机器是大家的基本权利,欧洲人工智能法案中也将对此有相关规定,并作为基本规则之一。



所以,罗素博士认为,不让机器冒充人类的情况出现是非常重要的。这将使那些建立在欺骗基础上的商业模式变得更难以实现,并且他觉得如果这些虚拟人实话实说,它们告诉大家自己是机器,并直接展示自己的目的。如果它的目的也是自己的兴趣,可能大家会更容易接受。


罗素博士解释道,这种模式可以提高效率,类似于展销厅配上销售人员这个模式,只不过这一切都发生在虚拟现实中。但他认为这是一种非常实用的商业模式,可能会取得不错的成效。



他总结道,元宇宙里人工智能会有各种各样的机会,毫无疑问大家有这个需要,因为人力成本是非常昂贵的,但未来可以用人工智能来替代人力。


07.媒体对人工智能领域的道义与责任

李非凡表示,钛媒体作为媒体平台,一直在密切关注人工智能领域的发展趋势和商业变化,对此罗素博士如何看待媒体平台怎样才能更好地为人工智能领域市场提供更准确更高效的信息服务?

这个问题罗素博士认为,类似于钛媒体这样的媒体平台,主要是对人工智能这个概念进行诠释,以及说明人工智能原理是什么,有哪些不同的种类。


罗素博士认为现在一个备受关注的焦点是 ChatGPT,大家一直都在讨论 GPT,但其实还有许多其它类型的人工智能系统,例如:自动驾驶汽车和 ChatGPT 就没有任何共同之处,是完全不同类型的系统。或者已经在为各种应用开发的计算机视觉系统,专门的机器翻译系统等,他认为这些系统比大语言模型做翻译更有效。



所以还有很多其它类型的人工智能系统。罗素博士认为向人们说明所有系统类型,以及各自的功能和局限性是非常重要的,因为可以让人们分辨谣传和事实,他表示他在媒体上反复看到的一大误解就是:人们必须担心机器产生意识。这个误解就会出现两种声音,一部分人会担心机器开始有意识,而让另一部分人会觉得,既然是AI 就永远不会有意识,没必要担心。

其实对于这两种声音,罗素博士觉得都是错误的,他认为大家需要担心的是 AI 的行为方式。


他解释道:“如果我和国际象棋程序对弈,而程序一直吃掉我的棋子,我就输了。



程序是有意识的还是无意识的并不重要,重要的是,它每一步都下得很好,而我什么都做不了,我输了这场比赛。这在现实世界里也是一样的。无论是在象棋盘上,还是在围棋盘上,或者在现实世界中,重要的是系统做了什么,我们能否采取足够的手段来确保我们保持对系统的控制,即使这个系统比我们更智能,我们也必须设法避免冲突。

因为如果创建的 AI 没被设计好,追求的目标与我们关心的目标不一致,那么大家就会面临真正的问题。”


08.人工智能最需要“负责任的创新”

李非凡提出在社会范畴内,像自动驾驶领域发生的一些交通事故会造成人员伤亡,有没有一个标准框架来评判人工智能判断造成的损害与它应该承担的责任?


对此罗素博士认为,以自动驾驶汽车的标准来说,这应该是生产商要负有的责任,这被称为严格责任。这意味着谁有过错并不重要,只要自动驾驶汽车撞死了人,那么生产商就要承担起责任。



他说道:“之前在比利时发生了一起案件,一名男子显然是因为与聊天机器人对话后自杀,我相信他的家人正在起诉该公司,我们可以看看后续进展,我们也可以等等法院对这件事的看法。有很多例子通常是非法行为,比如无照提供医疗建议。据我所知如果有人因此而受到伤害,语言模型的生产商将承担责任。”

罗素博士认为,现在大语言模型的开发者,通常将模型出售给另一家公司,后者在此基础上开发更为具体的应用程序。所以在欧盟,有人工智能法案,这是一项新的法律,应该会在今年年底前完成。



在制定这部法律的过程中,科技公司在法律中加入了一项条款:规定就本法案而言,通用人工智能系统不应被视为人工智能系统。

很显然这项条款提出的原因,是某些人正试图将自己的产品完全排除在监管之外。

罗素博士补充道,现在一些公司正在提出,当他们将通用的模型出售给另一家公司,并用于特定应用程序中,只能在低风险的应用程序中使用这个模型,如果在任何高风险的应用程序中使用,开发者将不承担任何责任。所以下游公司对任何损失都要负百分之百的责任。



罗素博士表示,在大多数国家,法律的运作方式是,法律制度将责任放在有能力解决问题的一方身上,如果有人训练一个大语言模型,然后将其出售给其他人,再针对特定应用对其进行微调,那么第二家公司甚至无法访问原始训练数据。如果系统不断提供非法医疗建议或不停建议人们自杀,那第二家公司对此也无能为力。

因此在他看来,创建大语言模型的原始生产商至少应该承担部分事故责任,因为他们才是能够解决问题的人,下游公司无法修复系统,因为没有数据,也没有对系统进行训练。



但他也表示,在接下来的几年里,将会有很多重要的法律案件来探讨此类事件。以及其它关于版权的问题。

罗素博士表示,据他所知,Reddit 一家大型在线网站,正在起诉 OpenAI,声称 OpenAI 窃取了 Reddit 网站上的所有对话,所有这些信息都属于 Reddit。在图像生成过程中也是如此,它们是否从艺术家那里窃取受版权保护的图像,以产生新的图像?

对于这样的事情他认为,在接下来的几年里,大家将找到这些法律问题的正确答案。目前情况有点失控,他个人认为人工智能这项技术及其部署已经远远超过了监管的范畴。”

09.BAT谁才是中国人工智能的“头号玩家”?

李非凡提出,类似于阿里巴巴,腾讯、百度这样的公司都在人工智能领域做出了重要尝试,也相继推出了重要产品,如何看待这些中国的互联网大厂在人工智能领域的尝试?与 Meta、谷歌和微软这些公司相比它们有什么优势和劣势?


对此罗素博士表示,他看过百度的聊天机器人文心一言和 GPT-4 之间的比较,看起来这两个系统之间确实有很大的差距。他不确定具体原因,但可能是在高质量文本数据的数量方面,比起中文,有更多高质量的英文文本可用。



他本人作为一家法国公司的董事会成员,他表示,这家公司也在从事这一领域,而法语的数据同样不够多,世界上没有足够的法语文本来训练一个相当于 GPT-4 的模型。因此他认为对于目前的情况,一种选择是尝试将所有英文文本翻译成法语,然后用法语训练 GPT-4,但这样效率低且成本也极其昂贵。所以综合来看,不应该过分强调将大语言模型作为公司之间成败衡量标准,人们一直在竞争,比如有 1000 亿个参数,或者有 5000 亿个参数,而这种“竞争”是没有益处的。

他表示,对中国公司来说,西方评论界经常说的一个观点是,因为中国的人口要更多,他们有更多的数据,数据才是最重要的,但在他个人认为这是无稽之谈。



他举例道:“如果你已经接触了一亿消费者,那么再增加一亿消费者也不会有多大区别。重要的是你对每个人的信息了解多少,因为这可以让你对那个人提出有帮助的高质量建议。”

所以罗素博士认为这是像腾讯这样的公司具有优势的地方,因为它们在市面上拥有如此多的 APP 应用,像是微信、QQ等,大家可以从社交应用中获取人们的关系网,可以获取类似 Facebook 和亚马逊们可以得到的同类信息,还有更多信息来源。包括人们购物行为中的财务数据。因此当一个平台有更多关于用户的数据,这样才有可能给每个人提供更多帮助,所以一般人们会认为腾讯这样的公司在这个维度会略微领先于西方的传统互联网巨头。

10.初创公司距离下一个OpenAI还有很远


和大公司相比,现在的初创企业从什么角度切入,在人工智能领域成功获得商业回报的可能性最高?


罗素博士表示,在他看来,就进入市场的方式而言,目前初创公司很难获得足以与 OpenAI 竞争所需的资源。目前据他所知,有 5 到 6 家初创公司有足够的资金,但每家公司的资金都在 2-5 亿美元左右。他们需要这么多资金,因为他们需要大量的计算能力,需要获取大量的数据,也需要很多的工程师。



因此罗素博士认为在这样的前提下,另一种选择是,使用现成的系统,可能是开源的系统,或者也可以去获得 ChatGPT 的使用许可。各种各样的大语言模型是有市场的,而且获得许可的费用并不是很高,最大的机会是能否想办法让这些系统好好运行,遵守规则忠于事实,然后才能被用于公司内部的这些重要应用中。

罗素博士补充道,每天人们都会想出一种新的创造性方式来使用这些人工智能系统,这些系统不是智慧体,它们与人类大脑的形状不同,但它们仍然是有类似于真人的智力,人们将找到数以千计的方法来创造性地使用这些新工具。

他建议初创公司可以尽可能多地查阅人们寻找创造性方法来使用人工智能系统的例子,在这个过程中,基于自己在某个特定市场的经验,说不定就可以想出什么创新性的应用方式。


11.指引人工智能未来的道德律令


李非凡表示,每个时代都有一套有关人工智能的设定规则,那么未来应该制定什么样的规则来引导人工智能进入下一阶段?

罗素认为人们应该更换什么限制,施加什么要求,这取决于人工智能公司如何让它们的系统运行,这不是由政府决定的,也不是由消费者决定的,更不是由学者决定的,目前大家能做的工作只是说明这些系统必须满足的标准是什么。

未来我们需要做到以下几点:

1.对虚假错误信息进行限制


输出虚假信息的能力是一个巨大的问题,罗素博士认为很难完全消除这一点。首先就需要就虚假信息来制定使用这些系统的规则,假冒的行为也应该一起禁止。应该制定有关于输出类型的限制规则,比如提供无照医疗建议的这类规则,可以先列出不想让系统做的事情,然后再在惩罚和报告机制中建立执行规定。



2.迅速修改和更新人工智能规则


经合组织OECD有一个人工智能事件数据库,人们可以向其提交人工智能系统造成问题的不良行为报告,当收到这些报告时,可以更新相关规定。罗素博士认为能相当迅速地制定和修改 AI 规则才是关键点,因为当通过任何一项法规之后,很可能六个月后它就会变得无关紧要。



3.专业机构和管理机构的良好协同


对于飞机和核电站等专业技术领域,目前有专业的监管机构,他们拥有制定规则的权力。所以不需要每隔六个月就去国会或欧洲议会要求通过一项新法律,国会和欧洲议会将制定规则的权力下放给一个专门机构,这是绝对必要的。当这些机构在世界各地成立时,它们需要相互协调,追踪正在发生的事情,出现了什么问题,如何解决这些问题,并确保在世界各地的一致性。这样公司就无法为自己人工智能系统的不当行为找到一个法外之地,做他们不能在其他国家做的事情。



罗素博士表示,他可以保证,世界各地很多人工智能专家、监管机构、政客、公司都正在对这个话题进行着热烈的讨论。OpenAI、微软、IBM 等公司自己都主动站出来表示:政府需要对这个行业进行监管,这是一个重要的新消息,以前大多数科技公司一直在说“不要监管,监管扼杀创新”。现在它们说不,“在我们再次杀人之前请监管我们”,这就是大家所处的境况。


钛空时间新书推荐——《人工智能:现代方法》


     原价:¥198
   🔶 钛空舱特惠价:¥139


本书全面、深入地探讨了人工智能(AI)领域的理论和实践,以统一的风格将当今流行的人工智能思想和术语融合到引起广泛关注的应用中,真正做到理论和实践相结合紧下单购买吧!  

   🔶前往钛空舱主页领取优惠券下单更优惠
长按下方二维码,立即购买
🔶北京/天津发货🔶中通/圆通快递

「钛空时间|共读时刻」是钛空时间特约读书栏目。这里是新兴企业家、新一代创变者的精神阵地,以读书、知识、文化为纽带链接每一个独特的个体,解构每一个独特灵魂的思考轨迹。我们每期邀请特约嘉宾通过共读一本好书来探究事件本质,以先进的思想和前沿的视野,为大家捕捉行业新动态,打开创新新思路,掌握发展新方法!

本期热点视频推荐


点赞关注 钛空时间视频号,观看更多精彩视频

*温馨提示:喜欢钛空时间公众号的小伙伴注意啦!根据公众号推送新规,请将钛空时间设为“星标”,这样才能第一时间收到推送消息,已设置的小伙伴还需要重新设置“星标”

点击下方图片阅读宽博士全年书单推荐↓↓

 点击 阅读原文
进入钛空舱商城,购买《人工智能:现代方法》
转了吗
赞了吗
在看吗

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/156175
 
936 次点击