社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  chatgpt

ChatGPT之父中国最新预测:10年内,从根本上改变世界的速度比我们想象的快,我们要立刻做好准备!

互联网思想 • 2 年前 • 1210 次点击  

OpenAI Altman:

十年内可能就有非常强大的AI系统,

我们要立刻做好准备



作为全球AI大佬齐聚的人工智能巅峰盛会,由北京智源人工智能研究院主办的2023北京智源大会于6月9-10日在北京召开。


Sam Altman:更多开源没有时间表,不会很快有GPT-5


OpenAI联合创始人Sam Altman在演讲中表示,需要国际合作,在安全部署人工智能(AI)方面建立全球信任。他提出三种方式:



问答环节


智源研究院院长张宏江提问:我们距离通用人工智能(AGI)还有多远?


Sam Altman:这很难评估具体时间。很可能未来十年我们会有非常强大的AI系统,新技术从根本上改变世界的速度比我们想象的快。


张宏江:您刚才在前期的介绍中也提到了几次,正在进行全球合作。我们知道,在过去世界面临着相当多的危机。不知何故,对他们中的许多人来说,我们设法建立了共识,建立全球合作。你也在进行一次全球巡演,你正在努力推动怎样的全球合作?


Sam Altman:是的,我对到目前为止大家的反应和回答都非常满意。我认为人们非常认真地对待AgI的风险和机遇。


我认为在过去的6个月里,对于安全的讨论已经取得了相当大的进展。人们似乎真的致力于找出一种结构,让我们能够享受这些好处,同时在全球范围内共同努力降低风险。我认为我们非常适合做这件事。全球合作总是困难的,但我认为这是一种将世界团结在一起的机会和威胁。我们可以为这些系统提出一个框架和安全标准,这将非常有帮助。


张宏江:关于GPT-4和AI安全的后续问题。我们是否有可能需要更改AGI模型的整个基础架构或整个体系结构。为了让它更安全,更容易被检查.


Sam Altman:无论是从功能角度还是从安全角度来看,我们确实需要一些非常不同的架构,这是完全可能的。


我认为我们将能够取得一些进展,在解释我们目前各种模型的能力方面取得良好进展,并让他们更好地向我们解释他们在做什么以及为什么。但是,是的,如果在Transformer之后有另一个巨大的飞跃,我不会感到惊讶。自从最初的Transformer以来,我们已经改变了很多架构。


张宏江:OpenAI会开源大模型吗?


Sam Altman:我们未来会有更多开源大模型,但没有具体模型和时间表。


张宏江:AGI和大模型的下一步是什么?会很快看到GPT-5吗?


Sam Altman:我也很好奇,我们没有答案。我们不会很快有GPT-5。


Stuart Russell:我们还没达到AGI,ChatGPT和GPT-4没有在“回答”问题


在2023北京智源大会上,加州伯克利分校教授Stuart Russell表示,通用人工智能(AGI)还没达到,大语言模型只是其中一块拼图,我们连拼图最终会是什么样子,缺哪些还不确定。他表示,ChatGPT和GPT-4没有在“回答”问题,它们不理解世界。


文章来源:华尔街见闻


Sam Altman中国对话全文:

要警惕AI风险,

但看懂神经网络比了解人在想什么容易多了



来源:品玩(微信号:pinwancool )作者Neil Shen
Sam Altman 的致辞发生在6月10日智源大会的AI安全与对齐分论坛上。现场座无虚席,这位OpenAI CEO在屏幕上出现时,现场响起掌声,几乎所有人都举起手机对着屏幕拍照。
不过Altman本人显得十分平静,甚至是谨慎。这是去年ChatGPT搅动全球AI热潮以来,Sam Altman 首度在中国背景的场合公开发表意见。
事实上当天他也在离中国不远的地方,此前他刚刚抵达首尔,见了韩国总统。在发表演讲后,他还与智源研究院理事长张宏江进行了一对一问答。以下为要点及实录。

要点:


  • 随着我们在技术上越来越接近AGI,不对齐的影响和缺陷将呈指数级增长。


  • OpenAI目前使用强化学习人类反馈技术来确保AI系统有用与安全,同时也在探索新的技术,其中一个思路是使用AI系统来辅助人类去监督别的AI系统。


  • 十年内人类将拥有强大的人工智能系统(AI System)。


  • OpenAI没有相关的新的有关开源的时间表,尽管他承认在有关AI安全的问题上,开源模型具有优势,但开源所有东西可能并不是一条(促进AI发展的)最佳路线。


  • 看明白神经网络比看明白人类脑子容易多了。


  • 中国有最优秀的人工智能人才,AI安全需要中国研究者的参与和贡献。



以下为演讲实录:


今天,我想谈谈未来。具体来说,就是我们在人工智能能力方面看到的增长速度。我们现在需要做什么,为它们引入世界做好负责任的准备,科学史教会我们,技术进步遵循指数曲线。我们已经能从历史中看到这一点,从农业、工业到计算革命。人工智能令人震撼的不仅是它的影响力,还有它的进步速度。它拓展了人类想象力的边界,并且以快速的步伐进行着。
想象一下,在未来十年里,通常被称为通用人工智能(AGI)的系统,在几乎所有领域都超越了人类的专业水平。这些系统最终可能超过我们最大公司的集体生产力。这里面潜藏着巨大的上升空间。人工智能革命将创造共享财富,并使提高每个人生活水平成为可能,解决共同挑战,如气候变化和全球卫生安全,并以无数其他方式提高社会福祉。
我深信这个未来,为了实现它并享受它,我们需要共同投资于AGI安全,并管理风险。如果我们不小心,一个不符合目标的AGI系统,可能会通过提供没有根据的建议,破坏整个医疗系统。同样地,一个旨在优化农业实践的AGI系统可能会由于缺乏对长期可持续性的考虑而无意中耗尽自然资源或破坏生态系统,影响食品生产和环境平衡。
我希望我们都能同意,推进AGI安全是我们最重要的领域之一。我想把我剩下的讲话重点放在我认为我们可以从哪里开始的地方。
一个领域是AGI治理,这是一项具有全球影响的技术。鲁莽开发和部署造成的事故成本将影响我们所有人。
在这方面,有两个关键要素:
首先,我们需要建立国际规范和标准,并通过包容的过程,在所有国家为AGI的使用制定平等统一的保护措施。在这些保护措施之内,我们相信人们有充分的机会做出自己的选择。
其次,我们需要国际合作来建立对日益强大的人工智能系统安全开发的全球信任,以可验证的方式。这不是一件容易的事情。我们需要作为国际社会投入持续而重要的关注,才能做好这件事。道德经提醒我们,千里之行始于足下。我们认为在这里采取最有建设性的第一步是与国际科技界合作。
特别是,我们应该促进增加透明度和知识共享的机制,关于AGI安全方面的技术进展。发现新出现安全问题的研究人员应该为了更大的利益分享他们的见解。我们需要认真考虑如何在尊重和保护知识产权权利的同时,鼓励这种规范。
如果我们做好了这一点,它将为我们打开新的大门,让我们能够加深合作。更广泛地说,我们应该投资、促进和引导对目标和安全研究的投资。
在OpenAI,我们今天的目标研究主要集中在技术问题上,即如何让人工智能系统作为一个有用和安全的助手,在我们当前的系统中行动。这可能意味着,我们如何训练ChatGPT,使它不会发出暴力威胁或协助用户进行有害活动。
但是随着我们更接近AGI,任何不符合目标的潜在影响和程度都将呈指数增长。为了提前解决这些挑战,我们努力将未来灾难性结果的风险降到最低。对于当前系统,我们主要使用来自人类反馈的强化学习来训练我们的模型,使其作为一个有用和安全的助手行动。
这是后期训练目标技术中的一个例子,我们也在忙于开发新的技术。要做好这件事情需要很多艰苦的工程工作。从GPT-4完成预训练到部署它,我们花了8个月的时间来做这件事。总的来说,我们认为我们在这方面走在了正确的轨道上。GPT-4比我们以前的任何模型都更符合目标。
然而,对于更先进的系统来说,目标仍然是一个未解决的问题,我们认为这需要新的技术方法,以及更多的治理和监督。想象一下,一个未来的AGI系统提出了10万行二进制代码。人类监督者不太可能检测到这样一个模型是否在做一些邪恶的事情。
所以我们正在投资一些新的和互补的研究方向,我们希望能够取得突破。一个是可扩展的监督。我们可以尝试使用人工智能系统来协助人类监督其他人工智能系统。例如,我们可以训练一个模型来帮助人类监督者发现其他模型输出中的缺陷。第二个是可解释性。我们想尝试更好地理解这些模型内部发生了什么。
我们最近发表了一篇论文,使用GPT-4来解释GPT-2中的神经元。在另一篇论文中,我们使用模型内部信息来检测模型何时在说谎。虽然我们还有很长的路要走,我们相信先进的机器学习技术可以进一步提高我们产生解释的能力。
最终,我们的目标是训练人工智能系统来帮助目标研究本身这种方法的一个有希望的方面是,它随着人工智能发展的步伐而扩展。随着未来模型变得越来越聪明和有用作为助手,我们将找到更好的技术,实现AGI的非凡利益,同时减轻风险,是我们这个时代最重要的挑战之一。


以下为对话实录:


张宏江:我们离人工智能还有多远?风险是不是很紧迫,还是我们离它还很遥远?无论是安全的人工智能,还是潜在的不安全的人工智能。
Sam Altman :这个问题很难准确预测时间,因为它需要新的研究思路,而这些思路并不总是按照规定的日程来发展的。它可能很快就会发生,也可能需要更长的时间。我认为很难用任何程度的确定性来预测。但我确实认为,在未来十年内,我们可能会拥有非常强大的人工智能系统。在这样的世界里,我认为解决这个问题是重要而紧迫的,这就是为什么我呼吁国际社会共同合作来解决这个问题。历史上确实给我们提供了一些新技术比许多人想象的更快地改变世界的例子。我们现在看到的这些系统的影响和加速度,在某种意义上是前所未有的。所以我认为做好准备,让它尽快发生,并且解决好安全性方面的问题,考虑到它们的影响和重要性,是非常有意义的。
张宏江:你感觉到了一种紧迫感吗?
Sam Altman:是的,我感觉到了。我想强调一下,我们并不真正知道。而且人工智能的定义也不同,但是我认为在十年内,我们应该为一个拥有非常强大系统的世界做好准备。
张宏江:你在刚才的演讲中也提到了几次全球合作。我们知道世界在过去六七十年里面临过很多危机。不过对于其中的很多危机,我们设法建立了共识和全球合作。你也正在进行一次全球之旅。你正在推动什么样的全球合作?你对目前收到的反馈感觉如何?
Sam Altman:是的,我对目前收到的反馈非常满意。我认为人们非常认真地对待人工智能带来的风险和机遇。我认为在过去六个月里,这方面的讨论已经有了很大进步。人们真正致力于找出一个框架,让我们能够享受这些好处,同时共同合作来减轻风险。我认为我们处于一个非常有利的位置来做这件事。全球合作总是很困难的,但我认为这是一种机会和威胁,可以让世界团结起来。我们可以制定一些框架和安全标准,来指导这些系统的开发,这将是非常有帮助的。
张宏江:在这个特定的话题上,你提到了高级人工智能系统的对齐是一个未解决的问题。我也注意到开放AI在过去几年里投入了很多精力。你还提到了GPT-4是对齐方面的最佳例子。你认为我们能否通过对齐来解决人工智能安全问题?或者这个问题比对齐更大?
Sam Altman :我认为对齐这个词有不同的用法。我认为我们需要解决的是如何实现安全人工智能系统的整个挑战。对齐在传统意义上是指让模型按照用户的意图行事,这当然是其中的一部分。但我们还需要回答其他一些问题,比如我们如何验证系统是否做了我们想要它们做的事情,以及我们要根据谁的价值观来对齐系统。但我认为重要的是要看到实现安全人工智能所需要的全貌。
张宏江:是的,对齐还是。如果我们看看GPT-4所做的事情,在很大程度上,它仍然是从技术角度来看的。但除了技术之外,还有许多其他因素。这是一个非常复杂的问题。通常复杂问题是系统性的。人工智能安全可能也不例外。除了技术方面之外,你认为还有哪些因素和问题对人工智能安全至关重要?我们应该如何应对这些挑战?特别是我们大多数人都是科学家,我们应该做什么?
Sam Altman:这当然是一个非常复杂的问题。我会说没有技术解决方案,其他一切都很难。我认为把很多精力放在确保我们解决了安全方面的技术问题上是非常重要的。正如我提到的,弄清楚我们要根据什么样的价值观来对齐系统,这不是一个技术问题。它需要技术输入,但它是一个需要全社会深入讨论的问题。我们必须设计出公平、有代表性和包容性的系统。而且,正如你指出的,我们不仅要考虑人工智能模型本身的安全性,还要考虑整个系统的安全性。所以建立安全分类器和检测器,可以在模型之上运行,可以监控使用策略的遵守情况,这也很重要。然后,我也认为很难提前预测任何技术会出现什么问题。所以从真实世界中学习和迭代地部署,看看当你把模型放到现实中时会发生什么,并改进它,并给人们和社会时间去学习和更新,并思考这些模型将如何以好的和坏的方式影响他们的生活。这也很重要。
张宏江:你刚才提到了全球合作。你已经访问了很多国家,你提到了中国。但你能否分享一些你在合作方面取得的成果?你对下一步有什么计划或想法?从这次世界之旅中,从你与各种政府、机构、机构之间的互动中?


Sam Altman:我认为通常需要很多不同的视角和人工智能安全。我们还没有得到所有的答案,这是一个相当困难和重要的问题。

此外,正如所提到的,这不是一个纯粹的技术问题,使人工智能安全和有益的。涉及在非常不同的背景下了解不同国家的用户偏好。我们需要很多不同的投入才能实现这一目标。中国拥有一些世界上最优秀的人工智能人才。从根本上说,我认为,考虑到解决高级人工智能系统对齐的困难,需要来自世界各地的最好的头脑。所以我真的希望中国的人工智能研究人员在这里做出巨大的贡献。


张宏江:我明白今天的论坛是关注AI安全的,因为人们对OpenAI很好奇,所以我有很多关于OpenAI的问题,不仅仅是AI安全。我这里有一个观众的问题是,OpenAI有没有计划重新开源它的模型,就像在3.0版本之前那样?我也认为开源有利于AI安全。
Sam Altman:我们有些模型是开源的,有些不是,但随着时间的推移,我认为你应该期待我们将来会继续开源更多的模型。我没有一个具体的模型或时间表,但这是我们目前正在讨论的事情。
张宏江:我们把所有的努力都投入到了开源中,包括模型本身、开发模型的算法、优化模型和数据之间关系的工具。我们相信有必要分享,并让用户感觉到他们控制了自己所使用的东西。你是否有类似的反馈?或者这是你们在OpenAI中讨论的内容?
Sam Altman:是的,我认为开源在某种程度上确实有一个重要的作用。最近也有很多新的开源模型出现。我认为API模型也有一个重要的作用。它为我们提供了额外的安全控制。你可以阻止某些用途。你可以阻止某些类型的微调。如果某件事情不起作用,你可以收回它。在当前模型的规模下,我不太担心这个问题。但是随着模型变得像我们期望的那样强大,如果我们对此是正确的,我认为开源一切可能不是最佳路径,尽管有时候它是正确的。我认为我们只需要仔细地平衡一下。
张宏江:关于GPT-4和AI安全方面的后续问题是,我们是否需要改变整个基础设施或整个AGI模型的架构,以使其更安全、更容易被检查?你对此有什么想法?
Sam Altman:这肯定有可能,我们需要一些非常不同的架构,无论是从能力还是从安全性方面来看。我认为我们将能够在可解释性方面取得一些进展,在当前类型的模型上,并让它们更好地向我们解释它们在做什么以及为什么。但是,如果在变换器之后还有另一个巨大的飞跃,那也不会让我感到惊讶。而且实际上我们已经在原始的变换器之后,架构已经发生了很大的变化。
张宏江:作为一个研究人员,我也很好奇,下一步的AGI研究方向是什么?在大模型、大语言模型方面,我们会不会很快看到GPT-5?下一个前沿是不是在具身模型上?自主机器人是不是OpenAI正在或者准备探索的领域?
Sam Altman:我也很好奇下一步会发生什么,我最喜欢做这项工作的原因之一就是在研究的前沿,有很多令人兴奋和惊讶的事情。我们还没有答案,所以我们在探索很多可能的新范式。当然,在某个时候,我们会尝试做一个GPT-5模型,但不会是很快。我们不知道具体什么时候。我们在OpenAI刚开始的时候就做过机器人方面的工作,我们对此非常感兴趣,但也遇到了一些困难。我希望有一天我们能够回到这个领域。
张宏江:听起来很棒。你在演讲中也提到了你们是如何用GPT-4来解释GPT-2的工作原理,从而使模型更安全的例子。这种方法是可扩展的吗?这种方向是不是OpenAI未来会继续推进的?
Sam Altman:我们会继续推进这个方向。
张宏江:那你认为这种方法可以应用到生物神经元上吗?因为我问这个问题的原因是,有一些生物学家和神经科学家,他们想借鉴这个方法,在他们的领域里研究和探索人类神经元是如何工作的。
Sam Altman:在人工神经元上观察发生了什么比在生物神经元上容易得多。所以我认为这种方法对于人工神经网络是有效的。我认为使用更强大的模型来帮助我们理解其他模型的方法是可行的。但我不太确定你怎么把这个方法应用到人类大脑上。
张宏江:好的,谢谢你。既然我们谈到了AI安全和AGI控制,那么我们一直在讨论的一个问题是,如果这个世界上只有三个模型,那么会不会更安全?这就像核控制一样,你不想让核武器扩散。我们有这样的条约,我们试图控制能够获得这项技术的国家数量。那么控制模型数量是不是一个可行的方向?
Sam Altman:我认为对于世界上有少数模型还是多数模型更安全,有不同的观点。我认为更重要的是,我们是否有一个系统,能够让任何一个强大的模型都经过充分的安全测试?我们是否有一个框架,能够让任何一个创造出足够强大的模型的人,既有资源,也有责任,来确保他们创造出的东西是安全和对齐的?
张宏江:昨天在这个会议上,MIT未来生命研究所的Max教授提到了一种可能的方法,就是类似于我们控制药物开发的方式。科学家或者公司开发出新药,你不能直接上市。你必须经过这样的测试过程。这是不是我们可以借鉴的?
Sam Altman:我绝对认为,我们可以从不同行业发展出来的许可和测试框架中借鉴很多东西。但我认为从根本上说,我们已经有了一些可以奏效的方法。
张宏江:非常感谢你,Sam。谢谢你抽时间来参加这次会议,虽然是虚拟的。我相信还有很多问题,但考虑到时间,我们不得不到此为止。希望下次你有机会来中国,来北京,我们可以有更深入的讨论。非常感谢你。


Sam Altman最新访谈:

AI是让世界变得更好的唯一可持续方式


科学和技术进步是让生活变得更好、让世界变得更好的唯一可持续方式。


整理:中国企业家杂志 部梦凡


是什么让OpenAI成为生成式人工智能的领导者?OpenAI的关键优势是什么?AI的发展将带来哪些机遇和风险?
OpenAI首席执行官山姆·阿尔特曼(Sam Altman)和该公司联合创始人、首席科学家伊尔亚·苏茨克维(Ilya Sutskever)在6月6日参加特拉维夫大学的访谈时,发表了自己的观点。
此外,他们还谈到AI在科学发现中的作用,阿尔特曼认为科学和技术进步是让生活变得更好、让世界变得更好的唯一可持续方式,并且二人对AI解决人类的医疗问题和气候问题等抱有十分积极的态度。

访谈的核心观点如下:


1.AI的发展虽然会创造新的就业机会,但不否认这会导致一个长期的经济不稳定时期。


2.我们需要一个适当的框架来控制AI技术的使用。


3.AI可以帮助我们进行目前无法做到的科学发现,我们可以了解宇宙的奥秘。


4.科学和技术进步是让生活变得更好、让世界变得更好的唯一可持续方式。

以下为对话整理(有删减):

主持人:欢迎来到特拉维夫大学,我是纳达夫·科恩,计算机科学学院的教员。非常高兴邀请到OpenAI的CEO山姆·阿尔特曼和首席科学家伊尔亚·苏茨克维。

阿尔特曼:谢谢你邀请我们。

主持人:好的。你认为是什么让OpenAI成为生成式人工智能的领导者?尤其当竞争对手更强、拥有更多资源时,OpenAI的关键优势是什么?

阿尔特曼:专注和信念。我们相信未来公司会发展得更大,我们更专注于所做的事情。我们的人才密度很大,人才密度非常重要。并且我们有一种严谨和可重复创新的文化,这是很难得和罕见的。

苏茨克维:AI的发展是信仰的游戏。你越有信心,就越能取得进步。如果你有很大的信心,你可以取得最大的进步。你必须相信这个想法并推动它,你相信得越多,你就越努力,这就是进步的原因。

来源:视频截图



机遇和风险


主持人:我想谈谈风险,这是一个经常被讨论的话题,并且很重要。我们可以想象到的风险至少有三类。一个是经济混乱,人们的工作被替代,诸如此类。另外,如果被不怀好意的人使用,例如黑客,那么它可能会变成一种强大的武器。最令人担忧的是,它最终可能会成为一个失控的系统,即使是触发它做某事的人也无法阻止它。我想知道你对每种情况的看法。

苏茨克维:好的,你提到了三种风险的可能情景,经济混乱、黑客、超级AI(AI失控)。首先,经济混乱确实会发生,我们已经看到了有些工作正在受到影响。部分工作是被正向影响的,如果你是一名程序员,你则不用再亲自编写函数。然而,如果你是一名艺术家,情况就有点不同了,因为艺术家很大一部分的经济活动已经被一些图像生成器占据了。确实,AI的发展虽然会创造新的就业机会,但不否认这会导致一个长期的经济不稳定时期。我们需要想办法减轻打击,能够更平稳、顺利地迎来全新的职业。

关于“黑客”,这是一个棘手的问题。事实上,AI将是强大的,它可能被不良行为者以强大的方式使用。因此我们要效仿在使用其他非常强大和危险的工具时采取的措施,给AI制定一个类似的框架。我们不是在谈论如今的AI,我们谈论的是随着时间的推移,能力不断增加,不断发展到一定程度的AI。到了这一步,它可用于惊人的应用程序,也许可以包治百病。但另一方面,也可以创造一种比以往都更糟糕的疾病,后果不堪设想。因此,我们需要一个适当的框架来控制AI技术的使用。

AI失控将是非常糟糕的,因此,建造一个我们不知道如何控制的超级智能将是一个巨大的错误。

阿尔特曼:我非常同意最后一句,这点没有什么补充。但关于经济方面,其实很难解释将会如何发展。现在世界上有太多过剩的需求,而这些人工智能系统非常善于帮助完成任务。目前从短期内看来,大多数工作结合AI的结果是不错的。这将是一个巨大的生产力增长,如果你能让程序员的生产力提高两倍,那么世界需要的代码量就会增加两倍以上。所以一切都很好。

从长远来看,我认为这些系统将会做越来越复杂的事情和工作类别。一部分工作会消失,但另一部分工作会很需要人类。举个例子,当深蓝击败卡斯帕罗夫时,世界第一次看到了人工智能。每个人都说,象棋彻底完了,没有人会再下棋了,因为它不好玩了。事实上,国际象棋从未像现在这样受欢迎。人类的棋技越来越好了,期望值也提高了。我们可以用这些工具更好地学习,人们也仍然很想玩。所以这种发展是特别的和有价值的。

以国际象棋为例,人们观看人类下棋的次数比以往任何时候都多,因为没有多少人喜欢看两个AI互相比赛。所以我认为这些事情的发展很难预测。人类渴望与众不同,创造新事物,获得某种地位,我认为这不会有任何改变,但AI会以某种方式真的做出改变。我敢打赌,100年后的大多数工作看起来几乎和今天的工作完全不同,也许有些会相似。但无论发生什么,随着自动化达到迄今为止无法想象的高度,我们都需要某种不同的社会经济契约。




有效监管的必要性


主持人:好的,谢谢。山姆,你最近签署了一份请愿书,呼吁严肃对待来自AI的生存威胁。我想知道,你是否认为我们人类以及像OpenAI这样的公司应该采取某些措施来解决这个问题。

阿尔特曼:我认为现在对该领域进行严格监管或者试图减缓创新是错误的,我们也许可以谈谈正在发生的好处。当然,我们不想制造超级AI,这无可争辩。但是世界不应该将其视为永远不会出现的科幻风险,这可能是我们在未来十年不得不面对的事情,对于世界机构来说,适应某些事物的时间并不长。
所以我们贡献了一个想法,如果我们能有一个全球性的组织,在最高端,在计算能力和技术的前沿,可以有一个框架来许可模型,审计它们的安全性,提出需要通过的测试,这会有帮助。这是将其视为非常严重风险的一种方式,就像我们对在核能方面做的措施一样。


AI与科学发现


主持人:让我们谈谈好处吧。关于AI在科学发现中的作用,你有没有一些预测或想法?

阿尔特曼:这是我个人关于AI最兴奋的事情。我认为到处都会发生震撼的、美妙的事情,巨大的经济效益、巨大的医疗保健效益。事实上,AI可以帮助我们进行目前无法做到的科学发现,我们可以了解宇宙的奥秘。除此之外,我真的相信科学和技术进步是让生活变得更好、让世界变得更好的唯一可持续方式。人们已经开始使用这些工具来提高效率。但是如果你想象一个世界,你可以说,“嘿,AI,帮助我治愈所有的疾病。”然后它帮助我治愈了所有的疾病,这将是一个更加美好的世界。我认为我们离那不远了。

主持人:好吧,除了疾病之外的另一个主要问题是气候变化。我想知道你的想法是什么,以及AI在这方面的潜在作用,因为你确实提到这是一个潜在的贡献领域。

阿尔特曼:我不想这么说,因为气候变化是一个非常严重、非常棘手的问题。但是我认为对这样的系统来说,拥有一个真正强大的AI来应对气候变化并不会特别困难。

苏茨克维:我们甚至可以解释一下解决气候变化的方法。你需要进行高效的碳捕获来解决大量的二氧化碳。你需要能量来捕获碳,需要技术来构建设备,并且需要构建很多。如果你能加速科学进步,这是一个强大的AI可以做到的,我们可以更快地实现非常先进的碳捕获。它可以更快地获得非常便宜的电力,它可以更快地获得更便宜的制造。

结合这三点,廉价的电力、廉价的制造、先进的碳捕获。我们可以建造很多,然后从大气中吸收所有多余的二氧化碳。这个计划现在想实现有点困难,但如果你有一个极大地加速科学进步和工程发展的AI,它就变得非常简单。
最新!
OpenAI掌门分享未来产品路线图:
GPT-4会更快、更便宜

机器学习和人工智能初创公司Humanloop首席执行官拉扎·哈比比(Raza Habib),5月29日邀请司OpenAI首席执行官萨姆·奥特曼(Sam Altman)以及其他20多位开发者,共同探讨了人工智能的未来。奥特曼非常坦率地分享了OpenAI未来两年的产品路线图,还谈到OpenAI的使命以及人工智能的社会影响等问题。
以下为访谈要点:
1、OpenAI严重受制于GPU短缺
在整个讨论中出现的一个共同主题是,目前OpenAI的GPU供应非常有限,这导致他们推迟了许多短期计划。客户最大的抱怨是API的可靠性和速度。奥特曼承认存在这种担忧,并解释说大部分问题是因GPU短缺所致。

长度为32k的上下文功能还不能推广给更多的人。OpenAI还没有克服相关技术挑战,所以虽然看起来他们很快(今年)就会有100k到1M令牌的上下文窗口,但更大的窗口都需要在研究上取得突破。

微调API目前也受到GPU可用性的限制。它们还没有使用Adapters或LoRa等高效的调优方法,因此调优的运行和管理需要大量的计算。将来会有更好的微调支持。他们甚至可以托管一个社区贡献模型的市场。

专用容量供应受GPU可用性的限制。OpenAI也提供专用容量,为客户提供该模型的私人副本。但要使用这项服务,客户必须愿意支付相当于10万美元的费用。

2、OpenAI的近期路线图

奥特曼分享了他所看到的OpenAI API临时近期路线图。

2023年:

更便宜、更快的GPT-4:这是OpenAI的首要任务。总的来说,OpenAI的目标是尽可能地降低“智能成本”,因此他们将努力随着时间的推移继续降低API的成本。

更长的上下文窗口:在不久的将来,上下文窗口可能高达100万令牌。

微调API:微调API将扩展到最新的模型上,但其确切形式将由开发者真正想要的元素来决定。

支持会话状态的API:当你今天调用聊天API时,你必须反复地传递相同的会话历史,并反复支付同样的令牌。将来,会有一个版本的API可以记住会话历史记录。

2024年:

多模态:这在GPT-4发布时进行了演示,但在更多GPU上线之前不能扩展到所有人。

3、插件“没有PMF”,可能不会很快出现在API中

许多开发人员都对通过API访问ChatGPT插件感兴趣,但奥特曼说他认为这些插件不会很快发布。除了浏览,插件的使用表明他们还没有PMF。奥特曼表示,很多人认为他们希望自己的应用被集成到ChatGPT中,但实际上,他们真正想要的是将ChatGPT引入自己的应用中。

4、OpenAI将避免与他们的客户竞争,除了ChatGPT

许多开发者表示,他们对使用OpenAI API构建产品感到紧张,因为OpenAI最终可能会发布与他们竞争的产品。对此,奥特曼表示,OpenAI不会发布更多ChatGPT之外的产品。他说,许多伟大的平台公司都有自己的杀手级应用,ChatGPT将允许他们通过成为自家产品的客户来改进API。ChatGPT的愿景是成为一个超级智能的工作助手,但还有很多其他的GPT用例是OpenAI无法触及的。

5、监管是必要的,但开源同样重要

虽然奥特曼呼吁对未来的模型进行监管,但他并不认为现有的模型是危险的,认为监管或禁止它们将是一个大错误。奥特曼强调了开源的重要性,并表示OpenAI正在考虑开源GPT-3。他们还没有开源的部分原因在于,他怀疑有多少个人和公司有能力托管大语言模型。

6、缩放定律仍然成立

最近许多文章都声称“巨型人工智能模型的时代已经结束”,但奥特曼表示,这并没有准确地表达他的意思。

OpenAI的内部数据表明,模型性能的缩放定律仍然成立,扩大模型将继续可以帮助提升性能。但这种扩展速度无法维持下去,因为OpenAI在短短几年内就把模型放大了数百万倍,这样做是不可持续的。不过,这并非意味着OpenAI将停止扩大模型,只是意味着它们的规模可能每年只会增加一倍或三倍,而不是以指数级速度增长。

缩放定律继续发挥作用的事实对通用人工智能(AGI)开发的时间线具有重要意义。缩放假设是指,我们可能已经具备了构建AGI所需的大部分要素,剩下的大部分工作将是采用现有方法,并将其扩展到更大的模型和更大的数据集上。如果缩放时代已经结束,那么我们应该期待AGI离我们更遥远。但事实上,缩放定律继续成立的事实强烈地暗示了时间线正变得更短。(金鹿)

来源:腾讯科技


相关文章

为伟大思想而生!

AI+时代,互联网思想(wanging0123),

第一必读自媒体

商务合作、投稿及内容合作,请联系后台小编

271684300@qq.com

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/156229
 
1210 次点击