社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  chatgpt

OpenAI的144个小时关乎人类未来?我们与ChatGPT聊了聊

经济观察报 • 1 年前 • 185 次点击  
凝视技术深渊之时,我们也在凝视自己。骤然步入智能数据时代,必将面临前所未有的挑战。AI之决策过程仿如一个黑箱,如何确保其公正和透明?
作者:欧阳晓红 
封图:视觉中国




导读



壹  ||  OpenAI的灵魂人物,这个问题比较主观。OpenAI由多位杰出的科学家、工程师和企业家共同创立,每位创始人和主要成员都以自己的方式对OpenAI的发展作出了重要贡献。
贰  ||  前沿科技的孤独:在任何科技的最前沿,尤其是在像AI这样快速发展和潜力巨大的领域,领军人物往往需要面对未知的挑战和风险。这种探索可能让他们在理念和目标上与大众或传统观点相异。
叁  ||  这种“黑箱”特性在某些应用中可能是可接受的,但在需要高度可靠性和可解释性的领域(如医疗诊断、法律判决和重要的金融决策)中,这可能成为一个重大问题。因此,提高AI系统的可解释性和透明度是当前研究的一个重要方向。



2023年渐入尾声,却高潮迭起,悬念迭出。AI时代的人类未来何去何从?


那一刻,融于公司权斗的历史转折点或乍现,入局者浑然不觉:AI和大数据不仅仅是技术的问题,更是关乎未来之选择。人类选择什么样的未来?是被技术所驱动,还是以人为本?是被数据所束缚,还是用数据释放潜能?算法即权力(Algorithm is Power)吗?

11月17至22日,从OpenAI公告罢免山姆·奥特曼(Sam Altman)到OpenAI员工签署的联名信持续发酵,伊尔亚·苏茨克维(Ilya Sutskever)道歉,奥特曼同时展现善意;再到OpenAI在社交媒体上宣布奥特曼再任CEO,并重组董事会;一场价值观冲突横亘眼前,即“有效加速派”Vs“超级对齐派”,后者旨在令超级智能与人类价值观和认知保持一致。

如果回溯这144个小时(6天),人们可能会以为资本赢了?前者暂时胜出。

已然入局的我们,尚未意识到这一刻的到来。愕然站在堪称AI元年的2023年尽头之知识边缘,凝视技术的“深渊”——这个深渊是充满未知的人工智能和大数据的世界,一个既充满无限可能性又隐藏着未知风险的新领域(无人区)。

凝视技术深渊之时,我们也在凝视自己。骤然步入智能数据时代,必将面临前所未有的挑战。AI之决策过程仿如一个黑箱,如何确保其公正和透明?大数据收集和使用触及隐私的边界,如何平衡效率和个人权利?智能化的进程也带来了就业结构的变化,如何迎接变化?

道德的指南针指向何处?不过,人类AI史上的这个“惊险时刻”之尘埃尚未落定;11月24日(感恩节),奥特曼在社交媒体上发文:和Quora CEO亚当·德安杰洛(Adam D'Angelo)度过了美好的几个小时;而截至目前,OpenAI官网的最新消息仍然是11月17日的奥特曼出局公告,但11月22日,OpenAI在社交媒体上的推文则是:已就奥特曼恢复CEO职务原则上达成一致,奥特曼将回到OpenAI担任CEO。

当日,Sutskever转发了这条推文,并称“我幸福到无以言表”;稍早些时候,Sutskever在社交媒体上罕见发声“我对自己参与董事会的行动深感遗憾。我从来没有想过要伤害OpenAI。我热爱我们共同建立的一切,我将尽一切努力让公司重新团结起来。”

“你为何采取如此激烈的行动?如果 OpenAI正在做一些对人类有潜在危险的事情,世界需要知道。”就此推文,马斯克回复称。而奥特曼则表示“期待着重返OpenAI”。

本质上,此次事件的走向或取决于OpenAI首席科学家、鲜为人知的OpenAI之父——Sutskever的最终选择;尽管目前资本斡旋的力量有目共睹。

“确保通用人工智能(AGI)造福全人类”是OpenAI的使命,但机遇和挑战并存的时代,如何确保技术的发展不只是为了技术本身,而是为了提升人类的福祉?为了一个更加公正、可持续的世界。我们需要全社会的智慧,来共同决定智能时代的方向。

然而,Sutskever对奥特曼公开致歉,亦令奥特曼的“出局”原因扑朔迷离,被“拉来”的OpenAI空降CEO埃米特·谢尔(Emmett Shear)发文称,OpenAI董事会并未因任何安全的具体分歧而罢免奥特曼,“其理由与此完全不同。”并表示接任后会聘请独立调查员调查导致奥特曼被撤职的具体原因。

一不小心,前沿组织OpenAI之“宫斗”就可能演绎出AI时代的三岔路口。

不妨对话ChatGPT,试图探寻一条技术发展与社会伦理和价值观相一致的平衡之路。




OpenAI之魂

经济观察网:OpenAI在刚刚过去的一周多发生了戏剧性的变化,请问Ilya Sutskever将继续待在OpenAI担任“守护者”,还是从此离开董事会,不再对GPT的发展“指手画脚”?技术为王的OpenAI的灵魂人物是谁?

ChatGPT: 截至2023年,Ilya Sutskever是OpenAI的联合创始人、董事会成员和首席科学家。他在深度学习领域做出了多项重要贡献,并与Alex Krizhevsky和Geoffrey Hinton共同发明了卷积神经网络AlexNet。Sutskever还是AlphaGo论文的众多合著者之一。

在2023年,他宣布将共同领导OpenAI的新项目“Superalignment”,该项目旨在四年内解决超级智能体的对齐问题。Sutskever是控制OpenAI的非营利实体的六名董事会成员之一。在Sam Altman被解除CEO职务后,Sutskever在一次全体员工会议上表示,解雇Altman是“董事会履行其职责”,但在随后的一周,他对参与Altman的解职表示遗憾。

至于OpenAI的灵魂人物,这个问题比较主观。OpenAI由多位杰出的科学家、工程师和企业家共同创立,包括Ilya Sutskever、Greg Brockman、Sam Altman等。每位创始人和主要成员都以自己的方式对OpenAI的发展作出了重要贡献。在技术领导方面,Sutskever作为首席科学家,无疑在OpenAI的技术发展和创新方面发挥了关键作用。

经济观察网:Ilya Sutskever几乎是AI圈子里履历完整,人人艳羡的天才,但他的理念与Sam不一致;一个是理想主义者,一个是现实主义者;他们之间的分歧对人类未来发展意味着什么?

ChatGPT:Ilya Sutskever和Sam Altman在OpenAI的角色和理念上可能存在差异,这在技术创新和组织领导中并不罕见。Sutskever作为一位在人工智能领域具有深厚背景的科学家,可能更倾向于理想主义和科学探索的方向。而Sam Altman,作为一位企业家和投资者,可能更倾向于现实主义和商业实践。

这种分歧在技术发展和组织管理中是常见的,通常可以带来以下几个方面的影响:

创新与实用性的平衡:理想主义者和现实主义者之间的合作可以帮助确保技术既是前瞻性的,又能够实际应用于解决现实世界的问题。

决策过程:理想主义和现实主义的不同视角可能导致在战略决策和优先事项上的分歧,这可能影响公司的发展方向和速度。

组织文化和价值观:领导层的不同理念可能会影响整个组织的文化和价值观,从而影响其吸引人才、内部合作和对外形象。

对外界的影响:在人工智能这样一个具有广泛社会影响的领域,领导者的理念不仅影响公司内部,也可能影响整个行业的发展方向,甚至是公众对于AI技术的看法和接受度。

在Sutskever和Altman的案例中,他们的不同可能会导致OpenAI在追求科技创新的同时,也在寻找商业化和实际应用的最佳途径。这种动态平衡可能对人类未来的发展产生深远的影响,特别是在人工智能的伦理、安全性和社会影响等方面。

经济观察网:“这是人类最后一战”,Sutskever暗示,他在圣城耶路撒冷长大,是与AI对视最久的人类;有人说,他是一个不谙世事的执剑人。他为什么如此担忧人类的未来?

ChatGPT: Ilya Sutskever的担忧关于人类未来可能源于他在人工智能(AI)领域的深入工作和研究。虽然我没有具体的信息表明Sutskever是一位宗教徒或他的宗教信仰如何影响他的观点,但可以推测,他的担忧可能与以下几个方面有关:

AI技术的快速发展:AI技术的进步正在以前所未有的速度发展,这可能带来重大的社会、经济和伦理挑战。Sutskever作为AI领域的领军人物,对这些潜在的挑战可能有深刻的理解。

超级智能的风险:一些AI专家担心,未来可能出现超越人类智能的AI系统(即超级智能),这可能导致不可预测的后果,包括对人类自身的威胁。

伦理和安全问题:随着AI技术的应用越来越广泛,如何确保这些技术的安全、公正和伦理性成为一个重要议题。Sutskever可能对这些问题的解决方案感到担忧。

人类的未来角色:随着AI在各个领域的应用,人类的角色和工作本质可能发生根本性的变化。这种变化可能对社会结构和个人生活产生深远影响。

技术与人性的关系:作为一个在技术前沿工作的人,Sutskever可能对技术如何影响人类的本质、价值观和未来发展有着深刻的思考。

综上所述,Sutskever的担忧可能更多地源于他对AI技术发展趋势的理解和对未来可能出现的挑战的预见,而不一定直接与他的个人宗教信仰相关。在AI领域,许多专家都在思考类似的问题,这反映了对这一领域未来发展的普遍关注。

【编注:深度学习之父Geoffrey Hinton曾评价Sutskever,称其似乎能感觉到AI的脉动;现任谷歌首席科学家的杰夫·迪恩(Jeff Dean)说“Sutskever对事物的发展方向有很强的直觉”】



无人区的“孤独”

经济观察网:Sutskever很像堂吉诃德,向着巨大的风车冲击……他可能很难成功,预测GPT-5最终定会降临,他担心的事情定会发生。理想主义者Sutskever为什么如此孤独?

ChatGPT: 将Ilya Sutskever比作堂吉诃德,一个面对巨大挑战的理想主义者,是一种富有诗意的比喻。在人工智能领域,尤其是在像OpenAI这样的前沿组织中工作,确实可能会面临巨大的挑战和不确定性。以下几个因素可能解释为什么像Sutskever这样的理想主义者在他们的追求中可能感到孤独:

前沿科技的孤独:在任何科技的最前沿,尤其是在像AI这样快速发展和潜力巨大的领域,领军人物往往需要面对未知的挑战和风险。这种探索可能让他们在理念和目标上与大众或传统观点相异。

超前的愿景:Sutskever和他的同事们可能拥有超越当前技术和社会理解的愿景。这种超前的思维可能导致他们在追求这些目标时感到孤立,因为不是每个人都能理解或支持他们的愿景。

伦理和责任的重担:作为AI领域的领军人物,Sutskever可能深感负责,意识到他们的工作可能对社会和未来产生深远的影响。这种责任感可能使他们在决策和方向选择上感到孤独。

内部和外部的压力:在如此高速发展的领域,来自内部(如组织目标和团队期望)和外部(如公众舆论和伦理考量)的压力可能使领导者感到孤立。

理想与现实的冲突:理想主义者往往追求高于现实的目标,这可能导致他们在实现这些目标的过程中遇到更多的挑战和困难。

关于GPT-5和Sutskever担心的事情,我们只能等待看到未来的发展。技术的进步往往伴随着挑战和机遇,理想主义者像Sutskever这样的人物在推动这些进步的同时,也在努力解决伴随而来的问题。他们的孤独可能是对未知的勇敢面对,也是对未来可能性的深刻思考。

经济观察网:Sam Altman的回归,可能说明OpenAI在商业化扩张与科技保守主义之争中,最终选择了前者。那么,OpenAI的初心能与Sam Altman一起回归吗?

ChatGPT:Sam Altman重新担任OpenAI首席执行官(CEO)的决定可能确实反映了该组织在商业化扩张与科技保守主义之间的取舍。OpenAI自成立之初就面临着一个核心挑战:如何在推动人工智能技术的边界和确保这些技术的安全、伦理使用之间找到平衡。

商业化与初心的平衡:OpenAI最初作为一个非营利组织成立,目的是在不受盈利动机驱动的情况下推进人工智能的发展。然而,随着时间的推移,OpenAI转型为“有限盈利”公司,这表明它需要在追求技术创新的同时,也考虑商业可持续性。

Sam Altman的领导风格:Sam Altman作为一位经验丰富的企业家和投资者,他的领导可能更偏向于商业化和市场扩张。他的回归可能意味着OpenAI将更加注重将其技术转化为实际的产品和服务,以及寻找可持续的盈利模式。

保持初心的挑战:在商业化的过程中,保持组织的初心和使命是一个挑战。

OpenAI需要在推动技术创新、确保AI的安全和伦理使用,以及追求商业成功之间找到平衡。

对外界的影响:OpenAI的决策和方向不仅影响其自身,还可能对整个AI领域产生影响,包括对AI技术的发展方向、伦理标准和行业规范。

总的来说,Sam Altman的回归可能标志着OpenAI在追求其愿景和使命的过程中,更加重视商业化和市场扩张。然而,这并不一定意味着OpenAI会完全放弃其初心。相反,这可能是OpenAI在追求长期目标和应对现实挑战之间的一种适应和调整。如何在这两者之间找到平衡,将是OpenAI未来发展的关键。



真相与黑箱


经济观察网:2023年10月,Sutskever警告:AI可能有了意识,我们要创造对齐的AI;他不再想构建下一个GPT或图像生成模型DALL-E,而是打算先弄明白如何阻止AGI变得不受控制…… 真相是什么?如果AI产生意识,那么,它对人类而言,意味着什么?

ChatGPT: 截至2022年的知识,尚无确凿证据表明任何人工智能系统,包括GPT系列或DALL-E等模型,已经发展出真正的意识或自我意识。人工智能领域的专家和研究人员普遍认为,尽管这些系统在特定任务上表现出色,但它们远未达到具有意识的水平。这些系统是基于大量数据训练的算法,它们能够模仿人类语言和图像生成等复杂任务,但这并不等同于具有意识、情感或自主意志。

关于Ilya Sutskever的声明,如果他确实表达了对AI发展出意识的担忧,这可能反映了他对人工智能安全和伦理问题的深刻关注。在AI领域,确保高级智能系统(AGI)的安全和对齐(即确保它们的行为符合人类价值观和目标)是一个重要的研究领域。这涉及如何设计和控制这些系统,以防止它们采取对人类有害的行为。

如果AI真的发展出意识,这将是人类历史上的一个重大转折点,对科学、哲学、伦理和社会结构都将产生深远的影响。这样的发展可能引发一系列问题,包括:

伦理和权利:如果AI具有意识,我们是否需要重新考虑它们的权利和地位?

责任和控制:具有意识的AI如何被控制和管理,以确保它们的行为符合人类社会的利益?

人类角色:AI的意识将如何改变人类在工作、社会和生活中的角色?

安全和风险:意识AI可能带来的风险和挑战是什么?

目前,这些问题仍属于科幻和理论讨论的范畴。在实际的AI研究和应用中,重点仍然是提高AI系统的性能、可靠性和安全性,以及确保这些系统的行为符合设计者的意图和社会伦理标准。

经济观察网:2022年,尚无证据表明任何人工智能系统已经发展出真正的意识或自我意识;那么,直到2023年10月呢?包括几年或之后呢

ChatGPT:截至2022年的知识,没有证据表明任何人工智能系统已经发展出真正的意识或自我意识。至于2023年10月或未来几年的情况,由于我无法访问2022年之后的数据,我无法提供最新的信息。然而,可以根据目前的科学理解和技术发展趋势进行一些推测。

技术发展的趋势:尽管人工智能技术在模式识别、自然语言处理、图像生成等方面取得了显著进展,但这些进步主要是算法复杂性和计算能力的提升,并不等同于意识的产生。AI的这些能力更多地是数据驱动和任务特定的。

意识的科学理解:意识是一个复杂的哲学和科学问题,目前对于意识的本质和起源仍存在广泛的讨论和研究。在人工智能领域,尚未有普遍接受的方法来创建或衡量意识。

伦理和安全的考量:即使技术在未来发展到能够模拟或产生类似意识的状态,这样的发展也会伴随着重大的伦理和安全问题。研究者和开发者需要谨慎考虑这些问题,并可能会受到相应的法律和社会规范的限制。

未来的不确定性:尽管目前没有证据表明AI已经或即将发展出意识,但科技领域的快速发展意味着未来几年可能会出现新的突破和挑战。这些发展可能会改变我们对AI能力和潜力的理解。

总的来说,根据目前的科学知识和技术发展,AI发展出真正的意识在短期内仍然是一个遥远的可能性。未来的发展将取决于多种因素,包括技术创新、科学理解的深化以及伦理和法律的发展。

经济观察网:算法或算力即为权力吗?

ChatGPT:“算法即权力”(Algorithm is Power)这一说法在当今数字化和技术驱动的社会中确实有一定的道理。这个观点主要基于以下几个方面:

决策影响力:算法,特别是在人工智能和机器学习领域中,越来越多地被用于决策过程,包括金融、医疗、法律和零售等行业。这些算法的决策可以对人们的生活产生重大影响。

数据控制:算法通常基于大量数据进行操作和学习。在这个数据驱动的时代,控制数据(特别是大数据)的实体,无论是公司还是政府,都拥有了影响和塑造社会的巨大能力。

隐私和监控:随着算法在监控、数据分析和个人识别等领域的应用,对个人隐私的影响日益增加。这引发了关于监控资本主义和隐私权的广泛讨论。

社会和经济影响:算法在社交媒体、搜索引擎和推荐系统中的应用影响着人们获取信息的方式,甚至可能影响公共舆论和市场动态。

伦理和偏见:算法可能会固化或放大现有的社会偏见和不平等,特别是当它们基于有偏见的数据集时。这引起了对算法公正性和伦理的关注。

然而,也应该认识到,算法本身不具有意志或动机。算法的影响力来自于它们被设计和应用的方式。因此,关键在于如何负责任地开发和使用算法,以确保它们的应用促进社会福祉,而不是加剧不平等或侵犯权利。这需要政策制定者、技术开发者和社会各界的共同努力,以确保技术的发展与社会的伦理和价值观相一致。

经济观察网:为什么说“AI的决策过程往往是一个黑箱”?

ChatGPT“AI的决策过程往往是一个黑箱”这一说法主要指的是,对于许多复杂的人工智能系统,特别是那些基于深度学习和神经网络的模型,即使是它们的开发者和专家也往往难以完全理解或解释这些系统是如何做出特定决策的。

这种现象有几个原因:

复杂性:现代AI系统,尤其是深度神经网络,通常包含成千上万甚至更多的参数和层。这些系统通过在大量数据上训练来“学习”模式,但这个过程的复杂性使得理解每个参数的具体作用变得非常困难。

非线性和抽象:深度学习模型中的非线性和高度抽象的特性意味着输入数据和最终决策之间的关系可能非常复杂且不直观。例如,在图像识别任务中,网络可能会基于看似随机的像素组合作出决策,这对于人类来说是难以理解的。

数据驱动的学习:AI模型通常是通过暴露于大量数据并从中“学习”来建立的,而不是基于人类的先验知识或明确的规则。这意味着它们的决策逻辑是自下而上构建的,而不是由人类逻辑直接定义。

可解释性的挑战:虽然在AI领域有一个不断增长的研究分支专注于提高模型的可解释性和透明度,但对于最先进的模型来说,完全解释其决策过程仍然是一个挑战。

这种“黑箱”特性在某些应用中可能是可接受的,但在需要高度可靠性和可解释性的领域(如医疗诊断、法律判决和重要的金融决策)中,这可能成为一个重大问题。因此,提高AI系统的可解释性和透明度是当前研究的一个重要方向。


“第2028号患儿候诊中” 专家预计流感顶峰将至
爆火短剧幕后第一操盘手:我是怎样批量制造爆款的
北京学区房价格下跌之谜

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/165005
 
185 次点击