社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  chatgpt

Nature深度调研:1600名研究者如何看待和使用ChatGPT等AI工具

量化研究方法 • 1 年前 • 518 次点击  
2023年9月27日,《Nature》发表了一项针对全球1600多名研究者开展的一项调查结果,询问他们对人工智能(AI)在科研领域应用的看法。一起来看下这些研究者是如何看待AI,以及对AI能做的事情有哪些期望。

原文链接:https://www.nature.com/articles/d41586-023-02980-0

近十年来,涉及AI术语的研究论文在各个领域均有所增加。近期生成式AI取得了快速进展,包括大型语言模型(LLMs),研究者们利用这些模型来帮助总结和撰写论文,提出科学假设或编写代码。有些人还将其应用于其他领域,如构建新的蛋白质结构,提升天气预报的准确性,或做出医疗诊断。

调查结果揭示了研究者眼中AI对科研的积极影响。三分之二的研究者表示AI工具提供了更快的数据处理方式;58%的人认为加快了计算速度;55%的人提到节省了时间和费用。

但也有负面影响,69%的研究者认为,AI工具更多依赖模式识别(而缺乏理解);58%的人认为AI可能加重数据偏倚,55%认为AI更容易被用于造假,53%认为AI的不当使用会导致研究的重现性差。

图. AI对科研的影响(左:积极影响;右:负面影响)

AI在科研中的基本用途

Nature》邀请了2022年最后4个月发表过论文的4万多名研究者,以及Nature Briefing的读者参加调查。受访者分为3个群体:48%的研究者本身参与开发或研究AI,30%的人在研究中使用过AI,22%的人没有在研究中使用过AI。

图. 受访者基本情况

当受访者被问及AI工具在未来十年对自身领域的有用性时,超半数受访者认为“非常重要”或“必要的”。

研究中使用过AI的研究者中,超四分之一的人认为AI工具在未来十年将成为领域内“必不可少的工具”,但仅有4%的人认为AI目前已经是“必不可少的”;47%的人认为AI将“非常有用”。

没有在研究中使用过AI的研究者则表现得没那么兴奋,只有9%的人认为AI工具在未来十年将变得“必不可少”,34%的人认为AI工具将“非常有用”。

图. AI工具对科研的有用性(上:当前;下:未来十年)

ChatGPT对科研的影响

当受访者被询问科研中印象最深刻或最有用的AI工具时,得到最多的结果是ChatGPT及其类似的LLM,紧随其后的是蛋白质折叠工具,如AlphaFold。

另一方面,ChatGPT也是科研中担忧最多的工具。当受访者被问及生成式AI可能产生的负面影响时,68%的研究者担心错误信息激增;68%的人认为会更容易被用于造假,且更难检测出来;66%的人担心会给研究论文带来错误或不准确的信息。

受访者会担心造假的研究、虚假信息以及持续存在的偏倚。例如,美国一个研究小组报告称,当他们要求GPT-4为一系列临床病例提出诊断和治疗建议时,答案会根据患者的种族或性别而有所不同,这可能反映了训练AI的文本存在的问题。

研究者认为,LLMs最明显的好处是可以帮助那些英语非母语的研究者,改善论文的语法和风格,或总结翻译英文文章

图. 生成式AI对科研的影响(左:负面影响;右:积极影响)

在工作中经常使用LLMs的研究者仍是少数。专门研究AI的人中,约28%表示他们每天或每周多次使用ChatGPT;使用过AI(本身不研究AI)的人中,13%表示会经常用ChatGPT;没有在研究中使用过AI的人中,上述比例只有1%。

实际上,LLMs在研究者中最受欢迎的用途是与研究无关的乐趣,如一名受访者使用ChatGPT生成食谱;一部分人会使用AI编写代码、帮助提出科学假设和撰写研究论文。

图. 研究者使用生成式AI的频率和用途(左:使用频率;右:用途)

AI在科研中应用所面临的阻碍

不同群体面临的阻碍似乎有所不同。AI研究人员最担心的是缺乏计算资源、研究资金和运行AI的高质量数据。AI使用人员更担心缺乏熟练的研究者和培训资源,以及安全和隐私方面的考虑。

图. 开发或使用AI面临的阻碍(上:是否存在阻碍;下:阻碍有哪些)

研究者一再表示,科学中不规范使用AI工具可能会导致错误结果、假阳性和研究结果的不可重复,这可能会浪费时间和精力。一些研究者表示,他们担心使用AI会产生低质量研究。

当被问及期刊编辑和审稿人是否能够充分审查使用AI的论文时,受访者存在分歧。在研究中使用过AI的研究者中,四分之一的研究者认为能够充分审查,四分之一表示不能。

图. AI论文的审查质量

一位机器学习领域的研究者说:“一些审稿人可能审查技能不足,我看到很多已发表的论文在方法学上犯了基本的错误。问题的关键在于编辑是否能够找到足够专业的审稿人来审查这些研究。“

文章整理自:Nature.2023;621(7980):672-675.

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/164894
 
518 次点击