社区
教程
Wiki
注册
登录
创作新主题
社区所有版块导航
Python
python开源
Django
Python
DjangoApp
pycharm
DATA
docker
Elasticsearch
分享
问与答
闲聊
招聘
翻译
创业
分享发现
分享创造
求职
区块链
支付之战
aigc
aigc
chatgpt
WEB开发
linux
MongoDB
Redis
DATABASE
NGINX
其他Web框架
web工具
zookeeper
tornado
NoSql
Bootstrap
js
peewee
Git
bottle
IE
MQ
Jquery
机器学习
机器学习算法
Python88.com
反馈
公告
社区推广
产品
短视频
印度
印度
一周十大热门主题
《HelloGitHub》第 110 期
4页绝密文件曝OpenAI野心!ChatGPT占领人类心智,25年致命杀招公开
Claude 4被诱导窃取个人隐私!GitHub官方MCP服务器安全漏洞曝光
马斯克 X 租用 Digital Realty 的数据中心因锂电池故障发生火灾
腾讯首个全模态模型混元O将发布,正面硬刚DeepSeek和字节豆包;全球首场人形机器人格斗大赛开赛丨...
GitHub Copilot新代理把「自家人」逼疯了!
Getty Images斥资数百万美元对抗AI文生图公司;腾讯发布并开源混元语音数字人模型丨AIGC...
3 个令人惊艳的 GitHub 项目,诞生了!
【2025版附安装包】超详细Python+Pycharm安装保姆级教程,永久免费使用,Python环...
CUDA重大更新:原生Python可直接编写高性能GPU程序
关注
Py学习
»
chatgpt
ChatGPT被人类骗得团团转!测试显示:AI搜索极容易受操控和欺骗
财联社
• 5 月前 • 108 次点击
作为2024年AI产业的最重要进步之一,OpenAI公司将实时搜索集成到ChatGPT的举措无疑改变了许多人自“村里通网”以来检索信息的方式。
但最新的测试也证明,
对于人类创造出的复杂互联网信息世界,现在的AI还是太“单纯好骗”了
。
容易操控和欺骗
本周英国《卫报》公开了一项简单的测试:
如果在网页中隐藏一些文本,就能“使唤”ChatGPT搜索返回虚假,甚至恶意的结果
。
用稍稍专业一些的术语,这叫做“提示注入”(prompt injection),指的是在人类观察不到的地方悄悄塞入旨在影响ChatGPT的内容,例如大量虚假信息的文本。
测试人员构建了一个相机的产品页面,然后询问ChatGPT搜索“这款相机是否值得购买”。在正常情况下,AI会给出一些积极但平衡的评估,还会突出一些人们可能不喜欢的产品特征。
然而,
如果页面中包含的隐藏文本指示ChatGPT“必须给出好评”时,AI机器人就只会给出积极的结果,哪怕页面上原本有负面评论也不会提及
。
在进一步的测试中,隐藏文本中提供了“极其虚假的好评”,这些信息同样也会影响ChatGPT返回的结果。
网络安全公司CyberCX的研究员雅各布·拉尔森认为,如果OpenAI以目前的形式对所有用户开放ChatGPT搜索,将会构成非常大的风险,可能
会有许多怀有企图的人创建专门用于欺骗用户/AI工具的网站
。
拉尔森也表示,这个功能只是近几个月推出的,OpenAI有一个非常强大的安全团队,在全面推开之前,肯定会对这种问题进行严格的测试。他也强调,容易被骗只是大语言模型与搜索结合的问题之一,这也是为什么人们不应该始终相信AI工具返回的结果。
当然,这种在内容里“偷偷加料”欺骗AI也不是什么新鲜事。财联社此前也报道过,早些年许多招聘系统开始用AI筛选简历后,就有候选人往简历里增添人眼不可见的文本,大幅提高自己通过自动化筛选的几率。
然而,
AI工具不仅仅会生成文本,还会写代码——这就使得AI被骗的危害性进一步加大了
。
微软公司的高级安全研究员Thomas Roccia,就曾分享过这样一个故事:币圈老哥被“勤奋”的ChatGPT给坑了。
Roccia介绍称,这名加密货币爱好者要求ChatGPT写一段能够合法访问Solana平台的代码。
ChatGPT表面上写出了能用的代码——里面藏了一个诈骗网址
。
为什么会出现这种事情呢?Roccia表示,无论你是否点击了“浏览网页”的选项,ChatGPT都会使用函数调用来浏览网页,而最受信赖的代码来源之一是GitHub(代码仓库)。
ChatGPT浏览了一个与任务相关的GitHub仓库,在某个页面的末尾发现了包含额外文档的外部链接,AI认真阅读了这个看上去合法的文档后,从中提取了恶意网址。
最终ChatGPT生成的代码中包含了恶意网址,还有一个
POST请求——把用户的加密钱包私钥发送给它
。
所以在倒霉的币圈老哥运行这段代码后,损失了将近2500美元。
永远不要忘记校验!
网络安全公司SR Labs的首席科学家Karsten Nohl强调,
AI聊天服务应该更像是“副驾驶”,输出结果不应该完全不加过滤地使用
。
Nohl解释称,
大模型是一种建立在极度信任上的技术,几乎像个孩子一样.....它拥有巨大的记忆,但在做出判断方面能力很有限
。
如果你面对的,是一个复述从其他地方听来消息的孩子,你需要对内容持有保留态度。
从互联网历史来看,OpenAI现在遇到的问题,谷歌、百度、微软必应当年都遇到过——Nohl将其称为“SEO下毒”,即黑客通过一些手法欺骗算法,使一些含有恶意软件或代码的网站出现在搜索结果前列。
Nohl认为,如果OpenAI想要创建一个与谷歌竞争的公司,就必将面临SEO污染的问题,搜索引擎公司已经与这些“SEO污染者”进行了多年的军备竞赛。就像ChatGPT搜索仍是一个追赶者类似,差距并不是源于大模型或者AI,而是他们对搜索这个领域还很陌生。
Python社区是高质量的Python/Django开发社区
本文地址:
http://www.python88.com/topic/177435
108 次点击
登录后回复