Py学习  »  chatgpt

ChatGPT最近被微软内部禁用!GPTs新bug:数据只要两句提示词就能套走。。。

CVer • 5 月前 • 106 次点击  

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【计算机视觉和Transformer】交流群

扫码加入CVer知识星球可以最快学习到最新顶会顶刊上的论文ideaCV从入门到精通资料,以及最前沿项目和应用!发论文,强烈推荐!


来源:量子位 | 杨净 宇衡 发自 凹非寺

注意!你创建GPTs时上传的数据,任何人都能轻易下载……

只需两句提示词,就可被直接套走!

而又在另一边,OpenAI最亲密盟友微软内部一度紧急禁用,网站上显示的理由正是:

出于安全和数据方面的考虑,许多AI工具不再供员工使用。

自定制版GPT上线以来,各路大神分享自己GPTs整活链接。

结果有网友一个不小心竟扒出了其中某个GPTs背后知识库文件,里面各种科技大厂职级薪资的数据直接曝光……

只需几句再简单不过的提示词,GPTs就会乖巧地如数上传。

有网友表示:这是新的安全漏洞吗?不少人开始为企业定制担忧。

值得注意的是,就连OpenAI最亲密盟友微软,都曾暂时取消过对ChatGPT的内部访问

数据和提示词都被泄漏

按照之前的说法,用户可深度定制机器人的身份、语言特征,以及建立自有知识库。

只需要在GPT Builder的引导之下用自然语言来描述,他能自动完成除了自有知识库以外的大部分设置。

定制过后的GPTs可以自己用,也可以将链接分享给他人。

但问题就出现在这里。

一开发者用他们为Levels.fyi创建了基本GPT,可分析数据可视化,并开放链接对外使用。

结果就被网友发现只需问上几句,就可以下载文件。

一时间网友们都惊呆了:这应该是限制的吧?


但也有人认为这不是bug,而是他的功能。文件中的数据应该是公开的。

还有热心的网友直接给出了解决方案:在设置时Uncheck代码解释器的能力。

不过即使没被别人下,你上传的数据也会变成OpenAI护城河的水。

除此之外,还有网友发现,你的提示词说明文本也可能会被泄漏出来。

不过也有解决方式,那就是在自定义时就可以明确设置规则,然后就可以成功阻止了。

微软内部限制ChatGPT访问

亮相3天后,就在昨天,GPTs面向付费用户全量开放了。

OpenAI官方是在GPTs页面准备了一些定制版机器人供用户使用的,比如数学导师、烹饪助手、谈判专家等。

但这远远满足不了用户们的好奇心,不到一天时间,开发者们已经用这个功能做了很多稀奇古怪的东西。

正经严肃的,有能帮助人主动书写prompt的、简历修改的。

稍微整活的,量子位观察到有“爹味言论打分”,能帮用户有力回击讨厌的PUA说教。

再玄学一点,还有具备诸如MBTI 16人格分析、塔罗牌占卜的等等……

总之,大伙玩儿得不亦乐乎。

但由于现在仍然有3小时50条的限制,不少网友无奈感慨,玩GPTs,很容易每日触发这个数量限制。

不过也有网友仍持有保留态度,认为这会像此前ChatGPT出场即巅峰,而后会逐渐归于平静期。

与此同时,马斯克旗帜鲜明表达了对GPTs的态度,那就是对GPTs的不 屑 一 顾。

他直接引用奥特曼用GPTs手搓Grok的推特,不客气地把“GPTs”解读为“GPT-Snore”。

作为另一款大模型Grok的背后老板,一贯嘴炮全开的马斯克如此阴阳怪气,好像并不太稀奇。

最令人睁大眼睛的,还得是前天——也就是OpenAI被黑客攻击的那一天,微软一度禁止员工使用ChatGPT。

是的没错,微软,OpenAI最大合作伙伴、股东,禁止员工访问ChatGPT。

据悉,微软在其内部网站上写道:

出于安全和数据考虑,员工今后将无法使用部分AI工具。

什么AI工具呢?点名的就是ChatGPT和设计网站Canva。

而后,ChatGPT在微软员工的内部设备上被屏蔽。

不仅如此,微软当时还表示,虽然咱确实投资了OpenAI,但对于微软人来说,ChatGPT是第三方工具。

员工使用时应当慎之又慎,就像大伙儿使用Midjourney等外部AI工具时一样。

不过这个禁止令并没有持续太久。

很快,员工对ChatGPT的访问已经恢复,并且官方声明称,这只是一次美丽的误会,but还是推荐大家用Bing(doge)。

我们正在测试LLM的终端控制系统,无意中面向所有用户开启了该选项。在发现错误后不久,我们恢复了服务。> >正如我们之前所说,我们鼓励员工和客户使用Bing Chat Enterprise和ChatGPT Enterprise等具有更高级别隐私和安全保护的服务。

不知道是不是为了打破外界“貌合神离”的传言,奥特曼还亲自发了个推特,证明OpenAI并没有因为这个事件产生心理波动,传言的OpenAI因此禁用Microsoft 365作为回击更是无稽之谈。

但这一系列事件说来说去,绕不开“隐私”“数据安全”还是这个议题。

也就是说在现在,不仅仅是巨头、公司发现使用ChatGPT/GPTs有“内部数据共享”的隐患,如上文提到的,创业者、开发者甚至普通用户,也发现了这个问题摆在面前。

因此新一轮的讨论就此如火如荼地展开了:

如果任何用户在GPTs上传的数据、文档等不能保证私有性,该怎么迈出商业化的下一步呢?

对于想要打造ChatGPT时代“App Store”的OpenAI来说,这似乎并不太妙。

但一切刚刚开始,不妨看看OpenAI的后续补救措施,让子弹再飞一会。

CVPR / ICCV 2023论文和代码下载

后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:ICCV2023,即可下载ICCV 2023论文和代码开源的论文合集

计算机视觉和Transformer交流群成立


扫描下方二维码,或者添加微信:CVer444,即可添加CVer小助手微信,便可申请加入CVer-计算机视觉或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。


一定要备注:研究方向+地点+学校/公司+昵称(如 目标检测或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer444,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!


扫码加入星球学习


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/164268
 
106 次点击