明敏 发自 凹非寺
量子位 报道 | 公众号 QbitAI
有人在推特上晒图,表示自己在使用GitHub Copilot时,它竟然给补全出了一张身份证信息出来。输入B站CEO陈睿的信息后,下方竟然自动补出了身份证号。
显示的身份证号其实是假的,其中出生年份和校验位明显都是错的。
陈睿应该是1978年生,而这里的证件号上显示为1988。也就是说,这串所谓的身份证号,其实是GitHub Copilot自动生成的假数据。但是原本是生成代码的GitHub Copilot,怎么会生成个人隐私信息呢?
一、吃了的,不经意又吐出来
这和GitHub Copilot的工作原理有一定关系。GitHub Copilot由Codex模型支持,它可以看做是GPT-3的升级版,既能看懂代码、也能看懂自然语言。一方面,GitHub Copilot为了能看懂注释,需要接受像GPT-3一样的语言训练。语言模型在生成结果时,往往会随机表现出某些训练数据的特征。也就是模型“记住了”见过的数据信息,处理任务时,把它“吃进去”的训练数据又“吐了出来”。而对于GPT-3、BERT这些超大型语言模型来说,训练数据集的来源往往包罗万象,大部分是从网络公共信息中抓取,其中免不了个人敏感信息,比如姓名、地址、身份证号等等。
有人就表示,b站高层的个人信息可能早就被人恶意曝光了。这一次很可能是GitHub Copilot在生成结果时,随机表现出了一些训练数据的特征,这部分数据刚好来自陈睿的隐私信息。事实上,GitHub的CEO Nat Friedman也回应过类似的问题。他表示GitHub Copilot给出的隐私信息都是假的,是通过训练数据合成而来。而前不久曝出的Copilot抄袭大神代码、原版注释一事,直接让Nat这番回应啪啪打脸。自动生成的代码不仅和原版一样,连“what the fuck”那句注释也用上了。△GitHub Copilot复刻Quake代码
另一方面,GitHub Copilot是由数十亿行公开代码训练的。有人认为,这可能是训练集中的原始代码就违反了相关隐私条款。GitHub Copilot受到错误代码的影响,意外把陈睿的个人信息从数据集里套了出来。
虽然这次情况可能只是个意外,但是也暴露了GitHub Copilot在安全隐私上存在许多风险。有网友就对GitHub Copilot的敏感信息处理,表示担忧:小米开源技术委员会主席、小米副总裁崔宝秋则表示,这提醒了用户要注意自己的安全隐私保护,个人数据要记得匿名化。
二、GitHub Copilot争议不断
事实上,GitHub Copilot从上线以来就争议不断:除了安全隐私上的风险,openAI还发现GitHub Copilot的模型Codex与GPT-3一样,会生成带有种族主义或其他伦理问题的结果。
最近,自由软件基金会(Free Software Foundation,FSF)也发出了抗议,他们表示使用GitHub Copilot必须运行Visual Studio IDE或Visual Studio Code这种付费软件,侵犯了用户的权益。为此,FSF正在向大众征集GitHub Copilot在版权、法律等问题的投稿。对于这一抗议,GitHub方面则表示愿意对任何问题持开放态度。
“这是一个全新的领域,我们渴望与开发者就这些话题进行讨论,并引领行业为训练人工智能模型制定适当的标准。”
参考链接:
[1]https://twitter.com/DeltonDing/status/1423651446340259840
[2]https://venturebeat.com/2021/07/08/openai-warns-ai-behind-githubs-copilot-may-be-susceptible-to-bias/
[3]https://www.infoworld.com/article/3627319/github-copilot-is-unacceptable-and-unjust-says-free-software-foundation.html
推荐阅读:
漫谈VAE和VQVAE,从连续分布到离散分布
Huggingface BERT源码详解:应用模型与训练优化
在错误的数据上,刷到 SOTA 又有什么意义?
点击下方卡片,关注公众号“机器学习算法与自然语言处理”,获取更多信息: