Py学习  »  chatgpt

ChatGPT化身“AI间谍”:你在网上说的每句话都将被监控

夕小瑶科技说 • 5 月前 • 98 次点击  

夕小瑶科技说 原创
作者 | 撒鸿宇
大多数人使用 ChatGPT 就是用来聊天或者辅助学习、办公。

然而现在一些“间谍软件”公司正在探索如何使用ChatGPT和其他新兴的AI来监视社交媒体上的用户。

其中一家由俄罗斯企业家创立的Social Links的公司正使用 ChatGPT 作为助手,监控着用户在Facebook、Instagram、Twitter和Telegram等平台上的通信。

在巴黎的一场安全展上,Social Links 展示了利用 ChatGPT 进行“情感分析”的功能,通过使用AI评估社交媒体用户的情绪或突出群体中常讨论的话题,帮助预测线上活动是否会演变为实际暴力,以及是否需要采取执法行动。

此前,Meta 在2022年底将该公司列为间谍软件供应商,并禁止了该公司3700 个用来抓取社交网站信息的Facebook 和 Instagram 帐户。

但Social Links否认与这些账户有任何关联,Meta的指控并没有对该公司造成伤害,该公司目前拥有500多个客户,其中一半位于欧洲,100多个位于北美。

AI 可以变得更公正吗?

Social Links 一位分析师举例,他们曾使用AI工具评估了网上对西班牙代理总理最近达成的一项有争议的协议的反应。该AI工具扫描Twitter上包含关键词和标签的帖子,并通过ChatGPT评估它们的情感为积极、消极或中性,然后以交互式图表显示结果。该工具还能够快速总结和剖析主要平台(如Facebook)上的在线讨论,提取常见的讨论主题。

一旦Social Links的工具标记有人在社交媒体上表达“负面”情绪,Social Links也可以搜索面部识别匹配。用户可以选择一张面部照片,使用Social Links 自己的算法在社交媒体上寻找匹配项,从而让警方对个人身份有更广泛的了解。

但塔拉维拉表示,公司不会存储面部图像,而是在网络上搜索匹配项,这类似于在谷歌上进行反向图像搜索,不过Social Links还使用自己的面部识别软件,可以搜索公共社交媒体群组和用户的照片集合。

美国一位高级政策分析师对《福布斯》表示,使用ChatGPT 这样的 AI工具来进行技术上的窃听,可能会放大错误事实和偏见,也可能会让网上的讨论变得冷漠。

因为每个人都可能觉得“他们正在被监视,不一定是被人类监视,而是被AI监视,AI有能力向人类报告你网上所有的痕迹,并给你带来不公正的后果。”

OpenAI对此事没有回应,但ChatGPT 的使用政策表明:不允许将其用来“侵犯他人隐私的活动”,比如“未经个人同意跟踪或监控个人”。

Social Links 表示:

“我们严格遵守 OpenAI 的政策,我们只使用 ChatGPT 来分析文本:总结内容、识别主题、将文本分类为积极、中性或消极,并评估文本中各个要素的情感。”

为了保证AI公正问题,Meta发言人 Ryan Brack 表示:

Meta拥有一个由100多人的团队,专注于打击未经授权的网络爬虫,并有可能对未经授权的抓取者采取法律行动。

AI的“自相残杀”

意大利一位监控公司正在利用其最新的Gens.AI工具可以根据一系列特征创建逼真的人类社交媒体个人资料——不仅可以生成看起来合法的头像,还可以将它们作为自主的AI个体释放到Facebook和Telegram等平台上。该公司声称只要其头像足够逼真,就可以“接近目标并建立信任关系”,并避免被发现,卧底调查人员使用此类虚假个人资料来了解有关犯罪嫌疑人的更多信息。

当你将Social Links和Gens.AI等工具结合起来,就会出现一种非常真实但奇怪的“AI回音室”,其中由一个间谍软件公司制作的AI社交媒体监控软件被用来监控由另一个使用ChatGPT和其他大语言模型创建的AI人物。

或许,这就是AI间谍软件的“自相残杀”吧。

最后,大家在网上发言时,切忌要谨慎,小心AI间谍~

参考资料

[1] https://www.forbes.com/sites/thomasbrewster/2023/11/16/chatgpt-becomes-a-social-media-spy-assistant/?sh=3a922d675cf6

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/164832
 
98 次点击