ai 技术把恶意黑客识别匿名社交媒体账号的过程变得轻而易举

AI技术把恶意黑客识别匿名社交媒体账号的过程变得轻而易举。丹尼尔·帕莱卡(Daniel Paleka)和西蒙·勒曼(Simon Lermen)这两位AI研究员表示,这种AI技术让执行复杂的隐私攻击成本降低,大家得重新考虑在线隐私。他们的研究发现,AI的大语言模型比如ChatGPT这样的平台可以通过用户发布的信息轻松识别匿名账号。实验中研究人员给AI输入匿名账号,让它抓取所有可能的信息。他们假设一个例子:用户在学校遇到困难,还带着狗Biscuit穿过Dolores公园。AI就把这些细节搜索出来,高度确信地把@anon_user42和已知身份匹配起来。尽管这个例子是假设的,但论文作者强调了一些场景,比如政府利用AI监控匿名发帖的异议人士或活动家,或者黑客发起个性化诈骗。研究还发现一个问题就是大语言模型在链接账号时经常出错。彼得·本特利(Peter Bentley)教授说人们可能会被指控他们没做过的事情。Marc Juárez教授提到一个担忧:大语言模型还可以使用社交媒体以外的公共数据来去匿名化。在这种情况下医院记录和录取数据可能达不到足够高标准的匿名化要求。爱丁堡大学网络安全讲师Marc Juárez教授说这个发现相当令人震惊,认为这篇论文表明我们需要重新考虑我们的做法。Marti Hearst教授也提到这些技术并不完美,它们只能在用户在两个平台分享相同信息的情况下建立链接。但尽管如此科学家们依然要求大家重新思考如何在AI世界中匿名化数据。Lermen建议平台限制数据访问作为第一步:比如实施下载速率限制、检测自动抓取还有限制批量导出数据。但他也指出个人用户也应该更谨慎地分享自己的信息。公众成员在网上随时可以获得的信息已经可以直接被滥用进行诈骗攻击了。鱼叉式网络钓鱼和冒充可信朋友让受害者点击恶意链接也是常见的问题之一。只要黑客访问公开可用的语言模型和互联网连接就可以执行复杂攻击。Bentley教授担心如果去匿名化产品推出商业用途可能会有问题。 Lermen和Paleka的研究表明在线隐私需要被重新评估,比如把用户发帖内容输入大语言模型就能识别出真实身份。 例如某个用户提到学校遇到困难还带着狗Biscuit穿过Dolores公园这样的具体细节时就会被AI轻易识别出来。 黑客如果能利用这些技术可以发起高度个性化的诈骗甚至是政府监控异议人士。 同时政府可能利用AI技术监控匿名发帖的异议人士以及活动家也会引起担忧。 此外还要注意大语言模型在链接账号时经常出错会导致无辜者被错误指控。 还有一个值得注意的点是大语言模型还可以使用社交媒体以外的公共数据来去匿名化比如医院记录录取数据等。 因此Marti Hearst教授认为这项技术并不完美只能在特定情况下建立链接。 科学家们现在呼吁机构和个人重新思考如何在AI世界中匿名化数据来防范这些风险问题。 为了防止这种情况发生Lermen建议平台限制数据访问比如实施下载速率限制检测自动抓取还有限制批量导出数据等措施。 此外个人用户也要注意保护自己不要在不同平台分享相同具体细节来减少被去匿名化的风险几率。