以色列警方日前揭露了一件荒诞的案件,两名来自犹地亚丘陵地区的兄弟被指控,他们通过伪造AI情报欺骗了伊朗特工,结果给自己招致牢狱之灾。这两个人让ChatGPT、Grok和Gemini这些人工智能工具生成虚假军事情报,卖给伊朗情报人员,竟然真的收到了钱。他们靠这笔买卖赚了超过10万新谢克尔,也就是差不多20万元人民币。 这个故事听起来像是荒诞的一幕,两名年轻人用伪造的假情报把伊朗人给骗了。这个骗局成功了,因为AI生成的报告看起来非常逼真。两位兄弟在法庭上提出了惊人的辩护理由,他们认为自己是爱国青年,故意用假情报来欺骗伊朗人,应该获得嘉奖而不是被起诉。 这到底是爱国行为还是犯罪?AI工具正在成为造假的利器。过去要制作一份像样的军事情报需要专业知识和大量人力。现在任何人只要用几分钟时间就能让AI生成足以以假乱真的情报报告。这两名兄弟没有经过国家安全部门的授权,纯粹是个人行为。 以色列国家检察官办公室披露了更多细节:两位兄弟主动联系伊朗情报人员,并声称拥有敏感安全信息。他们利用ChatGPT、Grok和Gemini输入关于以色列军事部署和情报机构动态的关键词,让AI生成看起来非常逼真的报告。这些报告包含数据、时间和地点等详细信息,普通人根本无法辨别真假。 伊朗方面相信了他们的说法并支付了10万新谢克尔(约合20万元人民币),打入了他们的账户。这次交易给他们带来了巨大收益,但却违反了以色列法律中与外国代理人联络并向敌方传递信息的相关规定。律师认为两位兄弟是爱国者,他们故意用假情报误导敌人。 如果是故意用假情报误导敌人,这可能算得上一种信息战手段。然而向敌方传递信息这一罪名的核心并不在于信息本身是否真实,而在于传递这个行为本身。因为一旦与敌方建立了联系渠道就无法控制后续可能发生的事情。敌人可能从沟通方式中获取其他信息,在交易过程中策反当事人还可能用这些假情报反过来制造舆论攻势。 如果这种行为可以被视为爱国行为的话,那任何人都可以打着爱国旗号私自与敌对势力建立联系。现在AI工具正变得低成本地用于情报造假,任何人都可以在几分钟内用AI生成一份足以以假乱真的情报报告。 这个故事给我们带来了思考:如何在利用新技术时保持警惕性?如何区分真正的爱国者和违法犯罪分子?