李开复和余秋雨以前写的文章突然又火了,大家都在传看,说这个能教我们独立思考。我看了两眼就不看了,感觉满篇都是说教味。 结果昨天我看了个新闻,真的惊呆了。2026年3月5日,数据机构发了个报告,说短视频平台上有个情感主播的直播间,里面95%的评论都是AI机器人发的。这些AI会跟着弹幕里的关键词回复,比如“抱抱姐姐”、“这男人不分手留着过年”之类的话,搞得直播间特别热闹,引诱真人用户刷礼物。 这些操作不就是李开复和余秋雨以前文章里举的例子吗?现实情况更可怕,现在的AI能批量生产情绪化的回应,专门用来骗人。在这种情况下,还在教我们用一张A4纸分左右两边写下天使和恶魔的观点来思考,简直就是在战场上递给我们一把绣花针。 这种文章简直就是安慰剂。它告诉我们要独立思考,可它自己的论据却都是几十年前的旧闻,完全脱离现在的现实。 大家传这篇文章的人本身可能就不独立。那些转发的朋友圈里充满了“醍醐灌顶”的感叹号,大家都在同一平台转发这种文章。 真正的独立思考不是这么简单的了。现在我们面对的是生成式AI和推荐算法,它们能让我们永远活在自己的信息茧房里。我们需要学会识别“叙事陷阱”,知道是谁、在什么场景下、用什么故事来说服你。 那篇文章就是个典型的例子:它用余秋雨可以几年不看新闻的特权感来包装概念,目的可能就是为了流量转化或者自我感动。 当你看完这篇文章觉得自己学到东西的时候,你可能什么都没学到。但如果感觉到荒谬或者愤怒,恭喜你,真正的思考才刚开始呢。