斯坦福大学学者曾经指出,当下的数字技术还只是在给定的知识框架里搞重组优化,没办法像人类那样从无到有地建构理论体系,它的强项仅仅是在已有范畴内提升效率。这就导致了公众对技术本质的理解出现了偏差,人类总是容易把这种工具能力误读成了具备自主意识的创造行为。 我们观察到,国际科技界最近发布了不少仿真训练和自主决策方面的阶段性成果,这些信号把人们的关注点都给引出来了。有人觉得这东西能帮咱们更好地理解世界、提高社会运转效率,听起来挺让人开心。但也有另一拨人开始担心会不会“技术失控”,或者说人类主体的位置被削弱了,甚至把它跟人类文明能不能存续这种大问题给扯上关系。 这种讨论以前就有过,在书和电影里都能看到那种“技术超过人类”的老桥段,这说明大家对技术发展的心态确实挺复杂的。其实历史告诉咱们,人类文明从来不是靠某一项技术本身就变厉害的,而是靠制度设计和目标规划来驾驭工具。就拿蒸汽机到计算机来说,都是靠人类的设计把它变成了文明的延伸。 现在这种心态的波动已经实实在在地影响到了科技治理的讨论。如果我们把风险渲染得太厉害,可能就会把创新的劲儿给压下去,挡住技术在生产、医疗、教育这些地方发挥作用;但如果完全不管风险也不行,很容易让治理跟不上趟,以后还得花大代价去调整。所以现在好多国家都在琢磨怎么完善伦理规范和立法框架,试着在鼓励探索和划清界限之间找个平衡点。 面对这种情况,咱们得构建一个理性点的公共讨论环境。首先得加强科技伦理教育,让大家能拿科学知识来讨论问题;其次要把多层次的治理体系给健全起来;最后还得加强全球协作。值得一提的是,技术的好坏最终还是看它怎么用、社会管得咋样。以前每次有大突破的时候,社会制度都得跟着改改才行。 未来的走向大概就是技术在数据处理、模式识别这些方面还会继续当工具用,而人类在创造性思维、情感联系这些方面的特长还是会一直保持下去。未来的图景可能是人类定个大方向、技术给个方案来配合着走。在这个过程中,咱们得牢牢守住伦理判断、目标定义这些核心地位。 从石器时代到现在的数字文明,每一次工具革新都逼着咱们重新想想自己到底在这个世界上站哪儿。现在的技术又要到了可能改变生产生活方式的关头了,咱们或许更该回到一个根本的问题上来:怎么让技术更好地承载咱们的智慧和善意?既要进步又得小心谨慎,既要创新又不能丢了传承。