ai 遇上光速,nvidia的bill dally和google的jeff dean在gtc 会上聊起了未来

AI遇上光速,NVIDIA的Bill Dally和Google的Jeff Dean在GTC会上聊起了未来。大家都来了,现场特别热闹。Bill是NVIDIA的首席科学家,Jeff不仅是DeepMind的头头,也是Google Research的首席科学家。他俩搞的工作把大规模机器学习带向了现在的样子。这次聊天跟一般的座谈不一样,更像是一场深度学习的即兴演奏会。他们讨论了AI模型怎么发展,也聊了为啥现在硬件架构和AI进步绑得那么紧。Bill跟Jeff DeanDean一开始就说了,模型能力进步飞快,特别是在像数学和编程这种能给出明确答案的领域。以前很多难题现在都能搞定了,连智能体的工作流程都不用人插手就能跑好几天。这就让AI系统变了个样,不再是光等着人下命令的工具,成了在后台一直干活的聪明帮手。Dally说这种变化把延迟问题推到了大家眼前,速度成了智能体大规模运作的头等大事。他说现在拖后腿的主要不是计算本身,而是通信里的数据来回传递。不管是层与层之间的交换、片外访问还是导线上的移动,都耗时间也费电。NVIDIA的做法是往“光速”设计上使劲:减少路由麻烦、不用排队等数据跑远路。 往后看的时候,俩人不约而同盯上了一个词:协同设计。大突破得靠机器学习的人和系统架构师坐在一起好好来回切磋。Dean也觉得有时候给芯片加个小功能实验就能带来大好处,硬件性能能提升十倍甚至二十倍呢。