微软搞出了个新的机器人模型,这玩意儿把人工智能跟物理世界凑到了一块。虽然现在AI在说话和看照片这些事儿上干得漂亮,可真正拿把它们扔到复杂的地方让它们自己干活,往往就有点费劲了。传统的机器人大多靠着写死的流程来跑,一旦遇到环境变了或者不可预测的事儿,它们就傻眼了。这不仅让它们在工厂里或服务行业里没法大展身手,还让人和机器人合作变得特别死板和不灵活。 为了破这个局,微软研究院搞了个新的智能模型。这个模型把看和听、摸这些功能结合在了一起,让机器人能自己根据实时的情况来改动作,动作也变得更准、更听话了。而且它还能边跑边学,要是有人指导它一下,它就能变得越来越聪明。行业现在越来越想要机器人能自己动、自己想事了。 制造业升级、服务业变数码这些事儿都在加速进行,机器人在物流、医疗还有家里干杂活这些地方的用场越来越大了。但老路子的机器人太依赖精准的环境控制和一大堆人工编程了,根本没法满足大家那些五花八门的需求。微软这次弄的模型就是想用仿真数据、真场景演示加上大量的训练数据来解决训练材料不够、适应能力差这些老问题。 这个模型可能会从这三方面推动产业改变:一是让机器人在乱糟糟的环境里也能自己当家作主,少让人操心;二是通过看、听、摸这些感觉还有一直学习的机制,让人和机器人配合得更顺手更安全;三是给造机器人的厂家还有做系统集成的人提供一种好用的开发工具。微软还说以后还要加上力气感应这些功能。 展望未来,把人工智能跟物理系统捏合到一块儿已经成了科技界竞争的重点了。等到看东西、做决定和干活这一套全成熟了,机器人说不定就能从那种单纯的辅助工具变成真正的帮手了。不过要把这个技术推广开去也不容易得很。行业除了要搞技术创新外,还得跟其他行业的人多合作、定规矩才行。 从电脑上的模拟到真刀真枪的互动,人工智能正在慢慢跨过虚拟和现实那条线。微软这次的探索不光是给机器人提了个醒也说明了科技公司想让智能技术变成能带动实体经济的那种长期打算。在智能化这股浪潮铺天盖地的时候,怎么样才能让技术更好地帮咱们干活、过日子还得靠产业、学界还有大家一起努力去找平衡点才行。