国内的企业刚公布了一套给机器人全身都能用的技术方案,打算让它们以后更好地干活。现在的人工智能可不光在电脑屏幕上耍酷了,开始往咱们看得见摸得着的现实世界里钻,而把数字和物理连起来的“具身智能”,就成了制造业升级的一个关键点。不过说实话,想让机器人在大街上自己走路、干活特别准,并且还能稳稳当当地跑,这在全世界都是个大难题。 好在咱们这边有个叫宸境科技的公司,通过自己琢磨,弄出了一套以“空间智能”为核心的软硬件混在一起用的体系。这体系主要由三大块组成:Insight全自主空间智能相机负责眼睛看东西,TinyNav高性能导航算法库帮脑子做决定,RoboSpatial空间编辑工具链则是用来教机器人怎么干活。这样一来,从怎么看周围环境、到脑子怎么想、再到最后动动手脚执行任务,就成了一条完整的路。 这次发的那台空间智能相机还挺厉害。它里面塞了一个能算10TOPS的NPU处理器,可以直接在机器手臂边边上把地图定位和AI测距这两样活一起干了。这就好比从最开始的数据采集这一步就把效率提上去了。 相机头上装了个188°的大广角镜头,还特别在竖着放了一堆传感器,以前那些死角啊、盲区的问题基本都没了。 至于质量这一块,它能抗住24g的大冲击震动,还能在强光底下看清东西,哪怕是在工厂那种脏脏乱乱的地方也能扛得住。 在软件这边,这家公司搞了个挺新的生成式世界模型。只要拿一点真家伙的数据喂给它,就能自己生出海量的逼真模拟场景数据。这对提升机器人在不同环境下的反应速度和抗干扰能力特别有帮助。 另外那个模块化的感知平台接口设计得也很标准化,这就大大降低了别的厂家想用这个技术时得费多大劲去改代码的麻烦。 宸境科技的胡闻在台上说了个新词叫“空间即服务”。他觉得机器人在物理世界里得像在玩游戏一样去理解周围的逻辑结构。咱们这套技术就像是把那些乱哄哄的物理信号变成了有条理的空间知识,让机器人有了那种懂世界的“直觉”。 行业里分析说,现在汽车已经成了移动的路,手机成了联网的网,机器人以后估计也会变成能干各种活儿的“物理任务基础设施”。这次发的这一套技术方案就是给机器人做的底裤和扳手,能帮上下游的厂家搞定最关键的感知和决策问题。 现场还拉着宇树科技、地瓜机器人这些同行一块儿试了试。那些装了全套智能方案的家伙们在地上跑来跑去做各种精细动作演示得挺好,确实说明这套东西能帮机器人更好地适应外面的世界。 这就属于咱们国产企业在机器人的核心技术上又迈了一大步。它不光解决了大家伙儿想量产时头疼的技术问题,还通过“空间即服务”这种新玩法搭起了一个大舞台让别的厂商来唱戏。 等以后AI跟现实世界融合得更紧密了,这种技术的不断进步肯定能给咱们国家的智能制造多注点劲儿。在国际竞争上也能让咱们占点便宜。至于以后能不能制定出统一的标准、或者是怎么把这个产业圈子养好养大,那就是下一步要操心的事儿了。