极目新闻记者 叶文波 胡长幸
实习生 燕晓雨
“用户无需写一行代码,即可通过文本、视频、动捕数据快速生成并部署机器人动作。”这一过去只存在于想象中的场景,如今在武汉光谷成为现实。
5月9日,由湖北人形机器人创新中心主办的动作大模型发布暨产品技术分享会在光谷举办,北京大学武汉人工智能研究院联合北京虚拟动点科技,正式发布人形机器人动作大模型。作为核心平台载体与产业枢纽,湖北人形机器人创新中心全程支撑了该模型的技术研发、场景验证、生态协同与成果转化。
“近年来,人形机器人正从‘炫技’走向‘实用’。”湖北人形机器人创新中心运营负责人黄全周在会上指出,行业内的共识越来越清晰:要让机器人在真实世界里动起来、干起活来,还需要一个强大、普适、可通用、可泛化的“动作智能”,以及门槛更低的动作开发平台和更精密的末端硬件。
本次发布的动作大模型,正是对这一痛点的直接回应。它由MotionMaster虚拟动作生成器与UniAct真机执行引擎两大核心模块构成,可将高阶语义、视频、音频等多模态输入,一键转化为多品牌、多机型通用的机器人可执行动作指令。其动作成功率、泛化能力与执行效率均达到行业领先水平,并且已面向全行业开源共享。
“这套模型的两个关键能力,一是让开发者不用写代码就能完成动作开发,大幅降低门槛;二是生成的动作能在不同型号机器人之间通用,还能通过数据回流持续进化。”北京大学武汉人工智能研究院具身智能中心何子默在演讲中介绍。
依托这一大模型,本次大会还同步亮相了该模型下的首个应用级产品——“潜擎”创作平台。
“我们希望让更多的从业者,不用写一行代码,就能够便利地参与人形机器人的开发运用过程中。”潜空间具身智能(武汉)科技有限公司CEO陈睿介绍。目前,市面上有300多款人形机器人整机产品,但能真正实现高动态运动的并不多,原因在于:输入方式单一、无法编排动作、普通开发者无法独立开发。
“潜擎”平台的出现,正是为了解决这些痛点。依托动作大模型与“潜擎”平台,机器人开发者、企业用户无需专业编程,不用写一行代码,只需通过文本、视频或动捕数据,即可快速生成并部署机器人动作,真正实现一次创作、多机通用、全场景适配,有效破解行业开发成本高、周期长、兼容性差等瓶颈,推动人形机器人从实验室走向千行百业。
作为湖北具身智能核心公共平台,湖北人形机器人创新中心为本次成果落地提供数据、场地、真机、场景全链条验证环境,保障模型高效训练与落地;联动产学研生态资源,推动技术快速转化为可商用产品;搭建产业对接桥梁,助力模型与平台规模化应用。这也标志着湖北在具身智能“动作智能”领域实现关键突破,为人形机器人规模化落地筑牢了底层能力底座。
会上,产业生态合作也同步落地:潜空间与光谷东智、格蓝若、宇树、乐聚等企业达成生态合作,人形机器人中心同步与潜空间、虚拟动点、飞阔科技、青瞳视觉等签约,围绕数据服务、模型训练、场景落地、赛事运营等深化协同,持续壮大湖北具身智能产业生态。
本次动作大模型发布,是湖北人形机器人创新中心从1.0基础建设迈向2.0高质量运营的里程碑。该中心将持续做强数据核心、建强中试平台、做实场景落地、构建协同生态,助力湖北打造全国领先、中部第一的具身智能人形机器人产业高地。
(无水印照片由主办方供图,有水印照片由极目新闻记者摄)
(来源:极目新闻)