首页 资讯 正文

人形机器人运动大模型“龙跃”发布,可根据指令生成跑步、舞蹈等连贯动作

体育正文 188 0

人形机器人运动大模型“龙跃”发布,可根据指令生成跑步、舞蹈等连贯动作

人形机器人运动大模型“龙跃”发布,可根据指令生成跑步、舞蹈等连贯动作

人形(rénxíng)机器人如何像人类一样自然运动?如何通过语言指令让机器人理解并执行复杂(fùzá)动作? 5月29日上午,在上海张江科学会堂举办的2025张江具身智能开发者大会暨2025国际人形机器人(jīqìrén)技能大赛上,国家地方共建(gòngjiàn)人形机器人创新(chuàngxīn)中心(以下简称“国地中心”)联合复旦大学未来信息创新学院,正式(zhèngshì)发布了全球首款生成式人形机器人运动大模型(móxíng)—— “龙跃”(MindLoongGPT)。 龙跃大模型以(yǐ)“自然语言驱动”为(wèi)核心,构建了从多模态输入到高保真动作生成的完整闭环,颠覆传统运动控制范式。也就是说,用户无需学习专业术语(zhuānyèshùyǔ)或操作复杂软件,仅需像与人类对话一样发出指令,例如“以优雅的姿势递上一杯(yībēi)咖啡”、“挥手致意”或上传一段参考视频,龙跃大模型即可(jíkě)自动(zìdòng)解析语义并生成对应的连贯(liánguàn)动作,并支持通过追加指令实时调整细节。这一能力,在教育、服务机器人领域具有颠覆性意义。 动作部署 本文图均为 国地中心(zhōngxīn) 供图 当前市场中的动作生成模型往往存在两大痛点(tòngdiǎn):一是依赖高算力硬件,难以(nányǐ)低成本部署;二是生成结果机械呆板,缺乏可控性。据介绍,龙跃大模型具有四大(sìdà)核心技术优势: 一是多模态(mótài)交互、低门槛(ménkǎn)驱动(qūdòng)。MindLoongGPT支持文本、语音、图像等(děng)多模态输入,用户只需用自然语言驱动,模型即可“一切行动听指挥”。传统方法依赖专业参数调整的桎梏被打破,真正实现“人人可用”。 二是拟真度与时序(shíxù)一致性双突破。通过将人体动作视为“时序语言”,MindLoongGPT对动作序列逐帧建模,精准捕捉动作间的连续性,解决了长序列生成中的僵硬、跳跃问题,生成的跑步、舞蹈(wǔdǎo)等动作不仅流畅自然,更(gèng)保留真实人体的惯性(guànxìng)节奏。 三是结构生成(shēngchéng)与细节优化并重。模型采用分阶段生成策略,从全局姿态(zītài)到局部关节角度均实现毫米级精度控制。 四是轻量化设计,赋能广泛场景。在保证性能的前提(qiántí)下(xià),MindLoongGPT模型体积被压缩至同类型产品的1/3,可在教育机器人、智能穿戴设备等嵌入式(qiànrùshì)平台实时运行,为产业落地铺平道路。 据了解,目前(mùqián)国地中心在(zài)张江(zhāngjiāng)拥有5000平方米训练场,集采集、测试、训练功能于一体,102台数采机器人(jīqìrén)可支撑(zhīchēng)每天3万条机器人数据采集、地面真值测试、人体数据采集、仿生数据采集。MindLoongGPT具有7B的模型参数大小,支持text2motion,、motion2text、motion2motion多任务,生成更(gèng)丰富(fēngfù)的动作(dòngzuò)。通过MindLoongGPT生成特技动作运动轨迹,借助全身跟踪小模型,从而可以在青龙机器人上实现丰富的全身动作。 通过(tōngguò)“龙跃”MindLoongGPT生成特技动作运动轨迹,可以在青龙人形机器人上实现丰富的(de)全身动作 通过“龙跃”MindLoongGPT生成特技动作运动轨迹(guǐjì),可以在青龙人形机器人上实现丰富(fēngfù)的全身动作 国地中心5月29日同时宣布,将开放MindLoongGPT的开发者测试版本,并联合张江科学城打造“人形机器人创新应用孵化基地”,为合作伙伴提供技术赋能(fùnéng)、数据共享(shùjùgòngxiǎng)与(yǔ)算力支持,首批合作企业包括多家全球500强(qiáng)科技公司与顶尖高校研究院,将共同探索人形机器人在元宇宙(yǔzhòu)、智能制造等领域的深度融合。 (本文来自澎湃新闻,更多(duō)原创资讯请下载“澎湃新闻”APP)
人形机器人运动大模型“龙跃”发布,可根据指令生成跑步、舞蹈等连贯动作

欢迎 发表评论:

评论列表

暂时没有评论

暂无评论,快抢沙发吧~