(扫码报名)
具身智能,作为人工智能迈向物理世界的核心技术,正在打破虚拟与现实的边界。通过赋予AI以感知、行动、学习的闭环能力,具身智能正在重塑算法、系统和应用之间的关系,推动从虚拟仿真到实体执行的全方位技术跃迁。本次论坛以“Scaling Law”为核心议题,深入探讨如何实现具身智能的大规模训练和实际部署。
汇聚智能感知、跨模态交互、自主决策与控制等领域的全球权威专家,解读具身智能技术的前沿进展与创新实践。
剖析Scaling Law在具身智能中的关键作用,探索大规模数据训练、高效模型优化与资源利用的深层逻辑。
研究从虚拟到真实环境的迁移方法,讨论硬件与算法的协同进化及未来趋势。
展望具身智能在机器人、智能制造、医疗康复、教育科技等领域的应用潜能,推动产业化落地。
论坛致力于推动学术与产业的深度融合,为具身智能从虚到实的规模化发展提供理论依据与实践路径,共同开创智能技术的新边界!
论坛安排
执行主席
邱锡鹏
CCF YOCSEF上海2024-2025主席,复旦大学计算机学院教授、博导
CCF高级会员,中文信息学会理事,上海计算机学会自然语言处理专委会主任,研究方向为自然语言处理基础技术和模型,发表CCF A/B类论文100余篇,入选“爱思唯尔2022中国高被引学者”。获ACL 2017杰出论文奖、CCL 2019最佳论文奖等多个奖项。开发开源框架FudanNLP和FastNLP,发布MOSS、CPT等开源语言模型。获中国科协青年人才托举工程项目、国家优青项目等资助,培养学生多人次获国家一级学会优博。
共同主席
刘斐
CCF YOCSEF上海秘书长,上海擎朗智能科技有限公司高校合作总监
毕业于国防科技大学控制科学与工程专业,研究方向为机器人控制与机器视觉。曾在第二军医大学、中国自动化学会等单位工作。现任中国计算机学会智能机器人专委会执行委员等职。长期从事机器人研发、课程设计及技术推广,专注应用场景与技术发展。出版专著1部,发表论文十余篇,拥有多项发明专利及软著。
论坛讲者
苏航
清华大学计算机系副研究员
专注于鲁棒机器学习和具身决策领域,发表超过100篇CCF推荐A类会议和期刊论文,谷歌学术引用超15000次。担任IEEE TPAMI和Artificial Intelligence编委,IEEE生成式大模型安全工作组主席。获吴文俊人工智能自然科学一等奖、ICME铂金最佳论文等奖项,曾率队在NeurIPS2017比赛中获胜。现为中国图像图形学会青工委执委,曾任VALSE执行AC委员会主席。
报告题目:数据驱动的具身智能:多源融合与规模化演进
报告摘要:具身智能的发展依赖于互联网、仿真和真机三类数据源,各具挑战与价值。互联网数据提供图文视频信息,但缺乏物理交互细节;仿真数据适合规模化训练,但存在虚实迁移难题;真机数据支持高精度控制,但采集成本高。未来需融合三类数据优势,建立“语义预训练-仿真微调-真机强化”的体系。我们开发的Robotics Diffusion Transformer整合46个机器人数据集,实现双臂任务的统一建模与泛化,验证了数据缩放定律,为机器人在新场景下的零样本迁移提供了方法探索。
蔡盼盼
上海交通大学副教授、上海创智学院全时导师
2023年获国家级海外高层次青年人才及上海市领军人才(海外青年)头衔。研究领域包括具身智能、机器人决策与学习、自动驾驶决策,在IJRR、T-RO、RSS等顶刊顶会发表多篇高水平论文,曾获CoRL最佳论文提名。国际上担任IEEE T-RO编委、ICRA、ISER编委,主办RSS国际研讨会;国内担任科技部重点研发计划课题负责人,主持青年科学基金项目,担任中国具身智能大会组织主席及CAAI具身智能专委会副秘书长。
报告题目:常识性具身决策
报告摘要:凭借大模型蕴含的常识,机器人将能真正实现“言出法随”,为家政、餐饮等复杂生活场景提供可靠高效的智能服务。
本报告将聚焦于基于大模型的常识性具身决策所面临的三大挑战:(1)融合决策规划与学习,利用大模型提升机器人进行大规模决策规划能力;(2)借助大模型的开放式推理优势,有效应对物品位置、人类意图等环境不确定性;(3)通过大模型从具身数据中学习具身行为间的复杂约束,提升复杂决策成功率和执行效率。
李弘扬
香港大学数据科学研究院助理教授
CCF高级会员,OpenDriveLab团队联合创始人,研究方向为端到端智能系统。他主导的UniAD方案获IEEE CVPR 2023最佳论文奖,产生了明显的社会经济效益,包括特斯拉于2023年推出的端到端FSD。他构造的超大规模具身智能训练场AgiBot World,是业界首个百万真机、千万仿真数据集,系统研究具身Scaling Law方法论。他多次担任国际会议领域主席(AC),其中获得NeurIPS 2023 Notable AC。他是《自然·通讯》的审稿人。获2024年中国吴文俊人工智能青年科技奖。
报告题目:AgiBot World:超大规模具身智能训练场
报告摘要:AgiBot World是一个大规模平台,包含超过100万条轨迹,涵盖217项任务。通过标准化收集流程和人工验证,确保数据质量和多样性。基于此平台,我们推出Genie Operator-1 (GO-1),一种利用潜在动作表示的通用策略,优化数据利用,实现性能随数据量增加而可预测地提升。与Open X-Embodiment相比,预训练策略平均性能提升30%。GO-1在复杂任务中表现优异,成功率超过60%,比先前的SOTA策略RDT高32%。
方斌
北京邮电大学“拔尖人才”教授
主要研究具身智能、灵巧操作及机器人大模型等。CCF智能机器人专委会常务委员,中国人工智能学会理事、认知系统与信息处理专委会秘书长。发表了多篇高水平论文,出版中英文专著各1部,多次获ICRA等国际会议/期刊最佳论文奖。其研制的“触感灵巧手”入选国家“十三五”科技创新成就展,获得多项荣誉。
报告题目:如何突破具身智能触觉数据瓶颈?
报告摘要:人类天生灵巧操作技能是一种精确控制被抓物体的姿态及施力的能力,使我们能够处理无数的日常物品和工具。机器人一直在模拟人类双手的灵巧操作能力,却难以企及,触觉是其中制约的关键因素。报告首先介绍了具身智能近期进展,重点阐述触觉数据生成方法,并对未来研究方向进行了分析。
李冠彬
CCF YOCSEF广州2024-2025主席,中山大学计算机学院教授、博士生导师
CCF 高级会员,国家优秀青年基金获得者,专注于人工智能领域的图像视频内容理解与生成。发表200余篇顶级论文,谷歌学术引用超15800次,入选全球前0.05%顶尖科学家榜单。获多项荣誉,包括中国图象图形学学会青年科学家奖、吴文俊人工智能优秀青年奖等。主持国家自然科学基金等10多项科研项目,担任多个学术职务与会议主席,研究成果应用于智能交通、智慧医疗等领域。
报告题目:感知与记忆增强的具身视觉语言导航
报告摘要:具身智能通过与物理环境的实时感知和交互,将身体、感知和行动结合,涌现出适应性和认知能力,是实现通用人工智能的关键路径。近年来,多模态感知与大语言模型在具身机器人导航及操作任务中展现潜力,成为研究者的重要切入点。本报告介绍多模态大模型与具身智能的研究背景与挑战,并以主动视觉感知、具身视觉导航与问答为例,展示团队在多模态感知与记忆增强的具身智能系统上的研究成果及适配演示,并展望其发展趋势。
会议介绍
由CCF主办的YEF2025将于2025年5月22-24日在横琴召开。此次大会由CCF会士、副理事长,华中科技大学教授金海担任大会主席,以“智辟新径”为主题,汇聚了中国计算机领域的青年精英及知名专家,共同探讨科技前沿,开启智慧新篇章。在三天的时间里,预计将组织7场特邀报告、2场大会论坛、1场思想秀、1场优秀大学生学术秀及22场专题论坛。
点击“阅读原文”,立即报名。
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...