12月4日晚,北京信息科学与技术国家研究中心系列交叉论坛(第107期)通过线上会议和直播的形式举办,本次论坛邀请了北京大学教授,国家级领军人才,北京大学人工智能研究院-具身智能与机器人中心主任刘宏作题为“跨越更大的语义鸿沟:面向具身视觉的多元交互学习”的报告。论坛由清华大学信息学院院长、信息国家研究中心主任戴琼海院士和信息学院副院长任天令教授共同主持。信息国家研究中心党政联席会成员、群体负责人以及校内外师生等140余人通过腾讯会议在线参加论坛,累计约33万人次通过上直播、新浪、百度、视频号等直播平台在线观看。

刘宏作报告
具身场景下的视觉感知能力是机器人走向智能化、产业化面临的重要挑战。报告中,刘宏系统地分析了视觉特征学习框架发展历程,指出具身场景下的视觉感知面临着更大的语义鸿沟。揭示了高层语义约束对具身视觉特征交互的引导机制:依托特征低秩相关性、时空连续周期性等约束条件,构建多尺度、多分支、多空间的交互模式,有效提升了具身视觉特征的学习效率。并通过复杂场景机器人视觉成果及智能养老机器人示范平台,展现了技术的学术价值与应用潜力。报告结论进一步明确:具身智能的本质是 “从感知到劳动的智能映射”;而多元特征交互学习是跨越视觉语义鸿沟的关键路径,结合先验知识驱动的交互学习与深度学习,可全面提升系统学习效率。
问答环节,刘宏就机器人自进化是否会导致人类被剥削及如何规避该风险;目标恒常性在缺陷检测中是否具有普遍性;除工业产品外,食品、农产品等领域是否存在目标恒常性,且可用于驱动其缺陷检测等问题进行充分解读。
供稿 | 信息学院/信息国家研究中心联合办公室
编排 | 李琳
审核 | 丁贵广 王钰言