中宏网讯 3月28日,北京中关村论坛年会正如火如荼地进行。在“硬科技投资和发展论坛”上,西安中科光电精密工程有限公司(仝人智能)董事长、中国科学院西安光学精密机械研究所研究员吴易明教授发表了题为《具身智能是智能科学的新范式》的演讲。在这场汇聚科技和投资精英的盛会上,吴易明以批判性思维和原创理论阐述了其具身“大脑”机器人技术,打破了当前“大模型+机器人”的主流叙事,引发了与会者的强烈共鸣与热议,成为本次年会的亮点。

“具身”非“躯壳”,定义智能新范式
吴易明直言不讳地指出,当前主流具身智能研究依托“语言大模型+视觉大模型”融合路线,本质上是“让机器记住数据统计规律”,正陷入数据枯竭、算力不够的双重困境,机器人仍无法自主理解空间、实现自主劳动。
“如果只是把大模型装进机器人,机器人依然不理解物理世界,它只是在‘猜’。”吴易明阐述了其核心观点:真正的智能,是主体能够基于感知和自身内部信息表征机制构建“具身世界模型”,实现对四维时空的理解、自主推理规划,并最终通过实践检验认知。
“实践是检验真理的唯一标准。对于机器而言,如果不能解决‘指称’问题——看到‘杯子’就能理解杯子的三维属性和功能,那么它就永远无法实现真正的自主作业。”吴易明的这一观点,直指当前大模型“幻觉”频出的技术痛点。

全球首创“无需数据训练”的具身大脑,用数学重构机器认知
2016年以来,在科技部重大专项的支持下,吴易明团队回归数学本源,利用微分几何、群论等工具,在2019年攻克了“任意立体对象精准识别”这一核心难题,解决了困扰人工智能领域多年的“符号接地”问题,即让抽象的语言符号真正落地于物理世界的物体之上。
他们摒弃了依赖海量数据训练的传统AI路径,开创性地构建了“无需数据训练”的机器人“具身大脑”操作系统。该体系的核心是用数学方法建立物理世界的精准映射,让机器“理解”而非“记住”。
在感知(识别)层,他们运用“微分几何+拓扑+图神经网络”等数学工具,直接将视觉信息映射到意识空间中符合欧几里得几何的环境坐标,实现了对任意立体对象精细结构的数学表征与无训练式智能识别。这解决了高端制造中在小样本、非标场景下的视觉识别痛点,使机器人具备了像人一样“看”和理解空间精细结构的能力。

在规划(决策)层,通过构建“可逆拓扑变换”和“逆向可达地图”等方法,将机器人运动规划的复杂逆解问题转化为正解问题,实现了从感知到决策再到执行的自主闭环。这意味着机器人可以无需人工示教、无需重复编程,自主完成作业规划,真正具备了“自主思考、自主行动”的潜力。
此项技术已成功应用于航空航天、核电、船舶等国家重大工程领域,验证了其在极端复杂、高精要求场景下的可靠性。
完成近4亿元融资,智能焊接机器人已实现批量交付
理论的前瞻性与技术的独创性,最终需要市场的检验。
吴易明团队刚刚完成了近4亿元人民币的A轮融资,投资方包括产业资本和多家国资背景机构,这标志着资本市场对其技术路线和商业前景的高度认可。

公司已实现了核心产品的规模化量产,搭载了“具身大脑”的智能焊接机器人系列,已在重型装备、船舶制造等行业实现大规模批量交付与应用,成功打入千亿级离散制造无人化市场。形成了以具身智能双目立体视觉终端(智能“眼睛”)和各类智能焊接、测量机器人为代表的产品矩阵,覆盖了从感知到执行的完整链条。

目前吴易明团队正聚焦研发具身智能域控制器、双目视觉模块、类脑芯片等核心智能部件,为行业赋能;未来将攻关无需遥操、具备拟人化自主决策能力的通用人形机器人。

西安中科光电精密工程有限公司,这个听起来有些陌生的名字,实则是一家由中国科学院西光所孵化的科创企业。掌舵者吴易明曾在中国科学院西光所工作多年,同时还是中国科学院大学教授、博导、研究员。
2026中关村论坛,科技群芳荟萃,百家争鸣。吴易明所代表的这条“不依赖大模型、无需数据训练”的原创技术路径,以其独有的思想锋芒与实践,在众多前沿成果中分外耀眼。这不仅是一位科学家企业家对技术本质的深刻洞察,更是中国硬科技在新质资本助力下,从“跟随式创新”迈向“根源性突破”的生动注脚。
中宏网版权申明:凡注有“中宏网”或电头为“中宏网”的稿件,均为中宏网独家版权所有,未经许可不得转载或镜像;授权转载必须注明来源为“中宏网”,并保留“中宏网”的电头。