奥比中光2月12日发布投资者关系活动记录表,公司于2025年2月12日接受13家机构调研,机构类型为QFII、基金公司、证券公司。 投资者关系活动主要内容介绍:
答:近年来,生成式AI与大模型技术的发展使得机器人的交互应用更加成熟。而除了最关键的技术因素驱动外,市场需求、政策鼓励以及上下游厂家的持续投入也成为推动各类型机器人快速发展的重要因素。 对公司而言,机器人业务方向是公司近年及未来重点布局和发展的重要战略方向之一。目前,公司凭借“研发+制造”的一站式产品和服务,已推出丰富且全面的机器人视觉感知产品方案,通过与机器人产业客户的多年合作,公司从传感器、激光雷达到模型算法都积累了较强的综合实力。公司去年推出的Gemini 335和336系列全场景双目3D相机,兼顾高可靠性、高性能、高性价比和易用性,能够在不同光照条件和复杂多变的动态环境中稳定输出高质量深度数据,精准还原场景和物体的3D信息,可广泛适用于人形机器人、AMR、巡检机器人、配送机器人、机械臂等应用场景。 在中国服务机器人3D视觉传感器领域,公司市占率已经很高了,所以在服务机器人基本盘稳健增长的同时,我们近两年也在培育第二增长曲线——如开拓工业机器人场景,公司产品及技术可助力其更好地实现分拣、上下料、物流搬运等多项功能。截至目前,公司工业机器人业务合作已覆盖智能工厂、仓储物流、智能巡检等场景。 在人形机器人领域,公司Femto系列iToF相机及Gemini 335和336系列相机均具备卓越的性能,可满足各类人形机器人在室内外复杂场景下执行视觉应用。目前公司已就相关产品/方案与部分人形机器人客户进行适配,并持续提升技术研发及运营效率,以期不断提高在人形机器人等新兴场景的市场占有率。 凭借多年的原始技术积累及下游客户合作磨合,加上3D视觉感知产业智能制造基地的顺利投产,公司产能规模水平和量产规划节奏将持续提高和优化,以上都将有助于公司把握具身智能历史发展机遇,为后续市场需求爆发做好充分准备。
答:公司自成立即围绕“全栈式技术研发能力+全领域技术路线D视觉感知技术体系,具备从底层芯片到上层算法的全自主知识产权研发能力,产品底层技术达到全球3D视觉行业领先水平。在芯片领域,公司的芯片团队具备数字及模拟芯片的研发实力,目前已自主研发专用算力芯片(MX系列结构光深度引擎芯片,已完成了5次迭代升级)及专用感光芯片(结构光专用感光芯片、iToF感光芯片及dToF感光芯片等)。 公司专用算力芯片中的MX系列深度引擎芯片是系统级SoC芯片,内含自研IP核并固化了深度引擎算法,可以在接收到感光芯片的空间编码信息后进行实时的深度解算以输出3D数据。与传统的通用处理器调用算法进行深度计算相比,公司MX系列深度引擎芯片在满足高星空体育智能科技性能运算的同时,大幅降低了功耗,缩小了芯片的物理面积,加强了深度引擎处理能力,丰富了用户输入输出方式,是3D视觉传感器由实验室样机走向规模化量产的关键。 公司最新的MX6800深度引擎芯片,支持“结构光+主动双目/被动双目”,公司Gemini330系列双目3D相机均搭载了该芯片,该系列产品配备高性能主被动融合成像系统,在强光、暗光、室内外等不同环境均具备出色的适应性,目前已广泛应用于机器人等场景。
问:目前AIGC已逐步迈入3D时代,公司如何看待AI空间智能技术,未来可以怎么有效结合?公司和该领域的前沿团队李飞飞教授团队有什么合作吗?
答:空间智能(Spatial Intelligence)是一个多维度的概念,通常指个体在三维物理空间及四维时空中的认知和推理能力,包括感知、推理、决策等方面。而公司的3D视觉传感器可以实时采集人体、物体及空间的真实三维数据,赋予各类终端感知能力,属于空间智能中感知侧的关键一环。 与生成式AI工具生成的图片或视频等2D内容不同,以3D形式生成的内容具有更好的控制性和一致性。当我们把AI内容提升到3D层面后,想象力与可操作性将得到统一,生成的3D世界具有交互性,会加速诞生更多应用场景和需求,相信也将改变我们当下制作电影、游戏、模拟器和其他物理世界数字表现形式的方式。 斯坦福大学李飞飞团队在ReKep研究中,使用奥比中光Femto Bolt深度相机有效捕捉实验场景的彩色图像及深度信息,识别和定位场景中的物体及其关键点,为机器人动作优化和复杂交互提供了关键的3D视觉数据支撑。李飞飞团队所使用的Femto Bolt是公司与微软联合设计研发的高性能iToF 3D相机,具有产品尺寸小、画质高、同步精准等优点,除应用于传统的娱乐/运动交互、医疗康复、3D人体重建等场景外,现已陆续应用于人形机器人、协作机器人等更多的下游场景。
问:公司有没有大模型在机器人领域具体应用的案例?公司如何看待当前大模型技术的发展对具身智能的影响?公司是否会受益于大模型的持续发展?
答:公司高度重视各类AI技术的研发和创新。2023年底公司利用语音、语言、视觉-语言大模型,辅以公司深度相机,打造出了能够理解和执行语音任务的机械臂1.0,打通了多模态大模型在机械臂上的应用部署baseline,初步探索实现大模型与硬件终端的适配结合。2024年,公司推出最新2.0版大模型机械臂演示方案。新方案搭载公司最新深度相机Gemini 335L和Femto Bolt,能够基于语音指令,自动执行沏茶、插花、滴香薰、播放音乐等一系列复杂任务,在识别、抓取和操作复杂物体时的精度和效率显著提升。 当下,大模型技术的超预期发展加速了具身智能机器人的演进与变革,具身智能机器人有望成为人工智能的终极形态,由于其类人化,将逐步替代人类完成由低级到高级的工作任务,让人类从重复、繁琐的工作中解放出来。 此外,具身智能机器人可以更高效、准确地完成任务,以节约时间和资源,所引领的技术革命将带来巨大的技术红利,在解放生产力的同时也会创造新的经济增长点,推动社会发展与进步。 具身智能机器人将沿“大脑先行、感知突破、身体完善”的方向迭代发展,在通用大模型、多模态大模型等“大脑”技术蓬勃发展的同时,代表了“机器人之眼”的视觉技术有望迎来历史发展机遇;