靠收购发展的苹果XR业务:空间计算并非全自研,Vision Pro 90%技术都是买来的
最近,有消息爆料苹果又低调收购了两家公司。
其中之一是一家主业监控大型语言模型的AI公司WhyLabs,目的在于防止 AI 出现“幻觉”,或者阻止生成式 AI 的恶意滥用,以防止数据泄露;另一家名叫TrueMeeting的公司就比较值得关注了——这家公司专门做AI虚拟形象和面部扫描,用户只需要用一部iPhone扫描自己的脸,就能生成一个超现实的虚拟自己。
这要归功于TrueMeeting的核心技术:CommonGround Human AI,它的主要目标是让虚拟互动更自然、更有人情味,还能和各种应用无缝对接。
虽然苹果和TrueMeeting都没有对这次收购进行官方说明,但业内的很多人都猜测,苹果可能会通过收购该公司,利用其核心技术来进一步开发Vision Pro的“Personas”功能。
“Personas”功能
通过收购其它小公司的技术,来推进自己产品的开发,这其实已经是苹果的惯用手段了。单看Vision Pro这一款产品,拆解下来至少90%的技术都是苹果“买来”的。本篇文章,我们就来一起来分析一下,Vision Pro的关键技术,到底都来自于哪些公司。
Vision Pro真正的“爸爸们”
2023年6月,Vision Pro在苹果WWDC23上惊艳亮相。和以往所有的头显设备相比,它最突出的特点就是完全无手柄交互,仅靠眼动追踪和手势识别控制头显的交互系统。
其中,眼动追踪这一最关键的技术来源于一家名为SensoMotoric Instruments的德国公司,这家公司也是全球眼动追踪技术的先驱之一,在被收购前,已有超20年的技术积累。
成立于1991年的SensoMotoric Instruments于2017年被苹果收购,该公司主攻的核心领域正是高精度眼动追踪技术研发,主要应用于医疗诊断(如自闭症研究)、神经科学、心理学研究、消费电子以及Vision Pro这样的VR/AR设备。
SensoMotoric Instruments的眼动追踪技术最大的特点就是能够解决头显类产品的一大痛点——因帧率不足和画面延迟导致的眩晕问题,它能够以120Hz的采样率实时记录用户的自然凝视行为,可以分析佩戴者的目光,并帮助减少眩晕。
基于这项技术,才有了苹果Vision Pro后来被称为“读心术”的眼动追踪。2023年7月,苹果公布了一项有关Vision Pro眼动追踪技术的专利,名为“传感器融合眼动追踪”。而这项专利的发明人名单中的四名工程师,其中有三人就来自前SMI团队。
上图为该专利图示。该技术可以利用设备的传感器先更加精确的锁定用户的注视点,还进一步加强了眼动追踪的功能,例如系统可以检测到用户的注视点已到达显示屏底部,并自动向下滚动以向用户显示更多内容,或者根据注视点的位置调整显示画质,进行注视点渲染
而对于手势追踪技术,参照苹果这些年已公开的收购公司列表,似乎没有直接对应的相关技术公司,但其2013年11月收购的一家以色列公司,或许与之相关。
这家公司名为PrimeSense,是一家专注于3D感测技术及硬件解决方案的公司,成立于2005年,在全球范围内都可称得上是3D传感技术的先驱。该公司开发了完整的3D感测技术,可实时追踪用户动作并转化为数字指令,内置人体骨架分析功能,支持手势识别、3D扫描及建模等应用。
收购这家公司后,苹果将其技术整合到了Mac、iPhone、iPad等设备中,实现了手势交互功能。
今年5月,一项最新的苹果专利获批,可通过复杂的手势控制Mac、Apple TV 乃至 MacBook,还包括与眼动追踪技术的结合
PrimeSense的技术与手势追踪密切相关,其应用于苹果系设备的手势专利也与Vision Pro搭载的技术极为类似。虽然没有官方说明,但很难说苹果的手势追踪没有参考这家公司的技术——反正公司已经被苹果收购了,在被收购后,该公司也已经停止向市场提供相关技术,所以就算内部有参考,也很正常。
有意思的是,在2018年,有消息爆料硅谷最热门的增强现实手势识别初创企业之一Leap Motion在过去五年中至少两次传出被苹果公司收购的消息。
Leap motion的手势交互
只不过,据说该公司的两位创始人怒言“并没有兴趣加入苹果团队”,还侮辱苹果公司,称其已经不再具有乔布斯时代的创新性,只会抄袭别人的创新。
总而言之,基于SensoMotoric Instruments的眼动追踪和可能参考了PrimeSense技术的手势识别,Vision Pro最具代表性的两项交互技术框架成功完成搭建,成为了产品主要宣传的关键功能之一。
Vision Pro的另一项关键技术——空间计算,也不是苹果完全自研的。
2016年,苹果收购了空间感知技术公司Flyby Media。Flyby的核心就是空间感知技术(V-Fusion),能利用移动设备强化人们对其周围环境的了解,让人们真正看到、理解现实世界。
这项技术直接催生了Vision Pro的核心功能之一:启动时的空间扫描(Room Scan),用于设置虚拟边界(Guardian),以及实现数字内容与现实环境的无缝锚定:例如将应用窗口“固定”在真实的墙面,或将虚拟物体放置在真实桌面并保持稳定。
Vision Pro的空间锚点可以把虚拟物体固定在现实中的一个特定区域,锚定后即使退出程序重新打开,之前锚定过的物体仍然能够出现之前锚定的位置,除非用户手动删除锚点
与此同时,在该公司技术的支持下,Vision Pro的安全防护功能还可基于实时更新的环境地图,自动识别障碍物(如椅子、墙壁)并生成红色警示边界,防止用户碰撞。
若无此次收购,Vision Pro可能还仍停留在“悬浮屏”阶段,无法实现“环境与操作系统无缝融合”的颠覆性体验。
除了主打的无手柄追踪和空间计算功能以外,显示也是Vision Pro最拿得出手的特性之一。而其引以为傲的高分辨率、低畸变显示效果,都是由核心光学器件——超薄、高效的波导透镜带来的。
这项技术的源头可追溯至苹果于2018年收购的美国科罗拉多州创业公司Akonia Holographics——这家公司拥有200项与增强现实眼镜技术和显示相关的专利,并且已经成功在种子轮融资了 1160 万美元。
Akonia Holographics最初专注于全息数据存储,但其拥有的先进光学材料和波导显示专利,为解决AR/VR头显设备小型化、轻量化和显示质量的关键瓶颈提供了重要解决方案。苹果通过收购获得了其宝贵的知识产权和研发团队,奠定了Vision Pro显示系统的基础架构。
Akonia Holographics确实是家神奇的公司。最初做全息存储的,后来转型波导显示,这种跨界本身就很少见。与此前HoloLens,Magic Leap One所采用的光波导技术不同,Akonia公司的技术使用的是全息光波导:用全息光学元件代替刻蚀光栅,实现虚拟图像的引导。相比于光波导技术的刻蚀光栅,全息光学元件是通过双光束激光全息曝光的方式,直接在微米级光聚合物薄膜内干涉形成纳米级的光栅结构,因此在工艺上,全息光波导更加高效,成本较其他光波导技术也具有明显优势。
此外,Akonia镜片还有一个最重要的特点,那就是解决了AR眼镜的“光学悖论”:既要大视角又要轻薄,可在保持宽视角的同时保证镜片的轻薄厚度。
图为VR头显设备视野范围(FOV)对比图。有体验过Vision Pro的人士透露,其水平视场角(FoV)大致落在100°至110°的范围内
从以上信息来看,Akonia镜片其实很符合Vision Pro对于镜片的需求。不过,Vision Pro最终采用的并不是Akonia的全息光波导镜片,而是定制三片式Pancake透镜,是来自于玉晶光电的3P Pancake方案。有业内人士猜测,苹果对Akonia Holographics公司的收购,最终技术可能更多会应用于对AR眼镜的研发上。
据最新消息,苹果的首款智能眼镜正在研发中,支持触控和语音控制,最快将于 2026 年至 2027 年间发布。但这款智能眼镜还是没有屏幕显示功能的,真正具有屏显的AR眼镜则要等到2028年。也许到那时候,苹果收购的波导显示技术就能用上了。
原文标题 : 靠收购发展的苹果XR业务:空间计算并非全自研,Vision Pro 90%技术都是买来的

最新活动更多
-
7.30-8.1火热报名中>> 全数会2025(第六届)机器人及智能工厂展
-
精彩回顾立即查看>> 【线下论坛】新唐科技2025新品发布会
-
精彩回顾立即查看>> 【在线直播】解密行业检测流量密码——电子与半导体行业
-
精彩回顾立即查看>> 【深圳 IEAE】2025 消费新场景创新与实践论坛
-
精彩回顾立即查看>> 【限时免费】安森美:Treo 平台带来出色的精密模拟
-
精彩回顾立即查看>> 【在线会议】ImSym 开启全流程成像仿真时代
推荐专题
发表评论
登录
手机
验证码
手机/邮箱/用户名
密码
立即登录即可访问所有OFweek服务
还不是会员?免费注册
忘记密码其他方式
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论