侵权投诉
技术:
CPU/GPU 传感/识别 显示/微投影 追踪/定位 电池/电源管理/驱动 声学/光学 通信 OS/软件/算法 云服务/大数据 材料 其它
终端:
头盔 眼镜/盒子 一体机 配件 服务 渠道
应用:
游戏 影视/动漫 娱乐 医疗 军事 媒体 旅游 购物/餐饮 教育 工业/农业 家居 设计 其它
订阅
纠错
加入自媒体

因为一颗摄像头,Meta和“同伙”可能面临巨额赔偿,但它为什么非要有摄像头呢?

2026-03-31 15:51
VRAR星球
关注

此前有媒体调查发现,一家位于肯尼亚的外包公司的员工可以审核Meta AI眼镜用户的隐私画面,包含裸体、性行为和上厕所等大量敏感内容。

如今,Meta、依视路陆逊梯卡(EssilorLuxottica)以及其他与Meta AI眼镜开发相关的公司正在面临多项集体诉讼,要求Meta及其共同被告就涉嫌违规行为支付巨额赔偿。

当下很多人对智能眼镜摄像功能的认知,还停留在“不用掏手机就能拍照”的层面。但事实上,这颗镜头早已跳出了“拍摄工具”的单一属性,成为整副智能眼镜的感知心脏:那颗藏在镜框里、看起来不起眼的摄像头,早已不是智能眼镜的“附加功能”,而是我们的另一双“眼睛”。

智能眼镜的摄像头本质上就是给人类的视觉做“延伸”。它能把转瞬即逝的画面永久留存,能把超出人眼视角的场景纳入画面,能对我们的视力进行矫正和增强,能把我们不认识的事物、看不懂的文字瞬间转化为可理解的信息,甚至能感知我们肉眼看不到的空间距离、环境结构。

因此,智能眼镜里面的摄像,并非简单的“相机移植”,而是重构人类视觉边界的核心功能。回到技术视角,智能眼镜从“穿戴配饰”到“视觉延伸工具”的核心转折点,不同的摄像技术方案,也决定了这扇窗口能打开多大,我们的视觉边界到底在哪里。

01

全视野显示如何被放大

智能眼镜的视觉效果放大,除了源于图像算法、显示光波导等通用技术的升级,与摄像头感知能力、光学显示能力的深度协同也有很大关联。

国内厂商在这条赛道上,已经走出了三条差异化的技术路线,每一条都在重新定义“看见”的边界,也让视觉放大的效果,有了完全不同的落地形态。

第一条路线是轻量化影像级拍摄方案,让摄像功能融入日常佩戴,不改变普通眼镜的形态,却能给眼镜加上“永久存档”的能力。

比如,雷鸟V3 AI拍摄眼镜,它搭载了索尼IMX681传感器和猎鹰影像系统,支持1440P竖屏拍摄和EIS电子防抖,哪怕是走路、运动的场景,也能拍出稳定清晰的画面。

如果这个方案再配合内置的AI大模型,它不仅能记录画面,还能把拍摄的会议内容、对话场景,自动转化为文字纪要,相当于给人的视觉和听觉,都加上了同步存档的功能。

第二条路线是空间感知,主打AR虚实融合,放大人类的空间感知边界。如果说单目方案是给眼睛加了存档功能,那双目方案,就是给眼睛加了一层“现实滤镜”,让我们能看到现实世界中原本不存在的数字信息。

灵伴科技为例,自2018年,国内首款一体式单目AR眼镜Rokid Glass验证了“将电脑整机装进眼镜”的构想后,灵伴科技在文旅展陈、工业、C端消费市场均展现出了强劲的竞争力。据了解,灵伴科技已经与全国超过200家头部博物馆及5A级景区建立合作,市场份额优势明显;在工业领域(电力、石化、智能制造、医疗),公司也占据了60%的市场份额。

实际上在AR世界,假设配合全自研的SLAM算法,它能精准识别现实空间的结构,把虚拟的画面、信息,精准地叠加在现实场景中,延迟低于20ms,几乎不会有肉眼可见的卡顿。

这种方案带来的视觉放大是颠覆性的。你走在陌生的城市,眼镜能在路口的地面上,投射出实时的导航箭头,跟着箭头走就能到达目的地;你坐在办公室里,眼镜能在你面前的空地上,投射出多块虚拟的电脑屏幕,不用再受物理屏幕的限制;你学习新的技能,眼镜能在现实的设备上,叠加一步一步的操作指引,手把手教你完成操作。

第三条路线是放大人类的视觉能力边界。这条路线是把记录、感知、识别的能力融为一体,给眼睛配上了一套“超级视觉系统”。比如理想的Livis眼镜配有超广角拍摄功能,比人眼视野更宽;比如Luna Glass可以增强人眼在暗光环境下的视力;再比如ViXion 01S、IXI Eyewear等眼镜可以自动对焦物体,无论看远还是看近,都能提供清晰的视野。

这些方案带来的,是视觉能力的升级。相当于给人类的眼睛,加上了AI的大脑,让我们不仅能“看见”“看懂”眼前的世界,还能看到更多、看得更远。

回过头来看,这三条差异化的路线,本质上都是厂商在“佩戴体验”和“视觉能力”之间,寻找最适合用户的平衡点。

从轻量化的日常佩戴,到专业级的空间计算,每一种方案,都在一点点拓展人类视觉的边界。而随着AI技术的快速迭代,这颗藏在镜框里的镜头,也即将迎来新的技术拐点。

02

智能眼镜的视线走向何方?

关于智能眼镜的未来,有太多的预测和想象,但回到最核心的摄像功能,未来一两年的技术路线,其实已经非常清晰。它不会盲目地堆砌像素,也不会追求不切实际的功能,而是会围绕“无感佩戴、智能感知、隐私安全”三个核心,实现本质上的升级。

相对明确的方向,是摄像头模组的微型化与低功耗,让镜头彻底“消失”在镜框里。当下的智能眼镜,之所以还无法实现全天候的佩戴,核心痛点之一就是摄像头模组的体积和功耗。

根据Display Supply Chain Consultants的预测,2025年全球XR设备的CMOS模组,将通过晶圆级光学工艺,把厚度压缩到1.2mm以下,这种工艺的渗透率将超过60%。这意味着,未来的摄像头模组,能完全藏在镜框的边缘,不会有凸起,不会增加额外的重量,整副眼镜的重量,能降到和普通近视眼镜一样的50g以内,真正实现无感的全天候佩戴。

第二个路径为AI原生的端侧视觉处理,让镜头真正“看懂”世界。未来的智能眼镜摄像头,不会再是“拍完再处理”的模式,而是会在模组上集成专门的NPU,实现端侧的实时视觉处理。

这种方式对所有画面的识别、内容的分析、信息的转化,都在摄像头模组内部完成,不需要传输到眼镜的主芯片,不仅能把延迟降到10ms以内,实现完全无感的响应,还能大幅降低功耗,延长眼镜的续航。

届时,智能眼镜的摄像功能,会从“被动的拍摄工具”,变成“主动的视觉助理”,你看到的每一个场景、每一件物品,它都能主动给你提供你需要的信息。拥有这类功能的眼镜对于视障群体也是福音。

然而,每一种走向都需要实现硬件级的隐私安全闭环,从根本上解决用户的顾虑。开头提到的Meta眼镜因为隐私问题面临诉讼和巨额赔偿,或许会在更多AI眼镜品牌中出现,这是智能眼镜普及路上一个重要的羁绊。

未来的摄像头方案,会从硬件层面,彻底解决隐私安全的问题。比如,只有用户主动触发拍摄功能时,摄像头才会通电启动,平时处于完全断电的状态,无法被任何程序远程激活;拍摄时,会有硬件级的高亮指示灯,哪怕是被改装,也无法关闭这个提示;所有的视觉数据,都在眼镜本地完成处理,不会上传到云端,从根本上杜绝数据泄露的可能。

技术的发展,从来都是能力与责任的双向奔赴。摄像头给了智能眼镜放大人类视觉的能力,也必须承担起保护用户隐私的责任。只有当技术的能力,和用户的安全感达成平衡,这颗藏在镜框里的镜头,才能真正走进普通人的生活,成为我们日常佩戴的一部分。

       原文标题 : 因为一颗摄像头,Meta和“同伙”可能面临巨额赔偿,但它为什么非要有摄像头呢?

声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

    推荐专题

    VR 猎头职位 更多
    文章纠错
    x
    *文字标题:
    *纠错内容:
    联系邮箱:
    *验 证 码:

    粤公网安备 44030502002758号