Meta Ray-Ban Display眼镜将引领AR眼镜的智能化应用落地
2025 年 9 月,Meta 发布了首款带显示屏的 AI 眼镜 Meta Ray-Ban Display,为可穿戴设备带来了革命性创新。它被视为 AR 眼镜智能化应用落地的关键一步。这款产品并非传统的“全沉浸式 AR 头显”(如微软的HoloLens、apples公司的Vision Pro),而是以 “轻量化个人超级智能” 体验为核心。它通过将 经典 Ray-Ban 时尚设计 与 非侵入式 HUD(抬头显示器) 相结合,实现了科技的日常佩戴。尤其值得关注的是,其搭载的 手腕神经肌电 (EMG) 手势交互技术,开创了智能眼镜静默、便捷的交互先河,以及69g的重量和6小时的续航能力证明了 AI 硬件正在从笨重的概念机走向大众消费级,有力地推动了 AR 体验向更智能、更无缝的日常应用场景拓展,为AI的应用落地又提供了一种新的接入途径。Vision Pro引发的人机交互重大变革文章详见之前文章。
一、主要功能
1. 智能交互与 AI 视觉(显示驱动)
这款眼镜最大的突破在于其右镜片内集成的彩色高分辨率单目显示屏 (HUD),并深度集成了 Meta AI。
- 免提信息速览: 屏幕可以私密地显示来自 WhatsApp、Messenger 和 Instagram 等应用的消息通知、天气、日历提醒,无需掏出手机。
- AI 视觉回应: Meta AI 不仅能通过语音回答问题,还能在镜片上显示视觉化的结果。例如,询问附近的餐厅,眼镜会直接显示地图和方向指引;询问如何操作某设备,AI 可以显示分步指导图示。
- 实时翻译与字幕: 眼镜具备实时字幕功能,能在嘈杂环境中将对话内容转为文字显示。同时支持实时翻译,当与不同语言的人交流时,翻译后的文字会直接出现在您的视野中。
- 步行导航: 提供手机解放式的步行导航,转弯指示和路口信息会以简洁的视觉提示显示在镜片下缘,让您专注于前方的道路。
2. 实时拍摄与社交分享(摄像头驱动)
眼镜内置了高分辨率摄像头和音频系统,专注于捕捉和分享第一视角的精彩瞬间。
- 第一视角拍摄: 内置 12MP 超广角摄像头,支持拍摄高质量的照片和最高 3K/30fps 的视频。您可以纯粹通过语音命令(例如:“Hey Meta,拍照”)或手势进行拍摄。
- 实时取景器: 由于有了显示屏,您可以在拍摄前通过镜片上的 HUD 取景器进行预览、构图,确保拍出完美照片,这是前代产品不具备的。
- 免提视频通话: 支持在 WhatsApp 和 Messenger 上发起双向视频通话。对方可以在屏幕上看到您的脸,而您则可以在镜片上看到对方的影像,同时分享您眼前的实时景象。
3. 全新交互与音频体验(神经腕带驱动)
Meta Ray-Ban Display 需搭配其突破性的 Meta Neural Band(神经腕带)使用,这带来了全新的交互方式。
- 神经肌电控制 (EMG): 腕带通过读取手腕肌肉的微弱电信号,将细微的手指动作(如捏合、滑动、旋转)转化为对眼镜的操控指令。这使得在嘈杂或不便说话的环境中,也能安静且直观地操作眼镜。
- 音频功能: 配备开放式音频扬声器和定制麦克风阵列,用于播放音乐、播客和接听电话。其指向性音频设计在保证音质的同时,也让周围的人不容易听到。
- 对话聚焦: 具备软件算法,能在嘈杂环境中放大与您对话的人的声音,从而提高通话或面对面交流的清晰度。
- 免提通信: 通过语音命令,可以直接拨打电话、接听电话,并发送文字或语音消息。
二、技术原理
Meta Ray-Ban Display 的技术核心主要是三个关键部分的协同:非侵入式光学显示、多模态 AI 引擎、创新的神经接口控制。
1. 光学显示:隐形 HUD
- 技术类型: 采用光波导 (Waveguide) 或类似的微型光学引擎技术(通常是 Micro-OLED 投影)。
- 显示特点: 图像由一个极小的微型投影仪投射到眼镜镜片的特定区域(通常是右眼下角)。这形成一个全彩、高分辨率的“抬头显示器”(HUD)。
- 核心优势: 与 Rokid 或 XREAL 等 AR 巨幕眼镜的完全遮蔽式显示不同,Meta Ray-Ban Display 的显示区域极小,只用于显示瞥視即讀的简短信息(如通知、导航箭头)。平时显示器处于隐身状态,不遮挡用户的视野,确保了日常佩戴的舒适性和安全性。
2. 交互控制:神经肌电信号 (EMG)
- 技术核心: 眼镜需要搭配 Meta Neural Band(神经腕带)使用。这个腕带使用了 EMG(Electromyography,肌电图)技术。
- 工作方式: EMG 腕带能够读取用户手腕肌肉运动产生的电信号。即使是手指的微小动作(例如拇指和食指的轻微捏合、滑动),腕带也能将其识别并转化为操作指令。
- 实现功能: 这种“念头一动”式的控制,可以实现:在显示屏上滚动信息、快速发送回复、调节音量、启动拍照或录像等,而无需触摸眼镜或掏出手机,提供了在公共场合下的私密和静默操控能力。
3. AI 核心引擎:视觉语言模型 (VLM) 驱动
- 核心芯片: 搭载高通或定制的 AI 芯片(例如骁龙 AR 平台上的 AI 引擎),负责端侧的传感器数据处理。
- AI 引擎: 深度集成 Meta AI(基于 Meta 的大语言模型 Llama 等)。通过眼镜的麦克风阵列(听觉输入)和 12MP 摄像头(视觉输入),实现多模态感知。
- 视觉反馈: VLM 能够分析摄像头捕获的图像,并结合用户的语音提问,生成视觉化的回答,直接显示在 HUD 上,例如识别眼前的地标、翻译看到的菜单或提供实时的步骤指导图。
三、应用场景
应用场景主要聚焦于日常生活、移动沟通和 AI 辅助
1.信息提示
- 导航:步行/骑行时,方向信息直接显示在镜片中。
- 通知:消息、来电、健身/运动训练数据、提醒可在眼前显示,而不用掏手机。
- 实时字幕:跨语言对话时可显示字幕翻译。
2.AI 助手
- 语音问答:直接通过语音调用 Meta AI(类似 ChatGPT 的实时辅助)。
- 实时翻译:旅行、跨境交流场景非常实用。
- 知识检索/笔记:例如边走边问问题,眼前直接显示关键信息。
3.内容创作与社交
- 拍照/录制视频,第一视角分享。
- 与 Instagram / Facebook / weichat 生态深度结合,快速发布。
- 使用开放式音频扬声器听音乐、接电话,并能通过手势控制音量和曲目。
4.工作/交流助手
- 开会/演讲:眼前显示提词信息或会议要点。
- 任务辅助:如维修/装配时查看步骤提示。
- 面对面交流时,AI实时将对话翻译成文字,显示在镜片上。