长期以来,外界普遍认为 Apple Glass 将是苹果在头戴式计算领域的下一个重要布局。尽管苹果的终极愿景是推出具备增强现实(AR)功能的智能眼镜,但首款上市产品的功能将大幅简化,且距离发布已为期不远。据分析,苹果计划在未来 12 至 16 个月内正式进军智能眼镜市场,这意味着消费者最快可能在 2026 年底看到这款产品的面世。
这款备受期待的首款智能眼镜将采用无显示屏设计,直接对标 Meta 与雷朋合作推出的智能眼镜系列。该产品将配备摄像头和支持播放与录音的音频系统,但需依赖 iPhone 进行数据处理,延续了苹果配件类产品的设计思路。相比之下,Meta 的 Ray-Ban 智能眼镜售价在 300 至 379 美元之间,而苹果尚未公布其智能眼镜的定价策略。值得注意的是,Meta 计划最早于明年为其 Ray-Ban 眼镜添加显示屏,这可能会加剧市场竞争。
尽管首款产品功能相对基础,但苹果在设计上仍将展现其优势。据悉,该智能眼镜将提供多种材质和镜框选项,包括金属和塑料框架,用户可根据喜好选择颜色和风格。苹果还在测试将 3D 打印技术应用于产品制造,以提升设计灵活性和生产效率。操作方面,该产品有望支持轻触拍照等触控控制及语音控制功能,并通过 LED 灯提示摄像头激活状态。
然而,真正实现通过镜片显示内容的完整 AR 智能眼镜体验仍需时日。苹果面临的主要挑战在于设备的微型化、减重技术以及电池续航等问题。苹果的目标是让最终产品尽可能接近普通轻量眼镜的形态,而非像 Apple Vision Pro 那样笨重。业内专家预测,苹果至少需要三到五年时间才能完善真正的 AR 眼镜概念设计。
关于苹果智能眼镜的发布时间,业内存在不同看法。并认为苹果可能最早在 2026 年推出这款智能眼镜,同时也预计发布时间可能推迟至 2027 年。另外还透露,苹果计划从 2027 年开始发布多款头戴式设备,其中类似雷朋的智能眼镜预计 2027 年出货量将达 300 万至 500 万台或更多。
苹果在智能眼镜领域的核心优势在于其强大的品牌影响力和生态系统整合能力。现有 iPhone 用户很可能因品牌忠诚度而选择苹果智能眼镜。与 Meta 等竞争对手不同,苹果能够轻松实现智能眼镜与 iPhone 的深度整合,而 Meta 的智能眼镜在与 iPhone 兼容时面临诸多困难。这种生态协同能力被视为苹果智能眼镜的关键竞争力。
为增强其智能穿戴生态,苹果还在研发内置摄像头的 AirPods。这款产品搭载的红外感应摄像头可检测用户所处环境,并将视频数据传输至 iPhone 和 Apple Intelligence,支持计算机视觉相关功能。结合 AirPods 现有的音频功能,这款设备有望具备当前主流智能眼镜的核心功能。
更值得期待的是,配备摄像头的 AirPods 与智能眼镜可能形成协同工作模式。通过多摄像头视角与多角度拍摄,Apple Intelligence 将能获取更丰富的数据;同时,结合 AirPods 现有的高品质音频驱动单元与麦克风,整套系统的音视频体验或将得到显著提升。这一组合有望为用户带来更全面的空间感知和交互体验。
在技术支撑方面,苹果正在为智能眼镜开发基于 Apple Watch 芯片架构的低功耗系统级芯片 (SoC),专门针对能效进行了优化。这款芯片将支持拍照、录像、实时翻译等基础功能,并有望引入环境扫描、物体识别等 "视觉智能" 类功能。
苹果首席执行官对 AR 技术的重视表明,智能眼镜已成为苹果的战略重点。尽管面临诸多技术挑战,苹果仍在持续投入,旨在打造一款能够让用户全天佩戴、轻巧便携的 AR 眼镜。首款无显示屏智能眼镜的推出,或将成为苹果实现这一长期愿景的重要一步。