分类: IT业界
2025-03-24 19:30:26
未来的耳机和手表,可能要开始“长眼睛”了。
据彭博社透露,计划于 2027 年推出的新款 Apple Watch 将搭载摄像头,并与视觉智能深度绑定,让 AI 拥有环境感知能力,试图让手腕成为继手机之后的下一个 AI 入口。
在设计细节方面,设计团队采用了两种方案:较轻薄的标准版摄像头直接嵌入屏幕,延续 iPhone 的美学洁癖。而较厚的 Ultra 版则将镜头侧置于表冠旁,用户只需转动手腕即可扫描环境。
这种差异可以满足不同用户的需求,前者讨好大众市场的隐蔽需求,后者满足一些用户对功能性的执着。而苹果的野心不止于此:同期研发的带摄像头 AirPods,将与手表组成“听觉+视觉”感知矩阵,相当于为 AI 装上人类的五官。
苹果这种“放飞自我”的设计,实则是对视觉智能的重新定义。
与其他产品执着于视频通话不同,苹果刻意弱化了拍摄功能,转而聚焦环境感知:例如扫描餐厅招牌可以自动推送点评,甚至通过宠物品种识别就能推荐附近的宠物店……这些场景背后,是苹果试图将去年 iPhone 16 首发的 AI 视觉功能移植到可穿戴式设备,将 AI 视觉功能作为未来设备的核心。
为实现这一点,苹果正加速摆脱对 ChatGPT 等第三方模型的依赖,计划在 2027 年用自研 AI 模型驱动全生态,端侧算力与云端调度的协同成为关键战役。
与此同时,苹果公司为了重振因长期延误而停滞的AI项目,近期经历了AI团队高层换血,主要涉及人工智能、Siri 以及 Vision Pro 项目,Apple Vision Pro 负责人将接手AI项目,带领团队进行 AI 视觉方面的产品研发。
可以看出,苹果的布局也透露出了对未来的敏锐洞察。Meta 用智能眼镜探索AR,苹果则选择以手表为跳板。未来,搭载摄像头的 Apple Watch 或许能与 Vision Pro 联动,用手腕动作控制虚拟界面,用环境感知增强 AR 导航。而更深层的颠覆在于交互逻辑:当AI能通过摄像头看见世界,语音助手将进化成场景管家,预判用户需求。
不过,全天候环境感知也意味着隐私边界的模糊化——当手表镜头不经意扫过机密文件或陌生人的面孔,可能会引发数据隐私等问题。
但如果苹果用可穿戴设备打开了 AI 服务新入口,那么未来的智能产品将更加贴近生活,为用户提供更智能、更便捷的交互体验。
苹果手表的摄像头或许不是{BANNED}{BANNED}最佳佳惊艳的创新,却有可能改写人机交互的底层规则:当智能设备学会用人类的视角观察世界,硅基与碳基的共生,便真正进入了倒计时。
大家怎么看?欢迎在评论区留言讨论哦~