共计 1613 个字符,预计需要花费 5 分钟才能阅读完成。
智能眼镜的新起点:AI 赋能改变体验
在 2024 年 Google I/ O 开发者大会上,一款神秘的智能眼镜亮相,配合新一代 Gemini 模型,它能实时识别生活中的场景和物品,并通过 AI 整合信息后,给用户提供智能化建议。这表明“AI+ 智能眼镜”的落地方案正在逐渐成型,成为业内和用户期待的焦点。
与此同时,智能眼镜品牌 solos 推出了内置 GPT-4o 的新品——Solos AirGo Vision。这款眼镜虽没有配备显示屏和独立芯片,但通过连接手机依托 GPT-4o 强大的 AI 能力,实现了实时识别和语音反馈,体现了 AI 与轻便智能穿戴的新尝试。
Solos AirGo Vision:轻巧设计背后的 AI 力量
Solos 是一家专注智能眼镜的企业,旗下有 Argon、Helium 和 AirGo 系列。AirGo Vision 属于其中,主打轻便与时尚,重量仅约 34 克(不含镜片),支持多种镜架和镜片选择。由于轻巧,眼镜本身没有显示屏,也无独立处理器,需要通过手机来完成复杂 AI 任务。
为了提供视觉识别功能,Solos 在镜框上嵌入了摄像头,能够长时间捕捉和识别现实世界中的物体和场景。镜腿内置扬声器,支持通过语音向用户反馈识别结果,同时配备 LED 灯提醒未读消息和未接电话。
用户通过摄像头捕获信息,并将查询需求发送给 GPT-4o,后者给予语音回复。未来,Solos 还计划接入 Google Gemini 和 Anthropic 的 Claude AI,丰富搜索和交互体验。
智能穿戴的 AI 探索:轻量化 VS 独立性
当前智能穿戴市场对 AI 融合的探索仍处于初级阶段。许多 AI 终端产品难以突出自身独特优势,反而被功能更全面、性能更强的 AI 手机所覆盖。相比之下,智能眼镜具备更好的发展潜力,能够为用户提供随时随地的智能辅助。
例如,Meta 推出了支持 AI 大模型的 Ray-Ban 智能眼镜,配备显示屏和高通骁龙 AR Gen 1 芯片,具备本地处理能力,而 Solos 的 AirGo Vision 则更依赖手机端处理。Meta Ray-Ban 能够在拍照、语音助手等多方面实现 AI 功能,给用户带来更多便利和互动体验。
虽然 Solos AirGo Vision 简化了硬件,去除了 SoC,带来了轻便使用体验,但也意味着功能受限,主要通过语音反馈,无法像 Meta 或 Apple Vision Pro 那样实现丰富多样的空间交互。
智能眼镜的市场潜力与挑战
智能眼镜多年未能扩大市场主要因实用性不足。用户普遍认为手机或电脑能完成大多数工作,难以认同智能眼镜的附加价值。然而,结合 AI 技术后,智能眼镜的便利性和场景适配性可能获得质的提升,超越手机的局限。
市场研究数据显示,全球智能眼镜出货量从 2021 年的约 100 万台预计增长至 2025 年的 700 万台,年均增长超 30%。这离不开 AI 技术的驱动,以及各方对智能眼镜新形态的持续探索。
例如,中国智能眼镜企业李未可科技推出了搭载自主开发的 WAKE-AI 大模型的 AI 眼镜,赢得广泛关注。行业中围绕是否采用本地 AI 处理还是依赖手机端服务仍有分歧,Meta Ray-Ban 与 Solos AirGo Vision 正是两种不同思路的代表。
展望未来:AI 赋能智能眼镜走向多元化
未来,随着 AI 技术的不断成熟,智能眼镜的功能将更加丰富,应用场景更为多样。无论是依赖本地芯片,还是轻量化手机连接模式,AI 将提升设备的智能化水平和用户体验,为市场带来可持续增长的动力。
同时,产业链也在不断完善和调整,比如苹果计划推出更轻便、更亲民的 Vision Pro 版本,尝试用更优的设计吸引用户走进智能眼镜时代。
总的来说,智能眼镜市场正迎来“决赛圈”,AI 的加持为其注入了强大生命力。从实际产品与市场反响看,像 Solos AirGo Vision 这样的 AI 眼镜提供了另一种可能,也让我们对智能穿戴设备未来的发展充满期待。
是否能成为市场的领导者,还需要产品真实上市和消费者的反馈来验证。但毫无疑问,AI 正推动智能眼镜从边缘化走向主流,开启真正智能化的穿戴新时代。