Meta公司近日宣布,其Ray-Ban智能眼镜将推出三项全新功能:实时AI、实时翻译和Shazam。其中,实时AI和实时翻译功能目前仅限于Meta早期访问计划的成员使用,而Shazam功能则面向美国和加拿大的所有用户开放。
实时AI和实时翻译功能最早在今年早些时候的Meta Connect2024大会上被预告。实时AI允许用户在眼镜持续观察周围环境的同时,与Meta的AI助手进行自然对话。例如,当你在杂货店的农产品区浏览时,理论上你可以让Meta的AI根据你正在查看的食材推荐一些食谱。Meta表示,在充满电的情况下,用户每次可以使用实时AI功能大约30分钟。
与此同时,实时翻译功能可以让眼镜在英语与西班牙语、法语或意大利语之间进行实时语音翻译。你可以选择通过眼镜本身听到翻译结果,也可以在手机上查看翻译文本。你需要预先下载语言对,并指定你和对话伙伴分别使用的语言。
Shazam功能则更为直接。当你听到一首歌时,只需要提示Meta AI,它就应该能够告诉你正在播放的歌曲是什么。Meta首席执行官马克·扎克伯格在Instagram视频中演示了这一功能。
如果你的眼镜尚未显示这些新功能,请确保你的眼镜正在运行v11软件,并且你的Meta View应用程序正在运行v196版本。如果你还未加入早期访问计划,可以通过该网站申请。
此次更新正值科技巨头们将AI助手作为智能眼镜核心卖点之际。就在上周,谷歌发布了专为智能眼镜设计的全新操作系统Android XR,并特别强调其Gemini AI助手是杀手级应用。与此同时,Meta首席技术官安德鲁·博斯沃思也在博客中撰文指出,“2024年是AI眼镜取得长足进步的一年”。博斯沃思还断言,智能眼镜可能是“真正以AI为原生”的设备最佳形态,并且是第一个从一开始就被AI完全定义的硬件类别。
总而言之,Meta智能眼镜此次的功能升级进一步证明了AI在可穿戴设备领域的巨大潜力,而各科技巨头之间的竞争也将进一步推动智能眼镜技术的快速发展。