去年年底,谷歌将未来发展战略从“MobileFirst”调整为“AIFirst”。
“你能想到的每一样Google核心产品,背后都有机器学习和深度学习技术。”在昨日的谷歌I/O2017开发者大会上,谷歌CEOSundarPichai表示,在AI-first的世界里,公司正在反思所有的产品。
的确,谷歌正在从AI的视角重审已有的产品——推出了进阶的图像识别应用GoogleLens,对抗英伟达深度学习工具GPU的TPU,还将AI理念渗透到了Android系统中。这种对产品的反思源自对AI技术的重视,也有来自竞争者抢跑压力的倒逼。
从谷歌CEO的演讲中也可以明显感受到“MobileFirst”到“AIFirst”的转变。SundarPichai对AI技术的阐述时间最长、最为深入;本届开发者会议上的所有重要信息几乎都和人工智能有关,谷歌还设立了Google.ai,该网站汇集了谷歌最新的AI研究成果、工具与应用,与外界分享这些信息。
而曾经引人注目的VR、AR,重要性已经有所下降,尽管“不需要手机的VR设备”宣传片依旧精彩,但远比不上谷歌对发展AI的重视。
在这次开发者大会上,第一个体现谷歌AI技术的新增的产品是GoogleLens。通过GoogleLens这一应用,手机摄像头在拍摄照片时可以识别画面上的事物——比如花的种类,翻译商店名称和(外文)菜单上的菜品名称,还有连WiFi。
Lens的想法与“通过Google搜索图片”和曾经的GoogleGlass相似,而后者的推广效果不及预期,谷歌在2015年宣布停产,但依旧继续技术开发。
这一次,跟随AI迅速发展的脚步再次回归图像功能,谷歌称已经将这种想法“变得更加实际”。“通过计算机来理解视频和图像对我们的核心目标有着深远的意义。”谷歌CEOSundarPichai称。
谷歌在AI技术上的不断跟进,一定程度上是源自亚马逊的压力。亚马逊的智能语音助手Echo是AI时代最抢先的产品,2016年,Echo这一智能音箱就售出了600多万台,在销量最高的美国市场份额超过7成,远超23.8%的GoogleHome。
亚马逊的Echo在2014年面世,而GoogleHome刚刚推出一年。
另一AI技术的体现是为人工智能而设计的TPU芯片。一代芯片在去年的I/O开发者大会上亮相,只能用于深度学习的第一阶段,而这一次,二代芯片能让神经网络对数据做出推论,进一步用于图像识别、语音识别——GoogleLens是应用,TPU是工具。
而TPU也体现了,谷歌不希望在核心计算设施上依赖其他公司。英伟达的图像处理单元(GPU)一直被推崇为最好用的深度学习处理工具,谷歌此前也一直使用GPU来进行高强度的深度机器学习,是英伟达的重要客户。
而在AndroidO系统中,也内置了基于AI的细小功能,如利用AI识别邮件里的关键信息等。