火星科技网您的位置:首页 >科技数码 >

Google让AR和Lens更接近搜索的未来

导读 想象一下,你正在考虑的椅子,你在Google上搜索了一些尝试在你的客厅。或者,您正在查看东京的地铁地图,您会看到有关突然出现的路线的建议

想象一下,你正在考虑的椅子,你在Google上搜索了一些尝试在你的客厅。或者,您正在查看东京的地铁地图,您会看到有关突然出现的路线的建议,并将其翻译成您自己的语言。谷歌AR和谷歌镜头的速度比你想象的要快。

我在谷歌I / O 2019之前在山景城的沉浸式实验室中,通过我手中的手机镜头看着餐桌上的餐馆菜单。什么看起来有趣的订购?显示屏闪烁,突然出现的选项对我来说很突出。

这些不是您可能与AR和VR相关的狂野舞龙或全息头像。没有神奇宝贝可以找到,或者可以尝试奇怪的新耳机。相反,今年谷歌的增强现实愿景是对实用和援助的双重关注,因为AR来到谷歌搜索和谷歌镜头旨在帮助人们阅读。虽然它可能比过去几年更加驯服,但它并不像最近涉及Marvel和Childish Gambino的Google AR项目一样华丽,谷歌试图合法地提供帮助。在数十种智能眼镜和AR耳机出现之后,我们需要真正的理由来使用这种技术。谷歌可以找到前进的方向吗?.

谷歌眼镜早期采用智能眼镜已经六年了,自谷歌探戈实验性AR手机推出五年以来,谷歌镜头提供了一种用手机摄像头扫描世界的方式已有两年。谷歌对AR的看法可能正在转变,也许这是不可避免的。随着手机中的AR从新奇现实到无处不在的现实,谷歌的下一个任务似乎是寻找AR的良好用途 - 至少在未来的智能眼镜,耳机或其他设备准备好使用谷歌的学习之前。

“我们认为,与技术,特别是增强现实走到一起,有这个机会,谷歌是大大更有帮助,”说克莱Bavor,虚拟和增强现实的副总裁,对各种AR更新的谷歌今年已经来临。你可能还会说谷歌正在为下一件大事奠定基础。该公司必须成为一个尚不存在的服务世界的数字粘合剂。就目前而言,这意味着让计算机视觉更加有效,不仅仅是在Android上,而且在iPhone上也是如此。谷歌今年获得了一些新的实验性想法。这就是他们喜欢的。

使用AR的Google搜索感觉就像是即时全息图

我在搜索“tiger”时看到一个可点击的文件,它会启动一个带有咆哮声的动画3D文件。然后我可以在房间的AR中发射它,嘿,现实的AR老虎。我可以将NASA的火星好奇号探测器的比例模型放入房间,或人体手臂骨骼和肌肉组织的解剖模型。

谷歌今年正在向搜索引入AR,这就是它的工作原理:兼容的Android和iOS设备将在搜索中看到3D对象链接,这将带来3D模型,然后可以在AR中以适当的规模放入现实世界。Google搜索将使用glTF格式合并3D文件,而不是ARKit在iOS 12中使用的Apple的USDZ格式。据Google称,开发人员只需添加几行代码即可使3D资源显示在Google搜索中。

“任何拥有3D资产的人,很多零售合作伙伴都会这样做,像Wayfair或Lowe这样的人,他们所要做的就是三行代码,”相机副总裁兼总经理Aparna Chennapragada说道。 AR产品。“内容提供商不必做太多其他事情。”谷歌已经与NASA,New Balance,三星,Target,Visible Body,Volvo和Wayfair合作,将3D资产整合到Google搜索中。AR效果将启动到名为Scene Viewer的新Android功能中。

当我尝试一些演示时让我感到震惊的是一个简单的想法:我使用谷歌搜索作为我思考方式的延伸。如果支持AR的搜索最终可以添加到一副AR眼镜中,那么它可能意味着毫不费力地将对象变成现实世界,而根本不会启动任何应用程序。

谷歌镜头不断发展,从用餐帮助开始

与此同时,使用谷歌镜头已经感觉就像一副没戴眼镜的智能眼镜。支持相机的应用程序已经可以用于对象识别,翻译,购物和识别世界。

但谷歌正在探索全新一轮的镜头功能,这些功能在2019年进一步推动了Lens,从细粒度到深远,这些都开始在AR中更积极地将事物叠加到世界。Chennapragada说:“我们正在使用谷歌镜头并从'哦,这是一个识别工具,这是什么,向我展示这样的东西'到AR浏览器,这意味着你可以将信息直接叠加在相机上。”

我亲眼目睹了谷歌镜头的最新功能,他们开始觉得像现实一样改变现实。镜头现在可以显示来自其他语言的翻译,这些翻译可以无缝地映射到标志或对象上并粘贴在空间中,就像文本真的存在一样。这是谷歌翻译中的一种演变,但现在谷歌将从餐厅菜单开始分析整个文档的背景。

标签:

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。