谷歌不仅要教 AI 拥抱、做菜、打架、画画,现在还要教它们在没有地图的情况下导航?谷歌是要把 AI 培养成跟我们一样的小伙伴嘛......
最近,谷歌 DeepMind 开发了一种新的人工智能技术,可以通过“步行”来了解城市街道,从而让 AI 在没有地图的情况下完成导航。
DeepMind 的研究员 Piotr Mirowski,Raia Hadsell 和 Andrew Zisserman 合作进行此项研究,他们也说出了研究意图。
他们认为,AI 也该具备和人一样的导航能力。人和动物在没有地图的情况下也能找到自己想去的地方。
这一点今后的 AI 也能做到,这样的远程导航可以同时支持自我定位(我在这里)和目标定位(我要去那里)。
具体怎么操作呢?DeepMind 团队想创造一个深度强化学习模型,用符合人类直觉的空间认知方式串联所有街景画面,重塑出行导航方式。
他们想让 AI 去实地探寻学习,结合谷歌地图里真实采集的街景数据对它们进行训练,最后达到认路的目的。
研究人员通过训练神经网络来构建 AI。训练的时候是采取奖励制的,就是说如果AI能顺利规划出前往目的地的路径时,就会获得奖励,久而久之它们就长了记性。
掌握了新技能的 AI 有什么用呢?最重要的用途之一得数自动驾驶汽车领域了。
AI 可以帮助自动驾驶汽车在地图不准确或不可用的地区进行导航,这样一来,汽车就可以与其他车辆共享信息,从而变得更加智能。
不过现阶段科学家们还没有在自动驾驶汽车上实验这个 AI,相信不久的将来它们会派上用场的。
除此之外,AI 还能帮人类导航,在人们不熟悉的地方提前告知周边环境信息。或许,等这项技术真正成熟了,我们就再也不会遇到看着地图找不对目的地的尴尬情况了。
谷歌教AI拥抱、做菜和打架
谷歌去年 10 月宣布他们建了一个新的电影片段数据库,要用它来帮助 AI 理解人类在生活中的举止。
这个数据库的名字叫做 AVA,里面的视频大多三秒左右,都是人们生活中的场景,比如做饭之类的。
但是每一个片段都有一个绑定文档将机器需要学习的人物的动作标记出来,并描述出主人公的姿势,以及他们正在接触的是人还是物体。
视频中的人数超过一个时,系统会把每个人标上不同的标签,如此一来,AI算法就会发现,正常社交中两个人见面是需要握手的。
目前,谷歌用此 AI 系统来分析 Youtube 上成千上万的视频内容。AI 可以根据用户正在看什么来为你推荐相关内容。
不过谷歌的最终目标时让 AI 学会人的一些动作,AVA数据库有着 57,600 条标好标签的视频,包含了 80 种动作。
例如站立,说话,聆听和行走这样的简单动作,每一个都在数据库中有着超过一万条视频标签。未来AI通过不断的学习来掌握这些简单动作也是有可能的。
谷歌教AI画画
来看看这些可爱的猫头鹰
> 去年年底,谷歌研发出 AI 绘画系统 SketchRNN,这个系统不是牛在它可以画画,而是它可以用类似于人类的方式概括归纳抽象的概念!以前这是只有人类才能做到的事情。
厉害吧,虽说有些画的也没那么像,但是人家毕竟是 AI,也就知足吧。
业务咨询热线:
020 - 38326679 400-678-3623