北京时间8月29日消息,Uber工程博客最近刊发一篇有趣的文章,从内容看Uber使用Web式工具提炼自动驾驶汽车收集的研究数据,将它变成视觉图像。无独有偶,上周《大西洋月刊》也刊发一篇长文,说Waymo开发了相似的平台。
《大西洋月刊》的文章很有趣,它似乎暗示谷歌改进无人驾驶AI的方法很独特。真是这样吗?不是的,似乎每一家研究无人驾驶的公司都采用了相似的方法。
当测试汽车行驶了很远的距离,企业会获得大量数据。你可以在虚拟环境中让数据组合、匹配,让AI在虚拟环境中导航,就像在真实世界导航一样。计算机并不知道二者是有区别的。与此同时你可以调节数据,观察非常规事件,对多个模型进行对比。
Uber文章谈论的重点在于数据的“可视化”,它还详细介绍了自己的工具,工具是以Web作为基础的,这样协作起来更容易,开发新功能时调整方向也更简单。现在Web应用程序已经可以访问GPU,实时通信,完成许多任务时不再需要本地客户端。Web应用程序还可以用来显示GIF图像。
有一点是博文没有谈到的:修饰环境,让它从整个背景中突显出来,从而进一步放大数据的价值,Uber是如何做的?例如,系统如果碰到游行抗议一样的大事件如何处理?举办马拉松比赛时是不是让汽车自由行驶,这样就可以了解跑步者是如何行动的?显然不行。
最好的办法就是拿一张波士顿地图,这张地图相当好,然后关闭一些主干道,向虚拟世界增加许多行人和古怪的司机,然后让AI驾驶代理在虚拟世界穿梭。一旦出现问题,你能看到AI如何对事件做出反应,这些事件是它在真实世界未曾经历过的。整个过程相当于“思维实验”,它可以生成有用的数据,用来改善AI。