微软的研究人员通过模拟训练人工智能来控制真实世界的无人机


在一篇预印稿中,微软的研究人员描述了一个机器学习系统,它能直接从相机图像中推断出正确的动作 。它通过模拟训练,学会在真实世界中独立导航环境和条件,包括看不见的情况,这使它适合部署在搜索和救援任务中的机器人 。总有一天,它可以帮助这些机器人更快地识别出需要帮助的人 。
研究人员在本周发表的一篇博文中写道:“我们想推动现有的技术,以更接近人类解读环境线索、适应困难环境和自主操作的能力 。”“我们有兴趣探索这样一个问题,即需要什么条件才能建立达到类似性能水平的自主系统 。”
团队的框架明确地分离了感知组件(即从控制策略(根据它所看到的来决定要做什么)中获取它所看到的内容 。受人类大脑的启发,它将视觉信息直接映射到正确的控制行为上,即通过将高维的视频帧序列转换为概括世界状态的低维表示 。研究人员表示,这种两阶段的方法使模型更容易解释和调试 。
该团队将他们的框架应用到一个带有前置摄像头的小型四轴飞行器上,试图“教授”一种人工智能策略,使其仅使用来自摄像头的图像就能在比赛过程中导航 。他们使用一种名为AirSim的高保真模拟器对人工智能进行模拟训练,然后将其部署到一架真实的无人机上,无需进行任何修改,使用一种名为跨模态变分自动编码器(CM-VAE)的框架来生成能够紧密弥合模拟与现实之间差距的表示 。
系统的感知模块将输入图像压缩到上述的低维表示中,从27,648个变量压缩到最基本的10个变量 。解码图像提供了无人机所能看到的前方的描述,包括所有可能的门的大小和位置,以及不同的背景信息 。
研究人员在一条45米长的s型轨道和一条40米长的圆形轨道上测试了该系统的性能 。他们说,使用CM-VAE的策略明显优于端到端策略和直接编码下一个门位置的AI 。尽管有来自背景条件的“强烈”视觉干扰,无人机还是通过使用跨模态感知模块完成了课程 。
两位合著者断言,研究结果显示了在现实世界应用中“巨大的潜力” 。例如,该系统可以帮助自主搜索和救援机器人更好地识别人类,无论年龄、大小、性别和种族差异,使机器人有更好的机会识别和检索需要帮助的人 。
研究人员写道:“通过将感知-动作回路分成两个模块,并将多个数据模式合并到感知训练阶段,我们可以避免过度拟合我们的网络以适应输入数据的非相关特征 。”“例如,尽管方形门的大小在模拟和物理实验中是相同的,但它们的宽度、颜色,甚至相机的内在参数都不是完全匹配的 。”
这项研究是在微软发布“无人机挑战”游戏之后进行的,该游戏让四轴飞行器的人工智能系统在AirSim模拟中进行竞争 。微软去年将AirSim引入了Unity游戏引擎 。
【微软的研究人员通过模拟训练人工智能来控制真实世界的无人机】

    推荐阅读