当前位置: 首页 > news >正文

【Scene Transformer】scene transformer论文阅读笔记

文章目录

      • 序言
      • (Abstract)
      • (Introduction)
      • (Related Work)
      • (Methods)
        • (Scene-centric Representation for Agents and Road Graphs)
        • (Encoding Transformer)
        • (Predicting Probabilities for Each Futures)
        • (Joint and Marginal Loss Formulation)
      • (Results)
      • (Discussion)
      • (Questions)

 

scene transformer模型架构
掩码策略进行独立/联合预测

序言

  • 论文: https://arxiv.org/pdf/2106.08417v3
  • 代码: https://github.com/Chen-Albert-FENG/SceneTransformer
  • 年份: 2021.06
  • 数据: argoverse + waymo

(Abstract)

  • 核心思想: 受语言模型的启发, 在模型中使用序列掩码策略作为Query, 通过改变数据的可见性,允许用多种方式进行预测(MP,CMP,GCP),如给定自车的goal或自车完整轨迹或其他agent的行为,以这些为条件来进行多目标预测,估算被掩码掉的未来时间和agents的feature

  • 即:

    • Quety ---- 自车goal或自车完整轨迹或agent行为
    • Result — 多目标预测结果
  • 文章采用的注意力机制结合了agent时间步, agents之间交互和道路元素之间的特征

  • 文章独立预测和联合预测都做了, 并在当时获得了最优结果, 但现在在waymo online排行榜中并不靠前

(Introduction)

  • 以前将自动驾驶任务划分为sub-task的方式是基于各个模块(感知,预测,规划)真正独立的假设, 但这个假设是不成立的,不光是模块化之后存在信息丢失,还因为自车和目标之间是互相影响的. 基于此文章提出了联合运动预测与规划的模型, 支持多目标多轨迹同时预测规划

  • 交互式预测要求建模联合特征joint features, 以保持agents未来轨迹的一致性. 建模joint feature最简单的方法是agents独立预测的结合, 但这种结合不具有一致性, 尤其是在轨迹重叠的时候没法避免重叠. 文章提出的模型天然的能捕获agents之间的交互, 得到场景级scene-level的agents预测结果

  • 文章给出了一种从规划角度的一种联合预测规划的方法

  • 文章支持多目标多模态的预测, 难点也就是目标本身行为的多样性(diverse)以及目标对彼此轨迹的影响(influence)

  • 为什么要进行联合预测呢: 首先因为运动预测和规划的子任务并不是真正独立的, 自车也会影响其他agent的行为, 而且独立预测的方案不利于表示不同agent之间未来的交互问题, 由此得到的规划也是次优(sub-optimal)的轨迹

  • 边缘预测 vs 联合预测 (marginal/independent prediction vs. joint prediction)

    • 边缘预测: 未来时刻, 不同agent之间的预测轨迹可能有冲突部分, 轨迹相交
    • 联合预测: 未来同一时刻, 不同agent之间的轨迹不会相交, respect each other’s prediction
  • 按照文章的说法, 文章的贡献在于:

    • (1) 以场景为中心的方法, 能够进行边缘/独立和联合预测的切换, 并都达到当时的SOTA
    • (2) 利用了置换等变的transformer架构, 考虑了agents/timesteps/road元素, 高效的架构
    • (3) 一种掩码序列建模方法, 在推理时以假设的代理未来为条件, 实现条件运动预测或目标条件预测

(Related Work)

  • 早期使用CNN捕获栅格图内元素间关系,但是处理空间交互时很困难;
  • 还有entity-centric的方法,使用RNN等方法编码历史特征,编码地图Pose信息和语义信息,通过信息聚合来捕获entity之间的关系,聚合方法包括池化、自注意力、GNN等方法;
  • 文章觉得之前的文章利用了transformer注意力机制的方法是在不同轴分别进行注意力分析再把结果展平到一起进入联合自注意力层,文章提出的方法能统一建模<agent时间步,不同agents,道路元素>之间的关系
  • 文章认为agent-centric具有固有pose不变性(个人理解是作为参考帧的pose),然后lanegcn等方法也是在global frame里采用agent-centric的
  • 文章认为之前的文章对联合特征joint feature的考虑都是不够的,比如只考虑P(X)然后对Y进行条件建模P(Y|X),本文提出了一般的对多agents联合特征建模的方法,直接解码得到k个联合特征

(Methods)

  • Scene Transformer模型有三个阶段:

    • (1) 对agent和road graph进行高维嵌入embedding
    • (2) 采用注意力网络编码agents和road graph的交互关系
    • (3) 使用注意力网络解码得到多个futures
  • 模型把每个时间步的输入都看做是一个特征feature, 然后预测每个agent每个时间步的输出;

  • 模型在每个时间步都采用一种联合掩码方式,indicator = 1或者0指示输入feature可见或不可见,借鉴了BERT模型的思想,这种方法很灵活,仅仅通过改变数据的可见性(不同的掩码方式),允许同时训练一个模型用于单独的MP=Motion Prediction或者CMP=Conditional Motion Prediction或者GCP=Goal-conditioned Prediction
  • 每一个任务如MP/CMP/GCP都可以使用具体的掩码策略(设置indicator),公式化为一个query,然后把数据提供给模型。模型的目标就是要估算被掩码掉的未来时间和agents的feature,如上图
(Scene-centric Representation for Agents and Road Graphs)
  • scene-centric的嵌入策略,scene-centric的过程:

    • 选择一个感兴趣位置的agent作为原点, 可以是AV也可以是任何一个要预测的agent
    • 其他所有的agents和road graphs都基于它编码
    • 以center的最新可见帧来进行编码的
  • agent-centric就是以每个agent作为原点进行编码, 多个agents就是多个原点

  • scene-centric的编码过程:

    • (1) 生成agents每个时间步的特征
    • (2) 生成静态road graphs的特征集合, 使用PointNet来学习每个polyline的特征向量
    • (3) 生成动态road graphs的特征集合, one feature vector per object如红绿灯, 空间上静止时间上动态
    • (4) 所有特征都处理和旋转到center, 并且进行正弦位置嵌入sin position embedding
(Encoding Transformer)
  • 大多数层都是transformer层, 每个注意力层都跟一个前馈网络,具有相同的隐藏维度; decoder最后接2层MLP,输出7个outputs,包括相对原点的坐标+不确定度和航向角;
  • 由于没有添加agent id, 文章设计了一种因子化注意力方法, 防止相同类型、时间步上相同掩码策略的agents得到相同的预测结果。这种方法也是置换等变的, 即跟agent输入transformer的顺序无关。然后agents和road graph的交互也是置换等变的,在通过网络的过程中road graph的特征也是不变的
(Predicting Probabilities for Each Futures)
  • 模型还需要预测每个future或者trajectory的概率,为此,文章额外添加了人工agent和时间步,具体通过计算agent每个时间步各个特征的均值得到,输入维度就从[A,T,D]变成了 [A+1,T+1,D] ,在解码器最后一层这个人工特征是要剥出来的,以获取每个agent的summary feature,然后这个feature再经过2层MLP和softmax层得到一个logit值,作为future或者trajectory的概率
(Joint and Marginal Loss Formulation)
  • 模型的输出[F, A, T, 7]是每个agent在每个time step的location和heading, scene-centric
    的编码, 支持同时预测所有agents

  • 联合预测和边缘预测的loss回传策略不一样, 感觉文章中没有讲的很清楚

  • 评估指标选用minADEminFDEMRmAP(mean average precision)

(Results)

  • 数据集: 采用了argoversewaymo open motion dataset
  • 因子化注意力方法带来了性能增益;
  • 掩码序列建模策略的优势:
    • 在训练和推理的时候, 模型可以指定哪个agent的哪些timesteps进行掩码(indicator = 0 per timestep), 这允许我们能够选择将不同agents不同timesteps的信息呈现给模型, 也能够知道模型如何利用和响应这些信息, 如此在推理的时候能够提供一种mutli-task模型
    • 这对于自车给定goal或者给定其他agents不同轨迹子集时, 给定自车规划, 预测结果会怎样, 特别有用. 文章的配图表达了这个意思, 如下
  • 定性检查发现, 多个tasks(MP/CMP/GCP)一起训练并没有降低motion prediction的性能
  • 联合预测相比边缘预测, 也能有更低的over-laps(不同agent间overlap是不合理的)

(Discussion)

  • 1.文章提出的单个模型就能进行MP,CMP,GCP的多预测任务
  • 2.通过精心建模可以定量提高系统表现, 得到了一个可以用于planning系统的学习模型
  • 3.模型能够确认环境中agents之间的交互, 潜在提供了确认因果关系的任务

(Questions)

  • (1) scene-centric和agent-centric的区别

    • agent-centric: 以每个agent为原点, 对每个agent都计算features
    • scene-centric: 以感兴趣的agent的位置作为原点计算所有features
  • (2) scene-centric怎么就反映出scene-centric了, scene是什么

    • 在一个场景中, 选定感兴趣的目标, 可以是自车也可以是要预测的目标, 其他所有目标和道路元素都以感兴趣目标最新帧位置为原点进行编码, 区别于agent-centric, 如上
  • (3) 模型能在marginal prediction和joint prediction之间随意切换是什么意思

    • 通过不同的掩码策略来实现切换
    • 不考虑周边其他agents和road graphs, 都掩码为0, 则是marginal prediction
    • 考虑周边所有agents和road graphs, 不进行掩码, 则是joint prediction
  • (4) 什么是transformer架构的permutation equivariant(置换不变性/置换等变性)

    • 标准的transformer并不直接具备置换不变性, 因为它包含了位置编码position-encoding, 位置信息也是编码的, 从而理解序列的顺序
    • 要使transformer具备置换不变性, 需经过特殊设计, 比如简单的不使用位置编码
    • 文章中主要是指agents顺序的置换等变和road graph以场景编码后的置换等变等
  • (5) 就算是一种联合预测规划的方法, 为什么要预测自车呢?预测自车的作用是什么?自车规划轨迹不是主动选择的吗

    • 这个模型就是给规划系统用的
    • 预测自车是选定自车goal的方式, 是goal-conditioned prediction, 联合预测了所有agents和自车的未来轨迹
    • 在实际应用中, 自车预测轨迹可作为实际规划的参考
  • (6) 动态道路图编码也是采用PointNet吗

    • 静态道路图编码是PointNet
    • 从文章附录中看, 动态道路元素不是用PointNet, 而是和agents一样通过2层MLP网络输出D维特征feature
  • (7) 文章提到的序列掩码策略具体长什么样

    • 文章附录A中提到, 有设置indicator来指示目标是否掩码, 如果掩码的话, 除了time embedding外, 所有的特征都要置为0
  • (8) 文章和TNT和DenseTNT的前后关系

    • 文章中和TNT和DenseTNT都做了性能比较
    • 从feature vector构建可知, 和TNT和DenseTNT一样, scene transformer也是用了vector-based的方法

 


[参考文章]
[1]. scene transformer论文学习笔记
[2]. scene transformer论文翻译,不准
[3]. scene transformer论文阅读笔记,推荐

created by shuaixio, 2024.07.10

相关文章:

  • 北京网站建设多少钱?
  • 辽宁网页制作哪家好_网站建设
  • 高端品牌网站建设_汉中网站制作
  • jupyter支持跨机器远程访问
  • C语言——数组和排序
  • 赛蓝企业管理系统 AuthToken/Index 身份认证绕过漏洞复现
  • Redis1
  • vscode的json文件解析
  • Halcon学习之create_shape_model案例分解
  • TiDB系列之:使用Flink TiDB CDC Connector采集数据
  • Java中的Map(如果想知道Java中有关Map的知识点,那么只看这一篇就足够了!)
  • 【过题记录】 8.3
  • CTFHUB-SSRF-DNS重绑定 Bypass
  • [米联客-安路飞龙DR1-FPSOC] UDP通信篇连载-01 以太网协议介绍
  • ai web 1.0靶机漏洞渗透详解
  • 搭建个人的金融系统-----第一章,数据库设计
  • Arch Linux - 2-安装中文输入法
  • 解析 C# Dictionary 代码
  • 收藏网友的 源程序下载网
  • 「译」Node.js Streams 基础
  • 0x05 Python数据分析,Anaconda八斩刀
  • Android系统模拟器绘制实现概述
  • Java 实战开发之spring、logback配置及chrome开发神器(六)
  • java2019面试题北京
  • Java方法详解
  • JAVA之继承和多态
  • Js基础知识(四) - js运行原理与机制
  • Median of Two Sorted Arrays
  • Rancher-k8s加速安装文档
  • Windows Containers 大冒险: 容器网络
  • 动手做个聊天室,前端工程师百无聊赖的人生
  • 动态规划入门(以爬楼梯为例)
  • 翻译--Thinking in React
  • 精彩代码 vue.js
  • 面试题:给你个id,去拿到name,多叉树遍历
  • 消息队列系列二(IOT中消息队列的应用)
  •  一套莫尔斯电报听写、翻译系统
  • 追踪解析 FutureTask 源码
  • ​ 轻量应用服务器:亚马逊云科技打造全球领先的云计算解决方案
  • #经典论文 异质山坡的物理模型 2 有效导水率
  • (4)STL算法之比较
  • (附源码)springboot 基于HTML5的个人网页的网站设计与实现 毕业设计 031623
  • (过滤器)Filter和(监听器)listener
  • (黑马点评)二、短信登录功能实现
  • (面试必看!)锁策略
  • (一) 初入MySQL 【认识和部署】
  • **《Linux/Unix系统编程手册》读书笔记24章**
  • .\OBJ\test1.axf: Error: L6230W: Ignoring --entry command. Cannot find argumen 'Reset_Handler'
  • .net 托管代码与非托管代码
  • .NET/C# 避免调试器不小心提前计算本应延迟计算的值
  • .NET4.0并行计算技术基础(1)
  • .NetCore部署微服务(二)
  • /etc/fstab 只读无法修改的解决办法
  • [17]JAVAEE-HTTP协议
  • [2019红帽杯]Snake
  • [④ADRV902x]: Digital Filter Configuration(发射端)
  • [Algorithm][动态规划][子序列问题][最长递增子序列][摆动序列]详细讲解
  • [android]-如何在向服务器发送request时附加已保存的cookie数据