基于时空图采用Graph WaveNet建模,其能够有效的处理大范围时间序列的时空图数据。在该模型架构中,主要包括两个模块,分别为GCN和TCN。两个模块融合获取时间空间的依赖关系。
该模型的框架如下:
目录
一、本论文的创新点如下:
- 构建能够保留其隐含空间关系的自适应邻接矩阵。自适应邻接矩阵在没有先验知识的前提下,从数据中挖掘隐含的图结构。
- 提出了同时高效获取时空依赖关系的框架,该框架的核心思想是将扩张因果卷积与图卷积融合,进而每个图卷积层能够处理在不同细粒度下,由扩张因果卷积提取的每个节点信息的空间依赖关系。
二、方法:
2.1问题定义:
图G=(V,E),其中,V为图的节点集合,E为边的集合。邻接矩阵A,如果两点之间有连线,则Aij为1,否则为0。在每一时间步t,图G的动态特征矩阵为Xt。给定图G及其历史步长S的图信号,我们的问题是学习函数f来预测下一T时间步的图信号。该种映射关系如下公式(1)所示:
2.2 图卷积层(GCL)
在给定结构信息下, 利用图卷积来提取节点特征是非常重要的一步。相关的文献中,图卷积层定义方式不同,在【Kipf and Welling, 2017】中,定义如下
其中A为self-loop的正则化邻接矩阵,W为模型参数矩阵,X为输入数据。
【Li et al, 2018b】提出了扩散卷积层来对时空进行建模。当图为有向图和无向图时,其有不同的计算方式。由于时间关系,故在此贴原文。如下图所示:
2.2.1 自适应的邻接矩阵
自适应邻接矩阵,不依赖于先验知识,并通过随机梯度下降来端到端的学习其空间依赖关系。
随机初始化两个节点的embedding字典。本论文提出的自适应邻接矩阵Aadp的定义如下:
其中,E1为源节点的embedding向量,E2为目标节点的embedding向量。通过E1与E2相乘,能够得到两个节点的空间依赖关系的权重。
在本文中,提出了公式6的图卷积层,主要包括有向图的前后关系以及自适应邻接矩阵。
2.3时间卷积层(TCL)
采用扩张因果卷积作为TCN模块,来学习节点的时间趋势。扩张因果卷积通过增加层的深度,能够得到指数级大的感受野。在输入时,扩张因果卷积padding,来保持其时间因果的顺序,以至于当前信息只和历史信息有关。如下图所示:
2.3.1 Gate TCN
门机制在循环神经网络中非常重要,他们能够有效的控制信息流通过时间卷积层。简单的Gated TCN只包含一个输出门。给定输入X,其形式如下:
2.4 Graph WaveNet的实验
采用MAE作为训练目标。
采用的数据集为METR-LA和PEMS-BAY的交通网络数据集,其节点为sensor。
来源:CSDN
作者:Winner3
链接:https://blog.csdn.net/winner3/article/details/103610433