系统工程与电子技术 ›› 2023, Vol. 45 ›› Issue (11): 3680-3689.doi: 10.12305/j.issn.1001-506X.2023.11.37

• 通信与网络 • 上一篇    下一篇

基于Transformer-VAE的ADS-B异常检测方法

丁建立1, 张琪琪1, 王静2,3,*, 霍纬纲1   

  1. 1. 中国民航大学计算机科学与技术学院, 天津 300300
    2. 中国民航大学信息安全测评中心, 天津 300300
    3. 中国民航大学安全科学与工程学院, 天津 300300
  • 收稿日期:2022-10-14 出版日期:2023-10-25 发布日期:2023-10-31
  • 通讯作者: 王静
  • 作者简介:丁建立(1963—), 男, 教授, 博士, 主要研究方向为民航信息系统主动容灾技术、大数据民航应用
    张琪琪(1998—), 女, 硕士研究生, 主要研究方向为民航网络安全
    王静(1980—), 女, 副教授, 博士, 主要研究方向为民航网络安全、大数据民航应用
    霍纬纲(1978—), 男, 教授, 博士, 主要研究方向为时序大数据分析与挖掘
  • 基金资助:
    国家自然科学基金民航联合基金(U2033205);中国民航大学信息安全测评中心开放基金(ISECCA-202006)

ADS-B anomaly detection method based on Transformer-VAE

Jianli DING1, Qiqi ZHANG1, Jing WANG2,3,*, Weigang HUO1   

  1. 1. College of Computer Science and Technology, Civil Aviation University of China, Tianjin 300300, China
    2. Information Security Evaluation Center of Civil Aviation, Civil Aviation University of China, Tianjin 300300, China
    3. College of Safety Science and Engineering, Civil Aviation University of China, Tianjin 300300, China
  • Received:2022-10-14 Online:2023-10-25 Published:2023-10-31
  • Contact: Jing WANG

摘要:

针对现有的异常检测算法无法同时捕捉广播式自动相关监视(automatic dependent surveillance-broadcast, ADS-B)报文序列中的长程依赖关系、随机性以及整体性特征的问题, 提出了基于Transformer变分自动编码器(variational autoencoder, VAE)的ADS-B异常检测算法, 以Transformer编码器和解码器作为VAE的推断网络和生成网络来学习ADS-B报文序列的时序分布。由Transformer编码器的自注意力机制建模序列中的长程依赖关系, 生成反映报文序列整体性特征的随机变量, 并采用一个特殊的融合模块融合该随机变量与Transformer解码器的输出以实现报文的重构, 最终通过重构误差来检测异常。实验表明, 所提出的方法在不同攻击场景下, 均优于相关基线算法。

关键词: 广播式自动相关监视, 异常检测, 变分自动编码器, 深度学习

Abstract:

Aiming at the problem that the existing anomaly detection algorithm cannot simultaneously capture the long-range dependency, randomness and overall characteristics in the automatic dependent surveillance-broadcast (ADS-B) message sequence, an anomaly detection algorithm for ADS-B based on variational autoencoder (VAE) and Transformer is proposed. The Transformer encoder and decoder are used as the inference network and generation network of VAE to learn the timing distribution of ADS-B packet sequence. The long-range dependence relationship in ADS-B packet sequence is modeled by the self-attention mechanism of Transformer encoder, and random variables reflecting the global information of ADS-B packet sequence are generated. A special fusion module is used to fuse the global random variables with the output of Transformer decoder to realize the reconstruction of ADS-B packets. Finally, anomaly is detected through reconstruction error. Experiments show that the method outperforms the relevant baseline algorithms under different attack scenarios.

Key words: automatic dependent surveillance-broadcast (ADS-B), anomaly detection, variational autoencoder, deep learning

中图分类号: