感测器整合
感测器整合(英语:sensor fusion)是为了降低由单一来源所产生之资讯的不确定性而将感测器数据资料或与不同来源的数据资料整合在一起的过程。例如,通过结合多个资料来源(如摄影机和Wifi定位信号),可以尽可能地获得更准确的室内物体位置估算。 在这种情况下,不确定性降低一词意味著更准确、更完整或更可靠,或者指的是新视角的结果,例如立体成像视觉(经由整合来自视角稍微不同的两个相机之二维影像来计算影像深度资讯)。 [1][2]
感测器整合的资料来源并不局限来自于同一种感测器。可以区分为直接整合、间接整合和前两者输出的整合。直接整合是整合来自同一组同质或异质感测器、软感测器的感测器数据资料和感测器数据的历史资料。然而间接整融合所使用的资讯来源,如相关于环境和人类输入的先验知识。
参考资料
编辑- ^ Elmenreich, W. Sensor Fusion in Time-Triggered Systems, PhD Thesis (PDF). Vienna, Austria: Vienna University of Technology. 2002: 173 [2022-04-22]. (原始内容 (PDF)存档于2022-04-12).
- ^ Haghighat, Mohammad Bagher Akbari; Aghagolzadeh, Ali; Seyedarabi, Hadi. Multi-focus image fusion for visual sensor networks in DCT domain. Computers & Electrical Engineering. 2011, 37 (5): 789–797. doi:10.1016/j.compeleceng.2011.04.016.