一、GNSS工作原理
1. GNSS简介
全球卫星导航系统 (Global Navigation Satellite Systems,GNSS ),指基于卫星信号来确定用户接收机位置的系统。目前的全球卫星导航系统中,美国的 GPS系统和俄罗斯的 GLONASS系统处于完全运行状态,可以提供全球定位服务,中国的北斗系统 也于 2020 年完成。卫星导航系统 GNSS市场的快速增长,卫星导航系统 GNSS芯片向多模化的方向发展,即单一芯片支持多种卫星导航系统 GNSS系统,比如 GPS + GLONASS,GPS + Galileo,GPS + 北斗等等。
2. GNSS系统组成
- 空间段,由卫星或航天器 (SV) 组成,用于传输包含卫星轨道、位置、传输时间的导航电文;
- 控制段,指地面监测站和主控中心,用于跟踪卫星信号、收集伪距测量数据和大气层模型数据、提供导航信息更新、大气信息和校正信息以及进行卫星控制;
- 用户段,是指 GNSS接收机;
3. GNSS系统定位原理
卫星导航系统 GNSS接收机通过三边测量法来计算自身位置。它使用导航电文中的传输时间和位置数据,测量卫星信号的时延,并由此计算接收机与卫星的距离(伪距)。首先,距离某颗卫星特定距离 (伪距) 的 GNSS接收机所有的可能位置构成了一个球面,两个球面的交集是一个圆环,三个球面的交集则是两个点。最后需要第四个数据来确定接收机的正确位置。第四个数据可以是地球表面,也就是说,如果接收机位于地球表面,则位于地球表面上的点就是接收机的正确位置。更普遍的解决方案,需要第四颗卫星的伪距来进行定位。通过对四颗卫星进行测量,不仅可以确定接收机的位置信息,即经度、纬度和高度,还可以校正接收机的时钟误差,确定正确时间。
GNSS接收机与卫星之间的距离,也就是伪距,通常通过以下步骤计算:
- GNSS接收机接收到卫星信号中的时间戳,然后与自身的接收时间进行比较,计算出信号传播的时间。
- 由于卫星信号是以光速传播的,因此将信号传播的时间乘以光速(大约是每秒299,792千米),就可以得到GNSS接收机与卫星之间的距离。
需要注意的是,由于存在各种误差(如大气折射、钟差等),所以计算出的距离并不是真实距离,需要通过各种修正方法来进行修正。
4. 影响GNSS信号的因素
光滑的金属表面会反射 GPS 模块接收的微波信号,导致信号通过多个路径到达 GPS 模块,由此影响 GPS 的定位精度,这种现象在城市各种复杂的建筑物环境中的影响尤其明显。常见的材料对 GPS 模块接收信号的屏蔽影响:
- GPS 模块接收微波信号波长是19 厘米,理论上可以透过孔径(直径)大于 19 厘米的金属网或普通金属绗架结构,比如输电铁塔;
- GPS 模块放入任何金属实体中,信号会被完全遮闭掉;
- GPS 模块在深度为 1 厘米以上的水体下使用时,信号会完全衰减至不可用;
- GPS 模块放入玻璃或者塑料腔体中,对信号接收有轻度衰减;
- GPS 模块放在厚重的非金属物体(比如几厘米的木头)中,信号也会被完全遮挡;
卫星信号传输到地上设备,一路上会附带卫星时钟误差,大气误差,多径误差,星历误差,接收器时钟误差,接收器噪音,原始的测距信息之所以被称为”伪距”就是因为包含这些误差,这些误差会导致定位不准。其中“大气误差”影响最大。地球上平面距离10公里以内两台接收机的大气误差大致一样,因此,知道其中一台接收机的精确位置后可以求出这个大气误差,从而对其他接收机定位误差进行修正。几种误差的详细介绍如下:
- 卫星时钟误差:随着时间的推移,卫星时钟会与GPS系统时间偏离。控制段根据监测站提供的观测卫星时钟数据,估计卫星时钟的校正参数,并将其上传到卫星上,卫星会在导航消息中广播这些参数,以使接收器能够根据测量的距离来纠正卫星时钟误差。
- 接收器时钟误差:接收器时钟的设计目的是为了价格实惠,因此它们的精度远低于卫星时钟,并且存在偏差。这种时钟偏差误差以相同的方式影响所有测量。因此,如果有四个伪距测量值可用,可以估计时钟偏差以及确定用户位置所需的三个分量。
- 大气误差:主要包括电离层和对流层时延,电离层延迟通常影响更大.
- 多径误差:多径效应是城市环境中的主要误差来源,GPS信号可以通过多条不同的路径到达接收器。这些路径包括直射路径和来自接收天线周围其他物体的反射信号。间接到达的信号会有延迟,并且信噪比较低。多径效应会在接收天线处与反射信号干扰导致原始信号失真。这可能导致超过10米的位置误差。对于载波相位测量而言,多径误差比伪距测量低两个数量级。码相位0.5-1m,载波相位0.5-1cm.
- 星历误差:卫星轨道误差是卫星在空间中的实际位置与接收器使用星历数据计算的卫星位置之间的差异。根据卫星的先前运动和对地球引力的了解,控制段预测轨道误差,并将其上传到卫星上,作为星历数据广播给用户。由于星历模型是对测量轨道的曲线拟合,因此相对于实际轨道,它将包含时间变化的残余误差。通常,这个误差在2到5米之间。
- 接收机噪音:这是GPS接收器电子元件固有的随机测量噪声。它是由天线电路、电缆、热噪声、射频信号干扰、信号量化和采样的累积效应引起的。由于它是信噪比的函数,它随卫星的仰角而变化。它会导致对GPS信号的传输时间进行错误测量。与多径效应类似,对于载波相位测量而言,接收器噪声比伪距测量低两个数量级。码相位0.25-0.5m,载波相位0.1-0.2cm
1.2.1.5 GNSS导航系统信号(以GPS信号为例)
5. GNSS导航系统信号(以GPS信号为例)
GPS导航系统的空间段最初设计为 24 颗卫星,围绕 6 个轨道平面运行。在 2011 年,卫星数目增加到 27 颗。实际中,通常有 31 或 32 颗卫星在轨运行,包括备用卫星。GPS系统中,卫星的轨道高度为 20,200 千米,每天围绕地球运行两周。
GPS的卫星轨道设计使得在任意时刻、地球上任意位置,可见卫星不少于 6 颗,最多可以看到 15 颗卫星。GPS卫星传输的信号主要由三个部分组成:载波,测距码 (伪随机码),导航电文。
5.1 载波Carrier Signal
载波(carrier),是一种特定频率的无线电波,它能将经过调制的伪码和数据码以正弦波的形式播发出去,所以可把它视为GPS卫星信号的最底层。
每颗GPS卫星用两个L波段频率发射载波无线电信号,其中载波L1的频率为1575.42MHz,载波L2的频率为1227.60MHz。这两个载波频率属于特高频(UHF)波段。对于任一载波,它的频率 𝑓 与波长 λ 存在如下关系: λ=𝑐/𝑓 。其中 𝑐 为光在真空中的速度,其值约等于 3×108 m/s。据这一关系就可以推算出载波L1的波长约为19cm,而L2的波长约为24.4cm。
5.2 伪随机码PRN (Pseudo Random Noise) Code
PRN 码是1023位一毫秒长的0和1随机数。每颗卫星使用两种不同的测距码来对导航电文进行扩频,粗略码 (C/A),也称为民码,免费提供给全球用户使用,精细码 (P),也称为军码,主要用于政府和军事机构中的高精度应用。C/A 码是长度为 1023 比特的伪随机码,传输速率为 1.023 Mbps,即每毫秒重复一次。GPS 系统采用码分多址技术,每颗卫星使用不同 C/A 码,在同一频率上传输信号,接收机通过对 C/A码的识别来确定信号来自哪颗卫星。P 码是码长为 6.1871 x 1012 比特的伪随机码,传输速率为 10.23 Mbps,P 码的周期很长,每周重复一次。
自 1994 年起,为了反电子欺骗,P 码被W码加密得到 Y 码,通常称为 P (Y) 码,仅限于军事应用。导航电文,经测距码扩频后,调制到射频载波上。L1 载波 1575.42 MHz 频带上同时调制了 C/A 和 P (Y) 码信号。L2 载波 1227.6 MHz 频带上只调制了 P (Y)码信号。
导航电文由一个含有 37,500 比特的主帧组成,传输速率为 50 bps,电文的传送时间为 12.5 min。主帧分成 25 个页面或帧,每帧由 5 个子帧构成,包括时间和钟差改正数、卫星健康状况、当前卫星的星历或精密的轨道信息、以及一部分历书 (包含所有卫星粗略轨道信息)。
接收机通过接收每颗卫星的星历数据来确定卫星的位置。它还需要传输时间和钟差改正数来计算伪距,进而确定接收机的位置。这些信息在前三个子帧中传输,接收机至少需要 16 秒来获取这些必要信息。
二、IMU工作原理
IMU(Inertial Measurement Unit,惯性测量单元)是一种传感器系统,通常由加速度计、陀螺仪和有时包括磁力计等多个传感器组成,主要用于测量物体的加速度、角速度和方位变化。以下是IMU的主要组成部分及其工作原理:
1. 加速度计(Accelerometer)
加速度计用于测量物体的线性加速度。其工作原理是基于牛顿第二定律(F = ma),它能够测量沿X、Y、Z三个轴的加速度。
1.1 基本原理
加速度计通常使用微机电系统(MEMS)技术构建。其核心元件是一个微型质量块(seismic mass),这个质量块通过弹性结构连接到基座上。当IMU设备移动时,惯性作用会导致质量块相对基座产生位移,产生一个与加速度成比例的力。通过电容式或压电式传感器检测这个力的变化,就可以计算出加速度。
1.2 用途
– 检测物体的线性加速度(例如自由落体运动、平移运动等)。
– 通过整合加速度信息,可以估算速度和位移,进而计算角度。
2. 陀螺仪(Gyroscope)
陀螺仪用于测量物体的角速度(即绕X、Y、Z轴的旋转速度)。传统的陀螺仪基于旋转的飞轮,而现代IMU中的陀螺仪大多采用MEMS技术,具有更小的体积和更低的功耗。
2.1 基本原理
MEMS陀螺仪的工作原理依赖于科里奥利效应。当一个物体在旋转的同时沿某个方向移动时,会产生一个与旋转方向垂直的力。MEMS陀螺仪内部有一个微小的振动质量块,当传感器发生旋转时,这个质量块的振动方向会发生变化,产生与角速度成比例的科里奥利力。通过测量这个力的变化,陀螺仪可以计算出角速度。
2.2 用途
– 测量设备的旋转速度或姿态变化。
3. 磁力计(Magnetometer)
磁力计用于测量设备相对于地磁场的方向。它主要用来确定设备的方位(航向),与加速度计和陀螺仪结合,可以提供更精确的空间定位。
3.1 基本原理
磁力计基于霍尔效应或磁阻效应,能够检测到地球磁场的方向和强度。磁场的强弱变化会导致磁阻传感器电阻值发生变化,通过测量设备在不同方向上的磁场强度,可以推导出设备的方位。
3.2 用途
– 用于确定设备的绝对方向,通常与加速度计和陀螺仪结合进行姿态解算。
4. 数据融合与姿态解算(Sensor Fusion)
IMU的核心功能不仅仅是单独测量加速度、角速度和磁场强度,关键是如何将这些信息整合在一起,从而提供设备的精准姿态信息。通过数据融合算法(例如卡尔曼滤波、互补滤波等),IMU可以实时计算物体的姿态(即欧拉角、四元数等表示方式)及其运动轨迹。
4.1 加速度计的缺点
加速度计会累积误差,特别是在长时间整合速度和位移时容易产生漂移。因此,单独使用加速度计来计算姿态可能不够精确。
4.2 陀螺仪的缺点
陀螺仪可以精确测量角速度,但也存在漂移(温度变化和机械振动产生的漂移)问题,尤其是长时间使用时。
4.3 数据融合的优势
数据融合通过将加速度计、陀螺仪和磁力计的数据结合起来,可以互相补偿各自的误差。陀螺仪可以在短期内提供精确的姿态变化信息,而加速度计和磁力计可以提供长期的校准信息,从而提升系统的整体精度和稳定性。
三、RTK工作原理
RTK,即Real Time Kinematic(实时差分技术),是一种用于测量全球定位系统(GPS)接收机的精确度的高级技术。该技术结合了GPS信号的实时差分处理和测量,使得用户能够精确测量其位置、速度和时间。
1. 工作原理
RTK技术的工作原理是通过使用至少两个接收机进行测量,一个被称为基准站,另一个被称为流动站。基准站接收来自GPS卫星的信号,并对其进行测量和差分处理,然后将这些处理结果通过无线数据链路传输给流动站。流动站同时接收来自GPS卫星的信号,并通过与基准站的差分处理结果进行比对,可获得具有亚米级甚至厘米级精度的位置信息。由于RTK测量基于实时差分技术,它可以实时提供高精度的测量数据。该技术通过消除GPS信号的误差,有效地减小了定位的误差范围。
RTK是一个对GNSS进行辅助的技术。
为什么要对GNSS进行辅助?当然是因为GNSS自身存在不足!
大家都知道,GNSS卫星之所以能够对地球上的终端(例如手机、汽车、轮船、飞机等)进行定位,依靠的是三维坐标系。
找至少4颗卫星,分别计算各个卫星与终端之间的距离△L(这个距离也被称为“伪距”),就可以列出4个方程组。
计算之后,就能得出终端的四个参数,分别是经度、纬度,高程(海拔高度)和时间。
通过单位时间的位置变化,还能算出终端的速度。三维坐标、速度、时间信息,我们通常称之为PVT(Position Velocity and Time)。
仅靠卫星,我们可以得到PVT。但是卫星定位是存在误差的。
误差既来自系统的内部,也来自外部。例如卫星信号穿透电离层和对流层时产生的误差,还有卫星高速移动产生的多普勒效应引起的误差,以及多径效应误差、通道误差、卫星钟误差、星历误差、内部噪声误差,等等。
这些误差,有些可以完全消除,有些无法消除或只能部分消除。它们影响了系统的准确性和可靠性。
为了更好地消除误差、提高定位精度,行业专家们研究出了一个更厉害的定位技术,那就是RTK。
如上图所示,这是一个标准的传统RTK组网。
其中,除了卫星之外,RTK系统包括两个重要组成部分——基准站和流动站。
两个站都带有卫星接收机,可以观测和接收卫星数据。顾名思义,基准站是提供参考基准的基站。而流动站,是可以不断移动的站。流动站其实就是要测量自身三维坐标的那个对象目标,也就是用户终端。
我们来仔细看看定位过程。首先,基准站作为测量基准,一般会固定放在开阔且视野良好的地方。基准站的三维坐标信息,一般是已知的。
- 第①步,基准站先观测和接收卫星数据。
- 第②步,基准站通过旁边的无线电台(数据链),将观测数据实时发送给流动站(距离一般不超过20公里)。
- 第③步,流动站收到基准站数据的同时,也观测和接收了卫星数据。
- 第④步,流动站在基准站数据和自身数据的基础上,根据相对定位原理,进行实时差分运算,从而解算出流动站的三维坐标及其精度,其定位精度可达1cm~2cm。至此,测量完成。
如大家所见,RTK技术具有观测站之间无需通视(无需在视线范围内)、定位精度高、操作简单、全天候作业等优点,是非常不错的定位技术。
2. 网络RTK vs 传统RTK
刚才我们所说的,是RTK的早期模型,我们称为传统RTK技术。
传统RTK技术实施简单,成本低廉。但是,它也存在一个很大的问题,那就是流动站和基准站之间存在距离限制。
距离越远,误差因素差异变大,定位精度就会下降。而且,距离远了,超过了无线电台的通信范围,也就无法工作了。
为了克服传统RTK技术的缺陷,在20世纪90年代中期,人们提出了网络RTK技术。
在网络RTK技术中,在一个较大的区域内,均匀分散设置多个基准站(3个或以上),构成一个基准站网。
那么,这种情况下,流动站需要和每个基准站进行对比和测算吗?
当然不会,那样太费事了。网络RTK相比传统RTK,其实是用区域型的GNSS网络误差模型取代了单点GNSS误差模型。多个基准站组成的基准站网,它们将数据发给中央服务器。中央服务器会根据数据,模拟出一个“虚拟基准站”。(所以,网络RTK也被称为“虚拟基准站技术”或“虚拟参考站技术”。)
对于流动站来说,它只会“看到”这个“虚拟基准站”。基于这个“虚拟基准站”发来的数据,流动站完成最终的测量运算。
网络RTK的优势是非常明显的。
大家应该都看出来了,我们平时看到的移动通信基站,其实就可以兼职“基准站”。我们身边到处都是基站,也就意味着,网络RTK基本上实现了无缝覆盖。
流动站与中央服务器的通信,也可以通过流动站(终端)内置的无线通信模组来完成。这些高精度定位模组,集成了RTK技术,且本身也是移动通信模组,可以实现上述功能。
值得一提的是,网络RTK的模型中,网络的稳定性对定位精度影响极大。必须保证网络通信稳定,从而确保差分数据稳定下发,才能实现超高定位精度。