Celebra-se este ano o centenário da Primeira Travessia Aérea do Atlântico Sul, um feito extraordinário conseguido por Gago Coutinho e Sacadura Cabral e que se deveu, em grande medida, às notáveis inovações introduzidas pelos dois pioneiros portugueses no campo da navegação astronómica a bordo de aeronaves.
Nesse quadro, este texto pretende efetuar um breve excurso pela navegação aérea desde essa altura, em que se estava inteiramente dependente dos astros, até aos nossos dias, em que os sistemas eletrónicos inundaram os cockpits, facilitando imenso a tarefa de quem tem que navegar a bordo de uma aeronave. Naturalmente, será impossível, por falta de tempo, abordar todos os sistemas eletrónicos desenvolvidos para a navegação, desde o aparecimento dos primeiros radiogoniómetros em aeronaves, em 1918, pelo que me focarei nos sistemas mais importantes, esperando poder proporcionar uma panorâmica razoável da evolução dos sistemas eletrónicos usados na navegação aérea, até à atualidade.
A navegação aeronáutica – tal como a navegação marítima – começou por estar bastante dependente dos astros, uma vez que, longe de costa, a astronomia era o único método de navegação passível de ser utilizado.
Só que os aviadores tinham três problemas acrescidos: a maior velocidade das plataformas aéreas obrigava a maior rapidez nos cálculos astronómicos; o abatimento provocado pelo vento causava erros difíceis de estimar; e a inexistência de um horizonte visível, implicava que não houvesse referência para a medição das alturas dos astros. Todos estes problemas foram ultrapassados graças a inovações tecnológicas notáveis, introduzidas por Gago Coutinho e Sacadura Cabral.
Para obviar ao primeiro problema, Gago Coutinho compilou um conjunto de tábuas de inspeção direta, com alguns cálculos já feitos, permitindo, por interpolação e aproximação, traçar uma linha de posição em um a três minutos.
Para ultrapassar o segundo problema, o abatimento da aeronave, foi inventado o corretor de rumos, que calculava e permitia corrigir, de uma forma expedita, a deriva provocada pelo vento.
E para obviar ao terceiro problema, a ausência de um horizonte visível, foi desenvolvido o sextante de bolha, que incluía um pequeno “frasco” com uma bolha de ar para estabelecimento de um horizonte artificial.
Foi um pacote de inovações verdadeiramente notável que o historiador Francis Millet Rodgers apelidou de “Portuguese package”. Contudo, a observação dos astros apenas era possível quando o céu se apresentava limpo, como também acontecia e acontece na navegação marítima, pelo que a navegação astronómica nunca foi um método de navegação particularmente atrativo a bordo de aeronaves, tendo sido sem surpresa que os aeronautas se começaram a virar para a rádio. Com efeito, o advento da rádio no final do século XIX levara a que se tivesse começado a estudar o desenvolvimento de sistemas de navegação baseados na nova tecnologia.
Neste particular, o radiogoniómetro constituiu o sistema pioneiro, tendo tido a sua génese quando o grande Heinrich Hertz se apercebeu que as ondas rádio possuíam propriedades direcionais. Em 1888, Hertz constatou que, à medida que fazia girar uma antena receptora circular, o valor da corrente nela induzida variava, pelo que conseguia perceber a direcção em que se encontrava o transmissor. A primeira forma de radionavegação consistiu, portanto, na utilização de aparelhos – os radiogoniómetros – que permitiam determinar a direcção de onde provinham os sinais radioelétricos emitidos por estações em terra – os radiofaróis, que na navegação aérea são denominados por Non-Directional Beacons (NDB).
A aplicação de radiogoniómetros em aeronaves começou, a título experimental, em 1918. Na altura, a tecnologia existente obrigava a possuir antenas de grandes dimensões, que eram estendidas ao longo de toda a superfície da aeronave. As antenas só viriam a tornar-se mais pequenas após a invenção das válvulas, que permitiam amplificar os sinais recebidos. A partir daí, a radiogoniometria tornar-se-ia no método de navegação mais comum para os aviadores (e, por alguns anos, o único).
Não obstante, estes radiogoniómetros, que funcionam em Low Frequency (LF) e Medium Frequency (MF), comportam erros de posicionamento muito elevados, os quais aumentam muito com a distância à estação transmissora. Acresce ainda que os erros também dependem, entre outros aspetos, da hora do dia e das condições atmosféricas da zona (o erro aumenta com o incremento da “eletricidade” no ar, o que acontece tipicamente em zonas de trovoadas). Além disso, a obtenção da posição era um processo complexo e moroso. Isso levou a que se fossem desenvolvendo técnicas novas para tornar a radiogoniometria mais atraente para os aeronautas. Um passo decisivo nesse sentido foi a invenção de receptores capazes de determinar automaticamente a direcção da estação emissora. Esses receptores têm a designação de Automatic Direction Finder (ADF), sendo, ainda hoje, usados a bordo das aeronaves, para fazer a transição da navegação em rota para os sistemas mais precisos de aproximação aos aeroportos.
Entretanto, na década de 1930, os cientistas conseguiram aperfeiçoar a técnica da radiogoniometria em Very High Frequency (VHF), que permitiu melhorar significativamente a precisão dos azimutes obtidos, dado o menor comprimento das ondas rádio nesta frequência. Esse passo levou, no final dessa década, à invenção do sistema de navegação VHF Omnidirectional Range (VOR). O VOR é composto por uma rede de transmissores VHF, loca-
lizados em terra, os quais emitem sinais rádio com diferenças de fase. A medição das diferenças de fase dos sinais recebidos permite ao equipamento instalado a bordo indicar com grande precisão o rumo magnético para a estação sintonizada.
Embora bastante mais preciso do que os NDB – pois, efetivamente, um piloto pode navegar com base no VOR com uma exatidão de cerca de 1º – também este sistema, que ainda se encontra em uso, tem limitações. A principal é o facto de a sua utilização estar limitada à linha de vista. Assim, obstáculos naturais, como montanhas, podem ser limitadores da navegação com o VOR.
Como curiosidade, refira-se que a frequência utilizada pelas estações transmissoras do VOR é a mesma utilizada pelas estações que diariamente sintonizamos nos rádios dos nossos carros ou da nossa casa! Evidentemente, uma parte do espetro eletromagnético é reservada para uso comercial e a outra para a navegação aérea.
Entretanto, em 1929, tinha começado a ser testado um novo sistema de radionavegação, exclusivamente destinado a auxiliar a aproximação e a aterragem: o Instrument Landing System (ILS). Este sistema é usado apenas para navegar a altitudes abaixo de 1 a 2 km, conseguindo levar a aeronave até à fase final da aterragem. O sistema é basicamente composto por dois transmissores independentes, instalados junto à pista de aterragem: um em VHF e outro em Ultra High Frequency (UHF). O transmissor de VHF serve para navegação lateral, sendo conhecido pela designação inglesa de localizer, ou em língua portuguesa “localizador”. O transmissor de UHF destina-se a auxiliar a navegação vertical, sendo conhecido pela designação inglesa de glide slope, ou em língua portuguesa “ladeira”. Cada um dos subsistemas transmite dois sinais, em frequências diferentes e com modulações diferentes. Os receptores de bordo comparam os dois sinais recebidos do “localizador” e indicam se o avião se encontra à esquerda ou à direita do alinhamento da pista de aterragem. Semelhantemente, comparam os dois sinais recebidos da “ladeira” e indicam se o avião se encontra acima ou abaixo do ângulo de aproximação à pista de aterragem.
O ILS foi aprovado para instalação pelas autoridades aeronáuticas norte-americanas em 1941, vindo a ser adotado pela International Civil Aviation Organization (ICAO), em 1949, dada a sua capacidade de guiar um avião, com alta precisão, até uma altitude mínima mais baixa do que os já apresentados NDB ou VOR (aumentando com isso a possibilidade de sucesso de uma aproximação com visibilidade reduzida e/ou nuvens baixas).
Entretanto, o sistema foi-se aperfeiçoando e, hoje em dia, o ILS permite efetuar, em total segurança, aterragens automáticas, com visibilidade vertical de zero metros! Também por aqui se consegue perceber o quanto a tecnologia de navegação evoluiu.
De qualquer maneira, a radiogoniometria continuava a comportar limitações. Cientes disto, os cientistas trabalharam no sentido de conceber um sistema de radionavegação que baseasse o seu funcionamento na medição da distância, pois nessas circunstâncias o erro não aumentaria significativamente com o afastamento relativamente à estação transmissora.
Assim, a partir do final da II Guerra Mundial, o VOR começou a ser complementado com outro sistema destinado a dar distâncias: o Distance Measuring Equipment (DME), baseado na técnica do radar, que acabara de ser desenvolvida. O equipamento de bordo envia um par de impulsos em UHF que são recebidos num trans-receptor em terra, que responde aos sinais recebidos, emitindo um par de impulsos semelhante. O equipamento DME de bordo recebe a réplica emitida pelo trans-receptor de terra e calcula a distância correspondente. A complementaridade com o VOR levou a que se começassem a co-localizar as estações VOR e as estações DME. De facto, enquanto o receptor do VOR fornece a direcção da aeronave para a estação respetiva, o equipamento DME dá a distância da aeronave até à correspondente estação e assim, apenas com base nestes dois equipamentos, passou a ser possível às tripulações determinar a posição do avião com mais rigor, deixando de ser necessário ter que executar o cruzamento de dois, ou mais, azimutes de diferentes estações NDB ou VOR – método usado até então.
Cabe aqui referir que as forças armadas desenvolveram um sistema muito semelhante ao VOR/DME, que tomou a designação de TACtical Air Navigation (TACAN), destinando-se exclusivamente a utilização militar.
Desde a sua introdução, o VOR/DME tem constituído uma importantíssima rádio-ajuda à navegação. Porém, tem alcances relativamente curtos, que na melhor das hipóteses chegam às 200 milhas náuticas, o que impede a sua utilização, por exemplo, em áreas oceânicas.
Assim, para conseguir cobrir áreas mais alargadas era necessário outro princípio de funcionamento que não este, baseado na técnica do radar. Esse princípio foi idealizado na década de 1930 e consistia em medir a diferença de tempo (ou de fase) entre a chegada dos impulsos de pelo menos duas estações transmissoras, vindo a concretizar-se durante a II Guerra Mundial. Foi nessa altura que os britânicos conceberam, com base nesse princípio de funcionamento, o sistema Gee para os aviões (designação que corresponde à primeira letra da palavra inglesa grid, ou rede) e o sistema Decca Navigator para os navios.
Estes sistemas designam-se como sistemas hiperbólicos, pois os lugares geométricos dos pontos que recebem os sinais de um par de estações com igual diferença de tempo (ou de fase) têm a forma de hipérboles, cujos focos são as estações. Esta técnica tem a desvantagem de necessitar de dois transmissores para providenciar apenas uma linha de posição, pelo que se optou por montar cadeias de, no mínimo, três estações transmissoras, em que uma delas era a principal e as outras eram as estações secundárias. O equipamento receptor media a diferença de tempo (ou de fase) dos impulsos recebidos da estação principal e de uma das estações secundárias, determinando assim a linha de posição hiperbólica em que se encontrava. Para obter a posição era necessário fazer ainda outra leitura relativa a outro par de estações (sendo a principal sempre uma delas), obtendo dessa forma outra hipérbole, cujo cruzamento com a primeira indicava a latitude e a longitude do navegante.
Ainda durante a II Guerra Mundial, os norte-americanos também desenvolveram um sistema hiperbólico de navegação, que baptizaram como Loran-A (cujo nome é o acrónimo de LOng Range Navigation). O Loran-A baseava-se em medições de diferenças de tempo entre a chegada de dois impulsos, transmitidos na banda MF. O primeiro par de estações Loran-A começou a transmitir continuamente em 1942 e no final do conflito já havia 75 estações e cerca de 75 000 receptores a bordo de aeronaves e navios. No entanto, as suas limitações começaram a tornar-se evidentes e, logo na década de 1950, os militares americanos começaram a estudar a substituição do Loran-A (também conhecido por Standard Loran) por um sistema semelhante, mas mais exato e de maior alcance. Primeiro, tentaram um sistema que usava a mesma banda de frequências do antecessor, mas funcionava por comparação da fase dos sinais, o qual tomou a designação de Loran-B. Este sistema revelou problemas técnicos insolúveis, pelo que nunca passou da fase de testes.
O mesmo não viria a suceder à evolução subsequente, o Loran-C, que operava numa frequência mais baixa: LF. O Loran-C tinha melhor exatidão do que o seu antecessor, maior alcance de transmissão e a tecnologia envolvida era mais simples, o que resultava em receptores mais baratos.
A primeira cadeia Loran-C entrou em funcionamento, apenas para uso militar, em 1957. Como foi hábito durante a guerra fria, a ex-URSS também criou um sistema muito semelhante ao Loran-C, denominado Chayka.
O sinal das estações podia atingir 1100 milhas náuticas de dia (por onda de superfície) e quase o dobro à noite (graças à propagação ionosférica). Relativamente aos erros, tal como nos outros sistemas hiperbólicos, eles variam em função de bastantes parâmetros, como a distância às estações, as condições meteorológicas, a geometria relativa das estações e a hora do dia. De qualquer maneira, em termos médios, nessa altura, o erro não excedia 0,25 milhas. Esta boa performance do Loran-C levou a que este sistema se impusesse sobre os outros sistemas hiperbólicos de navegação, nomeadamente sobre o Gee (que foi desativado nos anos de 1960) e sobre o Decca Navigator (que, embora tenha funcionado até mais tarde, foi desligado em dia 31 de dezembro de 1999).
No entanto, o Loran-C – além do facto de não permitir obter a altitude, obrigando os aviadores a complementar a sua utilização com altímetros – não tinha cobertura mundial, que era um requisito desejado por todos os navegantes. Para se conseguirem alcances que permitissem uma cobertura mundial era necessário adotar frequências mais baixas, pois, como regra genérica, quanto menor a frequência maior será o alcance.
Foi assim que surgiu o sistema Omega, que operava em Very Low Frequency (VLF) e que, com apenas oito estações em todo o Mundo, conseguia uma cobertura global. Os receptores Omega mediam a diferença de fase entre os sinais de pares de estações, daí derivando redes hiperbólicas, tendo o sistema ficado completo em agosto de 1982, embora já fosse perfeitamente utilizável em largas porções do globo desde meados da década de 1970. Apesar da vantagem de permitir um posicionamento contínuo em todo o globo, a exatidão facultada pelo Omega era sofrível, variando entre 2 a 4 milhas náuticas.
O sistema Omega foi usado pela aviação civil, em aviões, como, por exemplo, os primeiros Boeing 737, até finais de 1997, altura em que foi desligado pelas autoridades norte-americanas, sobre quem recaía a responsabilidade da manutenção das estações emissoras.
Entretanto, nos anos de 1950, reconhecendo as limitações dos sistemas rádio então existentes, o Departamento de Defesa dos EUA começou a estudar um sistema de navegação autónomo, ou seja, um sistema que não necessitasse de quaisquer sinais exteriores à própria aeronave. Com esse propósito, o Massachussets Institute of Technology (MIT) desenvolveu o primeiro sistema de navegação inercial, o qual não requeria nenhuma emissão exterior para determinar a posição e a direcção da plataforma.
Em termos genéricos, os sistemas inerciais de navegação vão estimando a posição através da medição do espaço percorrido e da direcção de deslocamento da plataforma, usando para o efeito micro-acelerómetros e girobússolas. Os sistemas inerciais têm que ser inicializados, com a posição de origem, mas a partir daí são totalmente autónomos, entrando em consideração com a direcção e a velocidade do vento para o cálculo da posição. Naturalmente, os erros vão crescendo com o tempo, sendo que uma das principais fontes de erro é o facto de o vento nem sempre ser o que se antecipava. De qualquer maneira, os sistemas inerciais de navegação tornaram-se extremamente populares na navegação aeronáutica, constituindo o sistema primário de navegação a bordo das aeronaves de média e grande dimensão, como, por exemplo, os modernos Airbus ou Boeing. A tecnologia subjacente foi evoluindo de forma bastante significativa e, hoje em dia, já há sistemas bastante exatos, em que o erro não excede 0,6 milhas por hora. Além disso, na atualidade, os sistemas inerciais de navegação funcionam, quase sempre, integrados com outros equipamentos de navegação, desde o Global Positioning System (GPS), que abordo de seguida, ou até mesmo o VOR/DME. Quando esses equipamentos conseguem determinar uma boa posição, então essa posição é a escolhida pelo sistema integrado; quando tal não seja possível, então o sistema integrado reverte para o modo inercial. Trata-se de uma solução robusta e que tem provado ser bastante fiável.
Contudo, o desenvolvimento de sistemas eletrónicos de radionavegação foi prosseguindo, procurando superar uma limitação que parecia inultrapassável, decorrente do facto da exatidão conseguida ser tanto pior quanto mais baixa fosse a frequência. Neste pressuposto, para se conseguir uma boa exatidão seria necessário adotar frequências elevadas (VHF ou UHF), que se propagam praticamente em linha reta, como acontece com a luz, significando que qualquer obstrução impediria a recepção do sinal.
Estava-se, portanto, num impasse: com baixas frequências obtinham-se alcances significativos, mas a exatidão conseguida era sofrível; com frequências elevadas conseguiam-se boas exatidões, mas os alcances eram muito limitados.
Este impasse começou a resolver-se em 1957, altura em que a União Soviética enviou para o espaço o primeiro satélite artificial: o Sputnik. Passava a ser possível operar nas frequências mais altas (VHF e UHF), contornando os constrangimentos da propagação por linha direta, pela colocação do transmissor no espaço, ou seja, sobre os utilizadores e, portanto, acima das irregularidades geográficas da Terra. Aliás, o Sputnik daria ainda outro impulso indireto ao desenvolvimento do primeiro sistema de radionavegação por satélites. Na altura, os soviéticos libertaram muito pouca informação sobre a órbita do satélite, a sua altitude e a sua velocidade. Só se sabia que ele transmitia um bip. No entanto, esse bip veio a revelar-se suficiente para os militares e cientistas ocidentais determinarem a órbita do satélite. Para o efeito, usavam estações de seguimento, em locais de coordenadas bem conhecidas, as quais mediam o efeito Doppler do sinal do satélite, ou seja, a variação da sua frequência devido ao seu movimento. Com isso, conseguiram determinar a altitude e a velocidade do satélite. É então que surge a ideia de fazer as coisas ao contrário, i.e., em vez de usar estações terrestres em locais bem conhecidos para, medindo o efeito Doppler das transmissões de um satélite, determinar a sua posição, proceder de forma inversa: lançar satélites com trajetórias bem conhecidas e, medindo o efeito Doppler das suas transmissões, determinar a posição do observador na Terra. Surge, assim, o princípio de funcionamento do sistema Transit.
O Transit utilizava satélites em órbita de baixa altitude (cerca de 1000 km), mas interferências mútuas entre os seus sinais limitavam o número de satélites utilizáveis a cinco, o que inviabilizava o posicionamento contínuo: o tempo de espera dos navegantes até obterem uma posição variava entre 30 segundos (acima de 80º de latitude) e 110 minutos (no Equador). O Transit começou a funcionar em 1964, tendo sido aberto à utilização civil em 1967. A ex-União Soviética também criou, na década de 1960, um sistema de radionavegação por satélites, muito semelhante ao Transit, denominado Cicada.
Relativamente ao Transit, o elevado custo dos respetivos receptores associado ao facto de não permitir posicionamento contínuo, afastou muitos utilizadores, sobretudo aeronautas, para quem a demora na obtenção de posição era particularmente problemática.
Entretanto, no início da década de 1970, peritos da Força Aérea e da Marinha dos Estados Unidos idealizaram um sistema de navegação por satélites que não padecia dos problemas que afetavam o Transit e que possibilitava o posicionamento contínuo e rigoroso em todo o globo.
Era o GPS, que se baseia numa constelação de 24 satélites, transmitindo em duas frequências pré-definidas da banda UHF. Cada satélite transmite, nessas duas frequências, dois códigos diferentes, um menos exato, aberto à utilização civil, e um outro mais exato, para utilização eminentemente militar. O primeiro satélite GPS foi lançado para o espaço em 1978, mas o sistema só atingiu a sua capacidade operacional final quase duas décadas depois, em 1995. Em termos de funcionamento, a recepção do sinal oriundo de três satélites permite obter uma posição a duas dimensões (i.e., latitude e longitude) e a recepção do sinal de quatro satélites fornece uma posição tridimensional (i.e., latitude, longitude e altitude). Recebendo o sinal de um número superior de satélites, o receptor refina posicionamento e melhora a exatidão.
Ao mesmo tempo que os americanos desenvolviam o GPS, a União Soviética também concebia um sistema similar, baptizado como GLONASS (GLObal’naya NAvigatsionnaya Sputnikova Sistema). O primeiro satélite GLONASS foi lançado em 1982, sendo que, em 1995, a constelação do GLONASS estava completa, com 24 satélites em órbita. Porém, os problemas económicos da Rússia, na sequência do desmembramento da União Soviética, aliados à fraca durabilidade dos veículos espaciais lançados, fizeram com que o número de satélites operacionais fosse diminuindo, até atingir um mínimo histórico de sete, em 2001. Entretanto, as autoridades russas encetaram, em 2002, um ambicioso programa de modernização, conseguindo repor a constelação completa, com 24 satélites operacionais, em 2011. Contudo, apesar deste esforço de modernização, o sistema operou durante muitos anos com enormes limitações, o que levou a grande maioria dos navegantes a optar, de forma esmagadora, pelo GPS, que se expandiu muito para além do círculo militar, conquistando milhões de utilizadores entre a comunidade civil.
Todavia, o GPS não se impôs na navegação aeronáutica com a mesma facilidade e celeridade com que se impôs em muitos outros domínios, incluindo na navegação marítima. E isto deveu-se, principalmente, a dois factos.
O primeiro, tem a ver com o modo de funcionamento do GPS, que implica que os erros na altitude sejam superiores aos erros na posição horizontal (latitude e longitude), pois todos os satélites estão, obviamente, acima do plano do utilizador, causando uma elevada diluição da precisão vertical. De acordo com o mais recente Plano de Radionavegação Norte-americano, datado de 2019, as autoridades dos EUA asseguram um erro na posição horizontal inferior a 9 m (95%), podendo chegar a 17 m (95%) no local mais desfavorável na Terra. Todavia, no que toca à altitude, o erro apontado já é da ordem dos 15 m (95%), podendo chegar a 37 m (95%). Ora, como a altitude é fundamental na navegação aérea, facilmente se percebem as dúvidas das organizações que regulam a navegação aeronáutica relativamente ao GPS.
O segundo facto responsável pela renitência dessas organizações em adotar logo o GPS é a fiabilidade do sistema. De facto, em caso de falha num satélite, os utilizadores poderão estar a empregar o seu sinal durante períodos não negligenciáveis, sem serem notificados de que o sistema está a dar informações incorretas. Este aspeto levou as instituições ligadas à navegação marítima e à navegação aérea a implementar sistemas diferenciais (de que falarei mais abaixo), capazes de colmatar a relativamente fraca fiabilidade do GPS e de melhorar a sua exatidão.
Não obstante, o sucesso do GPS tem sido tão grande que, neste momento, até se torna difícil estimar o número de recetores existentes no Mundo. De qualquer forma, para se ter uma ideia do número global de recetores GPS, pode referir-se que cada smartphone incorpora um sistema de receção de GPS e que existem mais de 6 mil milhões de smartphones em todo o Mundo, aos quais é necessário acrescentar ainda os recetores dos sistemas de navegação de automóveis, comboios, navios, aviões, etc.
Estes números – associados à vontade da União Europeia em adquirir autonomia estratégica em relação aos Estados Unidos nesta matéria, deixando de depender da utilização do sistema GPS – levaram a Comissão Europeia a empenhar-se, desde meados dos anos de 1990, na implementação de um sistema próprio de navegação por satélites. Em 1999, este projeto foi batizado com o nome do ilustre estudioso italiano Galileu Galilei. O sistema Galileo baseia-se nos mesmos princípios de funcionamento do GPS. Em 2005, foi lançado para o espaço o primeiro satélite (ainda com capacidades limitadas) e, em 2011, a Comissão Europeia começou a lançar os satélites da constelação definitiva, tendo o sistema atingido uma capacidade operacional inicial em 2016. Neste momento, já está completa a constelação final do Galileo, constituída por 24 satélites, esperando-se que o sistema atinja a capacidade operacional final em 2022, após realização de todos os testes de verificação.
Entretanto, também a República Popular da China deu início ao seu projeto de implementação de um sistema de navegação por satélites. Chama-se BeiDou, que em português significa Ursa Maior. Embora a informação disponível sobre este sistema seja escassa, sabe-se que o sistema já proporciona cobertura global desde 2018, tendo a China lançado para o espaço 35 satélites, cinco geo-estacionários e 30 em órbita média.
Com a disponibilidade de quatro sistemas de navegação por satélites (GPS, GLONASS, Galileo e BeiDou), muitos navegantes poderão sentir-se tentados a confiar, de forma absoluta e acrítica, na informação por eles disponibilizada. Contudo, uma vez que todos eles utilizam os mesmos princípios de funcionamento, as limitações de um serão, grosso modo, as limitações de todos os outros. Assim, navegar de forma consciente obrigará sempre a ter em conta as características e as limitações dos sistemas de navegação por satélites, que não são, nem nunca serão, sistemas perfeitos.
De facto, apesar de o GPS facultar uma exatidão extraordinária, ela é, mesmo assim, insuficiente para algumas situações. Além disso, o GPS apresenta uma fiabilidade insatisfatória para as aplicações mais exigentes, pois os satélites poderão estar a transmitir informação errónea, sem que os utilizadores sejam prontamente notificados dessa situação. Essas lacunas foram sendo colmatadas através da implementação de sistemas diferenciais que, além de transmitirem correções diferenciais aos sinais dos satélites (permitindo melhorar a exatidão do posicionamento), também avisam os utilizadores no caso de algum satélite começar a transmitir informação incorreta (melhorando a fiabilidade do sistema).
Contudo, foram idealizados sistemas diferenciais distintos para a navegação marítima e para a navegação aérea. Assim, para a navegação marítima instalaram-se estações Differential GPS (DGPS) junto à costa de mais de 40 países – como é o caso de Portugal, cujas estações DGPS foram instaladas pelo Instituto Hidrográfico, em 2002. Essas estações foram edificadas, normalmente, nos locais dos antigos radiofaróis marítimos, aproveitando, sempre que possível, os transmissores e as antenas antigas. Na altura, foram instaladas, em Portugal, quatro estações DGPS, em Sagres, no Cabo Carvoeiro, no Porto Santo (Madeira) e no Faial (Açores), sendo que, atualmente, apenas a última se mantém em funcionamento, pois verificou-se já não ser necessário manter as restantes estações a transmitir.
Para a navegação aeronáutica, a opção passou por implementar sistemas que utilizam satélites geoestacionários, para transmitir correções diferenciais válidas para áreas alargadas, de forma a melhorar a exatidão fornecida pelo GPS e pelo GLONASS, tendo sido implementados sistemas autónomos, nos EUA e na Europa. Assim, o sistema americano chama-se Wide Area Augmentation System (WAAS), cobre todo o território continental dos EUA, incluindo o Alasca, e está operacional desde 2008, possibilitando exatidões da ordem dos 2 m (95%). Quanto ao sistema europeu, tomou a designação de European Geostationary Navigation Overlay Service (EGNOS), estando operacional desde 2009. Este sistema cobre toda a Europa e tem apresentado performances muito boas (semelhantes às do WAAS), tendo sido certificado para aplicações no âmbito da salvaguarda da vida humana em 2011. Além disso, existem ainda outros sistemas semelhantes em desenvolvimento, nomeadamente no Japão e na Índia.
Graças ao complemento de fiabilidade e de exatidão proporcionado por estes sistemas (WAAS, EGNOS e afins), o GPS começou finalmente a impor-se na navegação aérea, embora as suas limitações na determinação da altitude, levem à utilização de outro instrumento, o altímetro, para a navegação vertical (i.e., para a obtenção da altitude de forma independente).
De qualquer maneira, o sucesso do GPS levou à desativação de muitos outros sistemas eletrónicos, como já foi sendo referido, nomeadamente:
– O sistema Transit foi desligado em 31 de dezembro de 1996 e o sistema Omega, em 30 de setembro de 1997;
– As estações Loran-C foram desligadas nos EUA e no Canadá, em 2010, e na Europa, em 2015;
– Neste momento, já estão a ser desligados alguns radiofaróis aeronáuticos (NDB) – apesar de ainda se encontrarem muitos em funcionamento;
– Está previsto que as estações VOR sejam desativadas à medida que as aeronaves instalam receptores de sistemas de navegação por satélites.
Assim, tirando o ILS, destinado exclusivamente à aproximação de precisão para aterragem, o único sistema eletrónico que parece estar a escapar a esta razia é o DME.
De qualquer maneira, o GPS e os outros sistemas de navegação baseados em satélites possuem um “calcanhar de Aquiles”, que é a sua vulnerabilidade a interferências e ao empastelamento (ou jamming, em língua inglesa). Essa vulnerabilidade decorre do facto da intensidade dos sinais transmitidos pelos satélites ser extremamente fraca, chegando à superfície da Terra com um nível baixíssimo. Fazendo uma comparação com a luz, pode dizer-se que o nível dos sinais rádio que chega à Terra corresponde à intensidade luminosa de uma lâmpada de 25 W visível a uma distância de 20 200 km, que é a altitude dos satélites GPS. Usando outra comparação, os sinais GPS são biliões de vezes mais fracos do que os sinais de TV das antenas de televisão analógica terrestre. Ora, todos nós recordamos quão frequente era – antes da televisão por cabo – o sinal de TV perder-se, ou chegar muito atenuado, devido a interferências. Sabendo que o sinal do GPS é muito mais fraco, podemos extrapolar os riscos de interferência a que está sujeito.
Relativamente ao empastelamento deliberado, que consiste no abafamento intencional dos sinais GPS através de transmissões de ruído nas frequências consignadas, a situação é bastante mais crítica. Segundo um relatório oficial do Governo Americano, um empastelador aero-transportado de apenas 1 W, do tamanho de uma vulgar lata de refrigerante, poderá impedir a recepção do sinal GPS de todos os satélites acima do horizonte, afetando uma área com um raio de aproximadamente 350 km. Empasteladores destes, ou mesmo de potências mais elevadas, podem atualmente ser encontrados na internet por preços perfeitamente acessíveis.
Além disso, importa referir ainda outra ameaça ao GPS: a mistificação (ou spoofing, em língua inglesa), que consiste em pôr no ar um sinal semelhante ao dos satélites, de tal forma que os recetores adquiram esse sinal falso e sejam, a pouco e pouco, levados a desviarem-se da sua trajetória. Embora seja difícil fazê-lo, as consequências da mistificação podem ser muito mais gravosas do que as do empastelamento, pois os utilizadores GPS não têm a noção de que algo de errado possa estar a acontecer e são levados para posições indesejadas. Neste contexto, tem havido, nos tempos mais recentes, relatos de negação do GPS em duas áreas de grande tensão.
Primeiro, no estreito de Ormuz, onde existem fortes indicadores de que o Irão já terá, por diversas ocasiões, empastelado os sinais do GPS e até procedido a ações de mistificação, que terão desviado os utilizadores da sua trajetória, de forma enganosa. Com efeito, tem havido muitas queixas de falhas do GPS, por parte de navegantes marítimos e aéreos naquela área, sendo que o Irão não tem escondido as suas capacidades neste âmbito – antes pelo contrário, tem-nas divulgado de forma pública, gabando-se, inclusive, da capacidade de mistificar o GPS.
Sem surpresas, a segunda área onde tem ocorrido negação do sinal GPS é na Ucrânia, após a invasão russa. Efetivamente, os sinais do GPS têm sido sistemática e continuadamente empastelados, não só sobre terra, como também no Mar Negro. O principal propósito é obviamente militar, visando dificultar o posicionamento e a navegação às unidades das Forças Armadas Ucranianas, mas a realidade é que o empastelamento afeta todos os outros utilizadores, em áreas bastante vastas, o que já levou várias agências reguladoras da navegação marítima e aérea a difundirem avisos à navegação sobre este assunto.
É neste enquadramento que ganha todo o sentido a solução atualmente adotada na maioria das aeronaves, que passa pela existência de vários sistemas inerciais de navegação (o número depende do tipo de aeronave) integrados com um ou mais receptores GPS. Sempre que é possível obter uma boa posição GPS, então é essa a posição escolhida; sempre que o receptor GPS não consiga (por falha própria ou por falha exterior) obter uma boa posição GPS, então o sistema integrado reverte para o modo inercial, que tem a vantagem de ser totalmente autónomo. É uma solução robusta e de grande fiabilidade. Esta conjugação de sistemas inerciais com sistemas de navegação por satélites possibilita que os modernos aviões de passageiros a jato, possam voar, atualmente, com toda a segurança (quer em navegação lateral, quer em navegação vertical), no mesmo corredor em sentido contrário, com uma separação vertical de apenas 300 m – isto com velocidades de cruzamento a rondar os 1800 km/h!
Além disso, estes sistemas integrados já permitem efetuar aproximações de não precisão (descidas normalmente para baixo do patamar de 1 a 2 km de altitude, até um valor mínimo definido, em que se tem de avistar a pista de aterragem), dado serem bastante mais precisos (sobretudo em navegação lateral), do que os sistemas tradicionais: NDB, VOR e VOR/DME.
De qualquer maneira, se tudo falhar haverá ainda a navegação astronómica, pois a luz dos astros não depende da vontade de terceiros e não é controlada por nenhuma autoridade. Nesse sentido, apenas uma ou outra nuvem inoportuna poderá impedir os navegantes de obterem a sua posição com base nos astros, como também acontecia em 1922. É por isso mesmo que a navegação astronómica continua a merecer a atenção dos navegantes, tanto aéreos como marítimos. E é, também, por isso que os trabalhos de Gago Coutinho e de Sacadura Cabral continuam a ser relevantes para os nossos dias.
O Comandante Nuno Sardinha Monteiro concluiu o curso da Escola Naval em 1991, após o que prestou serviço a bordo de vários navios da Marinha.
Comandou a lancha rápida de fiscalização “Dragão” (1992-1994) e o navio escola “Sagres” (2011-2013).
Possui o Mestrado e o Doutoramento, em Navegação, ambos pela Universidade de Nottingham (Reino Unido).
Publicou diversos livros e artigos sobre navegação e estratégia marítima / naval.
Atualmente, é o Diretor de Recursos do Estado-Maior da Armada.