Navigationsgeräte sind aus unserem Alltag nicht mehr wegzudenken. Auch unbemannte Systeme sind in vielen Einsatzbereichen auf die von Satelliten zur Verfügung gestellten Positionsdaten angewiesen. Doch es muss auch anders gehen. Schließlich werden die Signale des Global Navigation Satellite Systems in Kriegs- sowie Krisengebieten oft bewusst gestört. Und in Kraftwerken, Höhlen oder unterirdischen Rohrsystemen müssen sich Drohnen ohnehin anders zurecht finden können.
Damit unbemannte Systeme automatisiert und/oder im BVLOS-Betrieb sicher unterwegs sein können, müssen diese zu jedem Zeitpunkt wissen, wo sie sich befinden. In der Regel geschieht das mithilfe von Satellitennavigation. Fällt diese Option jedoch weg oder ist der Empfang gestört, droht im Wortsinne der „Blindflug“. Neben vorsätzlicher Störung oder Manipulation kann das Fehlen von GNSS-Positionsdaten aber auch „natürliche Ursachen“ haben. In dicht bewaldeten Gebieten, engen Schluchten oder unter den Trümmern eingestürzter Bauwerke reißt die Verbindung häufig unvermittelt ab. In Innenräume dringen die Signale zuweilen gar nicht erst vor. Aber auch in dicht besiedelten und eng bebauten Gebieten kann es zu Störungen kommen. Um dennoch navigieren und sich im Raum orientieren zu können, müssen verschiedene Sensorsysteme zusammenwirken. Damit Drohnen ihre Position ohne Satellitenortung bestimmen können, kombinieren sie Daten aus optischen Kameras, Inertialmesseinheiten (IMUs), LiDAR- und Ultraschallsensoren sowie gegebenenfalls Radarsignalen. Doch diese sogenannte „Sensorfusion“ ist fehleranfällig. Unterschiedliche Abtastraten, Umwelteinflüsse oder der Ausfall einzelner Sensoren können die Berechnungen erheblich beeinträchtigen. Aber auch besonders herausfordernde Umgebungsbedingungen können die Technik an ihre Grenzen bringen.
Um den wachsenden Bedarf an unbemannten Systemen, die ohne GNSS-Verbindung eingesetzt werden können, zu bedienen, werden an dieser Stelle erhebliche Anstrengungen unternommen. Besonders im Fokus steht dabei derzeit die visuelle Navigation. Das im Englischen als „visual-based navigation“ bekannte Verfahren basiert darauf, dass Kamerabilder zu Orientierung innerhalb der aktuellen Umgebung genutzt werden. Statt auf GPS-Signale zu vertrauen, analysiert das System optische Merkmale wie Kanten, Muster oder Objekte, um die eigene Position sowie Bewegung zu erkennen und Hindernisse zu detektieren. Mithilfe von SLAM-Algorithmen (Simultaneous Localization and Mapping) wird eine Karte der Umgebung erstellt und die eigene Position darin bestimmt. Durch die Einbindung von KI-Software und Deep-Learning-Methoden wie Convolutional Neural Networks (CNNs) gelingt es schneller und zuverlässiger, Entfernungen abzuschätzen und in konkrete Steuerbefehle umzuwandeln. Unter einem CNN versteht man eine spezielle Art künstliches neuronales Netz, das vor allem für die Verarbeitung von Bildern oder Videos entwickelt wurde. Es erkennt automatisch wichtige Merkmale in Bilddaten, zum Beispiel Kanten, Formen oder komplexe Objekte. Angetrieben von immer leistungsfähigerer KI, modernen Sensoren und Edge-Computing-Technologien entwickelt sich so schrittweise eine neue Generation von Drohnen, die ohne externe Orientierungshilfen auskommen können, wenn dies notwendig ist. Und die somit ganz nebenbei einen Beitrag dazu liefern, unbemannten Systemen zu größerer Autonomie zu verhelfen.
> Dieser Beitrag entstand in Kooperation mit Drones, dem Magazin für die Drone-Economy. www.drones-magazin.de