Was macht die Unterwasserrobotik so herausfordernd?
Section outline
Was macht die Unterwasserrobotik so herausfordernd?
Einleitung
Ein Vergleich, den wir in diesem Lernangebot häufig bemühen, ist der von Unterwasserrobotern mit Drohnen. Das liegt daran, dass sich beide Fahrzeugkategorien auf ähnliche Weise durch den dreidimensionalen Raum bewegen und anders als Landroboter oder Autos nicht primär auf die Bewegung in der Ebene des Bodens angewiesen sind.
Außerdem bietet es sich aus Sicht der Wissenschaft an, die sich mit Unterwasserrobotik beschäftigt, das Rad nicht von Grund auf neu erfinden zu wollen. Stattdessen wird versucht, bekannte Methoden und Erkenntnisse aus anderen Forschungsbereichen zu übertragen. Während die Unterwasserrobotik im Vergleich ein Nischendasein in Forschung und Industrie fristet, haben es die Drohnen schon bis in unseren Lebensalltag hinein geschafft.
Man könnte jederzeiz zum nächsten Mediamarkt oder Saturn gehen und sich eine Drohne kaufen. Dies ist ein Indikator dafür, dass die Drohnentechnologie schon so weit fortgescrhitten ist, dass sie den reinen Forschungs- und Prototypenbereich verlassen hat und fertige Produkte den Verbrauchermarkt erreicht haben. Bei Unterwasserrobotern ist das nicht der Fall.
Ist es nun nicht naheliegend, alle Erkenntnisse aus der Drohnenforschung auf Unterwasserroboter anzuwenden und früh Feierabend zu machen? Wo die Probleme dabei liegen können und warum trotz aller Ähnlichkeit von Robotern Über- und Unterwasseranwendungen doch signifikante Unterschiede und damit verbundene Herausforderungen aufweisen, erfährst Du in diesem Abschnitt.
Kommunikation und Datenübertragung
Ein Sprichwort sagt
Der Fisch bemerkt das Wasser als letzter.
Ganz anders geht es uns, wenn wir mit Unterwasserrobotern arbeiten. Dort bemerkt man den Einfluss des Wassers ziemlich schnell. Besonders dann, wenn Daten zwischen den Robotern und anderen Geräten oder auch zwischen verschiedenen Robotern untereinander ausgetauscht werden sollen.
Wie macht man das an Land?
An Land ist eine sehr häufig genutzte Technologie zum drahtlosen Austausch von Daten das WLAN. Alternativ je nach Anforderungen auch Bluetooth. Das kennen wir auch aus unserem normalen Alltag, Laptops und Smartphones verbinden wir mit dem WLAN, unsere drahtlosen Kopfhörer oder Lautsprecher bekommen die Musik über Bluetooth gesendet.
Geht das nicht auch unter Wasser?
Grundsätzlich ist dies natürlich der naheliegende Gedanke. Als erstes das unter Wasser versuchen, was sich über Wasser bewährt hat. Das Problem dabei ist, dass Wasser im Gegensatz zu Luft elektromagnetische Wellen stark dämpft. Und WLAN- und Bluetoothsignale sind eben elektromagnetische Wellen. Das heißt, statt bis zu hundert Meter Reichweite sind es häufig nur noch Zentimeter.
Gundsätzlich gilt, je höher die Frequenz, desto stärker wird das Signal vom Wasser gedämpft bzw. absorbiert. Sowohl WLAN als auch Bluetooth operieren im Frequenzbereich 2.4GHz. Wusstest Du, dass dies ebenso für Mikrowellen gilt? Die erzeugen elektromagnetische Wellen, um damit die Wassermoleküle zum Schwingen anzuregen und so zu erwärmen. Dabei geht die Energie der elektromagnetischen Wellen ans Wasser über. Was für die Funktion der Mikrowelle gewünscht ist, ist für die Unterwasserkommunikation ein Problem. Statt miteinander zu kommunizieren, würden die Roboter einfach nur das Wasser erwärmen...
Was sind dann mögliche Lösungsansätze?
Man kann sich von der Natur inspirieren lassen. Wale kommunizieren über lange Distanzen mit akustischen Signalen, den sogenannten Walgesängen. Grundsätzlich bewegt sich Schall unter Wasser sehr viel schneller und weiter als in der Luft. Trotzdem erreicht man damit nicht mal Ansatzweise die Übertragungsraten wie mit WLAN. Schallwellen sind nämlich deutlich länger und niederfrequenter.
Ein Beispiel: Das an der TU Hamburg entwickelte Ahoi-Modem kann Daten mit einer Rate von 250-4500 bit/s übertragen. Möchte man damit beispielsweise ein typisches Handyfoto übertragen, würde das bis zu zwei Tage dauern! Man kann sich vorstellen, dass dies nicht praktikabel ist. Über WLAN hingegen wäre eine Übertragung in Sekundenbruchteilen möglich.
Lokalisierung
Wir haben im vorigen Abschnitt gelernt, dass die drahtlose Kommunikation mit elektromagnetischen Wellen unter Wasser große Probleme hat. Zum Glück ist das für die Lokalisierung kein Problem. Oder? Oder?!
Elektromagnetisch
Dafür müssen wir erstmal wissen, wie ein Roboter überhaupt seine Position ermitteln kann. Woher weiß das Navigationssystem eines Autos, eines Flugzeuges oder unser Smartphone wo es ist? Dank GPS (Global Positioning System). Dafür kommuniziert der GPS-Empfänger des jeweiligen Geräts mit GPS-Satteliten im Erdorbit. Und wenn hier schon wieder von Kommunikation die Rede ist, lässt das schon Böses ahnen. Auch diese Art der Datenübertragung funktioniert mittels elektromagnetischer Wellen und hat somit eine äußerst begrenzte Reichweite. In der Praxis lässt sich die Positionsbestimmung so also nicht realisieren.
Akustisch
Ebenso wie bei der Kommunikation sind akustische Signale eine Alternative. Den Begriff Sonar hast Du vielleicht schon gehört. Dabei geht es darum, mittels akustischer Signale herauszufinden, wo sich der Roboter relativ zu bekannten Ankerpositionen befindet.
Im einfachsten Fall wird dazu die Laufzeit eines akustischen Signals gemessen und davon auf die Distanz zurückgeschlossen. Die Ausbreitungsgeschwindigkeit ist abhängig von Wassertemperatur, der -tiefe und des Salzgehaltes des Wassers und beträgt ca. 1480 m/s. Konkret heißt das, wenn man eine Laufzeit des Signals von 1 s misst, haben Sender und Empfänger einen Abstand von 1480 m. Nun kennt man dann noch nicht die Position, aber man weiß, dass sich der Empfänger auf einer Kreisbahn mit einem Radius von 1480 m um den Sender herum befindet. Kombiniert man dies mit Messungen anderer Sender von verschiedenen Orten, kann die Position durch Multilateration bestimmt werden. Klingt kompliziert, ist aber eigentlich ganz einfach. Man kann sich das geometrisch so vorstellen, dass wir für jede Signallaufzeit von jedem Sender zu unserem Roboter-Empfänger die Distanz bestimmen und um jeden Sender einen Kreis mit dem entsprechenden Radius malen. Dort wo sich die Kreise schneiden muss die Position des Roboters sein.
Quizfrage Lokalisierung von Josina Gerdes (CC BY-NC-SA)
Ist damit jetzt das Problem gelöst? Nicht ganz. Zwei große Probleme bestehen auch bei der akustischen Lokalisierung. Zum einen werden die bekannten Senderposition benötigt. Bzw. ein solcher Sender muss überhaupt erstmal vorhanden sein. Das heißt, eine entsprechende Infrastruktur muss für den jeweiligen Anwendungsfall aufgebaut werden. Während GPS-Satelliten bereits in ausreichender Stückzahl vorhanden sind, um eine Weltweite Abdeckung sicherzustellen. Und zum anderen ist die verhältnismäßig langsame Ausbreitung der akustischen Signale ein Problem. Wenn ein Signal 1 s bis zum Empfänger braucht, hat sich der Roboter in der Zwischenzeit schon weiterbewegt, was die Messung verändert und somit zu fehlerhaften Ergebnissen führt.
Visuell
Eine dritte Möglichkeit der Lokalisierung ist die visuelle. Darauf greifen Drohnen (neben GPS) zurück, um Objekte zu erkennen und Hindernissen auszuweichen.
Man kann diese in zwei Kategorien teilen: Zum einen in Onboard-Lokalisierung, das heißt, die Kamera und die Verarbeitung der Daten findet direkt auf dem Roboter selbst statt und zum anderen die externe Lokalisierung, durch Motion-Capture-Systeme. Letzeres kennst Du vielleicht aus der Animations-Film-Produktion oder Videospielentwicklung. Dort werden Bewegungen von Menschen durch Kameras aufgenommen, indem kleine kugelförmige Marker an ihnen angebracht werden. Diese Bewegungen werden dann auf 3D-Modelle übertragen, um die Bewegungen möglichst natürlich aussehen zu lassen. In der Robotik kann man dieselben Systeme verwenden, um die Position des Roboters zu bestimmen.
Motion Capture Marker an einem Hippocampus von Josina Gerdes (CC BY-NC-SA)
Die grundsätzliche Funktionsweise ist für beide Arten der Lokalisierung gleich. Die verwendete Kamera(s) wird kalibriert, um Verzerrungen (z.B. die stark gewölbten Linien bei einer Fischaugenlinse) zu korrigieren. Anschließend wird versucht über geeignete Algorithmen bestimmte Umgebungseigenschaften des Roboters zu erkennen. Weiß man wie diese Bildpunkte relativ zueinander stehen, kann man das sogenannte „perspektivische n-Punkt-Problem" lösen und damit die Kamerapose in Relation zur Umgebung bestimmen. Die Umgebungseigenschaften kann man im einfachsten Fall durch visuelle Marker darstellen, z.B. durch sogenannte AprilTags (vereinfacht gesagt, sowas ähnliches wie QR-Codes).
Wenn dich das Thema Kamerakalibrierung interessiert, findest Du hier mehr Informationen darüber. Und hier wird die Posen-Schätzung basierend auf einem Kamerabild mithilfe der quelloffenen Computer-Vision-Bibliothek openCV erläutert. Beide Beispiele zeigen Schritt-für-Schritt-Anleitungen mit der Programmiersprache Python. Falls Du das auch gerne mal ausprobieren möchtest, aber dich noch nicht mit Python auskennst, gibt es dafür ein entsprechndes Lernangebot der HOOU.
Ist diese Methode nun der heilige Gral unter den Lokalisierungsmethoden? Leider nicht wirklich. Es ist gut geeignet für Anwendungsfälle, in denen das Wasser sehr klar ist. Beispielsweise, wenn ein Unterwasserroboter das mit Wasser gefüllte Abklingbecken eines Atomkraftwerks untersuchen soll. In natürlichen Gewässern ist aber häufig die Trübung des Wassers so stark, dass man kaum etwas erkennen kann. Das kannst Du in einem Praxisbeispiel in nachfolgendem Video sehen. Dort wird ein Unterwasserroboter in einen Elbkanal geworfen.