Kategorie Innovation & Technologie - 6. Mai 2017
Ausweichhilfe für Flugobjekte
Wien – Online-Versandhändler Amazon experimentiert seit vergangenem Jahr in Großbritannien mit der Paketzustellung per Drohnendienst. Eine der entscheidenden Fragen dabei ist, wie sicher solche unbemannten Flugobjekte ihren Weg von A nach B und wieder zurück finden und inwieweit sie selbstständig auf unerwartete Hindernisse in ihrem Flugraum reagieren können.
Am Austrian Institute of Technology (AIT) wird für diese Fälle eine Schlüsseltechnologie entwickelt. Christoph Sulzbachner, Senior Research Engineer für Autonomous Systems am AIT, bringt Flugzeugen das künstliche Sehen bei, damit sie Hindernissen ausweichen können.
Kürzlich hat man eine erste Stufe der Systementwicklung bei der Farnborough International Airshow in England und bei der Bildverarbeitungsmesse Vision in Stuttgart vorgestellt. Nun wird das System weiterentwickelt. „Wir binden jetzt nicht nur Video- und Wärmebildkameras, sondern auch Radartechnologie mit ein“, sagt Sulzbachner.
Daten ins Cockpit
Damit ist man dem Ziel, Flugzeugen die selbstständige Kollisionsvermeidung beizubringen, um einen Schritt näher gekommen. Eingesetzt werden kann die Technologie sowohl für Drohnen als auch für bemannte Flugzeuge. Zwar werden die Ausweichmanöverdaten, die das System aus den Sensordaten selbst errechnet, Piloten noch per Display ins Cockpit eingespielt. Diese müssen dann entscheiden, ob sie das Ausweichmanöver einleiten oder nicht. Doch das hat eigentlich nur rechtliche Gründe. „Im Prinzip könnten unbemannte Flugobjekte die Informationen auch selbstständig ausführen,“ sagt Sulzbachner.
Die Herausforderungen bei der Forschungsarbeit: Elektrooptische Systeme von Video- über Wärmebildkameras bis hin zu Radartechnologie können ihre Umgebung zwar mit guter Auflösung „ablichten“, aber aus den Aufzeichnungen so wie der Mensch Schlüsse zu ziehen und die richtigen Aktionen abzuleiten, schaffen Maschinen noch nicht.
Ein Problem, das Sulzbachner und sein Team lösen mussten: Wie lehrt man Flugzeuge, gefährliche von ungefährlichen Objekten zu unterscheiden? Es wäre nicht im Sinne des Erfinders, wenn Regentropfen, Wolken oder Schneeflocken mitunter abrupte Ausweichmanöver einleiten würden.
Maschinelles Lernen
Der Weg, den die Forscher einschlugen, stammt aus dem Fundus des „maschinellen Lernens“: Sie fütterten die Software mit Beispielen für alle Objektklassen, die einem Flugzeug gefährlich werden könnten: Daten über Flugzeuge in verschiedenen Größen und Formen, Heißluftballone, Fallschirmspringer, Vogelschwärme oder Bäume. Im nächsten Schritt programmierte Sulzbachners Team Routinen, mit denen diese im digitalen „Rucksack“ befindlichen Beispiele mit den eingehenden Bildinformationen der Sensoren in der Flugzeugnase verglichen werden – und zwar in Echtzeit. „Echzeit ist eine große Herausforderung“, sagt Sulzbachner. „Man muss dafür das Letzte an Hardware-Performance aus einem Rechner herausholen.“
Der Grund: Bilderkennung hat immer mit großen Datenmengen zu tun, die Computer beim Verarbeiten der Informationen zum Glühen bringen. Für das „number-crunching“ in Echtzeit setzen die Forscher daher leistungsfähige Grafikkarten ein und verwenden Tricks, mit denen die Verarbeitungszeit massiv beschleunigt wurde.
Zum einen setzten die Entwickler maschinennahe Programmiersprachen wie Assembler ein, mit denen Prozessorkerne der Central Processing Unit (CPU) direkt angesprochen werden können. Zum anderen wendeten sie Elemente des „Parallelcomputings“ an: Weil moderne Computer bereits mehrere Kerne besitzen – bei stationären Supercomputern kann die Kernanzahl auf über zehn Millionen anwachsen -, wurden die Rechenroutinen so festgelegt, dass alle Prozessorkerne parallel rechnen und so der Rechner optimal ausgelastet wird.
Lernen im Simulator
Ausgerüstet mit dem Algorithmus schickte man dann das Programm zum Lernen in den Flugsimulator. „Dort spielten wir alle denkbaren Situationen durch“, sagt Sulzbachner. Wie reagiert das Flugzeug etwa, wenn unerwartet sogenannte nichtkooperative Objekte auftauchen? „Nichtkooperativ heißt nicht, dass es sich dabei um feindliche Angreifer handelt, sondern um Flugobjekte, die nicht automatisch Daten etwa zur Position zur Verfügung stellen“, sagt der Forscher. Zum Beispiel: Vogelschwärme oder Bäume.
Die Ergebnisse sind vielversprechend. In Flugzeugen des AIT-Entwicklungspartners Diamond Aircraft wird die neue Technologie bereits im Rahmen von Luftfahrtforschungsprojekten eingesetzt. Die Technologisierung ist also weit fortgeschritten. Wann die ersten Drohnen mit „Ausweichhilfe“ ausgerüstet werden, wird sich zeigen. Denn dafür sind viele rechtliche Fragen – zum Beispiel über die Verantwortung – zu lösen. (Norbert Regitnig-Tilian, 6.5.2017)