Erste Schritte zur Entwicklung von Highspeed-Drohnen
Die Leistung der sogenannten Vision-Sensoren ist aus der industriellen Verarbeitung nicht mehr wegzudenken. Sie sichern Qualitätsstandards, helfen bei der Optimierung von Produktionsprozessen und beschleunigen die Herstellung. Sie erfassen Form und Beschaffenheit von Produkten und Bauteilen und können je nach Optimierung entsprechende mechanische Funktionen ausführen. Doch nicht nur in der Massenanfertigung und Qualitätskontrolle sind Vision-Sensoren eine effiziente Technologie. Denn noch bewegen sich beispielsweise autonome Drohnen in der Luft auffällig primitiv. Diese unbemannten Flugobjekte könnten in Zukunft schneller und sicherer durch die Luft gleiten. Der fließende und elegante Flug wird derzeit von der begrenzten Möglichkeit der Datenverarbeitung ausgebremst. Die Kameras der Flugobjekte sind nämlich bislang nicht in der Lage, schnell genug auf Hindernisse zu reagieren und deshalb steigt schon ab 50 km/h das Risiko eines Sturzflugs. Forscher der eidgenössischen Hochschule in Zürich haben vor kurzer Zeit ein dynamisches Sensormodell entwickelt, welches die schnell wechselnden Helligkeitsänderungen während des Flugs in Mikrosekunden erfassen und visualisieren kann. Doch auch dieses System stößt bei erhöhter Datenflut an seine Grenzen. Dem soll ein von Wissenschaftlern des MIT entwickelter Algorithmus entgegenwirken. Ihre Ergebnisse haben die US-Forscher auf der IEEE American Control Conference in Seattle vorgestellt. Das System bietet vielfältige Kompatibilität und lineare Anwendung. So könnte das System bei der Entwicklung von Robotern eine neue Wende bringen. So sehr der unbemannte Flug in der Öffentlichkeit als fortgeschritten gilt. Bislang gab es trotz fortschrittlicher Entwicklungen im highspeed-autonomen Flug keinen entscheidenden Durchbruch, um die Ausgabedaten der Dynamik-Sensoren in geeigneter Weise zu verarbeiten. „Wir stellen einen ersten Ansatz dar, um die zweideutigen Daten des DVS sinnvoll zu verarbeiten, indem wir das inhärent verrauschte System in eine zugängliche Form umwandeln,“ erklärt Prince Singh, Diplomstudent und Autor der MIT-Abteilung für Luft- und Raumfahrt. Der sogenannte „neuromorphe“ Sensor ahmt in seiner Funktion das menschliche Auge nach. So wie auch unsere Netzhaut reagiert die DVS-Kamera auf Änderungen der Leuchtkraft binnen kürzester Zeit. Die DVS-Kamera stellt ihre verarbeiteten Daten als körniges Bild dar, welches je nach Lichtverhältnissen zwischen zwei Farben umschaltet. Eine spezielle Bildverarbeitung benötigt der Sensor nicht und begünstigt dadurch die schnelle Ausgabe der erfassten Daten.
Quelle: Massachusetts Institute of Technology, ETH Zürich