Die Lidar-Technologie (Light Detection and Ranging) verwendet Licht von Lasern, um Entfernungen zu messen. Die von diesen Laserlichtern erzeugten Reflexionen, nachdem sie von Objekten reflektiert wurden, liefern genaue Informationen über die Umgebung. Während diese schwachen Laserpulse autonomen Fahrzeugen helfen, Entfernungen zu bestimmen und Dinge zu sehen, können Lidar-Laser möglicherweise menschliche Augen und bestimmte Arten von Kameras beschädigen .
Lidar wird für eine Vielzahl von Zwecken verwendet. Die National Oceanic and Atmospheric Administration verwendet es, um die Höhe und Tiefe der Erde zu kartieren , während einige Hersteller autonomer Fahrzeuge es verwenden, um selbstfahrende Autos Gebäude, Fußgänger und andere Dinge auf der Straße „sehen“ zu lassen.
Jim Park schrieb am 11. März einen Artikel für TruckingInfo.com , in dem er die Sicherheit von Lasern untersuchte, die in Lidar-Scannern verwendet werden. Er stellte fest, dass Lidars, die für selbstfahrende leichte Fahrzeuge verwendet werden, Lichtenergie mit einer Wellenlänge von 905 Nanometern emittieren können. Dies kann bei bestimmten Intensitäten zu Augenschäden führen, was die Behörden dazu veranlasst, die Leistungsabgabe des Lidars zu begrenzen und seine effektive Reichweite auf etwa 200 bis 300 Fuß zu beschränken.
Die Distanz von 200 bis 300 Fuß ist ideal für Stadtfahrten mit 32 bis 48 Stundenkilometern (20 bis 30 Meilen pro Stunde), aber nicht für Autobahngeschwindigkeiten. Beim Fahren auf einer Autobahn sind Reichweiten von 600 bis 1.000 Fuß erforderlich, um Gefahren zu erkennen und einen sicheren Bremsweg bereitzustellen. Aufgrund dieser Einschränkung haben einige Lidar-Unternehmen auf einen 1.550-Nanometer-Laser zurückgegriffen, der angeblich 40-mal leistungsstärker ist und bis zu 1.000 Fuß erreichen kann. Dieses neue Laserlicht ist auch sicherer für das menschliche Auge.
Der Laserexperte Jeff Hecht sagte gegenüber TruckingInfo.com , dass Lidar-Impulse mit 1.550 Nanometern das menschliche Auge nicht durchdringen und die Netzhaut erreichen können, was zu Blindheit führt. „Die Augenflüssigkeit [im Auge] ist bei sichtbaren Wellenlängen und außerhalb bis etwa 1.300 oder 1.400 Nanometer weitgehend klar. [Aber es] wird fast undurchsichtig … bei 1.550 Nanometern“, bemerkte er. Hecht weiter: „Andererseits erreicht 905-Nanometer-Licht die Netzhaut und könnte Augenschäden verursachen.“ (Verwandte: Siehe das Cytophone: Forscher enthüllen eine neue Art von Laser, der Krebszellen finden und ZAPen kann .)
Lidar kann Kameras erheblichen Schaden zufügen
Während Hecht vermutete, dass Lidar für das menschliche Auge ungefährlich ist, zeigte ein Vorfall im Januar 2019, dass es bestimmte Arten von Kameras erheblich beschädigte. Während der Messe CES 2019 in Las Vegas behauptete ein Teilnehmer, dass ein an einem Fahrzeug angebrachter Lidar-Sensor seine fast 2.000 Dollar teure Kamera beschädigt habe.
Ars Technica berichtete , dass der Ingenieur für autonome Fahrzeuge, Jit Ray Chowdhury, Bilder von einem Auto gemacht hat, das mit einem Sensor ausgestattet ist, der vom Lidar-Startup AEye entwickelt wurde. Leider hatten alle nachfolgenden Bilder, die er mit der Kamera machte, zwei Flecken im selben Bereich. „Mir ist aufgefallen, dass alle meine Bilder diesen Fleck haben“, bemerkte Chowdhury. Er fuhr fort: „Ich habe die Kamera mit dem Objektivdeckel abgedeckt und die Flecken sind da – sie sind in den Sensor eingebrannt.“ Der Ingenieur, der beim Mobilitäts-Startup Ridecell arbeitet, sagte, AEye habe angeboten, ihm eine neue Kamera zu kaufen.
Einem BBC – Bericht zufolge war Chowdhury mit der Antwort von AEye zufrieden, bemerkte jedoch, dass eine Warnung deutlich in der Nähe des Fahrzeugs hätte angebracht werden sollen. „Lidar-Unternehmen sollten testen, wie kamerasicher sie sind“, kommentierte der Ingenieur. Laut Chowdhury haben andere Lidar-Systeme, die er getestet und aus nächster Nähe fotografiert hat, seiner Kamera keinen Schaden zugefügt.
In einer E-Mail an die Technologie-News-Website räumte der Gründer und CEO von AEye, Luis Dussan, ein, dass die Lidars des Unternehmens Kamerasensoren beschädigen können. Er erklärte: „Kameras reagieren bis zu 1.000-mal empfindlicher auf Laser als Augäpfel.“ Dussan bestand dennoch darauf, dass Lidars keine Gefahr für das menschliche Auge darstellen. (Verwandte: Neues laserbasiertes System kann kleine Methanlecks in einem Gebiet von mehreren Quadratmeilen lokalisieren .)
Die International Laser Display Association stimmte Dussans Äußerungen zu möglichen Auswirkungen von Lasern auf bestimmte Kameras zu. Es warnte: „Kamerasensoren im Allgemeinen sind bekanntermaßen anfälliger für Schäden als das menschliche Auge.“ Die Gruppe fuhr fort, dass „[das] Ausmaß des Schadens stark variieren kann, abhängig von [der] Entfernung von der Quelle, der Strahlrichtung und der Leistung“.
Mehrere Faktoren spielen eine Rolle, wie sich Lidar auf Kameras in der Nähe auswirkt, beispielsweise die Intensität und Dauer des Laserpulses. Während kürzere Impulse die Entfernung genauer messen können, erfordern sie eine höhere Intensität, die sich negativ auf die Kamerasensoren auswirken kann.
Lidar ist seit dem CES-Vorfall mit Chowdhury ein Streitpunkt, bei dem es um die Frage ging, ob es sich um einen Zufall oder ein echtes Problem mit den diskutierten Systemen handelte. Hecht wies auch darauf hin, dass billigere Versionen von Lidar-Einheiten etwas Licht im unteren 900-Nanometer-Band austreten lassen könnten, wo es Kameras beschädigen und Menschen dauerhaft blind machen kann.