Zum Inhalt springen

Autonomes Fahren

quod erat demonstrandum

Es kam, wie es kommen musste. Die Autonomie hat ihr erstes Opfer gefordert. Ein tragischer Zwischenfall. Vor allem aber auch der Zeitpunkt, an dem Wunsch von Wirklichkeit unterschieden werden muss.

Wir reiten gerne auf Altem herum und sind keine besonders großen Freunde von vielen Entwicklungen, die die Automobilindustrie derzeit hervorbringt. Was aber nicht daran liegt das wir hinter irgendeinem Berg leben oder generell nur schlechte Laune verbreiten wollen würden. Es geht, wie so oft: um den Spaß. Und der fehlt heute gar oft.

Ein Miura, ein luftgekühlter 911 oder ein paar verrückte V8-Coachbuilds, es sind einfach Dinge, die auf einer ganz anderen Ebene berühren als diese modernen Eierfeilen, deren Knöpfchenindividualisierbarkeit uns Sportlichkeit perfide als Autosuggestion präsentiert.

Wirklich ehrlich Fahrfreude? Findet man im Neuen nurmehr selten.

Dass wir das Feld der Moderne aber nicht allein den Träumern überlassen dürfen, zeigt der Unfall in Tempe. Deshalb an dieser Stelle nun eine kleine Aufklärung über den Status quo der Selbstfahrenden.

Beginnen wollen wir mit einem kleinen Rückgriff. Google und Apple werden die Autobranche überrollen, auslachen, zerlegen. Disruption – das neue Lieblingswort der digitalen Eliten. Passiert ist bislang nicht sehr viel. Die Anstrengungen, eigene Autos zu bauen: vergessen, abgeschrieben.

Stattdessen konzentrieren sie sich auf das, was sie am Besten können: Daten sammeln, sortieren und daraus Algorithmen ableiten, die eine bessere Lösung bieten als bisher Bekanntes. Ob nun Websitensortieren für bessere Sucheregebnisse oder die digitale Weltvermessun,g um dem Auto selbstfahrend den Weg zu weisen: egal. Sie liefern die Software, andere die harte Schale.

Bleiben die anderen neuen Player: Uber, Waymo, Lyft und wie sie alle heißen. Dienste, die die Personenbeförderung revolutionieren wollen. Wie? Billiger sein als Bekanntes. Und weil ein Fahrer, auch wenn er sich an keine Auflagen, Reglemente und sonstige staatlichen Kontrollen halten muss, immer noch den teuersten Faktor im System Taxi darstellt, muss er im Hinblick auf den «Fahrpreis»: weg. Deshalb versuchen die «ride-hailer» krampfhaft, den autonomen Karren zum Fahren zu bekommen.

Und was treiben die Hersteller? Sie basteln ein paar Studien, zeigen Autonomie mal mit, mal ohne Lenkrad. Im Verborgenen werfen sie aber mit unfassbar viel Geld um sich – weil sie das Rennen ebenfalls gewinnen wollen.

Nun kommen wir aber zum spannenden Teil der Geschichte: Was muss ein Auto sehen, damit es autonom fahren kann? Viel wichtiger noch: Wie sieht es das? Und was macht es aus dieser Information?

 

Wir sehen den aktuellen Audi A7. In Sachen «Sensor-Suite» das fortschrittlichste Auto am Markt, kombiniert er doch erstmals im Massenmarkt einen Laserscanner in die Datenverarbeitung. Der A7 ist in der Lage, auf der Autobahn den Abstand zum Vordermann zu halten sowie die Spur zu halten und auf Wunsch zu wechseln. Dazu folgt er brav dem Stau (das kann Tesla auch, schon länger…).

Dabei sieht er (mit dem aufpreispflichtigen Mercedes-Stern) ungefähr das:

Die Kamera zeigt dieses Bild, die Farben markieren die detektierten Entfernungen der Objekte zum Fahrzeug.

In einem weiteren Prozessschritt wird das Bild von Kamera und Radar kombiniert. Die Auswertung klassifiziert dann direkt die erkannten Objekte.

Es ist im Übrigen gar nicht so leicht für das Auto, eine derartige Klassifizierung vorzunehmen. Wer höchste Auflösung und Echtzeit verlangt, der sieht sich heute noch einem vollgepackten Kofferraum gegenüber, dessen Rechenleistungsabwärme die Klimaanlage vor eher großes Problem stellt.

Die aktuell verbauten Bordmittel in der Oberklasse verarbeiten die Objekte derzeit so – möglich ist das aber auch nur mit der Schützenhilfe der künstlichen Intelligenz, die mit Millionen von Beispielfotos gefüttert wird und so immer treffsicherer in der Erkennung von Objekten wird.

Doch um Objekte klassifizieren zu können, muss man sie überhaupt erst erkennen können. Denn was sich leicht sagt, ist in der Praxis gerne ein großes Problem. Und es beginnt schon bei der Erkennung der Ampelfarbe – ein für die Teilnahme im Straßenverkehr nicht gerade unwichtiges Problem:

Einige Beispiele aus dem Entwickleralltag:

Und dabei stellt sich – etwa an Kreuzungen mit drei oder mehr Ampelanlagen – die Frage: Welche Ampel ist überhaupt «meine»?

Für diese Fälle braucht es extrem detaillierte Karten, auf deren Basis das Fahrzeug seinen Fahrkorridor möglichst auf ein paar Zentimeter genau berechnen kann.

Der Dreh- und Angelpunkt für alle Entwicklungen des autonomen Fahrens ist: das Auto muss wissen, wo es ist.

Klingt einfach, ist es aber nicht.

Denn auch die exakteste Karte ist in der Sekunde, in der sie digitalisiert wurde: alt. Quasi unbrauchbar. Denn es liegt in der Natur der Sache: Dinge ändern sich. Das Auto muss also in der Lage sein, sich ein eigenes Bild zu machen. Und im wörtlichen Sinne mag das in der immerscheinenden Sonne Südkaliforniens gehen, im nebligen Schneeschauer auf dem Sustenpass aber: eher nicht. Eher gar nicht.

Es braucht deshalb – wie etwa im Audi A7 – eine Kombination verschiedenster Systeme: Kamera, Radar und Laser. Jedes einzelne System hat seine Vor-, aber auch Nachteile, weshalb nur eine intelligente Fusion zu einem Ergebnis führen kann.

Was ein Lidar in Kombination mit einer HD-Karte von Here für ein «Bild» ermöglicht:

Das Ganze mit der Klassifizierung und Bewegungsvektorisierung aller erkannten Objekte kombiniert – und man erhält die Trajektorie der eigenen Fahrt:

Ein wenig schöner, weil anschaulicher:

Das ist es, was ein mit Google-Software, Laser, Radar und Kamera ausgestattetes Fahrzeug sieht. Gleiches unten für den Ford Fusion AV:

Das Problem: im statischen Foto sieht das alles wunderbar aus. Nicht mehr so wunderbar ist die Sache, wenn das Auto in Bewegung ist:

Hier sehen wir einen Velodyne HDL-64E. Den besten Laserscanner, den Geld diesseits militärischer Systeme kaufen kann. 64 Laserstrahlen parallel, eine Auflösung von 0.4 Grad und eine Reichweite von 120m. Und das Ergebnis? Es ist okay. Mehr aber auch nicht.

Daneben:

Das ist das «Bild» des Velodyne Puck. Eine ebenfalls rotierende Lösung mit 16 Laserstrahlen, 2.0 Grad Auflösung und 100m Reichweite. Das Ergebnis? Tappen im Dunklen.

Das Problem: ihr Preis. Der HDL-64E kostet die Kleinigkeit von 80’000 US-Dollar. Der Puck immerhin noch 8’000 Dollar.

Stellen sie sich einmal vor, Sie säßen im Board-Meeting zur Freigabe der neuen Sensorik des Audi A7 und sagen, dass ihr neues System alleine 8’000 Dollar Hardware-Kosten produziert. Undenkbar.

Deshalb sitzt im Audi auch kein rotierender 360°-Laser, sondern ein solid-state-System mit einer Spiegelauslenkung seiner Laserstrahlen. Es sind übrigens vier Strahlen. Mit einer Reichweite von 80m. Nun rufen wir uns das zweite Video mit 16 Strahlen und 100m Reichweite in Erinnerung. Und denken uns unseren Teil.

Das Problem: die Bildgebung ist nicht ansatzweise soweit, dass Fahrzeuge in der nächsten Generation wirklich alleine fahren könnten. In Testumgebungen: vielleicht. Im durchorganisierten, geradelinigen Innenstadtverkehr Amerikas: vielleicht. Aber ganz sicher nicht bei hohem Tempo auf kleinen Landstraßen, Autobahnbaustellen oder sonstigen alltäglichen Verkehrssituationen.

Und wir wollen an dieser Stelle noch einmal klarstellen: Wir sind nicht gegen Technologie. Wir sind aber für Verständnis. Und wer den status quo verstanden hat, seine Probleme kennt, der kann sich vernünftig über das Thema unterhalten. Genau das wollen wir erreichen. Kein Hochjazzen, keinen Hype beschwören, aber auch keine Verteufelung – stattdessen: Sinnvolle Diskussion.

Denn alleine fahren mögen sie zwar. Aber sie sind eben doch nicht alleine auf der Straße.

Und ein System, das nur in seinem eigenen Kosmos funktioniert, wenn alle Randbedingungen exakt auf das eigene Bedürfnis eingestellt sind, das ist – mit Verlaub – ein schlechtes. Ein sehr schlechtes. Unsere Technologie kann mehr, sie muss mehr können, sonst ist sie nicht serienfähig. Und an dieser Stelle gibt es keinen Millimeter Verhandlungsspielraum. Tempe hat es gezeigt.

Randnotiz: Uber hat seine eigene Technologie sprichwörtlich auf einem Dachbalken an den Volvo XC90 montiert. Warum? Vermutlich, weil es günstiger ist als tief in die Systeme eines Autos einzugreifen. Vor allem aber: es könnte universell zu nutzen sein – für jedes beliebige Fahrzeug mit Dachreling. Sie haben es übrigens auch bei einem Lidar-Scanner bewenden lassen, wie überhaupt alle Sensorik im Dachbalken integriert ist:

Im Vergleich dazu der neue GM Cruise AV, der ab diesem Jahr in Kleinserie vom Band laufen wird:

General Motors würde mit Sicherheit keine fünf Lidar am Dach montieren, wenn sie nicht nötig wären. Hier ist die konservative Automobilindustrie den jungen Techies vielleicht dann doch noch das ein oder andere Jahr an Erfahrung überlegen. Denn sie weiß: Selbst mit dem Sensor-Overkill fahren die Cruise AVs heute noch mit großer Zielsicherheit über rote Ampeln…

Es bleibt noch viel zu tun.

fm/Bilder: Hersteller

5 Kommentare

  1. Roland Hierl Roland Hierl

    Mein Passat hat nur den automatischen Abstandsregler. Funktionier super, bei idealen Bedingungen. Bei Schnee, starkem Regen, Kälte unter 10°C, stellt das Teil die Arbeit ein. Jetzt stelle ich mir eine Situation in 20 Jahren auf der Autobahn bei Schneetreiben vor. Alle Autos bleiben stehen, weil die Sensoren nicht mehr funktionieren und nach längerem Stehen in der Kälte sind die Akkus leer. Ich werde dann eine Firma gründen, die stehengebliebene Elektroautos mit Strom versorgt und ähnliche Gebühren verlangen wie die Schlüsseldienste am Sonntag. Ich freu mich schon.

    • Admin Admin

      🙂

  2. Danke, das war sehr interessant zu lesen! Ich gebe Dir zu 100% Recht.

    Ausser: Beim Unfall von Tempe. Der hätte auch ohne autonomes Fahren passieren können. Wir wissen nicht, warum der Fahrer nicht eingegriffen hat (oder zumindest ich nicht). Und wenn in Tempe ein Mensch von einem nicht-autonomen Fahrzeug überfahren worde wäre, dann würde ja auch kein Mensch darüber berichten (ausser die ‚Tempe Daily‘ vielleicht).

    Ansonsten: Mich nerven schon so Dinge wie Spurhalteassistenten, die am Lenkrad rumpeln, wenn man in einer Baustelle eine weisse Linie kreuzt, um in den orangen Begrenzungslinien zu bleiben.

    Autonomes Fahren (lassen) kann ich mir im Moment auch nicht vorstellen. Ich finde aber die Technologie durchaus auch interessant und bin gespannt!

    Die Diskussionen sind halt oft mühsam, weil die Technologie-Jünger auf Kritik (auch konstruktive) resistent reagieren. Das ist schade, mir aber am Ende egal.

  3. Simon Simon

    Sehr anschaulich und informativ. Danke dafür.

    Und auch für die 50 Jahre 504 Geschichte. Hatte in den Achtzigern auch so einen. Ich war sehr glücklich damit. Sogar dann, als mir mit Tempo 150 auf der franz. Autobahn südlich von Aix-en-Provence der linke Hinterreifen platzte.
    Herzlich
    Simon

  4. horst horst

    Schön, wenn ich sehe wie man versucht mein HITEC-GEHIRN wenigstens zu 2,3%
    zu erreichen. ( Maserati Ghibli q4..egal.)

    Leider dürfen wir wenigen, die ein Auto beherrschen unter den VOLLDEPPEN leiden, die blöd wie Heu AUTONOM herbeisehnen.. damits in ihren SUV-aufbahrungshallen weiter im Wachkoma durchs Land gekarrt werden.

    Erkennt eig jeder, WAS UNSER GEHIRN KANN? ( könnte)
    DIE GANZE ZEIT?

    Ausgenommen etwa 45% der VOLLKOFFER, die eine Zulassung haben…
    weil es ein Geschäft ist,und da geht man ( auch für den Fortschritt / BAUM/ WEISSER LKW / MAUER/KINDERWAGEN..) ÜBER LEICHEN!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.