Start > Analytics > Analytics: So viel künstliche Intelligenz steckt in Autos

Analytics: So viel künstliche Intelligenz steckt in Autos

Interessanter Podcast zum Thema künstliche Intelligenz in Autos. Hörenswert!

Zwei Faktoren machen das autonome Fahren, beziehungsweise maschinelles Lernen in der Automobilbranche zu einem heiklen Unterfangen. Fahrzeuge müssen bestimmte Sicherheitsstandards erfüllen. Diese sind einerseits technischer Natur, etwa funktionierende Bremsen oder die ausreichende Versteifung, so dass die Insassen bei Unfällen geschützt sind. Das heißt: jedes künstliche System ist hohen Sicherheitsanforderungen ausgesetzt, gerade wenn es sicherheitskritisch ist.
Alle sicherheitsrelevanten Funktionen werden unheimlich stark getestet. Der Entwicklungszyklus dauert deswegen fünf bis sechs Jahre bevor ein Fahrzeug auf den Markt kommt.

Zu dieser technischen Komponente kommt eine ethische. Ein Autofahrer trifft viele Entscheidungen während er das Fahrzeug steuert (Menschen treffen täglich über 100.000 Entscheidungen). Dabei befolgt er einfach Regeln, etwa wenn er bei Rot stehen bleibt. Solche Entscheidungen lassen sich noch einfach programmieren: wenn a dann b. Schwieriger wird es beim grünen Pfeil. Jetzt muss zusätzlich die Bedingung erfüllt sein, dass es keinen Gegenverkehr gibt.
Was aber, wenn es zu einer kritischen Situation kommt bei der ein System eine moralische Entscheidung treffen muss? Das bekannteste Beispiel einer Dilemma Situation ist das Trolley Problem (Link). Solche Dilemma Situationen sind die großen Herausforderungen und dafür braucht es ethische Standards. Die Ethikkommission hat 2017 einen Bericht vorgelegt und 20 Punkte erarbeitet, die als Grundlage für autonomes und vernetztes Fahren zu sehen sind (Link).

So heißt es etwa unter Punkt 5:
Die automatisierte und vernetzte Technik sollte Unfälle so gut wie praktisch möglich vermeiden. Die Technik muss nach ihrem jeweiligen Stand so ausgelegt sein, dass kritische Situationen gar nicht erst entstehen, dazu gehören auch Dilemma-Situationen, also eine Lage, in der ein automatisiertes Fahrzeug vor der „Entscheidung“ steht, eines von zwei nicht abwägungsfähigen Übeln notwendig verwirklichen zu müssen.
Das Beispiel zeigt, wie hoch die Anforderungen sind (kritische Situationen erst gar nicht entstehen) – gleichzeitig wie schwammig (so gut wie praktisch möglich) die Formulierung. Die Automobilbranche hinkt bei der Implementierung von KI in Fahrzeugen nicht hinterher, Autobauer müssen viel höhere Sicherheitsanforderungen erfüllen als Entwickler anderer selbstlernender Anwendungen, etwa von Sprachassistenten, weil diese weniger sicherheitskritisch.

Keine News mehr verpassen! Jetzt den  Newsletter abonnieren .
Quelle
Menü schließen