Innovationskonferenz 2018 – Eindrücke – Teil 1

 

Lichthof TU-Berlin Innovationskonferenz 2018
Tolle Location: Der Lichthof der TU-Berlin

Das Deutsche Institut für Normung e.V. (DIN) veranstaltete am 10. und 11.10.2018 die diesjährige Innovationskonferenz in der TU Berlin. Zumindest am 11. war ein Videonerd Vorort und hier wird über die Veranstaltung berichtet.

Dabei war die Location mit dem bekannten Lichthof im Hauptgebäude der Technischen Universität zu Berlin in der Straße des 17.Juni alleine schon die Reise wert. Der hohe Saal ist architektonisch sehr reizvoll und wird zudem alleine durch das Licht der Sonne beleuchtet.

Aber genug Off Topic. Die Konferenz stand unter dem Motto „Von der Automatisierung zur Autonomisierung – Standardisierung für Autonome Systeme“ und nach diesem Thema wurden auch die Redner ausgewählt. Verpackt in vier Blöcke á zwei Redner wurde versucht die Thematik aus unterschiedlichen Blickwinkeln zu betrachtet. Der Fokus lag vor allem auf dem automatisierten Fahren und im letzten Block auf dem automatisierten Fliegen. Weitere Automatisierungen waren eher Randerscheinungen.

In diesem ersten Artikel werden die beiden startenden Vorträge unter die Lupe genommen

Vortrag Dr. Christian Müller: „Das Verhalten eines DNNs ist nicht erklärbar“

Dabei begann es spannend mit Dr. Christian Müller vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Er ist dort der Head of Autonomous Driving ASR & Competence Center Autonomous Driving CCAD. Müller beschäftigt sich mit dem autonomen Fahren der Level 4&5, also hohe und volle Automation. Dabei setzt sein Team Künstliche Intelligenz im autonomen Fahren ein. Um genauer zu sein werden DNN (Deep Neuronal Networks) verwendet. Müller beschrieb den aktuellen Stand von Neuronalen Netzwerken und Maschine Learning dabei sehr schön:

„Neuronale Netze können Katzen von Hunden, Zebras von Pferden und hoffentlich Kinder von Papiertüten unterscheiden“

Christian Müller
Dr. Christian Müller

Dies zeigt das dieser Bereich am Anfang steht und noch reichlich Arbeit investiert werden muss. Aktuell wird meist ein Old School-Ansatz genutzt, bei dem einige Beispiele verwendet werden, ein Experte entscheidet, wie das Beispiel einzuordnen ist und welche Features das Beispiel besitzt und daraus wird dann ein Model erstellt.

 

Deep Learning ist gerade in den Kinderschuhen aber bietet viele Vorteile gegenüber dem alten Ansatz. Dabei profitiert Deep Learning laut Müller vor allem von drei Tatsachen.

  1. Durch Big Data sind heutzutage einfach mehr Daten verfügbar.
  2. Die Rechenpower moderner Computer und anderer Geräte ist deutlich höher als die vergangener Tage.
  3. Es gibt bereits Umsetzungen des Ansatzes und das Wissen ist bekannt. Dadurch können neue Ansätze leichter erprobt werden.

Allerdings sieht Müller auch deutliche Nachteile bei der Nutzung von DNNs:

„Das Verhalten eines DNNs ist nicht erklärbar“

Damit bemängelt er, dass keinerlei Transparenz bei der Entscheidungsfindung der Neuronalen Netzwerke gegeben ist. Wie eine Entscheidung von der KI getroffen wird, ist nicht nachvollziehbar und somit ist auch die Korrektheit zumindest anzweifelbar. Zudem meint Dr. Müller, dass:

„Vorhandenes Wissen durch neue Umstände vergessen werden kann.“

Lernt ein neuronales Netz neue Umstände kennen, kann es dazu führen, dass altes Wissen verloren geht und bei Eintreffen relevanter Situationen keine oder die falsche Entscheidung getroffen wird. Des Weiteren bemängelt er, dass:

„Kritische Situationen zu selten vorkommen.“

Dass ein Kind vor ein Auto läuft, passiert Gott sei Dank nicht sehr häufig aber aus Sicht des Deep Learnings muss es passieren, damit das DNN daraus lernen und die richtigen Schritte beim Eintreffen einer solchen Situation durchführen kann. Ansonsten sind keine Trainingsdaten vorhanden und es ist schwierig richtig zu reagieren. Hier kommt die Arbeit von Dr. Müller und seinem Team ins Spiel. Sie simulieren kritische Situationen und sorgen dafür, dass mithilfe von Motion Synthesis die KI lernt. Bei der Motion Synthesis werden kleine Bewegungen gelernt und zu einem Ablauf zusammengesetzt.

Das Lernen aus der Simulation geschieht dabei mit Reinforcement Learning. Bei dem Ansatz werden nur die Grundregeln bekanntgegeben und die Maschine lernt eigenständig, wie diese umgesetzt werden. Bestes Beispiel für die Nutzung ist AlphaGo, bei dem die KI innerhalb kürzester Zeit gelernt hat, wie das Spiel Go richtig gespielt wird und welche Strategien erfolgsversprechend sind. So konnte die Maschine im Jahr 2016 den besten Go-Spieler der Welt, Lee Sedol, problemlos schlagen und zudem wichtige Erkenntnisse über das Spiel erlangen, die in 3000 Jahren dem Menschen nicht möglich waren.

Dass es dabei auch zu unerwarteten Problemen führen kann, wenn der Algorithmus außer ein paar Regeln alles selber lernt, zeigte Müller mit einer Anekdote aus seiner Forschung. Der Maschine wurden viele Situationen eingespielt mit einem Fußgänger der unerwartet die Fahrbahn betritt, sodass sie lernen sollte, dass diesem ausgewichen werden muss. Dabei wurden alle Simulationen mit genau einem Fußgänger durchgeführt und der Algorithmus verhielt sich vorbildlich. Bis zu dem Zeitpunkt, als ein zweiter Fußgänger in das Spiel gekommen ist. Der Algorithmus hat nie gelernt, dass es auf der Welt mehr als einen Menschen gibt und so wich das Auto in der Simulation zwar dem ersten Fußgänger aus aber der Zweite wurde rigoros überfahren.

Trotzdem ist Müller der Meinung, dass lernende Systeme für autonome Fahrzeuge unerlässlich sein werden. Er sieht die Angst der Gesellschaft vor der neuen Technologie als Problem und ist der festen Überzeugung, dass diese besser erklärt werden muss, damit die Akzeptanz steigt. Zudem kam die Frage aus dem Plenum auf, ob die KI irgendwann die Normung ersetzen kann. Müller verneinte dies nach einer kurzen Überlegungspause und stellte klar, dass seiner Meinung nach die KI irgendwann als Werkzeug bei der Normierung beiseite steht aber den Menschen dabei nicht ersetzen wird.

Vortrag Prof. Dr. Susanne Beck „Die KI muss nicht qualitativ entscheiden können“

Eine deutlich andere Sicht auf die KI und die rechtlichen Probleme lieferte die zweite Vortragende Prof. Dr. Susanne Beck von der Leibniz Universität Hannover. Die gelernte Juristin und Inhaberin eines Lehrstuhls im Bereich Strafrecht, Strafprozessrecht, Strafrechtvergleichung und Rechtsphilosophie betrachtet die ganze Thematik Automatisierung aus dem ethischen und rechtlichen Blinkwinkel. Das gibt auch schon der Titel ihres Vortrages her, der da lautet passender Weise „Ethische und rechtliche Fragen zum Umgang mit Autonomen Systemen“. Um die Probleme und Fragestellungen zu verdeutlichen, nutzt Beck verschiedene Fallbeispiele, die sie anschließend in drei Kategorien einteilt.

Die Rubriken der Fragestellungen sind:

  • Verantwortung
  • Dilemmata
  • Diskriminierung
Susanne Beck
Prof. Dr. Susanne Beck

Als treffendes Fallbeispiel für Verantwortungsfragen führt Beck die Befunde in der Radiologie auf. Eine Maschine diagnostiziert dabei mögliche Erkrankungen und die Radiologin bzw. der Radiologe weiß nicht, wie dass Programm zu den Schlüssen gekommen ist. Der Arzt bzw. die Ärztin zweifelt die Entscheidung aber nicht an, da die Trefferquote sehr hoch ist. Leider kommt es zu einer Fehldiagnose und einem Menschen entsteht dadurch ein Schaden. Hätte die Radiologin bzw. der Radiologe auf die Erfahrung vertraut, wäre eine korrekte Diagnose möglich gewesen. Doch wer trägt jetzt die Verantwortung für den Schaden? Dies ist laut Prof. Beck nicht so sehr trivial zu beantworten und ein großes Problem in Hinsicht auf die Nutzung von KI. Die Verantwortung muss aufgeteilt werden in Haftung, individuelle Verantwortung und gesellschaftliche Verantwortung. Beck sieht verantwortungsfreie Räume auf die Gesellschaft zukommen, in denen niemand wirklich verantwortlich ist.

 

Für die Dilemmata nennt die Professorin das heiß diskutierte Schadensszenario beim autonomen Fahren. Wer soll im Notfall überfahren werden? Welches Leben ist mehr wert? Beck ist der festen Meinung, dass

„KI nicht qualitativ entscheiden darf, sondern rein quantitativ.“

Alter, Status oder Beruf dürfen keine Rolle spielen, sondern rein die Anzahl der betreffenden Personen. Ob ein Rentnerpaar damit leben kann, dass statt ihnen ein kleines Kind überfahren wurde? Sicher eine sehr schwere Fragestellung, die noch für viel Diskussionen sorgen wird.

Die rechtlichen und ethischen Fragestellungen bei der Automatisierung in Hinsicht auf Diskriminierung sind teilweise erschreckend. Als Beispiele nannte Beck, dass Google, wenn es weiß, dass eine Frau vor dem Bildschirm sitzt, ihr keine hochbezahlten Stellenausschreibungen präsentiert. Einem Mann hingegen werden auch die lukrativen Stellen angeboten. Ebenso traurig ist das zweite Beispiel. Bei der Entwicklung eines automatischen Seifenspenders in den USA wurden für Testzwecke nur hellhäutige Menschen genutzt. Nach dem Aufstellen der Spender, kam es so, wie es kommen musste. Eine dunkelhäutige Person wollte ihn nutzen und der Spender spuckte keine Seife aus. Eine ethnische Diskriminierung nur dadurch, dass die Sensoren falsch eingestellt wurden.

Diese Fallbeispiele zeigen die Hauptprobleme von Automatisierung und KI gut auf. Wie auch Müller beklagt Beck, dass die Entscheidungen der KI unvorhersehbar und nicht kontrollierbar sind. Dies ist ein generelles Problem, was schwierig bis gar nicht zu lösen ist. Denn, wie ein DNN zum Ergebnis kommt, ist wie erwähnt nicht transparent. Müller und Beck sind sich einig, dass mehr Transparenz notwendig ist, für eine größere Akzeptanz der KI. Das beinhaltet die einfache Darstellung dieser und nicht die ScienceFictionierung der KI.

Als weitere rechtliche und ethische Probleme sieht Beck unter anderem den Datenschutz bei Big Data und stellt die Frage, ob eine Anonymisierung dieser großen Datenmengen überhaupt noch realisierbar ist, die Kategorisierung durch KI und die Diskriminierung durch lernende Systeme.

Sie sieht die Verantwortung für die Probleme aber nicht ausschließlich bei der Gesetzgebung, sondern sagt deutlich:

„Die Gesellschaft muss beim Problemlösen helfen. Nicht alles kann auf den Gesetzgeber abgewälzt werden. Das Recht kann erst beim Datenschutz reagieren, wenn die Gesellschaft es ausdiskutiert hat.“

Sie nimmt damit die Gesellschaft in die Verantwortung und verlangt von ihr eine starke Beteiligung an der Diskussion. Dabei schließt sie die Diskriminierung mit ein und erwartet von der Gesellschaft, dass sie die Entscheidung treffen soll, was ok ist und was nicht.

Des Weiteren stellt sie provokant die Frage, ob die Daten eine öffentliche Ressource sind. Dabei sind persönliche Daten, wie Geburtstag und der Name ausdrücklich inbegriffen. Das ist bei der aktuellen Diskussion, über die Frage, wem die Daten gehören, eine äußerst seltene Sichtweise. Auch die DSVGO suggeriert das die persönlichen Daten jeder Person selbst gehören und nicht der Öffentlichkeit.

Frau Professor Beck ist sich bei einem anderen Punkt absolut sicher.

„Maschinen werden die Menschen in einigen Bereichen ersetzen“

Exemplarisch führt Beck die Pflege an, bei dem Maschinen viele Aufgaben übernehmen könnten. Allerdings ist ihr bewusst, dass die vorhandene Skepsis erst überwunden werden muss.

Auf die Frage aus dem Plenum, wer rationaler handle, Mensch oder Maschine, antwortete Beck, dass es zwei Lager von Menschen gibt. Die einen, die keiner Maschine trauen und die, die Rationalität der Maschine über die Emotionen des Menschen stellen. Von daher kommt die Beantwortung der Frage eindeutig auf die Zugehörigkeit des Lagers an. Was meinen Sie?

Kommentar hinterlassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.