Sie sind hier: Startseite Heftarchiv 2019 Neue Chancen für entkoppelte junge Menschen „Es genügt nicht, nur die technischen Möglichkeiten zu sehen, sondern wir müssen immer reflektieren, worin ihre Sinnhaftigkeit liegt“
(Heft 1/2019)
Interview mit Ranga Yogeshwar

„Es genügt nicht, nur die technischen Möglichkeiten zu sehen, sondern wir müssen immer reflektieren, worin ihre Sinnhaftigkeit liegt“

Dr.-Ing. e. h. Ranga Yogeshwar, Diplom-Physiker, arbeitete zwei Jahrzehnte lang als Wissenschaftsredakteur beim WDR in Köln. Er entwickelte und moderierte zahlreiche Sendungen, darunter „Quarks & Co“. In seinem Buch „Nächste Ausfahrt Zukunft, Geschichten aus einer Welt im Wandel“ schreibt er über die digitale Revolution, Fortschritte in der Gentechnik und Entwicklungen der künstlichen Intelligenz. Darin heißt es: „Wir erfahren derzeit eine epochale Umbruchphase so wie einst, als das Mittelalter durch die Renaissance abgelöst wurde oder die Moderne das Bürgertum erschütterte. Doch oft betrachten wir das Neue mit alten Augen und verkennen, dass der Fortschritt uns selbst verändert.“

G.I.B.: Herr Yogeshwar, bei der Informationstour „Erfahrbares Lernen“ an der RWTH in Aachen ging es um die Frage, wie intelligente Lehr- und Lernsysteme den Wissenserwerb in Schulen, Hochschulen und Ausbildungsstätten unterstützen können. Was zeichnet „intelligente“ Lehr- und Lernsysteme aus, was ändert sich beim Thema „Lernen“?

Ranga Yogeshwar: Wir müssen begreifen, dass der Prozess des Lernens an sich, so wie es meine Generation aus der eigenen Kindheit und Jugend kennt, nicht mehr das Modell der Zukunft sein wird. Aus mehreren Gründen. Wir wissen alle, dass eine Vokabel wie „Abschluss“ in vielen Bereichen ein Anachronismus ist, weil das, was man in der Schul- oder universitären Zeit gelernt hat, schnell überholt und veraltet ist. Deshalb müssen wir die Gesellschaft auf ein lebenslanges Lernen vorbereiten, und zwar auf ein Lernen mit Freude. Es geht nicht um ein Muss, sondern um ein Können. Der Unterschied ist sehr wichtig. Viele Politiker sagen immer: „wir müssen“, doch die wenigsten jungen Menschen „müssen“ keine App herunterladen, sondern sie „wollen“. Darin kommt eine völlig andere Haltung zum Ausdruck.

Hinzu kommt: Es gibt viele Prozesse, bei denen das Lernen kein akademisches, sondern zum Beispiel ein sehr haptisches ist, wie wir hier in Aachen an gleich mehreren Projekten im BMBF-Förderschwerpunkt „Mensch-Technik-Interaktion (MTI) im demografischen Wandel“ mit ihren neuen Formen interaktiven Lernens sehen können. Ein Pilot zum Beispiel lernt das Fliegen heute in einem Simulator und auch ein Chirurg, der eine Operation plant, sollte möglichst nicht am Menschen üben. Zudem werden wir in den nächs­ten Jahren klar entscheiden müssen, was wir lernen wollen, welche Fähigkeiten wir dazu brauchen und warum wir etwas lernen. Wir werden in fast allen Bereichen sehr viel stärkere Wechselwirkungen haben mit Maschinen, die über Kompetenzen verfügen, woraus folgt, dass wir auch eine andere Schnittstelle zwischen Mensch und Maschine brauchen.

Noch gibt es viele offene Fragen: Was genau bedeutet Lernen zukünftig? Früher haben wir Rechnen gelernt, doch was machen wir in einer Zeit, in der ein KI-System uns den Rechenvorgang komplett abnimmt? Was ist dann die Kernqualität, die uns als Menschen auszeichnet und was wollen wir, möglicherweise in Zusammenarbeit mit der Maschine, erlernen? Zudem müssen wir begreifen, dass nicht nur wir Menschen lernen, sondern auch – zum Teil von uns – die Maschinen, woraus Wechselwirkungen resultieren. So funktioniert die Wechselwirkung mit Maschinen immer stärker über Gespräch, über Video und weniger über Text. Die Aufklärung basiert jedoch auf dem Denken in Texten. Was passiert also, wenn wir demnächst nur noch mit Apparaten sprechen? Ketzerisch könnte man fragen: Bewegen wir uns auf eine Post-Text-Gesellschaft, also eine Vor-Gutenberg-Ära zu? Sind wir irgendwann die Tierpfleger, die einen Elefanten füttern, der immer größer wird, oder sind wir in der Lage, die Kooperation mit Maschinen so zu gestalten, dass wir nicht zu reinen Nutzern entmündigt werden. Dazu müssen wir wissen, wie solche Apparate wirklich funktionieren. Das ist im Moment eine eminent wichtige Frage, denn bislang verstehen wir die genaue Funktionsweise von neuronalen Netzen nicht.

G.I.B.: In Ihrem Buch „Nächste Ausfahrt Zukunft“ folgern Sie daraus, dass Wissen und Verständnis oft durch ein blindes Vertrauen in die Maschine oder in einen Algorithmus ersetzt werden.

Ranga Yogeshwar: So ist es, denn moderne KI-Systeme beruhen auf digitalen neuronalen Netzwerken, bei denen die Neuronen schichtweise angeordnet sind. In diesem System, das man sich stark vereinfacht wie eine riesige Black-Box vorstellen kann, sind jedoch manchmal über zwanzig Schichten hintereinander geschaltet, bei denen sich nicht vorhersagen lässt, was da passiert. Angesichts dieser Komplexität versagt die genaue Beschreibung von Ursache und Wirkung.

Eins von mehreren Problemen bei neuronalen Netzen besteht darin, dass diese Systeme Kategorien bilden, etwa bei der Identifizierung von Menschen. So haben Forscher bei der Ausleuchtung neuronaler Systeme herausgefunden, dass der Algorithmus bei der Kategorisierung von Menschen auf Bildern auch das Vorhandensein von Stofffalten in der Kleidung einbezieht. Das muss man sich vorstellen: Stofffalten als Indiz für Menschen! Aus der Tatsache, dass wir neuronale Netze mit immer mehr Daten trainieren, aufgrund derer das System Kategorien bildet, können Probleme resultieren, denn diese Systeme haben in Abhängigkeit des Lernprozesses bislang alle einen Bias, einen systematischen Fehler. Wozu das führen kann, hat Google vor zwei Jahren erlebt. Weil das System immer nur weiße Menschen zu sehen bekam, schlug es bei Bildern schwarzer Menschen als Schlagwort „Gorilla“ vor. Nicht etwa, weil Google oder das System rassis­tisch sind, sondern weil das System, das nur stur Ja oder Nein sagen kann, aufgrund der trainierten Daten Vorurteile produziert.

Im Moment erleben wir die Umkehr der Fließrichtung: Aus der ehemaligen Datenverarbeitung, bei der man ein Programm schrieb und dann Daten verarbeitete, ist ein Prozess geworden, bei dem die Daten selbst das Programm sind.

Aufgrund der Vielfalt an Daten lassen die Systeme nicht mehr den Rückschluss auf die Ursachen zu. Wenn ich zum Beispiel einen Bankkredit anfordere und die Bank aus der Vielzahl an Daten aus dem Netz und anderen Quellen eine Wahrscheinlichkeit berechnet, mit der ich einen Kredit zurückzahle, entscheidet der Algorithmus, ob ich einen Kredit bekomme. Die Antwort auf meine Frage, warum ich keinen Kredit bekomme, lautet dann lapidar: Weil der Algorithmus Nein sagt.

Die Werbeindustrie kann solche Systeme nutzen, um das Profiling von Usern zu verbessern, um ihnen anschließend die passende Werbung zu präsentieren. Selbst wenn die Ergebnisse nicht hundertprozentig richtig sind, ist das kein Problem, denn im ökonomischen Denken ist ein undurchschaubarer Apparat mit einer Trefferquote von 90 Prozent besser als ein hinsichtlich seiner Mechanismen durchschaubares System, das nur in 70 Prozent aller Fälle richtig liegt. Doch was ist, wenn Algorithmen im Strafrecht eine Rolle spielen oder bei der Vorhersage der Rückfallquote von Vorbestraften? Dann wird es kritisch, denn dann geht es um essentielle, die Demokratie betreffende Herausforderungen. Wenn ich etwa ins Gefängnis komme, muss ich als Bürger das Recht haben, den präzisen Grund genannt zu bekommen, denn Kausalketten als Basis unserer Entscheidungen sind der Grundpfeiler unseres Rechtsstaats und einer aufgeklärten Gesellschaft. Wenn wir aber Maschinenentscheidungen, die wir nicht mehr nachvollziehen können, zur neuen Basis erklären, treten wir in ein Zeitalter digitaler Orakel und willkürlicher Entscheidungen. Demokratie aber braucht eine Rechenschaftspflicht, die auch für unsere Werkzeuge gelten muss. Insofern bin ich sehr dafür, dass man diese Technik erklären muss und dafür steht der Terminus „explainable artificial intelligence“, also erklärbare künstliche Intelligenz – eine Herausforderung, die wir annehmen müssen.

G.I.B.: Im genannten Buch werfen Sie auch die Frage auf: Mensch und Maschine – wer programmiert am Ende wen? Wie lautet Ihre Vermutung?

Ranga Yogeshwar: Wir müssen die Chancen, aber auch die Risiken erkennen, die darin bestehen, dass solche Systeme eine normative Kraft auf uns, unsere Gesellschaft und unser Selbstverständnis ausüben. Wenn zum Beispiel ein System mit Bilderkennung „Aufmerksamkeit“ kategorisiert und in das Cockpit eines Flugzeugs eingebaut wird, kann es irgendwann sagen, welcher Pilot aufmerksam ist und professionell handelt und welcher nicht. In dem Moment beginnt aller Voraussicht nach eine Rückkoppelung, die dazu führt, dass Menschen anfangen sich so zu verhalten, dass das System „zufrieden“ ist.

Ein anderes Beispiel liefert die Medizin: Wenn etwa medizinische Daten mit der Krankenversicherung gekoppelt werden, besteht die Gefahr, dass Menschen in ein paar Jahren joggen, nicht weil sie Spaß daran haben, sondern weil die eingelesenen Daten zu ihrem Verhalten in die Entscheidung von Versicherungen über die Einordnung der Menschen in günstigere oder weniger günstige Tarife einfließen. Hinter der gesamten Kategorienbildung dieser Systeme steht eine tiefere philosophische Frage: Können wir mit Maschinen genau das beschreiben, was unsere Welt ausmacht? Meine klare Antwort lautet: Nein! Mathematisch ausgedrückt: Was uns die Systeme liefern, ist kein Isomorphismus, kein gleiches Abbild, sondern es gibt menschliche Qualitäten, die sich nicht maschinell abbilden lassen. Die Einordnung von Menschen in Kategorien kann dazu führen, dass sehr wichtige menschliche Qualitäten übersehen werden. Menschen zum Beispiel können verzeihen, eine Eigenschaft, die von einem Algorithmus nicht befolgt werden kann. Es ist wichtig, dass wir all das wirklich begreifen und hier auch die Beschränktheit dieser Systeme erkennen, bei allen Vorteilen, die sie haben.

G.I.B.: Sie sagen: Unser klassisches Wirtschaftssystem ist keine tragfähige Basis mehr für eine Zukunft. Begriffe wie Arbeit, Einkommen oder Erfüllung müssen neu definiert werden. Wie müsste „das neue Wirtschaftssystem“ Ihrer Meinung nach aussehen?

Ranga Yogeshwar: In meinem Buch und auch jetzt gebe ich darauf bewusst keine Antwort, denn ich glaube, dass eine Antwort das Ergebnis eines sehr intensiven Diskurses in der Gesellschaft sein muss. Wir erleben im Moment, dass neue Technologien, eine veränderte Kommunikationsgrammatik und soziale Medien auch destabilisierende Wirkungen auf die Gesellschaft haben können. Zu merken ist das am Aufkommen von fast irrationalen Kräften, von „fake news“ sowie an der Abwendung von elementaren Grundsätzen der Aufklärung. Es wirkt fasst absurd, dass ich in einer Zeit, in der sich so viele spannende neue technologische Entwicklungen und Möglichkeiten ergeben, beim „March for Science“ wieder zum Demonstrieren auf die Straße gegangen bin, um klarzustellen: „Hey, Leute, Fakten sind Fakten!“ Wir haben gegenwärtig eine Riesenchance in der Entwicklung, aber wenn wir nicht aufpassen, destabilisieren wir unsere Gesellschaft und machen alle zusammen einen furchtbaren Schritt zurück.

G.I.B.: Konkret zum Thema Bildung und Lernen: Politik und Wirtschaft versuchen händeringend, mehr junge Menschen für MINT-Fächer zu gewinnen, doch die Abbrecher-Quote zum Beispiel im Studiengang Informatik sind enorm hoch. Was läuft da schief, was muss sich ändern?

Ranga Yogeshwar: Das Thema ist nicht nur valide für die Informatik, sondern gilt für andere Disziplinen wie den Maschinenbau genauso. Wenn Menschen ein Studium aufnehmen, dann müssen sie wissen, ob das zu ihnen passt, doch oft kaufen sie ein bisschen die Katze im Sack. Etwas mehr Orientierung im Vorfeld wäre angemessen. Auf der anderen Seite glaube ich, dass wir beim Umgang mit diesen Studenten gerade in MINT-Fächern oft noch achtsamer sein müssen. Ich habe das bei meinen Kindern erlebt: eine Tochter studiert Maschinenbau, die andere Informatik. Sie schaffen das ganz gut, aber von ihnen weiß ich, dass wir immer noch Hochschulen haben, die gerade zu Beginn der Curricula hohe Hürden aufbauen und aussieben. Das halte ich für verantwortungslos. Wir brauchen auch im Hochschulbereich aufseiten der Lehrenden eine andere Haltung, die nicht mehr nur „Top-down“ läuft, sondern junge Menschen tatsächlich unterstützt. Das wird in den nächsten Jahren noch wichtiger werden als zuvor, weil wir einen fulminanten Fachkräftemangel haben, der in der deutschen Industrie zu Wachstumsproblemen führt. Wer in einer solchen Situation mit der nächsten Generation von Fachkräften nicht achtsam umgeht, macht einen gewaltigen Fehler.

G.I.B.: Noch immer gibt es bei Schulabgängerinnen und -abgängern eine gewisse Scheu vor MINT-Berufen und MINT-Studiengängen. In Ihrer langjährigen Tätigkeit als Wissenschaftsmoderator ist es Ihnen gelungen, junge Menschen für MINT-Themen zu begeistern. Welchen Rat könnten Sie Lehrerinnen und Lehrern oder Ausbilderinnen und Ausbildern geben, damit ihnen das auch gelingt?

Ranga Yogeshwar: Da gibt es kein Patentrezept, sonst hätte ich es selbst längst benannt. Ich glaube, es gibt drei Grundqualitäten. Das Erste ist: Sie müssen verstehen, worüber Sie reden. Das klingt trivial, ist aber unverzichtbar. Zweitens geht es darum, Empathie für die Lernenden aufzubringen, also genau zu verstehen, in welcher Situation sie sich befinden, welches Vorwissen sie haben, in welcher Welt sie leben, welche Metaphern sie verstehen und sie aus der Kenntnis von all dem heraus im Lernprozess mitzunehmen, denn Lernen hat sehr viel mit Vertrauen zu tun. Der dritte Punkt betrifft die Priorisierung der Lerninhalte. Wenn wir neue Dinge erlernen, werden wir zu Beginn von tausend Details erschlagen, weil wir nicht sofort zwischen wichtig und unwichtig unterscheiden können. Wer etwa bei Wikipedia nachschaut, bekommt gleich einen ellenlangen Aufsatz zu lesen und fühlt sich sofort verloren. Hier zeigt sich, dass die Rolle des „Lehrers“ nicht in erster Linie die des reinen Wissensvermittlers, sondern die des Begleiters sein muss, der auch Orientierungshilfe bietet.

G.I.B.: Aktuell sendet das Fernsehen eine zweiteilige Reportage zum Thema „Künstliche Intelligenz“. Worum geht es da genau?

Ranga Yogeshwar: Um dieselben Fragen, die ich in meinem Buch stelle und die wir auch jetzt gerade diskutiert haben. Ich reise dabei um die ganze Welt, um zu zeigen, wohin die Entwicklung geht, um so – das ist mein Ziel – die Basis für eine gesellschaftliche Diskussion zu schaffen. Ich glaube nicht an Dystopien, sondern bin da sehr positiv eingestellt, aber wir müssen die Herausforderungen erkennen, weil wir Veränderungen haben, die morgen schon zur Regel werden können und damit auch ethisch und gesellschaftlich beleuchtet werden müssen, und zwar in einer neuen Form, die ich reflektierten Fortschritt nenne. Es genügt nicht, nur die technischen Möglichkeiten zu sehen, sondern wir müssen immer reflektieren, worin ihre Sinnhaftigkeit liegt.

Das Interview führten

Paul Pantel
Tel.: 02324 239466
paul.pantel@vodafonemail.de

Carsten Duif
Tel.: 02041 767178
c.duif@gib.nrw.de

Kontakt

Ranga Yogeshwar
https://yogeshwar.de
Artikelaktionen