VON CLEMENS POKORNY
|
09.06.2016 14:38
Grenzen der künstlichen Intelligenz
Propheten der künstlichen Intelligenz versprechen: Selbstfahrende Autos werden den Verkehr sicherer machen, Roboter in den nächsten zwei Jahrzehnten bis zu 50% der Arbeitsplätze vernichten. Diese Vorhersagen sind nicht nur deshalb fragwürdig, weil Informatiker gar nicht beurteilen können, welche Jobs in anderen Branchen als der ihrigen ersetzt werden können. Die entsprechende Technik ist auch hochgradig störungsanfällig sowie teuer und kann menschliche Gehirnleistung niemals erreichen.
„Wir werden selbstfahrende Autos haben, das ist sicher“. Der Informatiker Neil Jacobstein glaubt darüber hinaus auch daran, dass künstliche Intelligenz (KI) jede Menge Arbeitsplätze kosten wird, auch in sozialen Berufen, und dass Menschen eines Tages Liebesbeziehungen zu Robotern führen könnten. Begründung: Computer können schon heute besser rechnen als Menschen – etwa im Schach – und zeigen angeblich kreative Leistungen. Selbstlernende Maschinen werden als solche immer besser und könnten gar, so eine beängstigende Zukunftsvision, als intelligenteste Wesen die Macht über die Erde erringen. Bald schon Realität oder ziemlich übertrieben? In den verlinkten Stellungnahmen kann man einiges lesen, das dafür spricht, dass diese Szenarios Wirklichkeit werden. Doch es gibt zum Glück ebenso viele gute Gründe, die dagegen sprechen, dass wir eines Tages von künstlicher Intelligenz versklavt werden – und dass sie in ganz anderer Hinsicht gefährlich für uns ist.
Wer gut in Informatik ist, kennt sich in anderen Branchen noch lange nicht aus
Mal davon abgesehen, dass Prognosen über die kommende Entwicklung der Technik wie alle Aussagen über die Zukunft äußerst unsicher sind, fehlt den in der Informatik Tätigen schlicht die Sachkompetenz, um beurteilen zu können, ob etwa Lehrkräfte durch künstliche Intelligenz überflüssig werden könnten. Computerfachleute sind hochspezialisiert und haben in der Regel eben keine Ahnung von anderen Berufen, zumal sozialen. Eine Lehrkraft muss nicht nur viel wissen und ihre Schülerinnen und Schüler geschickt dazu bringen, etwas zu lernen und Fehler zu vermeiden. Sie muss auch ein hohes Maß an Empathie besitzen und einen guten Draht zu ihren Schützlingen aufbauen. Kurzum: Sie muss eine Persönlichkeit besitzen, vielleicht gar Humor – und genau das werden Maschinen nie haben. Ein Computer kann nur Lösungen (Output) produzieren, die bereits in seinen Daten (Input), die er sich als künstliche Intelligenz auch selbst sammeln kann, angelegt sind. Deshalb kann er auch nicht im menschlichen Sinne kreativ sein. Als kürzlich ein von einem Computer „gemalter“ neuer Rembrandt präsentiert wurde, feierten Anhänger der KI dies als Beweis für Kreativität von Maschinen. Doch wie der eingesetzte Computer einen Querschnitt durch das Oeuvre eines Künstlers zu ziehen und diesen Durchschnitt zu produzieren, ist gerade nicht kreativ, sondern epigonal: Die Maschine macht genau das nach, was ein Mensch bereits erfunden hat. Und zwar laut einem Rembrandt-Experten nicht einmal besonders gut. Das lag – welche Überraschung – daran, dass die beteiligten Menschen keine Kunstexperten waren, sondern u.a. Informatiker, die, so scheint es, ihre fachlichen Grenzen einfach mal so überschreiten zu können glaubten.
Künstliche Intelligenz scheitert an menschlicher
Künstliche Intelligenz kann also auch am Menschen scheitern – am Programmierer oder an der Hackerin. Die ersten Tests von Googles selbstfahrendem Auto hatten auch einen Unfall zur Folge, weil der Computer die Bahn eines sich von hinten nähernden Fahrzeugs falsch eingeschätzt hatte. Menschen am Steuer sind Individuen, deren Fahrweise sich nicht von einer Maschine vorwegnehmen lässt. Und wie sollten ein selbstfahrendes Auto mit einem menschlichen Fahrer oder zwei selbstfahrende Fahrzeuge miteinander kommunizieren? Das Problem lässt sich an folgendem Gedankenexperiment illustrieren: Wenn zwei einander entgegen kommende Autos genau gleichzeitig an einem Engpass ankommen, das nur eines passieren kann, wer hat dann Vorfahrt? Menschliche Fahrer können sich mit Gesten einigen, einer kann dem anderen den Vortritt lassen. Aber wie könnte eine Maschine großzügig sein? Noch viel wichtiger ist aber der Sicherheitsaspekt. Schon Navigationsgeräte sind höchst fehleranfällig und führen bekanntlich immer wieder in die Irre (zum Beispiel in einen Fluss) statt zum Ziel. Nicht auszudenken, wenn sich ein Mensch in einer solchen Situation auf sein selbstfahrendes Auto verließe! Vor diesem Hintergrund fällt es schwer, sich vorzustellen, dass Computer beim Autofahren mehr sein könnten als nur Assistenten, über die immer noch der Mensch die Oberhand behält. Zu welchen Risiken die zunehmende Digitalisierung des Geschehens unter der Kühlerhaube führt, sieht man auch an der Leichtigkeit, mit der Hacker in aktuelle Sicherheitstechnik von Fahrzeugen eindringen und diese per Laptop z.B. dazu bringen, sich zu öffnen und sogar zu fahren. Dies beweist: Höhere Computertechnik an Bord macht Autos und ihre Insassen nicht sicherer, sondern gefährdeter – weil sie der Willkür von Menschen ausgesetzt ist, die mit ihr nicht immer redlich umgehen.
Chatbots – technische Spielerei oder Zukunft der Netzkommunikation?
Die derzeitigen Versuche sind von einer tatsächlichen künstlichen Intelligenz, die flexibel mit Usern interagiert, noch weit entfernt
[...]»
Künstliche Intelligenz wird dem menschlichen Geist nie überlegen sein
Trotzdem müssen wir uns nicht vor künstlicher Intelligenz fürchten, die die Herrschaft über die Menschheit erringen könnte. Die Komplexität menschlichen Geistes kann sie niemals erreichen. Erster Beweis: Es wird laut Medizinern noch Jahrhunderte dauern, bis wir die Funktionsweise des menschlichen Gehirns gänzlich durchdrungen haben werden (wenn überhaupt). Wie sollten dann Maschinen sich schon bald so programmieren lassen, dass sie uns Menschen in jeder Hinsicht geistig überlegen wären? Müsste man dazu nicht eine noch höhere Komplexität erreichen als das auf lange Sicht nicht zu entschlüsselnde menschliche Gehirn? Ein zweiter Beweis,
den der Philosoph Markus Gabriel kürzlich in der Süddeutschen Zeitung entwickelte: Künstliche Intelligenz kann niemals in einem bestimmten mentalen Zustand sein, der sich auf eine bestimmte Weise anfühlt, wie das bei Menschen der Fall ist. Anders gesagt: Ein Computer kann keine lebensweltlichen Erfahrungen machen. Selbst wenn wir z.B. eines Tages wüssten, wie das Gehirn einer Fledermaus funktioniert, könnten wir es nicht so nachbauen, dass eine neue Fledermaus entsteht, wie der Philosoph Thomas Nagel argumentiert hat – denn wir werden niemals wissen, wie es sich anfühlt, eine Fledermaus zu sein. Analog kann eine Maschine niemals fühlen wie ein Mensch.
Computer und Roboter sind unkreativ und teuer
Nun kann man erwidern, dass künstliche Intelligenz keine Gefühle braucht, um, einmal verselbstständigt, die Menschheit zu unterjochen. Doch weil sie nicht kreativ ist, fehlt ihr auch schlicht die Phantasie als eine kreative Fähigkeit, um Weltherrschaftspläne auszuarbeiten und sich gegen kreativen Widerstand der Menschheit zu wehren. Jenseits solcher unrealistischer Horrorszenarien spricht wenig gegen den zunehmenden Einfluss von Computern in unserer Arbeitswelt. Allerdings dürften schon alleine die enormen Anschaffungs- und Wartungskosten beispielsweise Pflegeheime davon abhalten, ihre Mitarbeiterinnen und Mitarbeiter gänzlich durch Roboter zu ersetzen. Noch mehr gilt das natürlich für ärmere Gesellschaften als unsere reiche.
Künstliche Intelligenz und Soziale Intelligenz: unvereinbar
Prototypen von Pflegerobotern können sich schon heute mit alten Menschen unterhalten. Aber eben nicht kreativ, sondern nur in dem engen Rahmen, der einem unkreativen Geschöpf gesetzt ist, dass allenfalls lernen kann, sich auf die Lieblingsthemen seines Gegenübers einzustellen und seine vorher eingestellten Antworten zu geben. Ob das auf die Dauer ausreicht? Wohl allenfalls Menschen, die Robotern sozial nicht viel voraus haben. Denn Intelligenz hat auch ihre soziale Seite, die darauf beruht, dass wir uns in andere Menschen hineinversetzen können, weil wir – anders als Maschinen (s.o.) – wissen, wie es sich anfühlt, ein Mensch zu sein. So kann man sich, wie Neil Jacobstein, durchaus vorstellen, dass Computernerds, die den ganzen Tag vor dem Computer verbringen und manchmal nur virtuelle „Freunde“ haben, sich eines Tages in Roboterfrauen „verlieben“, wie im Film „Ex Machina“. Es ist ja, wie Jacobstein erklärt, „
genau dieser interessierte, zugewandte Partner, den sich Menschen in ihren Beziehungen wünschen und oft nicht bekommen“. Dass Menschen sich aber oft gerade in die ganz menschlichen Seiten eines Anderen verlieben, wie z.B. seine Empathie, sein Aussehen, (unterbewusst) seinen Geruch oder auch seine Unvollkommenheit (!), können emotional verkümmerte Technik-Freaks vielleicht nicht verstehen. Ganz in diesem Sinne erklärte mir ein Geisteskranker mit mangelndem Einfühlungsvermögen und Ausbildung in einem technischen Beruf schon vor zehn Jahren, dass man bald keine Orchester mehr benötige, weil Musiker mit ihren individuellen Stärken und Schwächen schon perfekt von Computern imitiert werden können. Doch wer würde gerne ein Roboter-Konzert besuchen?