Künstliche Intelligenz und die Gesellschaft im 21. Jahrhundert (3/3) – Das Zeitalter der Empathie bricht an!

  © Lisa   Feitsch

© Lisa Feitsch

 

Wie im letzten Blogeintrag diskutiert wurde, ist nicht die Bösartigkeit eines superintelligenten Systems die große Gefahr für die Menschheit, sondern vielmehr die Tatsache, dass es die menschliche Intelligenz bei weitem übersteigt. Die große Bedrohung besteht darin, Wichtiges außer Acht zu lassen und dadurch ungewollt ein System zu entwickeln, dass der Menschheit gefährlich werden könnte. Aus diesem Grund beginnen ForscherInnen bereits heute mit der Entwicklung von Sicherheitsmechanismen, die uns vor den Gefahren der künstlichen Intelligenz schützen könnten. Nick Bostrom ist überzeugt, dass ein möglicher Lösungsansatz eine Implementation von Werten in die Computeralgorithmen darstellt. Wenn intelligente Algorithmen wissen, was uns Menschen wichtig ist, könne die von diesen Systemen ausgehende Gefahr reduziert und sie so „menschenfreundlich“ gemacht werden, so der Philosoph aus Oxford.

Die Frage nach den gesellschaftlichen Auswirkungen von Technologien wird auch am Future of Life Institute bei Boston diskutiert. WissenschaftlerInnen erforschen hier, wie die Gefahren im Zusammenhang mit aktuellen und zukünftigen Technologien minimiert werden können. Es soll um eine Reduzierung des Risikos durch Nuklearwaffen oder Biotechnologie gehen, aber vor allem widmet sich das Institut der Frage nach der „freundlichen“ künstlichen Intelligenz. Die Liste an Unterstützern ist ebenso beeindruckend, wie das Forschungsvorhaben. Neben Stephen Hawking, Elon Musk und Nick Bostrom sitzen auch der renommierte MIT Professor Erik Brynjolfsson und die Schauspieler Alan Alda und Morgan Freeman im wissenschaftlichen Beirat. Aber auch wenn uns die künstliche Intelligenz durch die Arbeit des Institutes und die Arbeit von vielen anderen Akteuren „freundlich“ gesinnt ist, stellt sich dennoch die Frage nach den gesellschaftlichen Implikationen von künstlicher Intelligenz. Dieser dritte und letzte Teil der Blogreihe beschäftigt sich damit, welche Folgen sich durch künstliche Intelligenz für das gesellschaftliche Miteinander ergeben.

 

Was wir Menschen noch nicht gut können

  © Lisa   Feitsch

© Lisa Feitsch

 

Die heutige Leistungsgesellschaft zeichnet sich durch eine ausgeprägte Ich-Kultur aus. Durchsetzungsvermögen, eine hohe Belastbarkeit und Entscheidungsfreudigkeit zeichnen das Führungsideal des 21. Jahrhunderts. Empathie und menschliche Wärme sind nette Zusatzeigenschaften, qualifizieren aber nicht fürs Management. Das Ergebnis ist die heute so verbreitete „pragmatische“ Unternehmensführung, wo Entscheidungen unabhängig von negativen Externalitäten getroffen werden, ja vielleicht sogar getroffen werden müssen. Es werden Abgaswerte manipuliert und die Produktion wird in Länder ausgelagert, die die Rechte von ArbeitnehmerInnen höchstens theoretisch diskutieren. Fracking ist in den USA weit verbreitet und erlaubt so eine größere Unabhängigkeit von Erdölkalifaten wie Saudi-Arabien. Die ökologischen Gefahren werden in Kauf genommen.

Letztlich fällt es aber schwer, ausschließlich Unternehmen dafür zu verurteilen, denn es sind nicht nur einzelne Unternehmen, sondern auch die KonsumentInnen, die mit ihren Kaufentscheidungen einen großen Einfluss auf das unternehmerische Handeln haben. Wer billig kaufen will und auf nichts verzichten möchte, der fördert in den allermeisten Fällen einfach ethisch fragwürdiges unternehmerisches Handeln. Der intensive Kampf um KundInnen führt dann dazu, dass sich Unternehmen nur in Einzelfällen Gedanken über die Ethik ihres Handelns machen. Wachstum ist das Dogma und wer nicht wächst, der geht unter.

Gleichzeitig erhöhen sich die Anforderungen an junge ArbeitnehmerInnen. Wer früher sogar ohne Studienabschluss im Bundestag arbeiten konnte, kommt heute nicht mehr um Praktika, Auslandserfahrung und ehrenamtliches Engagement als Garnitur zur akademischen Ausbildung herum. Der Druck auf den Einzelnen erhöht sich. Doch die negativen Auswirkungen dieses Drucks hat schon das Barmherzige-Samariter-Experiment aus den 70er Jahren gezeigt. Die Psychologen John Darley und Daniel Batson von der Universität Princeton führten 1973 ein Experiment durch, bei welchem sie zeigen konnten, dass Zeitdruck einen größeren Einfluss auf unsere Hilfsbereitschaft hat, als ein inhaltliches Framing. Die StudienteilnehmerInnen mussten eine Nachricht von einem Gebäude zu einem anderen bringen. Auf dem Weg dahin trafen sie auf eine obdachlose Person, die Hilfe benötigte. Die Hälfte der StudienteilnehmerInnen hatte vorher die Parabel des Barmherzigen Samariters gelesen. In dieser hilft ein Samariter einem Mann, der von Räubern überfallen und zusammengeschlagen am Wegesrand liegengelassen wurde. Gleichzeitig wurde einigen StudienteilnehmerInnen gesagt, dass sie sich bei der Überbringung der Nachricht beeilen müssen. Das Ergebnis? Ob die StudienteilnehmerInnen vorher die Parabel des Barmherzigen Samariters gelesen hatten, spielte keine Rolle für die Hilfsbereitschaft. Einzig und allein der Zeitdruck war ein ausschlaggebender Faktor, denn wer keine Zeit hatte, der half auch nicht. Es verwundert also nicht, dass unsere selbstoptimierende Gesellschaft als Ich-Gesellschaft bezeichnet wird. Für Empathie und Mitgefühl bleibt häufig einfach keine Zeit. Zumindest noch nicht. 

 

Was wir Menschen gut können

Wie im letzten Blogeintrag diskutiert, ist das Potenzial der künstlichen Intelligenz enorm. So ein lernender Computeralgorithmus hat aber auch Grenzen, denn der Mensch hat Fähigkeiten und Begabungen, die ein Computeralgorithmus wohl nie erlangen wird. Diese Meinung teilt auch der MIT Media Lab Direktor Joi Ito, der 2015 in einem Vortrag bei der Frage nach den Grenzen künstlicher Intelligenz auf unsere einzigartigen menschlichen Qualitäten verwies: „Menschen sind ziemlich gut in Dingen, die Computer nicht können.“ Was sind diese menschlichen Qualitäten? Fragt man Ärztinnen und Ärzte, ob sie irgendwann durch Computeralgorithmen ersetzt werden, erhält man eine schnelle Antwort. Denn während Computeralgorithmen bei der Diagnose von Krankheiten oder bei administrativer Arbeit helfen können, fällt es sich schwer vorzustellen, dass Algorithmen empathisch auf Patienten eingehen. Und selbst wenn ein Algorithmus empathiefähig wäre, würden wir uns wirklich lieber von einem Computer sagen lassen, dass schon alles gut wird und er unseren Schmerz versteht? Oder ist uns da doch die menschliche Nähe wichtig, die Verbindung mit einem anderen Menschen, bei dem Verständnis nicht das Resultat einer algorithmischen Programmierung ist?

Gleichzeitig sehen wir uns mit den Herausforderungen einer überalternden Gesellschaft konfrontiert. Das bringt nicht nur finanzielle Probleme mit sich, wenn die Rentenkassen auf Grund geringer ArbeitnehmerInnenzahlen irgendwann leer sein werden. Auch die Pflege und Umsorgung älterer Menschen werden Herausforderungen der Zukunft sein, die nicht von Computeralgorithmen übernommen werden können. Die Vorstellung, dass Roboter in Altenheimen oder anderen Formen der SeniorInnenunterbringung die gesamte Pflege und Umsorgung übernehmen ist naiv, denn wenn es um menschliche Qualitäten wie Vertrauen und Nähe geht, herrscht nach wie vor eine große Skepsis gegenüber Technologien. Zusätzlich ist es zum heutigen Zeitpunkt unvorstellbar, dass Algorithmen die Probleme der Alterseinsamkeit überwinden können. Letztlich möchte wohl niemand im hohen Alter seine Lebensgeschichte einem Computer erzählen.

 

Das Zeitalter der Empathie bricht an!

  © Lisa   Feitsch

© Lisa Feitsch

 

Eine kühne Zukunftsvision: Künstliche Intelligenzsysteme werden eine Vielzahl unserer Kopfaufgaben übernehmen und vieles, das heute noch von Menschen gemacht wird, werden lernende Maschinen erledigen. Dadurch wird eine Verschiebung der Anforderungen an ArbeitnehmerInnen der Zukunft stattfinden und Empathie und Mitgefühl werden zu wichtigen Eigenschaften werden.

Die erste industrielle Revolution hatte die Ersetzung der Handarbeit zur Folge. Aktuelle technologische Entwicklungen deuten darauf hin, dass vermehrt auch Kopfarbeit automatisiert werden kann. Was bleibt und bleiben wird, ist die soziale Arbeit, die Herzensarbeit, die Arbeit, die Wärme, Nähe und Vertrauen als Voraussetzung braucht. Durch die beachtlichen Fortschritte in der künstlichen Intelligenz bleibt genau eine Sache außen vor: die Herstellung von authentischen und tiefgründigen Beziehungen zu anderen Menschen. Doch gibt es genug Anzeichen dafür, dass unsere Leistungsgesellschaft und dessen Ich-Fokus zukünftig tatsächlich zur Empathiegesellschaft mit Wir-Orientierung werden? Künstliche Intelligenz ist nur ein Beispiel dafür, warum Empathie und Mitgefühl im 21. Jahrhundert wichtiger werden. Für eine Trendwende weg vom Zeitalter der Einzelkämpferinnen und Einzelkämpfer hin zu einem Zeitalter der Empathie gibt es noch weitere Anzeichen. Welche das sind, werden im Blogeintrag nächste Woche behandelt!

 

WEITERE INFORMATIONEN