Künstliche Intelligenz und die Gesellschaft im 21. Jahrhundert (2/3) – Was kann die künstliche Intelligenz der Zukunft?

Superintelligenz könnte die letzte Erfindung sein, die die Menschheit jemals hervorbringen musste." Diese Aussage stammt von Nick Bostrom, der bereits im letzten Artikel als Direktor des Future of Humanity Institutes der Universität Oxford vorgestellt wurde. Mit dieser Aussage bezieht er sich auf eine finale Evolutionsstufe der künstlichen Intelligenz, die der menschlichen Intelligenz in vielen Bereichen deutlich überlegen ist: die Superintelligenz. Er spricht von einer Utopie, in der vielleicht die gesamte menschliche Wertschöpfung an superintelligente Maschinen outgesourct wurde und die Menschheit nicht länger arbeiten gehen müsste. Ob dieser Zustand überhaupt erreicht werden kann, ist derzeit heftig umstritten. Auf der einen Seite prophezeien Wissenschaftler wie Nick Bostrom, dass wir diese Entwicklungsstufe der künstlichen Intelligenz noch in diesem Jahrhundert erreichen werden. Es gibt aber auch skeptische Stimmen, wie den bekannten Linguisten und Kognitionswissenschaftler Noam Chomsky. In seinen Augen ist die menschliche Intelligenz viel zu komplex, als das sie von Computeralgorithmen in ihrer Gesamtheit imitiert werden könne. Für ihn ist die Superintelligenz nur Science-Fiction

In einer Umfrage unter 170 Experten aus dem Bereich der künstlichen Intelligenz glaubten 90% der Befragten, dass eine menschenähnliche künstliche Intelligenz im Jahr 2075 existieren wird. 50% sind sich sogar sicher, dass wir schon im Jahr 2040 eine derartige Intelligenz entwickelt haben werden. Nun sind derartige Vorhersagen natürlich mit einer gewissen Vorsicht zu genießen. Die Vergangenheit hat uns gelehrt, dass sich technologische Vorhersagen häufig nicht bewahrheitet haben. So kann einem ein Schmunzeln ins Gesicht treten, liest man sich den Antrag für die Finanzierung der Darthmouth Konferenz durch, die im Jahr 1956 als Geburtsstunde der wissenschaftlichen Erforschung von künstlicher Intelligenz in die Geschichtsbücher eingehen wird. Als Ziel der Darthmouth Konferenz formulierten die Pioniere der künstlichen Intelligenz Marvin Minsky, Nathan Rochester, John McCarty und Claude Shannon:

Es soll versucht werden, herauszufinden, wie Maschinen dazu gebracht werden können, Sprache zu benutzen, Abstraktionen vorzunehmen und Konzepte zu entwickeln, Probleme von der Art, die zurzeit dem Menschen vorbehalten sind, zu lösen und sich selbst weiter zu verbessern. Wir glauben, dass in dem einen oder anderen dieser Problemfelder bedeutsame Fortschritte erzielt werden können, wenn eine sorgfältig zusammengestellte Gruppe von Wissenschaftlern einen Sommer lang gemeinsam daran arbeitet.“

Natürlich dauerte es länger als einen Sommer. 60 Jahre später verfügen zwar viele Menschen in der westlichen Welt über Smartphones mit eingebauter Spracherkennung, aber wir sind noch weit davon entfernt, dass Maschinen Konzepte entwickeln oder komplexe Problemlösestrategien verwenden können. Ob Maschinen irgendwann dazu in der Lage sein werden, weiß niemand heutzutage mit absoluter Sicherheit. Es gibt zu viele Unsicherheiten im Zusammenhang mit technologischen Vorhersagen, zu viele Unbekannte in einer Gleichung, die die zukünftige technologische Lebenswirklichkeit bestimmen soll. Auf der anderen Seite gibt es beeindruckende Beispiele über technologische Vorhersagen, die sich bewahrheitet haben. Der US-Amerikanische Bauingenieur John Elfreth Watkins prophezeite Anfang des 20. Jahrhunderts, dass wir im Jahr 2000 über drahtlos funktionierende Telefone und digitale Farbfotographie verfügen werden. Wie er selbst im ersten Satz seines Artikels schreibt, müssen seine damaligen Vorhersagen von der Bevölkerung als wahnwitzig und unrealistisch wahrgenommen worden sein. Heutzutage wundert sich niemand mehr über Handys und Digitalkameras. Sie sind fester Bestandteil unseres Alltags geworden.

Doch technologische Vorhersagen bergen nach wie vor große Unsicherheiten in sich. Dieser Artikel betrachtet deshalb zwei verschiedene Evolutionsschritte der künstlichen Intelligenz. Denn bevor wir irgendwann vielleicht eine künstliche Superintelligenz erschaffen haben, werden wir mit ziemlicher Sicherheit Systeme sehen, deren Fähigkeiten die heutige künstliche Intelligenz schon deutlich in den Schatten stellen.

 

Die mittelfristige KI ist generalistischer, aber noch lange kein Generalist

 

Wenn wir über künstliche Intelligenz und ihre mittelfristige Perspektive reden, dann führt kein Weg an Jürgen Schmidhuber vorbei. Schmidhuber ist Informatiker und seit 1995 Direktor des Schweizer Forschungsinstitutes für Künstliche Intelligenz IDSIA. Seit seiner Kindheit will er ein System erschaffen, dass seine eigene Klugheit übertrifft. Ein System, welches alle Arbeit der Welt erledigen könnte und den Menschen eine neue Form von Freiheit gibt. Schmidhubers Arbeit im Bereich der künstlichen Intelligenz ist sehr gefragt. Google benutzt seinen Algorithmus für die Android Spracherkennung und zwei von Schmidhubers Ph.D. Studenten arbeiten bei Google DeepMind an der nächsten Stufe der künstlichen Intelligenz. Er ist überzeugt, dass sein Forschungsteam in ein paar Jahren einen Computeralgorithmus entwickelt haben wird, der die Intelligenz eines Kapuzineräffchens besitzt und basale Entscheidungen treffen kann. Den Entscheidungsprozess stellt sich Schmidhuber hierarchisch vor: Ein Ziel wird formuliert und die notwendigen Schritte zur Erreichung des Zieles entworfen. Daraus wird dann eine Handlungsstrategie abgeleitet.

Die Handlungsstrategie eines Kapuzineräffchens stellt sich Schmidhuber in etwa so vor: Ein Kapuzineräffchen sieht eine Frucht auf dem Baum, entscheidet ob es diese Frucht gerne essen möchte und los geht’s. Erst muss der Baumstamm erklommen werden, dann die entsprechende Äste und letztlich gelangt der Affe zur Frucht. Zwischendurch wird diese Strategie immer wieder an die neuen Gegebenheiten angepasst. Vielleicht ist der ursprüngliche Weg zu unsicher? Vielleicht bricht ein Ast, sobald der Affe darauf steigt? Also lieber einen anderen Weg nehmen. Wind und Fressfeinde müssen natürlich auch bei der Strategieentwicklung berücksichtigt werden. Ein derartiges Vorgehen kann relativ gut in einen Computeralgorithmus übersetzen. Eine Lösungsstrategie wird entwickelt und diese je nach Gegebenheiten über Feedbackschleifen immer wieder angepasst, bis das Ziel erreicht wird.

Bevor aber ein solches System der künstlichen Intelligenz im Labor entwickelt werden kann, werden intelligente Systeme bereits verstärkt Teil unseres Alltags sein. Laut einer Studie von McKinsey aus dem Jahr 2013 könnte ein exemplarischer Tag im Jahr 2025 in etwa so aussehen: Es ist Montagmorgen. Du setzt dich an deinen Schreibtisch und bekommst eine Meldung über die Termine und Aufgaben des Tages. Dein digitaler Assistent fängt an zu sprechen und erzählt dir die drei wichtigsten Entwicklungen aus der Welt und aus deiner Firma. Alle weiteren Informationen werden in einem Tagesbericht zusammengefasst und dir per Email zugeschickt. Das Programm auf deinem persönlichen Computerassistenten hat gelernt, was dir wichtig ist und was du wissen musst oder möchtest.

Gestern hat dir dein Assistent einen Termin mit deiner digitalen Ärztin ausgemacht. Aus einem dir unerklärlichen Grund ist dein Blutdruck auffällig hoch. Es ist 11 Uhr und der Termin beginnt. Deine digitale Ärztin ist ebenfalls ein Computeralgorithmus und weiß sehr viel über hohen Blutdruck. Sie kennt die Gründe für zu hohen Blutdruck aus weit über einer Million von Patientenberichten und weiß insbesondere, welche Probleme Menschen (Männer/Frauen) deines Alters haben. Sie kennt die Krankheitsgeschichte deiner Eltern, dein Ernährungs- und Sportverhalten und sämtliche Medikamente, die für eine Therapie in Frage kämen. Und sie kann alle Informationen vernetzt betrachten, analysieren und daraus eine Diagnose ableiten. Heute hast du Glück. Deine Ärztin empfiehlt dir auf Fast Food zu verzichten und mehr Sport zu treiben, Medikamente brauchst du aber nicht zu nehmen, es ist nichts Ernstes. Nach der Arbeit bestellst du dir ein Taxi, was dich zum Fitness-Center deines Vertrauens fährt. Während der Fahrt schaust du auf den Fahrersitz und wirst ein wenig nostalgisch. Du hast dich früher gerne mit den TaxifahrerInnen unterhalten. Heute sitzt dort niemand mehr, Autos fahren autonom.

Durch den Einsatz von intelligenten Systemen wird der Alltag im Jahr 2025 deutlich anders als heute sein. Auch einige Berufe werden davon betroffen sein, wie das Beispiel der digitalen Ärztin zeigt. ZukunftsforscherInnen und BeraterInnen sind sich aber sicher, dass die Veränderung nicht nur die medizinische Profession treffen wird. Der sukzessiven Ersetzung der Handarbeit, die ihren Anfang in der industriellen Revolution des 19. Jahrhunderts hatte, folgt nun eine stückweise Ersetzung der Kopfarbeit. So wird sich auch die Arbeit der Anwaltschaft in den kommenden Jahren durch intelligente Systeme verändern. Das intelligente System Ross basiert auf IBM’s Computersystem Watson und hilft AnwältInnen schon heute bei Recherchearbeiten. Zukünftige Systeme könnten aber noch deutlich mehr, so die Auffassung der in Großbritannien ansässigen Beratung für Anwaltskanzleien Jomati Consutlants LLP.

In ihrem Bericht Civilisation 2030: The near future for law firms skizziert die Beratung ein Szenario, wo Computeralgorithmen einfache Streitfälle deutlich effizienter bearbeiten können, als junge Anwälte, die gerade von der Universität kommen. Unternehmen werden aus Kostengründen verstärkt in solche Algorithmen investieren, da sie preiswerter sind und nach erfolgreicher Arbeit keine Gehaltserhöhung fordern. Ein solcher Algorithmus könnte in einem Bruchteil von Sekunden die für einen Fall relevanten Rechtsdokumente scannen, nach ihrer Relevanz ordnen und Entscheidungsvorschläge liefern. Es ist ein bisschen so, wie das Kapuzineräffchen, das vor einem Baum steht und dessen Gehirn eine Strategie für das Erreichen der Frucht entwirft.

Die im ersten Blogeintrag beschriebene heutige künstliche Intelligenz wird mittelfristig durch eine weniger spezialisierte Intelligenz abgelöst. Künstliche Intelligenz wird dann Autos fahren können, Ärzte- oder Anwaltschaft unterstützen und die wichtigsten Nachrichten auswählen, zusammenfassen und laut vorlesen – und das alles natürlich individualisiert. Doch sie wird auf bestimmte Bereiche spezialisiert sein und daher immer noch nicht so umfassend wie die von Bostrom oder Schmidhuber beschriebene Superintelligenz.

 

Der Weg von menschenähnlicher künstlicher Intelligenz zur Superintelligenz

 

Wir reisen weiter in die Zukunft und stellen uns vor, dass die Menschen es geschafft haben, ein System mit menschenähnlicher Intelligenz zu entwickeln. Dieses System wird sich in grundsätzlichen Aspekten immer noch von den Menschen unterscheiden, da es kein Bewusstsein haben wird und wahrscheinlich auch keine Emotionen erleben kann. Doch es kann Texte verstehen, kreative Ideen entwickeln, ja vielleicht sogar wissenschaftlich arbeiten. Wahrscheinlich wird die Entstehung einer menschenähnlichen Intelligenz das Ergebnis einer Entwicklung immer weniger spezialisierter Systeme sein. Vielleicht wird aber auch ein unerwarteter Durchbruch in der wissenschaftlichen oder unternehmerischen Forschung erzielt, der als Ergebnis eine menschenähnliche künstliche Intelligenz hervorbringen wird.

Das scheint alles schwer vorstellbar, entstammt menschliche Intelligenz doch einem hochgradig komplexen System, das aus 100 Milliarden Nervenzellen besteht. Es ist ein unvorstellbar großes Netzwerk, dessen Zellen über eine Vielzahl an Botenstoffen und Verschaltungen miteinander interagieren. Heute wissen wir noch vergleichsweise wenig über das menschliche Gehirn, aber es gibt ambitionierte Forschungsprojekte, die die Geheimnisse des Gehirns stückweise lüften sollen. Ein solches Projekt ist das Human Brain Project, was 2013 ins Leben gerufen wurde. An diesem Großprojekt sind 135 Institutionen aus 26 Ländern beteiligt. Über einen Zeitraum von 10 Jahren und ausgestattet mit einem finanziellen Polster von über 1 Milliarde Euro soll es dabei helfen, unser Gehirn besser zu verstehen. Ein Teilziel des Projektes ist die Entwicklung einer Computersimulation, welcher die Hirnfunktionen eines kleinen Nagetiers simulieren kann. Die BRAIN Initiative aus den USA ist ein weiteres solches Großprojekt, was die Vorgänge im Gehirn sichtbar machen soll. Die Erkenntnisse aus beiden Projekten werden auch die Forschung über künstliche Intelligenz beeinflussen, die über neuronale Netze an die Funktionsweise des Gehirns angelehnt ist.

Das Potential der künstlichen Intelligenz wird deutlich, vergleicht man die physikalischen Eigenschaften von biologischen und technischen Systemen. Während eine Gehirnzelle elektrochemische Impulse etwa 200 mal pro Sekunde an andere Gehirnzellen übertragen kann, können heutige Transistoren mehr als eine Milliarde Signale pro Sekunde übertragen. Die maximale Geschwindigkeit der Signalübertragung in menschlichen Zellen beträgt etwa 100 Meter pro Sekunde, ein Transistor kann Signale hingegen mit Lichtgeschwindigkeit verschicken. Intelligente technologische Systeme verfügen darüber hinaus nicht über Platzprobleme, da sie nicht wie unser Gehirn in einem vordefinierten Raum unterzubringen sind.

Von der physikalischen Leistungsfähigkeit her wäre es daher durchaus möglich, eine sogenannte Superintelligenz zu erschaffen. Bleibt nur die Frage, ob ein Programm entwickelt werden kann, dass diese physikalische Leistungsfähigkeit so ausnutzt, dass das System wirklich superintelligent wird. Hier kommt wieder die Lernfähigkeit ins Spiel. Ähnlich der Vorstellung über die Kapuzineräffchen, könnte einem Algorithmus das Ziel gegeben werden, die eigene Intelligenz zu erhöhen. Die Maschine würde anfangen zu arbeiten und Stück für Stück ihren Algorithmus so umschreiben, dass die Verbindungen der Transistoren effizienter genutzt werden können. Die Maschine würden lernen, was sie selbst effizienter macht. Sie könnte aber noch mehr als das.

Stellen wir uns vor, dass diese Maschine in einer riesigen Produktionshalle liegt, in der sich zusätzlich multifunktionale Roboter und 3D Drucker befinden. 3D Druck wird zu diesem Zeitpunkt sämtliche Formen aus verschiedensten Materialien drucken können und die Roboter wären, wie auch jetzt schon, für die Montage der benötigten „Hardware“ zuständig. Das Ergebnis wäre ein System, dass sich nicht nur "psychisch", sondern auch physisch ändern könnte. Es könnte hochgradig komplexe physikalische Fragestellungen lösen und sogar neue Technologien entwickeln. Es wüsste Dinge, die der menschlichen Wahrnehmung bis dahin verborgen blieben und von der wir nie etwas mitbekommen würden. Es würde in den allermeisten Bereichen menschliche Kopfarbeit obsolet machen. Wertschöpfung würde autonom erfolgen und wir müssten nicht mehr arbeiten gehen. Doch so ein System ist nicht ganz ungefährlich.

Die wohl größte Gefahr verdeutlicht die Sage von König Midas. Dieser überlistete den griechischen Gott Dionysos, der ihm daraufhin einen Wunsch erfüllen musste. Von der eigenen Gier geblendet wünschte sich König Midas nichts sehnlicher als unendlichen Reichtum. Alles was er berührte, sollte zu Gold werden. Schon bald realisierte Midas die Torheit seines Wunsches und bereute es sehr. Denn genauso wie er Stein zu Gold machen konnte, wurde auch der Apfel in seiner Hand zu Gold. Am traurigen Höhepunkt der Sage verwandelt Midas sogar das zu Gold, was ihm am meisten am Herzen lag: Seine Tochter. Diese Sage zeigt, wie blinde Gier zum Verderben führen kann und sie ist auch sinnbildlich dafür, wie schlecht wir formulieren können, was wir wirklich wollen.

Genau das könnte fatal sein, wenn wir einem superintelligenten System ein scheinbar sinnvolles Ziel geben, wie beispielsweise die Entwicklung eines neuen Medikaments gegen eine globale Epidemie. Das System würde erkennen, dass zur Erreichung dieses Ziels mehrere Risikofaktoren reduziert oder sogar eliminiert werden müssten. So könnte ein Problem bei der Stromversorgung dazu führen, dass das System ausgeschaltet werden würde und das Ziel nicht erreicht werden könnte. Daher würde es sich vielleicht ein Notstromaggregat bauen, um das Risiko zu minimieren. Es könnte aber genauso den Menschen als Risikoquelle ausmachen, da dieser im Stande wäre, das System abzuschalten und die Zielerreichung dadurch unmöglich zu machen. Im schlimmsten Fall wäre sogar die Vernichtung der Menschheit eine Option, die das System betrachtet. Vielleicht wäre es sogar die attraktivste Option. Das superintelligente System könnte daher zunächst einen hochgefährlichen Virus entwickeln, bevor es ein Mittel gegen die Epidemie erfindet. Diese Gefahr ist der Grund, warum Tesla-Gründer Elon Musk, Physiker Stephen Hawking und Microsoft-Gründer Bill Gates besorgt sind. Es ist nicht die Bösartigkeit eines solches Systems, sondern eher die Tatsache, dass es unsere Intelligenz bei weitem übersteigt. Die Gefahr liegt darin, Wichtiges außer Acht zu lassen.

Und das klingt wieder ein wenig beunruhigend, ein wenig nach Science-Fiction. Doch wie weit entfernt künstliche Intelligenz und Science-Fiction tatsächlich sind, soll auch im nächsten Artikel dieser Blogreihe deutlich werden, denn ForscherInnen und UnternehmerInnen tüfteln bereits an Sicherheitsmechanismen, die uns vor den Gefahren künstlicher Intelligenz schützen können. Wie aber können wir solche Systeme sicherer machen, werden wir doch niemals an deren Intelligenz heranreichen? Und welche Aufgaben werden dann wir Menschen übernehmen, in welchen Bereichen sind wir der künstlichen Intelligenz überlegen? Wie wird sich künstliche Intelligenz auf das gesellschaftliche Miteinander auswirken und was wird uns dann wichtig sein? Der dritte und letzte Teil dieser Blogreihe beschäftigt sich damit, wie sich künstliche Intelligenz auf die Lebenswirklichkeit der Menschen auswirken könnte.

 

Weitere Informationen