„Der Mensch ein Irrtum der Natur“: mit Big Data von Sapiens zu Superior
Die amerikanische Technologiefirma x.ai betitelt ihren Werbebeitrag in einem sozialen Netzwerk programmatisch: „Using Artificial Intelligence to program humans to behave better.“ Künstliche Intelligenz soll den Menschen umprogrammieren, damit er sich besser verhält.
An dem Anspruch des Unternehmens ist richtig, dass die Künstliche Intelligenz – genauer: lernfähige Maschinen – aufgebrochen ist, zur Universaltechnologie des 21. Jahrhunderts zu werden. Googles Tochterfirma Deep Mind will mit Künstlicher Intelligenz noch in diesem Jahrhundert alle Probleme der Menschheit lösen, von Klimawandel bis Finanzkrise. Facebooks Mark Zuckerberg will die Technologie einsetzen und bis zum Ende des Jahrhunderts alle (!) menschlichen Krankheiten ausrotten. Ökonomen sprechen bereits vom Zweiten Maschinenzeitalter, einer Ära, in der Maschinen so leistungsfähig sind wie nie: Sie können uns verstehen (Amazons Alexa), uns übersetzen (Google Translator), unser Verhalten vorhersagen und uns durch den Tag helfen (Google Assistant).
Verhaltenssteuernde Algorithmen haben inzwischen auf die Wahlfreiheit des Bürgers eine regulierende Wirkung, welche – abseits jeder demokratischen Legitimation – der Steuerungsfunktion des Rechts überlegen ist.
Tatsächlich bringt der Werbebeitrag von x.ai die Ideologie der digitalen Technologiegiganten, ihre „Agenda21“ auf den Punkt: Man will das Leben der Menschen rundum optimieren. Immerhin liefert der Mensch in all seiner Unvollkommenheit eine Menge Optimierungspotenzial, und der Weg bis zum Homo superior ganz im Sinne Nietzsches ist weit. Die Zeit ist reif, behaupten die globalen Technologieanbieter aus dem Silicon Valley der amerikanischen Westküste, mit Hilfe des technologischen Fortschritts den Tod und mit ihm die ganze natürliche Evolution zu überwinden. Der Anspruch, den x.ai erhebt, ist deshalb keinesfalls an den Haaren herbeigezogen. Technisch ist er bereits Realität, es gilt nur noch, ihn beim Mainstream durchzusetzen.
Die Silicon-Valley-Ideologie und der „Neue Mensch“
Die Liste der Ansprüche, die den digitalen Fortschritt begleiten, ist lang. Ihnen allen ist jedoch eines gemeinsam: Sie vertreten ein Menschenbild, das dem europäisch-abendländischen Menschenbild grundsätzlich entgegensteht. Nun hat der technische Fortschritt schon immer das Bild des Menschen in einer Epoche geprägt. Im digitalen Zeitalter ist es die naturwissenschaftlich-technische Fortentwicklung intelligenter Maschinen, die auch nahezu zwingend zu einem maschinenähnlichen Verständnis des Menschen als informationsverarbeitendem Prozess führt. Das 21. Jahrhundert ist angetreten, einen „Neuen Menschen“ hervorzubringen – nicht im Sinne sozialistischer oder nationaler kollektivistischer Utopien, wie sie das 20. Jahrhundert kannte, sondern ein durch „Sachtechnologien“ wie human enhancement, Genetik oder Digitalisierung ständig zu optimierendes Individuum.
Ist jedoch die Umformung des Menschen durch die Technik erst einmal erfolgt, wird das neue Menschenbild auch in Recht und Gesellschaft verankert werden. Recht ist immer „geronnene Politik“. So stellte der Rechtsgelehrte Gustav Radbruch gleich zu Beginn seiner Antrittsvorlesung im Jahr 1927 fest: „Der Wechsel des vorschwebenden Bildes vom Menschen ist es, der in der Geschichte des Rechts ›Epoche macht‹“. Und dann folgt der wohl wichtigste Satz: „Nichts ist so entscheidend für den Stil eines Rechtszeitalters wie die Auffassung vom Menschen, an der es sich orientiert“.
Noch ist es nicht soweit, dass der Neue Mensch des digitalen Zeitalters schon eine neue Rechts- und Gesellschaftsordnung geschaffen hätte, aber der Kampf um das ganz Wesentliche tobt bereits mit voller Kraft. Der optimierbare Mensch ist ein gänzlich anderer als der freie Mensch des semitisch-christlichen Menschenbilds, das die Wurzel Europas ist. Statt des Menschen mit Willens- und Handlungsfreiheit, der sich zwischen Gut und Böse entscheiden kann, propagieren die digitalen Techriesen den auf das Messbare, Quantifizierbare, Ökonomische reduzierten Menschen – eben einen Datenhaufen, einen biologistischen Algorithmus, eine ultimative Maschine, einen Irrtum der Natur. Für Christen – das ist bislang kaum thematisiert worden – bedeutet der digitale Fortschritt deshalb eine ganz grundsätzliche Infragestellung all dessen, woran sie glauben: dass sie unvollkommen und sündhaft, aber eben auch Ebenbild eines vollkommenen Gottes und Erlösers sind.
Der optimierbare Mensch ist ein gänzlich anderer als der freie Mensch des semitisch-christlichen Menschenbilds, das die Wurzel Europas ist.
Demgegenüber sind viele Technologen der digitalen Ära bekennende Atheisten. Die Frage nach dem Menschenbild berührt sie nicht, ihre analytischen Charismen beziehen sich auf andere Disziplinen: die der Massendatenauswertung – „Big Data“ – und der Künstliche Intelligenz. Sie hoffen, dass diese bis Mitte des Jahrhunderts die menschliche Intelligenz überflügeln und zur Superintelligenz werden wird, die den Homo sapiens zur Nummer zwei auf dem Planeten degradiert. Wer keinen Gott hat, kennt keine Grenzen.
Das Internet der Dinge als Vorbedingung des Neuen Menschen
Die praktische Realisierung der Agenda21 durch digitale Lieblingsmarken wie Google, Facebook oder Apple gibt sich – das gilt es zu sehen – einen selbstlosen Anstrich. Google hat eine Künstliche-Intelligenz-Initiative gestartet und will sich als „Helfer der Menschen im Alltag“ positionieren. Das Unternehmen greift sich die Dinge unseres täglichen Lebens und verankert seine Künstliche Intelligenz ganz tief in deren DNS. In wenigen Jahren werden die leblosen Objekte unseres Lebens selbst mit Leben erfüllt sein. Dazu ist Voraussetzung, dass unsere Alltagsgegenstände eine IP-Adresse und ein Betriebssystem (Firmware) erhalten und im „Internet der Dinge“ untereinander, aber vor allem auch mit uns selbst vernetzt sind. Wiederum ist es Google, dessen Betriebssystem Android bereits mit vielen Dingen unseres Lebens schon jetzt fest verankert ist – vom Auto bis zum Präzisionsmessgerät für Satelliten. Die Dinge um uns herum, die Glühbirnen, Strom- und Wasserzähler, TV-Geräte, Öfen, Kühlschränke, Wecker und Armbanduhren, werden zu Sensoren, die Daten von ihren Einsatzgebieten – unseren Häusern, Autos, Arbeitsplätzen oder Schulen – sammeln und abschicken. Das alles ist „smart“, und es ist gleichzeitig die neue Lebendigkeit unserer Alltagsgegenstände: Daten sammeln und senden, aber auch Daten empfangen. Mit verteilter Intelligenz – dem edge computing – kann man ihnen lokale „Denkfähigkeit“ einpflanzen. Objekte werden so zu einem ähnlich lokal informationsverarbeitenden Prozess wie der Mensch selbst und zur sogenannten Umgebungsintelligenz, ambient intelligence. Die Umwelt um den Menschen herum wird kognitiv, wird zu einem künstlichen Organismus, der Menschen beobachtet, analysiert und prognostiziert, damit er uns immer einen Schritt voraus ist. Genau so darf, nein, muss man die Google-Initiative verstehen: »Helfer der Menschen im Alltag« sein, bedeutet nämlich, das Leben eines Menschen und damit den Menschen selbst ständig zu überwachen, indem man seine Umwelt mit Intelligenz auflädt und aktiviert hin zu einer Supernanny-Umgebung, die den Menschen auffordert, sich „besser zu verhalten“.
Überwachung und Profiling
In dem Maße, in dem eine ständig höher vernetzte Umgebung immer mehr Messdaten über das Verhalten von Personen erhebt, wächst hinter der Mensch-Maschine-Schnittstelle ein Universum an Künstlichen Intelligenzen heran. Ihre erste Aufgabe ist es, den Menschen und sein Verhalten zu analysieren, um persönliche Bewegungs-, Verhaltens- oder Konsumprofile zu erstellen. Im nächsten Schritt wird eine Vorhersage getroffen: Welche Vorlieben hat ein Mensch? Was wird er als nächstes tun? Was wünscht er sich? Was denkt er gerade?
Für den durchschnittlichen Onlinenutzer lässt sich jederzeit herausfinden, wer er ist und was ihn bewegt. Potenziell jeder kann diese Informationen bei professionellen Datenhändler gegen Geld erwerben. Schon heute führen Datenhändler Akten über Internetnutzer, aus denen die Käufer solcher Dossiers – das können Arbeitgeber sein, Konzerne, die ihre Nutzer besser kennenlernen wollen, sogar der Staat – viele verschiedene Eigenschaften der Nutzer ablesen: Ist jemand ein Alkoholiker? Welche sexuellen Vorlieben hat er? Ist er introvertiert, extrovertiert, innovativ oder neurotisch? Eine weitere käufliche Eigenschaft ist der „Klarname“. Dann heißt es etwa: Sexuelle Orientierung 1: weiblich. Sexuelle Orientierung 2: ledig. Sexuelle Orientierung 3: schläft lieber mit jüngeren Männern. Klarname: Erika Mustermann. Wenn etwa ein Student viel und oft mit seiner Mutter spätabends oder am Wochenende Kurznachrichten austauscht, schließt die Technologie daraus: Der junge Mann ist hochgradig selbstmordgefährdet.
Für den durchschnittlichen Onlinenutzer lässt sich jederzeit herausfinden, wer er ist und was ihn bewegt.
Solcherart sind also die Schlussfolgerungen aus dem Online-Verhalten der Nutzer. Die Korrelationen können Sinn machen oder auch nicht, und gerade für Letzteres sprechen viele gute mathematische Gründe. Denn um Menschen zu „profilen“, arbeitet mit Künstliche Intelligenz mit mathematischen Modellen. Nicht nur die Mathematiker, auch die Philosophen wissen, dass Modelle niemals eine 1:1 Abbildung der Realität sind. Stets verkürzen Modelle die Wirklichkeit, in der Beschreibungssprache der Mathematik redet man von Variablen; jene müssen aber quantifizierbar sein und einen Wert erhalten. Was nicht quantifizierbar ist, kann nicht Teil des Modells einer Künstlichen Intelligenz sein und fließt in die maschinelle Beurteilung des Menschen folglich nicht ein.
Neben der Verkürzung des Lebens auf ein Modell tritt ein weiteres Problem auch bei der Qualität der Daten auf, mit denen eine Künstliche Intelligenz „trainiert“ wird. Wenn Künstliche Intelligenz aus Rohdaten lernt, entdeckt sie sämtliche Schwächen in Daten sofort und dies besser als jeder Menschen – und sie nutzt sie sofort aus. Doch Künstliche Intelligenz, die als Profiler auftritt und wie ein Kriminaler Personen bewertet und vorhersagt, ist niemals nur eine neutrale Technologie, sondern sie wird durch die Qualität der Daten oft zu einer diskriminierenden, sogar rassistischen Technologie. Diskriminierung durch intelligente Klassifizierer führt schon heute dazu, dass Menschen die eine oder andere Leistung nicht erhalten oder teurer bezahlen müssen. Personalisierte Preise sind nichts anderes als eine solche Diskriminierung: Ein Klassifizierer ordnet etwa einen Internetnutzer einer höheren Gehaltsklasse zu als eine andere Person. Die Folge: Der Nutzer zahlt für ein und dieselbe Reise mehr als der andere Nutzer.
Auch Precrime-Szenarien sind keine Science-Fiction mehr, sondern Realität in Chicago und Großbritannien. Vorwiegend farbige junge Männer, etwa Gang-Mitglieder, werden von einer Maschine prädizierend be- und verurteilt, noch bevor sie eine Straftat begangen haben. Beim (vermeintlichen) Auftreten einer höheren Wahrscheinlichkeit einer Straftat greifen die Behörden prädiktiv ein und verwarnen – ohne irgendeinen konkreten Verdacht – die Betroffenen. Die Vorgehensweise hat wenig mit Rechtsstaatlichkeit nach kontinental-europäischem Verständnis zu tun. Die vorausschauend verwarnten Personen sind nämlich gehalten, sofort ihr Verhalten zu ändern, soll sich ihr „Score“ nicht weiter verschlechtern. Konkret bedeutet das: keine Freunde mehr treffen, keinen Rap mehr hören und bestimmte Stadtbezirke meiden. Der Wert von Information liegt darin, ganz gezielt in die Zukunft eines Menschen einzugreifen – bei Precrime-Szenarien wird sprichwörtlich systematisch auf die Willens- und Handlungsfreiheit einer Person eingewirkt.
Geschlossener Widerstand der Kirche?
Es ist tragisch zu sehen, dass offenbar selbst die Kirche kein geschützter Rückzugsraum für den Einzelnen mehr bleiben soll – ein Rückzugsraum, der nur deshalb menschlich geblieben ist, weil die Kirche aus wohl überlegten Gründen auf Big Data und Künstliche Intelligenz verzichtet, die sie technologisch nicht selbst gestaltet hat. Mitarbeiter der kirchlichen „Infrastruktur“ berichten inzwischen, die Kirche wolle Big Data einsetzen, um die Pastoral zu optimieren.
Diese Idee erinnert sehr an die „vorausschauende Polizeiarbeit“ der Länderpolizeien, die ihre Bestreifung in bestimmten Gegenden maximieren, um der maschinell berechneten erhöhten Einbruchswahrscheinlichkeit wirksamer entgegenzutreten. Kirche wolle aus ihren aggregierten Daten etwa herausfinden, welche Gläubige selbstmordgefährdet sein könnten, und sie prädiktiv ansprechen, um einen möglichen Suizid zu verhindern. Das klingt wie ein hehrer Zweck. Aber die entscheidende Frage ist: Wie verhält sich ein solch prädizierender Eingriff zur freien Willensentscheidung eines Menschen, seine Absichten etwa nur bei der Beichte freiwillig offenzulegen – oder eben auch nicht?
Rechtswissenschaftler sprechen hier von der Zwangsherrschaft des Programmcode. Verhaltenssteuernde Algorithmen haben inzwischen auf die Wahlfreiheit des Bürgers eine regulierende Wirkung, welche – abseits jeder demokratischen Legitimation – der Steuerungsfunktion des Rechts überlegen ist. Ähnlich wie gegenüber einem Rechtsbefehl kann sich ein Mensch freiwillig gegen die Beichte entscheiden – und muss dafür die Konsequenzen für sein Seelenheil in Kauf nehmen. Gegen das prädizierende Profiling einer Maschine und den vorauseilenden Eingriff eines Seelsorgers einer Supernanny-Kirche hat er unter dem Gesichtswinkel einer freien Entscheidung jedoch keine Chance.
Dass Kirche keine Energien mobilisiert, das Zweite Maschinenzeitalter zugunsten und im Blick auf den Menschen aktiv zu gestalten, sondern so gedankenlos wie der Mainstream dem nacheifert, was die Marktakteure des Silicon Valley, ihre Investoren und Beratungsfirmen erschmeicheln, ist eine große Unterlassung.
Mehr noch: Mit Big Data könne man, so die Mitarbeiter der „Infrastruktur“ weiter, auch die einzelnen Priester „scoren“. „People Analytics“ ist tatsächlich Stand der Technik in Großkonzernen, deren Human-Resource-Abteilungen die Zusammensetzung der Belegschaft optimieren, indem sie nach neugierigen, leistungsbereiteren, beständigen oder konformen Mitarbeitern suchen. Aber an welchen Maßstäben misst man die Leistungsfähigkeit eines Priesters? Am mehr oder weniger gefüllten Klingelbeutel? Die Anzahl der Kirchenbesucher, hieß es immer, sei kein Maßstab für die Seelsorge – aber wohl doch für die Pastoral. Ist ein Priester, der sozial wenig aktiv, dafür kontemplativ ist, ein leistungsschwacher Priester? Wie soll eine Künstliche Intelligenz unterscheiden zwischen „kontemplativ“ und „faul“, zwischen „fromm“ und „weltoffen“? Und welche Werte haben die beiden Variablen? Klassifizierungen von Menschen – darunter von Priestern – sind immer hochproblematisch, weil sie den Menschen auf das Beobachtbare reduzieren und das Gegenteil davon, das „Unsichtbare“ wie das Bewusstsein, das Ich, das Selbstbewusstsein, die Seele oder den Gottesglauben, konsequent ausblenden.
Die „unsichtbare“ Welt wie Werte, Tugenden, Laster, Ethik und Moral kann man einer Maschine heute noch nicht antrainieren. Das ist eine Aufgabe für die besten Mathematiker, die das Licht der Welt in diesem Jahrhundert erst noch erblicken werden. Mit dem Stand heutiger Technik disqualifizieren sich Big Data und Künstliche Intelligenz ganz von selbst für den Einsatz durch die Kirche. Dass Kirche keine Energien mobilisiert, das Zweite Maschinenzeitalter zugunsten und im Blick auf den Menschen aktiv zu gestalten, sondern so gedankenlos wie der Mainstream dem nacheifert, was die Marktakteure des Silicon Valley, ihre Investoren und Beratungsfirmen erschmeicheln, ist eine große Unterlassung. Sie ist jedoch nicht nur den irreführenden Marketingbotschaften der Technologiegiganten geschuldet. In den entwickelten westlichen Ländern verhält sich die Kirche vielmehr wie jeder andere multinationale Großkonzern. Ihr Verhalten ist so stromlinienförmig und so ausschließlich irdisch, wie es ihr die dieselben Unternehmensberater globaler Beratungsfirmen angetragen haben, die auch für Valley-Unternehmen und ihre Investoren tätig sind. Die Metaphysik und die transzendentale Dimension von Glaube und Nachfolge Christi zurückstellen und sich rational wie jeder beliebige Konzern zu verhalten, das kostet Strahlkraft. Denn der Auftrag der Kirche lautet nicht, weltlich zu sein, sondern als Abbild des Himmlischen Jerusalem auf das hinter der quantifizierbaren Welt Liegende zu verweisen.
Gerade im 21. Jahrhundert und unter dem rasant wachsenden Druck der Digitalisierung aller Lebensbereiche hätte Kirche viel für den nur noch maschinell gemessenen und gewogenen, den be- und verurteilten Menschen anzubieten.
Konsequenterweise müsste Kirche geschlossen in den Widerstand gegen die digitalen Demiurgen im Silicon Valley eintreten. Gerade im 21. Jahrhundert und unter dem rasant wachsenden Druck der Digitalisierung aller Lebensbereiche hätte Kirche viel für den nur noch maschinell gemessenen und gewogenen, den be- und verurteilten Menschen anzubieten. Sie müsste sich rückbesinnen und die naturwissenschaftliche Vernunft durch ihren Glauben humanisieren. Im 21. Jahrhundert gehört dazu eine erneute Belebung des semitisch-christlichen Menschenbilds und das Eintreten dafür, dass der Mensch dualistisch gedacht ist: als sterblicher Leib und unsterbliche Seele.
Das ist die notwendige Kampfansage gegen den Mainstream der naturwissenschaftlichen Vernunft, wie sie Big Data schafft. Denn viele Menschen hoffen auf eine humane Form der Digitalisierung, und das bedeutet: dass sich die Kirche als eine der größten Institutionen weltweit nicht einem der schlimmsten Angriffe auf den freiheitlichen Menschen und seine personale Würde anschließen darf. Vielmehr ist ihre Aufgabe Gestaltung und Humanisierung der Gesellschaft, ganz im Sinne des Philosophen und Psychoanalytikers Erich Fromm. Schon 1961 stellte er fast prophetisch und heute ganz neu zutreffend für das „Internet der Dinge“ fest: „Für Luther war die Frage noch, ob der Teufel im Sattel sitzt und den Menschen reitet. (…) Für uns heute geht es nicht mehr darum, dass der Teufel uns reitet. Unser Problem ist, dass die Dinge uns reiten – die Dinge und Umstände, die wir selbst geschaffen haben. Eine Zukunft gibt es für den modernen Menschen nur, wenn der Mensch sich wieder in den Sattel setzt.“