Zur Genese und Wirkungsweise der Digitalisierung
Der Prozess der Digitalisierung macht auch nicht vor der materiellen Welt halt: Wie der 3D-Drucker eindringlich vor Augen führt, kann Hardware wie Software behandelt werden (vgl. Anderson 2013). Und dies erfasst nicht nur die anorganische materielle Welt der (technischen) Artefakte sondern auch zunehmend den Bereich des Organischen. Das „Internet der Dinge“ stellt schließlich in Aussicht, dass sich die technischen Entitäten – einerlei ob HighTech oder nicht – datenförmig vernetzen (vgl. Sprenger/Engemann 2015).
Wir beobachten zurzeit, dass nahezu alle sozialen Belange des Zusammenlebens digitalisiert werden.
Doch was ist das Besondere an der Digitalisierung? Schließlich gibt es digitale Technologie schon recht lange, eben mit dem Aufkommen der ersten Computer, die bekanntlich auch schon binär also digital prozessiert haben. Genau dieser Frage stellt sich der vorliegende Beitrag, indem er aus einer techniksoziologischen Perspektive die Entwicklung der digitalen Technologie und ihrer Wechselwirkung mit der Gesellschaft nachzeichnet, an deren vorläufigen Ende sich die Digitalisierung befindet. Aus dieser Analyse wird dann ersichtlich, auf was sich die Gesellschaft in Bezug auf Digitalisierung einzustellen hat und inwieweit sie sich dadurch verändern wird.
1. Genese
Wenn man die Genese digitaler Technologie nachzeichnen möchte, dann lassen sich grob fünf Schübe der bisherigen Entwicklung ausmachen, die jedes Mal grundlegende Veränderungen unserer soziotechnischen Wirklichkeiten mit sich brachten.1 Der erste Entwicklungsschub kann man mit Computerisierung umschreiben. Hier handelt es sich – angefangen mit der Zuse-Maschine (vgl. Zuse 2008, S. 95ff.) – um eine erste große Welle des Computereinsatzes, die sich allerdings weitgehend noch auf Großrechner bezog. Über so genannte Terminals, die selbst keine Rechenleistung besaßen, sondern im Grunde nur Schnittstellen zur digitalen Technologie darstellten, hatten Nutzerinnen und Nutzer (parallelen) Zugriff auf die Rechenleistung des Großrechners. Ein Datenaustausch zwischen den Großrechnern bestand nicht. Die Hauptanwendungsfelder dieser Großrechner waren vor allem die Wissenschaft, das Militär sowie die Wirtschaft. Dieser Entwicklungsschub steht für die Binarisierung der Welt auf Basis mathematischer Modelle. In diesem Zusammenhang kam auch erstmalig eine Debatte über Künstliche Intelligenz (KI) auf, bei der die Frage kontrovers diskutiert wurde, wie weit diese Binarisierung getrieben werden kann; insbesondere ob der menschliche Geist binarisiert werden könne (vgl. Wiener 1948).
Gerade in Wirtschaftsunternehmen konnte man in den 1980er Jahren eine Umstellung auf den zweiten Entwicklungsschub beobachten2, die hier in Ermangelung eines besseren Begriffs PC-isierung genannt werden soll. Erst allmählich setzte sich dann in Organisationen der PC gegenüber den Großrechnern und Terminals durch.3 Über Intranet-Lösungen besaßen die SachbearbeiterInnen einen Zugang zu organisationseigenen Datenbanken und Rechenleistungen. Dieser zweite Entwicklungsschub war von einer Dezentralisierung und Individualisierung der digitalen Zugänge geprägt, bei der nur punktuell eine Vernetzungsperspektive zum Zuge kam. Entsprechend verfügten die Nutzerinnen und Nutzer wohl über die höchste Datenautonomie jemals bei der Verwendung digitaler Technologie. Doch der eigentliche, sozialwissenschaftlich relevante Prozess dieses Schubs bestand in der flächendeckenden Kommerzialisierung mittels Software, wobei die Betonung auf Ware liegt. Denn für die alltäglichen Belange vor Ort wurden vielfältige Computerprogramme geschrieben und kommerziell vertrieben (wie Spiele, Textverarbeitungsprogramme, Tabellkalkulationssoftware etc.).Im Jahr 1984 überstieg erstmals die Anzahl der Besitzer eines Personal Computers die Anzahl der Menschen, die über Terminals Zugang zu einem Großrechner besaßen. Dies war von einer Dezentralisierung und Individualisierung der digitalen Zugänge geprägt.
Die eigentliche kommunikative Wende liefert dann der dritte Entwicklungsschub, die Internetisierung. Sie kann in gewissem Sinne als Gegenbewegung zum zweiten Entwicklungsschub verstanden werden, indem nun kommunikativer Austausch, Vernetzung und Community-Bildung im Vordergrund standen. Hier ließen sich natürlich noch weitere Binnendifferenzierungen vornehmen, zumindest diejenige zwischen dem Internet der ersten Generation und dem so genannten Web 2.0. Gleichwohl erscheint das Mitmach-Internet mehr als logische Fortführung einer Entwicklung, die das Kommunikationsspektrum erweitert, denn als Bruch zum Web 1.0. Wenn auch Letzteres vor allem geprägt war von einer one-to-many-Kommunikation (homepage-Logik), so war über Dienste wie der E-Mail oder Chat-Foren ein breites Spektrum an Kommunikationsformen von Anfang an angelegt. Im Effekt erzeugte dieser Entwicklungsschub eine dezentral-vernetzte Datenstruktur. Im Zentrum des Prozesses stand die Vernetzung von Menschen, von Menschen mit Inhalten sowie von Inhalten untereinander.
Die Internetisierung brachte die kommunikative Wende.
Ein wenig zeitversetzt startete der vierte Entwicklungsschub, bei dem es um die Mobilmachung und Ubiquisierung der Mikroprozessoren und des Internets in Form von smart devices sowie der Aufstockung konventioneller Technik mit Mikroprozessortechnologie ging. Damit sind auch die Geburtsstunden des „mobilen Internets“ sowie des „Internets der Dinge“ markiert. Sie stehen für ein Umdenken bei der digitalen Technologie: moderate Rechenleistung vor Ort und ebenso niederschwellige wie schnelle Internetzugänge garantier(t)en die Bereitstellung von situationsadäquater Rechen- und Datenleistung. Im Effekt existiert seither – metaphorisch gesprochen – eine permanente Datenwolke um jeden mit smarter Technologie ausgestatteten Menschen sowie um jede Technik, die über Mikroprozessortechnologie sowie Sensorik verfügt.
Im fünften Entwicklungsschub, der sich gerade vollzieht, und der bereits mit dem Begriff der Digitalisierung belegt wird, werden die Potentiale einer Vernetzung unterschiedlichster Daten ausgelotet. Nicht nur werden „in-silicio“-Daten (Danchin et al. 1991, S. 914) – also Daten, die rein algorithmisch erzeugt sind – mit Daten über die Wirklichkeit kombiniert, sondern das „Internet der Dinge“ greift in unsere Handlungsvollzüge ein – etwa bei Industrie 4.0-Anwendungen – und die dort anzutreffenden Daten vernetzen sich mit der offline-Wirklichkeit. Den Daten der Sensor- und Aktortechnik, RFID-Chips und GPS-Bauteile kommt dabei eine entscheidende Rolle zu. Der fünfte Entwicklungsschub vereint die ‚Errungenschaften‘ der anderen Entwicklungsschübe auf einem neuen Aggregationsniveau: Datenprozesse sind nunmehr durchweg binär, dezentral, vernetzt und situiert. Hinzu kommt allerdings – wie bereits eingangs erwähnt –, dass alle Bereiche des menschlichen Lebens datafiziert werden. Heterogene Datenpakete werden dabei mit hohen Freiheitsgraden miteinander kombiniert. Durch Cloud-Lösungen können des Weiteren smart devices in die Gunst von Großrechenleistung gelangen. Wir erleben aufgrund dessen einen außergewöhnlichen Prozess innerhalb der Technikwelt: Die Technik, die wir bislang kennen, kapselt sich mittels technischer Intermediärer – der smart devices – ein, welche die Aufgabe der Steuerung konventioneller aber auch digitaler Technik übernehmen. Gleichzeitig kann eine Dezentralisierung und Individualisierung der Nutzung digitaler Dienste durch entsprechende Apps von smart devices erfolgen. Die Datenstruktur ist folglich polyzentrisch, fluktuierend und vernetzt.Im Entwicklungsschub, der sich gerade vollzieht, und der mit dem Begriff der Digitalisierung belegt wird, werden die Potentiale einer Vernetzung unterschiedlichster Daten ausgelotet. Die auf diese Weise erzeugten Ergebnisdaten fließen wieder in die sozialen Wirklichkeiten ein und vernetzen sich mit den dortigen Prozessen.
Unter Digitalisierung soll hier also verstanden werden, dass immer mehr Lebensbereiche eine datenmäßige Repräsentation erfahren und Daten unterschiedlicher Herkunft miteinander in Bezug gebracht werden, indem weitergehende Auswertungen mittels Algorithmen vorgenommen werden. Die auf diese Weise erzeugten Ergebnisdaten fließen wieder in die sozialen Wirklichkeiten ein und vernetzen sich mit den dortigen Prozessen, sodass diese Wirklichkeiten einen disruptiven Wandel erfahren. Eine weitere Besonderheit der Digitalisierung besteht darin, dass der Einsatz von Daten skalenfrei erfolgen kann. Im Beispiel gesprochen: Ein Verkehrsleitsystem kann ebenso für einzelne Autofahrer, eine Stadt, wie für eine Region, ein Land und/oder global erfolgen. Immer werden anfallende Daten gesammelt, aggregiert und algorithmisch nach bestimmten vorab festgelegten Kriterien ausgewertet und die Ergebnisse in annähernder Echtzeit in die soziale Wirklichkeit zu Steuerungszwecken zurück überführt.
2. Wirkungsweise
Im Effekt ist Digitalisierung allerdings viel mehr als die „wilde“ Kombination von vormals isolierten Daten zu smarten Steuerungszwecken: Denn mit ihr geht nichts Geringeres einher als die Auflösung der offline-Wirklichkeit und die Entstehung einer Virturealität4, in der es ununterscheidbar wird, was offline und was datenbasiert-online erzeugt wird. Diese Virturealität wird geprägt sein von einer situationsspezifisch erzeugten Sozialraumkonstruktion, in der „in silicio data“ einen Aktivitätsraum des Möglichen hervorbringen, der sich mit materiellen Gegebenheiten und energetischen Dispositionen verschränkt.5 Nicht linear rückgekoppelte Systeme erzeugen in Big Data-Arrangements eine zunehmende Vernetzung von Echtzeit-Messdaten mit Simulationsdaten. Unsere Wahrnehmungen werden dabei datenmäßig gesteuert. Wir werden immer mehr in unseren Entscheidungen das für real halten, was sich datenmäßig als das sinnvollste Szenario errechnen lässt. Allerdings befindet sich die Bewertung, ob etwas sinnvoll ist oder nicht, nicht mehr unter der Kontrolle sozialer Entitäten (Akteure, Anspruchsgruppen, Organisationen etc.), sondern wird zunehmend in Algorithmen eingebaut. ‚Intelligente‘ Verkehrsleitsysteme – um das Beispiel noch mal aufzugreifen – antizipieren in Echtzeit datenförmig das Verkehrsaufkommen und simulieren verschiedene Szenarien der Verkehrsführung, um auf dieser Basis eine möglichst wirkungsvolle Steuerung des Verkehrs vorzunehmen. Wirklichkeit wird auf diese Weise nicht nur in Daten dekomponiert, sondern zunehmend durch Daten erzeugt.Mit der Digitalisierung geht nichts Geringeres einher als die Auflösung der offline-Wirklichkeit und die Entstehung einer Virturealität, in der es ununterscheidbar wird, was offline und was datenbasiert-online erzeugt wird.
Die klassische Unterscheidung in Daten, Information und Wissen greift dabei nicht mehr, da sie suggeriert, dass Daten etwas wären, die interpretationsfrei zu haben seien.6 Sie sind allerdings sozial konstruiert – in Form von Algorithmen, die sie produzieren bzw. abgreifen, und Datenbanken, die sie zugänglich machen (insbesondere über Metadaten, die über in Datenbanken abgelegten Daten vergröbernde Aussagen bilden).7 Es handelt sich bei der Vernetzung von Datenpaketen um die Erzeugung einer modularen auf unterschiedlichen Skalenniveaus selbstähnlichen Netzwerkstruktur. Virturealität ist dann nichts anderes, als die situativ sich ergebende Vernetzung und konsequenzielle Wechselwirkung digitaler und nicht-digitaler Module. Zu letzteren sind eben die Elemente der offline-Welt einschließlich der dort anzutreffenden Entitäten zu rechnen. Alle diese Entitäten – ob soziale Gebilde, Individuen oder technische Artefakte – werden in der Virturealität wesentlich aus Daten bestehen. Eine solche Virturealität löst die bisherigen Vorstellungen von Raum und sozialer Wirklichkeit kategorial ab, indem sie ein hybrides, dynamisches und instantan erzeugtes Netzwerk aus heterogenen Modulen präsentiert, bei dem die sozialen Entitäten unter Datengesichtspunkten einbezogen werden und dadurch eine relationale Bedeutungszuweisung erfahren.Die Virturealität wird geprägt sein von einer situationsspezifisch erzeugten Sozialraumkonstruktion. Die Bewertung, ob etwas sinnvoll ist oder nicht, befindet sich nicht mehr unter der Kontrolle sozialer Entitäten, sondern wird zunehmend in Algorithmen eingebaut.
Virturealität ist kein Entgrenzungsphänomen, sondern ein Emergenzphänomen, das durch die Vernetzung heterogener Prozesse über Daten als Mittler entsteht. Faktisches wird dabei immer mehr in binären Kanälen und nicht mehr nur im offline-Raum hervorgebracht. Insofern ist die gesellschaftliche Leitfunktion dieses Entwicklungsschubs die Wirklichkeitskonstruktion in einer neuen Weise. Simulationsdaten fließen in die Berechnung von Empfehlungen der Situationsbewältigung ein und produzieren auf diese Weise das, was sie zuvor prognostiziert haben. Damit wird die klassische zweiwertige Kausalität aufgelöst: Ursache und Wirkung ändern ihre Positionen. Die errechnete Wirkung zum Zeitpunkt „t“ wird zur Ursache der Wirklichkeit „t + 1“. Gelingen kann eine solche siliziumimprägnierte Wirklichkeit, wenn alle Lebensbereiche datafiziert werden. Denn an die Stelle der zweiwertigen Logik tritt eine dreiwertige, bei der die Mittler zwischen algorithmischen und sozialen Prozessen – die Daten8 – eine Eigenlogik einbringen, die eine solche Umkehrung von Ursache und Wirkung ermöglichen.Virturealität ist kein Entgrenzungsphänomen, sondern ein Emergenzphänomen. Digitalisierung illusioniert die Möglichkeit, trotz eines „information overflow“ den Überblick zu behalten und sachadäquate Entscheidungen treffen zu können.
Den Nährboden für eine solche auf „in silicio data“ berechneten gesellschaftlichen Wirklichkeit liefert dabei die vielfach diagnostizierte „Krise des Entscheidens“ unserer Gegenwartsgesellschaft. Digitalisierung illusioniert die Möglichkeit, trotz eines „information overflow“ den Überblick zu behalten und sachadäquate Entscheidungen treffen zu können.
- Eine alternative Einteilung liefern beispielsweise Weiser und Brown (2015, S. 59ff.). Sie identifizieren 3 Phasen, die sie an drei chronologisch aufeinander folgenden Trends festmachen: Die Mainframe-Ära, die Personal Computer-Ära und die Ära des Ubiquitous Computing.
- Bei einigen (selbst großen) Unternehmen fand dies zeitverzögert auch erst Anfang der 1990er Jahre statt.
- Für den Übergang zu diesem zweiten Entwicklungsschub kann das Jahr 1984 herangezogen werden. Denn in diesem Jahr überstieg erstmals die Anzahl der Besitzer eines Personal Computers die Anzahl der Menschen, die über Terminals Zugang zu einem Großrechner besaßen. Vgl.: IDC: Transition to the information highway Era, in: Information Industry and Technology Update 1995-96, S. 2
- Mit dem Begriff Virturealität soll auf einen Virtualitätsbegriff angespielt werden, der scheinbar wenig mit dem Digitalen zu tun hat. Gemeint ist laut Massumis (1998; 2002), dass die Befassung mit dem Virtuellen als Anwesenheit von Abwesendem stets die Möglichkeit der Emergenz von Neuem offeriere. Insofern sind für ihn Wissenschaft und Kunst bereits Phänomene des Virtuellen. Entsprechend lehnt Massumi nicht nur eine Gleichsetzung des Digitalen mit dem Virtuellen ab, sondern digitale Technologien operieren für ihn primär im Medium der Möglichkeit (bei der die Manifestationen bereits präexistieren), mitunter auch in Form von Simulationen (bei denen eine grundsätzliche Ähnlichkeit zum Abgebildeten bestehen, also auch nichts Neues entsteht), jedoch zunächst nicht im Virtuellen. Das Virtuelle – als das Neue Hervorbringende – kommt nach Massumi erst dann ins Spiel, wenn digitale Technologien auf das Potential fokussieren, das in der Verknüpfung von allem Möglichen, also in der Konnektivität liegt. Dies wird für ihn besonders an der Grenze zwischen dem so verstandenen Virtuellem, als dem freien Spiel von Relationen, und Aktuellem, als dem funktionalen Limitieren, relevant, da sich genau dort Möglichkeiten der Veränderungen bieten. Der soeben beschriebene Entwicklungsschub der Digitalisierung bietet genau diese Absolutsetzung des Konnektiven/Virtuellen an der Grenze zum Aktuell-Gegebenen: Daten heterogener Kontexte werden beliebig miteinander kombiniert; ergeben sich daraus instruktive Ergebnisse, werden diese in die soziale Wirklichkeit rücküberführt. Dadurch wird diese Wirklichkeit transformiert.
- Für Wiener (1948, S. 155) ist die Information neben Materie und Energie der dritte „Grundstoff“, mit dem wirkungsvoll „gearbeitet“ werden kann.
- Selbst so genannte Rohdaten sind konstruiert, wie Bowker herausarbeitet: „Raw data is both an oxymoron and a bad idea. On the contrary, data should be cooked with care.” (Bowker 2005, S. 184)
- Auch für Nake (2001, S. 740) handelt es sich beim Computer um eine „Interpretationsinstanz“, da dieser eine auf Algorithmen beruhende Deutung vornimmt.
- Zur Eigenlogik der Daten als Schnittstellen zwischen algorithmischen und sozialen Prozessen siehe: Häußling 2017.