Unterwegs in die Algokratie

05.02.2015

Mehr als ein Jahrtausend lang war der Algorithmus nicht mehr als eine Rechenregel. Jetzt wird er zum Symbolbegriff für den Sieg der Maschinen über den Menschen. Das Magazin «GDI Impuls» präsentiert vier Zukunftsszenarien einer vernetzten Welt.

Dieser Artikel entstammt der aktuellen Ausgabe von «GDI Impuls»

Wir werden immer mehr vorhergesagt und vorhergedacht. Das Auto, der Kühlschrank, die Heizung denken in Zukunft für uns (voraus), und der Supermarkt wird uns Waren liefern, bevor wir wissen, dass wir sie wollen. Algorithmen nehmen uns immer öfter das Suchen, Denken und Entscheiden ab. Sie analysieren die Datenspuren, die wir erzeugen, entschlüsseln unsere Verhaltensmuster, messen unsere Stimmungen und leiten daraus ab, was gut für uns ist und was nicht.

Und das machen sie fast überall und jederzeit. Im «Internet der Dinge» wird praktisch jeder Gegenstand ein Computer, der programmiert werden kann und mit anderen smarten Dingen interagiert. Gemäss einer Analyse des US-Unternehmens Cisco werden bis 2020 über fünfzig Milliarden Geräte vernetzt: Autos beispielsweise, die untereinander die Vorfahrt absprechen. Bereits in den Achtzigerjahren verkündete der damalige Leiter des Media Lab am MIT, Nicholas Negroponte, die Mission: «things that think». Im Jahr 2014 wurde erstmals eine solche «künstliche Intelligenz» in eine Geschäftsleitung berufen – in die der Venture-Capital-Firma Deep Knowledge in Hongkong.

Algorithmen werden eine Art digitaler Schutzengel, der uns durch den Alltag leitet und aufpasst, dass wir nicht vom guten Weg abkommen. Das ist hilfreich und bequem, macht uns aber auch manipulierbar, wie das umstrittene Facebook-Emotion-Experiment deutlich zeigt: Um die Ausbreitung von Emotionen in Netzwerken zu erforschen, hatte Facebook die Nutzereinträge von Hunderttausenden Mitgliedern vorgefiltert. Die Studie zeigte, dass Menschen, die mehr positive Nachrichten sahen, eher dazu neigten, auch selbst Einträge mit positivem Inhalt zu veröffentlichen, und umgekehrt.

SOZISKOPIE

Was auf Mikroebene das Leben erleichtert, eröffnet auf Makroebene ungeahnte Perspektiven für die Steuerung von sozialen Systemen (die sich mit herkömmlichen Instrumenten, Geboten und Verboten, immer weniger kontrollieren lassen). Staats- und Unternehmensführer erhalten neue Werkzeuge, «Sozioskope» (soziale Teleskope), mit denen das menschliche Zusammenleben erstmals in seiner ganzen Komplexität erfasst werden kann. Durch die neue Technologie werde es möglich, die Gesellschaft gleichsam mit dem Auge Gottes zu betrachten, schreibt der MIT-Professor Alex Pentland in seinem Buch «Social Physics». Das präzisere Abbild eines sozialen Systems soll in der Folge auch eine schnellere und präzisere Steuerung und Kontrolle der Gesellschaft ermöglichen.

KYBERNETISCHE WELTSIMULATION

Ein Forschungsteam um ETH-Professor Dirk Helbing möchte mit dem Projekt «FuturICT» politische und wirtschaftliche Krisen vorausberechnen und letztlich vermeiden. Also beispielsweise Finanzkrisen, Kriege, Völkerwanderungen, Hungersnöte und dergleichen mehr. Dieser Echtzeit-Weltsimulator soll von Daten aus dem Internet, aus Twitter und anderen sozialen Medien sowie aus Archiven aller Art gefüttert werden. Mittels Computer-Simulation soll er am Schluss Lösungen zuhanden von Entscheidungsträgern ausspucken.

Die Idee, die Gesellschaft über Algorithmen zu steuern, ist nicht neu. Die Kybernetik ist die Wissenschaft von der Steuerung von komplexen Systemen. Sie geht zurück auf die Forschungen des amerikanischen Mathematikers Norbert Wiener, der seine Erkenntnisse aus der Beschäftigung mit Flugabwehrgeschützen im Zweiten Weltkrieg gewonnen hat. Mit einem mathematischen Modell wurde versucht, die Flugbahn von Flugzeugen vorherzubestimmen. Dabei wurde analysiert, wie sich ein unter Beschuss stehender Pilot voraussichtlich verhalten wird.

PREDICTIVE POLICING

Im Kern geht es darum, aus dem Verhalten in der Vergangenheit das Verhalten der Zukunft zu berechnen (für technische und soziale Systeme). Dafür braucht man die richtigen und auch genügend Daten – im Zeitalter von Big Data ein lösbares Problem. Die Politik baut heute immer öfter auf diese Logik auf, unter anderem in der Sicherheits-, Gesundheits- und Verkehrspolitik. Kritische Ereignisse sollen frühzeitig erkannt und durch gezielte Eingriffe verhindert werden.

Zum Beispiel: Mit Predictive Policing sollen Straftaten verhindert werden, bevor sie geschehen. Der Landeskriminaldirektor des Ministeriums für Inneres von Nordrhein-Westfalen erklärt, wie Einbruchsdelikte dank einer besseren Datenauswertung in Zukunft schon im Vorfeld verhindert werden können. «Stellen wir in einem Ort das gleichzeitige Aufkommen ausländischer Transportfahrzeuge und die Verwendung ebenso ausländischer Telefonkarten fest, und das in regionalen Bereichen, die sich für mobile Einbruchstäter aufgrund ihrer Lage, etwa in Grenznähe oder Nähe der Autobahn, besonders eignen, sollte man aufmerksam werden.»

Wenn die Informationsmenge zu gross ist, um sich selber durchzuarbeiten, und die Zusammenhänge zu komplex, um sie zu durchschauen – was in einer vernetzten Welt der Normalfall ist –, brauchen wir die Unterstützung von Algorithmen/künstlicher Intelligenz. Weil die Algorithmen für die meisten Menschen eine Blackbox sind und bleiben, wird es wichtiger, diese Steuerungsinstrumente zu kennen. Es muss transparent sein, wer und welche Interessen hinter einem Algorithmus stehen: So wie ich die Herkunft des Huhns wissen möchte, das ich esse, möchte ich in Zukunft wissen, wer einen Algorithmus kontrolliert, der für mich entscheidet.

NANO-CONTROLLING

Je abstrakter die Mechanismen werden, die uns steuern, umso wichtiger wird das Vertrauen oder umgekehrt das Misstrauen in die höheren technischen Intelligenzen. Die Zeit der Unschuld in der digitalen Welt ist vorbei – einer Welt, die auf algorithmischen Berechnungen basiert. Wir wissen, dass wir überwacht werden. Wir wissen, dass die Datenspuren, die wir hinterlassen, von vielen verschiedenen Stellen gelesen, verfolgt und manipuliert werden können.

Das Risiko, das wir dabei eingehen, wird dabei eine neue Dimension erreichen. Denn je weiter das Netz in unseren Alltag und in unseren Körper hineinreicht, desto verletzlicher sind wir, wenn es auf einmal verschwindet. Das Internet ist zwar ursprünglich speziell dafür konzipiert worden, dass es auch im schlimmsten Fall nicht völlig zerstört werden kann. Dennoch führen Hacker-Angriffe, DDoS-Attacken und Viren-Epidemien immer wieder zu Ausfällen. Solange diese Ausfälle lediglich lästig und zeitraubend sind, handelt es sich um ein sehr begrenztes Risiko. Aber wir müssen uns der Frage stellen, wie wir mit solchen Ausfallrisiken umgehen sollen, wenn die Vernetzung im Wortsinn überlebensnotwendig geworden ist.

Das gilt insbesondere dort, wo die Technik direkt mit unserem Körper verbunden ist. Wenn über das Netz beispielsweise Nano-Controller in unserem Körper gesteuert werden, die Körperfunktionen überwachen und auftauchende Störungen frühzeitig beheben – müssen wir hundertprozentig sicher sein können, dass niemand sie so umprogrammieren kann, dass sie unseren Körper zerstören statt beschützen.

JENSEITS VON ASIMOV

Wir können uns nicht mehr darauf verlassen, dass die Technik uns nichts tut. Die «Robotergesetze», von Isaac Asimov 1942 formuliert, machten das noch unmissverständlich klar: «Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird», heisst das erste dieser Gesetze. Aber spätestens wenn die selbstfahrenden Autos sich ausbreiten, kann dieses Gesetz nicht mehr aufrechterhalten werden. Es gibt Situationen im Strassenverkehr, in denen jedes Handeln eine Schädigung von Menschen zur Folge hat – und der Algorithmus des Google-Cars bestimmt dann, wer am Leben bleiben darf.

Selbst wenn der automatisierte Strassenverkehr die Mobilität im Allgemeinen sicherer macht, kann sich ein Unbehagen darüber ausbreiten, wie die Macht der Technik uns gefährdet. Und je intransparenter die Rechenwege sind, auf denen ein Algorithmus seine Entscheidungen trifft, desto grösser wird dieses Unbehagen sein.

Transparenz, Open Data und Open Source werden folglich für die Vertrauensbildung eine zentrale Rolle spielen. Nur wenn Datensätze offen zugänglich sind, kann ein Markt für Algorithmen entstehen, die Leistungsfähigkeit von Algorithmen kann getestet und miteinander verglichen werden. So wie wir heute den Informationen in der unabhängigen und transparenten Wikipedia mehr trauen als den Informationen, die auf Unternehmens-Websites stehen, werden wir in Zukunft unabhängigen Algorithmen mehr trauen, die auf Open Source und Open Data basieren.


Zukunfts-Szenarien der vernetzten Gesellschaft

Trends und Strömungen der technologischen und gesellschaftlichen Entwicklung werden in dieser GDI-Studie anhand von vier Zukunftsszenarien veranschaulicht. Sie dienen dabei nicht so sehr als Prognose, was passieren wird, sondern als Werkzeug, um mögliche künftige Zustände herauszuarbeiten und neue Perspektiven zu erschliessen. Die Definition der Szenarien orientiert sich an zwei Leitfragen als Achsen eines Koordinatensystems: 1. Wer hat die Kontrolle über unsere Daten? 2. Wie entwickelt sich unser Wohlstand? Aus den Antworten auf diese Leitfragen lassen sich vier Szenarien ableiten:

Digital 99 Percent
Die Gesellschaft wird sich spalten, als wollte sie George Orwells «Animal Farm» noch einmal aufführen. Eine schmale Oberschicht lässt die Maschinen für sich und ihre Macht arbei-ten. Wer nicht dazugehört – also der grosse Rest –, verliert die Perspektive und kann allenfalls in virtuelle Realitäten flüchten. Um soziale Unruhen zu verhindern, sorgt die technokratische Elite für billige Unterhaltung und Konsumgüter – «panem et circenses», wie der Lateiner sagen würde.

Low Horizon

Die Menschen ziehen sich aus der Gesellschaft zurück, als wollten sie Landkommunen grün den. Zum einen verzichten sie bewusst auf neue Technologien – wegen eines nur geringen Nutzens und um ihre Eigenständigkeit zu bewahren. Zum anderen entscheiden sie sich für Ruhe, Langsamkeit und regionale Verankerung. Diese Deglobalisierung führt zu einer dezentral vernetzten Gesellschaft mit wenig Verbindungen. Die konsequentesten Vertreter könnte man mit den «Amish» vergleichen.

Holistic Service Communities
Die Menschen vertrauen sich einem Unternehmen an, als wäre es ein guter Hirte. Indem sie die Kontrolle über ihre Daten einer Firma überlassen, ob Arbeitgeber oder Dienstleister, gewinnen sie sehr viel Convenience. Man sorgt sich um sie, macht ihnen passende Angebote, sogar für den Lebenspartner. Unangenehm wird es erst, wenn man die Community wechseln möchte. Dies ist praktisch nicht möglich, im Silo sind alle Daten gespeichert. Die Generation X würde das wohl «Matrix» nennen.

Dynamic Freedom
Die Menschen spielen mit dem Netz, als wäre es ein Klavier. Sie sind es, die Kommunikation, Produktion und Logistik beherrschen, nicht umgekehrt. Die Macht wird nicht dezentra-lisiert und flexibilisiert: Man muss ja nicht immer die gleiche Selbstverantwortung über nehmen. Die Menschen leben nicht nur im Netz   – sie leben das Netz. Und verfügen dabei über alles, was sie für ein gutes Leben brauchen. Frühere Generationen hätten diesen Zustand wohl «Paradies» genannt.