Ah, die Herrschaft der Algorithmen!

18.03.2015

Wer hat Angst vor Robotern? Christoph Kucklick nicht. Der Autor sagt in der neuen Ausgabe von «GDI Impuls», was wir in der anbrechenden Digitalzeit brauchen: zum Beispiel Algorithmenprüfer und einen neuen Rechts-Status für intelligente Maschinen.

Dieses Artikel stammt aus der aktuellen Ausgabe von «GDI Impuls».  Interview: Detlef GürtlerHerr Kucklick, die Digitalisierung erfordere einen neuen Gesellschaftsvertrag, meinen Sie… …weil die Gesellschaft sich durch die Vernetzung und die digitalen Technologien so drastisch verändert, dass sie ihr Fundament neu bestimmen muss. Aber können wir das denn noch – oder bestimmen da schon die Algorithmen? Ah, die Algokratie! Die Herrschaft der Algorithmen über unser Leben! Davon kann doch gar keine Rede sein. Dieser Begriff tut so, als seien wir einfach Opfer – und müssten einer Entwicklung so lange zuschauen, bis sie uns zermalmt. Dabei berücksichtigen wir viel zu wenig unsere Anpassungsreaktionen. Wir können den Prozess nicht so berechenbar steuern wie eine Maschine, aber wir sind mit all unseren Wünschen, Ängsten, Fähigkeiten und Begrenzungen so in den Prozess verwoben, dass wir ihn zwangsläufig stark beeinflussen. Also lernen nicht nur die Algorithmen mehr über uns, sondern auch wir mehr über die Algorithmen? Zuerst einmal lernen wir mehr über uns. Wir vergewissern uns dauernd unserer Werte und unserer Situation. Das Lernen über die Algorithmen steht noch ganz am Anfang. Da geht es um Fragen wie: Wie sehen die Netze aus, in denen wir uns bewegen? Wie sehen ihre Algorithmen aus? Sind es Black Boxes wie derzeit, bei denen wir gar nicht wissen, wie uns geschieht, oder können wir da Licht hineinlassen? Können wir? Wir müssen. In einigen Fällen geht es darum, das Handeln der Algorithmen auf Fairness zu durchleuchten: Wer bekommt bestimmte staatliche Leistungen? Nach welchen Kriterien werden Menschen aus dem Gefängnis entlassen? Dann geht es um die Prüfung der mit Algorithmen explizit oder implizit verbundenen Werte. So gewichtet beispielsweise Facebook Verwandtschaftsbeziehungen sehr stark… …ach, deshalb bekomme ich jede «Candy Crush»-Meldung meiner Schwägerin immer sofort in die Timeline gespült? Genau. Damit hat Facebook ein Wert-Statement algorithmisiert. Und es geht nicht darum, zu urteilen, ob das falsch oder richtig ist – sondern erst einmal darum, es schlicht zu wissen. Oder es selbst zu verändern: Behellige mich nicht mit dem, was meine Schwägerin in der Nacht postet. Blende mir nur Auto-Anzeigen ein, wenn ich selbst gerade nach einem neuen Auto suche. Die Algorithmen für die Verarbeitung meiner Daten selbst bestimmen zu können, ist ein sehr anspruchsvolles Ziel, das zu erreichen ich derzeit für unrealistisch halte. Einflussmöglichkeiten auf die Algorithmen, die müssten möglich sein. Durch einen Antrag bei der Algorithmengenehmigungsbehörde? Das wird eher über einen Markt passieren als über Regulierung. Es wird zunehmend Intermediäre geben, mit deren Hilfe man in solche komplexe Systeme eingreifen kann. Oder Deals machen: Ich verrate einer Firma ein wenig darüber, was mich interessiert, damit sie mir Angebote macht. Nach der Suchmaschinenoptimierung für Unternehmen käme dann die Algorithmenoptimierung für Personen? Und die Gegenmassnahmen: dass Intermediäre anbieten, die Algorithmen, die uns ausrechnen, selbst auszurechnen – eine Art «reverse engineering». Vermutlich würde das eher aus der Hacker-Szene kommen als aus der Konzernwelt. Facebook hat ja auch mal als Dumme-Jungen-Hack angefangen. Solche Zwischenhändler wiederum können dann durchaus dazu beitragen, bei den Unternehmen das Interesse an Transparenz zu erhöhen – genauso wie auch geänderte staatliche oder juristische Rahmenbedingungen dazu beitragen können. Solange ein Unternehmen hingegen davon profitiert, seine Daten und Prozesse geheim zu halten, hält sich dieses Interesse naturgemäss in Grenzen. Zu mehr Transparenz kann es ja auch kommen, wenn die Googles, Facebooks und Ubers sich auf gemeinsame Regeln einigen. Das wäre keine so gute Idee. Es gibt zwar Marktkräfte, die in diese Richtung weisen – aber eine generelle Selbstüberwachung wäre fatal. Regulierung heisst ja Ausgleich von Interessen; aber die technologischen Interessen sind derzeit praktisch ungehemmt. Es gibt allerdings einen anderen Akteur, der eigentlich führend sein müsste, um hier Regelungen voranzubringen: die Staaten nämlich. Allerdings haben sie sich genau dafür komplett desavouiert – weil sie sich derzeit als zutiefst vertrauensunwürdig erweisen. Sie meinen die NSA-Affäre und das Überwachungsthema? Richtig. Die Staaten versuchen, sich der Kontrolle zu entziehen und sich Sonderrechte einzuräumen; die Kontrolle, die sie im Analogen verfehlt haben, wollen sie im Digitalen durchsetzen. Damit ruinieren sie zum einen die Grundrechte, zum andern fallen sie als vertrauenswürdige Anwälte der Bürger völlig aus. Im Kern der Digitalisierung herrscht ein gewaltiges Staatsversagen, genauer: ein staatlich verantwortetes Regulierungsvakuum – das von allen möglichen Kräften gefüllt wird. Das klingt ja deutlich pessimistischer als Ihre Aussage zu Beginn, wonach wir beständig lernen und uns weiterentwickeln. Da hatte ich ja auch von der Gesellschaft insgesamt gesprochen, nicht vom Staat. Ich sehe auch tatsächlich einen Weg, wie wir jenseits von Big Business und Big Government die digitale Gesellschaft transparent und menschengerecht machen können. Nämlich? Er verläuft ganz ähnlich wie derjenige, der im gesamten Verlauf des 20. Jahrhunderts zur Transparenz der Finanzdaten geführt hat. Ende des 19. Jahrhunderts bekamen die ersten Konzerne eine Grösse, eine Macht, die alles übertraf, was man vorher im Bereich der Ökonomie kannte. Darauf wurde unter anderem mit neuen Regeln reagiert, etwa mit Anti-Trust-Gesetzen. Vor allem aber wurden die Wirtschaftsprüfer erfunden: Institutionen, die die Geschäftszahlen kontrollieren und mit einem Prüfsiegel versehen. Nach einem ganzen Jahrhundert Entwicklung handelt es sich bei ihnen um global agierende Netzwerke, die mit einem mehr oder weniger einheitlichen Rahmenwerk agieren und sowohl nationale Gesetze als auch internationale Bilanzierungsregeln anwenden; so etwas Ähnliches brauchen wir auch heute für Daten und Algorithmen. Algorithmenprüfungsgesellschaften? Genau. Aber bitte stellen Sie sich diese nicht so vor wie heute die «Big Four» der Wirtschaftsprüfer, sondern erst einmal eher so wie deren Vorläufer vor hundert Jahren. Es wird ein weiter Weg zu global agierenden Algo-Prüfern – wenn es die überhaupt jemals geben sollte. Zweifeln Sie an dieser Globalität? Digitale Maschinen reihen doch überall auf der Welt die gleichen Nullen und Einsen aneinander. Also sollten sich doch auch Regeln finden lassen, die mehr oder weniger weltweit funktionieren. Die Produkte dieser digitalen Maschinen funktionieren allerdings sehr kulturspezifisch. Auch wenn der technische und gesellschaftliche Umgang mit intelligenten Maschinen eine globale Entwicklung sein wird, findet er damit nicht überall gleich statt, sondern höchst unterschiedlich in den verschiedensten ethischen, moralischen und religiösen Systemen… …und den verschiedensten Strassenverkehrsordnungen, um beim direkt bevorstehenden Thema der selbstfahrenden Autos zu bleiben. Zumindest für die Übergangsphase mit menschlich-maschinellem Mischverkehr, die einige Jahrzehnte dauern kann, werden alle Streitfragen im Wesentlichen nach nationalen Kriterien entschieden. Wenn ein selbstfahrendes Auto auf chinesischen Strassen eingesetzt werden soll, muss es sich an die in China geltenden Verkehrsregeln halten und entsprechend anders programmiert sein als in Deutschland. Oder muss es sich sogar gezielt nicht an Regeln halten? Vielleicht stoppen ja die spanischen Google-Cars wie spanische Autofahrer nie an roten Ampeln – aber in Deutschland halten sie immer bei Rot. Das stellen Sie sich jetzt zu einfach vor – denn die Feinteiligkeit wird deutlich höher sein, als Ihr «nie» und «immer» andeutet. Jede einzelne Eventualität muss vorab geregelt werden. Es sei denn, man würde den Maschinen einen grösseren Entschei dungsspielraum geben. Das kann durchaus die Konsequenz sein. Damit begeben wir uns allerdings in ein entscheidendes Problem des 21. Jahrhunderts hinein: Welchen Status sprechen wir den intelligenten Maschinen zu? Bisher behandeln wir sie wie – Maschinen eben. Bisher. Wir sehen sie nicht als Teil der Gesellschaft – und zwar in einer ähnlichen Weise, wie in früheren Epochen Sklaven, Arme, Aussätzige, Barbaren, Frauen nicht dazugehörten. Inzwischen haben diese, haben wir alle als Menschen weltweit im Grossen und Ganzen dieselben Rechte und Pflichten. Aber was machen wir mit diesen Wesen, die ja gerade in einer Hyper-Evolution begriffen sind, deren Dynamik wir noch gar nicht abschätzen können? Sie sind jetzt noch kein Gegenüber in dem Sinne, wie Menschen unser Gegenüber sind, aber sie formen jetzt schon unser Leben mit. Das stellt unser komplettes Rechtssystem vor massive Probleme, denn der Gedanke, ein Nichtlebewesen zum Rechtssubjekt zu machen, ist da überhaupt nicht vorgesehen. Im Unternehmensrecht schon, da gibt es juristische Personen. Aber diese Konstruktion passt weder auf den Pflegeroboter noch auf die Software des selbstfahrenden Autos noch auf den Algorithmus, der über unsere Kreditwürdigkeit entscheidet. Solange der sich streng an die Vorgaben seiner Programmierer hält, können wir diese haftbar machen – aber wenn er intelligent ist? Wenn er sich seine Entscheidungsgrundlagen selbst beibringt? Wir müssen dafür Vorgaben ethischer und moralischer Art machen, die bislang niemals nötig waren. Wir konnten stets auf die menschliche Verantwortung setzen (und bei Versagen nachträglich strafen), aber das geht mit Maschinen nicht – da müssen wir alles genauestens vorher kodifizieren. Können wir das nicht einfach bleiben lassen? Wir mit unserer zunehmend alternden Gesellschaft… …die eigentlich die technische Abenteuerlust dämpfen sollte? Wohl nicht, denn die Demografie wird einer der entscheidenden Treiber sein: Die technologische Verbesserung der Umwelt der Alten wird eines der wichtigsten Entwicklungsfelder darstellen. Und das werden wir nicht abweisen können, denn die vier Einfallstore für neue Technologien sind traditionell Kinder, Kranke, Alte und Spitzenleistungen. Da wird auch von der anderen, der menschlichen Seite herkommend, ein Regulierungsbedarf entstehen. Für, sagen wir, Transformer – für Menschen mit Prothesen, Exoskeletten, leistungssteigernden oder wesensverändernden Implantaten und so weiter. Da stellt sich die Frage, was erlaubt ist, um noch menschlich zu sein, heute schon bei der Teilnahme an Schönheitskonkurrenzen oder Sportwettbewerben. Eben: Das passiert bereits jetzt. Und es passiert scheibchenweise. Es gibt keine Kurzweil’sche Singularität, bei der von einem Tag zum anderen sich alles verändert – mit jeder neuen Prothese, jedem Implantat, jeder Doping-Methode stellen sich solche Fragen neu. Auch da geht es darum, welchen Status wir diesen technischen Veränderungen zugestehen. Was akzeptieren wir als Teil unseres menschlichen Systems, und was lassen wir aussen vor? Mit diesen Problemen wird die Gesellschaft überschwemmt werden, und zwar in kurzer Zeit. Wenn wir überschwemmt werden: Gehen wir unter? Oder lernen wir schwimmen? Ich vermute Letzteres. Es handelt sich um gewaltige Herausforderungen, aber nur aus ihnen lernen wir. Die Weiterentwicklung wird aus der Lösung von vielen ganz konkreten Problemen erwachsen – oder aus der Überforderung durch sie.