Die Prognose-Revolution hat begonnen

Die Zukunft wird immer berechenbarer – zumindest einige Zukünfte. Dabei entstehen viele neue Prognose-Methoden und Analyse-Instrumente. Das GDI hat sie verglichen und bewertet.

Bei Doris Day war es noch einfach. „Que sera, sera“ sang sie 1956 im Hitchcock-Film „Der Mann, der zuviel wusste“. The Future’s not ours to see, wir können die Zukunft nicht erkennen, und alle Zuhörer nickten dazu. Heute, mehrere technologische Revolutionen später, hat die Zukunft ihre Unnahbarkeit verloren. Immer grössere Datenmengen, immer höhere Verarbeitungsgeschwindigkeiten und immer anpassungsfähigere Algorithmen erlauben immer exaktere Prognosen, so dass man in einigen Fällen bereits davon sprechen kann, Zukunft sehen zu können.

Besonders greifbar wird diese Entwicklung bei den Wettervorhersagen: Tausende Wetterstationen weltweit sowie dutzende Wettersatelliten liefern Echtzeit-Daten über Temperatur, Niederschlag, Wind und Wolken. Aus diesen Real-Daten prognostizieren Hochleistungscomputer zukünftige Daten – unter Nutzung einer ganzen Schar von Prognose-Modellen, die zu manchmal ähnlichen, manchmal stark voneinander abweichenden Vorhersagen führen. Der Abgleich der Prognose mit den ja ständig hereinströmenden neuen Echtzeit-Daten ergibt damit einen ebenso ständigen Prognose-Test. Die Frage, die wir Menschen uns in der Regel einmal pro Tag für einen Ort stellen: Hat die Wettervorhersage von gestern gestimmt?, stellen die Meteo-Algorithmen jede Minute für jeden Ort der Welt. Entsprechend stürmisch entwickelt sich die Prognose-Qualität weiter. Der Nebel über der Wetter-Zukunft lichtet sich.

Das gilt so nicht für alle Zukünfte. Einige Bereiche sind noch nicht so weit – wie beispielsweise die Programmierer des autonomen Fahrens bestätigen können, deren Systeme ja mit jeder Situation fertig werden müssen, die sich in den jeweils kommenden Sekunden im Strassenverkehr ergeben kann. Und einige Prognose-Techniken leben geradezu davon, dass sie in dichten Nebel blicken. Dies gilt natürlich insbesondere für die jahrtausendealte Methode des Orakels. Das Einatmen mystischer Dämpfe und der Blick in eine ebensolche Kristallkugel haben nur so lange eine Existenzberechtigung, wie es keine verlässlicheren Techniken gibt, um sich der Zukunft anzunähern.

Aus der einen, unerkennbaren Zukunft werden also in der digitalen Epoche vielgestaltige Zukunftslandschaften – „Prediction Landscapes“. In ihnen gibt es gute und schlechte Prognosen, datenreiche und einflussreiche, kurz- und langfristige, solche, die ein sichereres Leben verheissen und solche, die höhere Profite bringen sollen. Um diese neu entstehenden Landschaften besser beschreiben zu können, werden auch neue Instrumente benötigt werden.

Eines davon hat das GDI entwickelt. Dieses «prediction meter» analysiert die wichtigsten Prognose-Bereiche nach 15 Kriterien. Zu diesen Kriterien gehören beispielsweise die Daten, auf denen die Prognosen jeweils basieren, die Auswirkungen, die sie auf Mensch und Gesellschaft haben sowie die Entwicklungsdynamik der jeweiligen Prognose-Technologie (eine ausführliche Erläuterung der Bewertungskriterien findet sich am Ende dieser Seite). Für alle 13 untersuchten Prognosebereiche erfolgte die Wertung jeweils auf einer Skala von 0 (extrem gering ausgeprägt/nicht vorhanden) bis 10 (extrem stark ausgeprägt/wichtig). Die abgebildeten Werte entsprechen den Mittelwerten dieser Bewertungen.

Wenn’s ums Wetter geht, wird mit hohem Technologieeinsatz und extrem aktuell gearbeitet. Die wichtigste Datengrundlage für die Prognose sind Computer-Simulationen auf der Basis von Positionsdaten. Der Zeithorizont ist kurzfristig, und zu wissen, wie das Wetter wird, macht das Leben sicherer und bequemer. Dafür kümmert sich das Wetter selbst in keiner Weise um die Prognose – es kommt, wie es kommt.

Beim Orakel ergibt sich ein praktisch umgekehrtes Bild: Es handelt sich in der Regel um langfristige Prognosen ohne jeglichen Technologieeinsatz. Die einzigen Daten, auf die der Hellseher zurückgreifen kann, ergeben sich aus der Kommunikation mit seinen Kunden – so dass er Prognosen abgeben kann, die für die spezifische Person psychologisch passen. Entsprechend hoch sind auch die Auswirkungen auf den weiteren Fortgang: Wer an die Kraft des Orakels glaubt, wird sein Leben so einrichten, dass die positiven Weissagungen auch möglichst eintreffen, die negativen Prognosen hingegen möglichst vermieden werden.

Die Prognose-Bewertungen sind ein laufendes Projekt des GDI Think Tanks und werden stetig ergänzt.

 

Erfahren Sie mehr über immer günstigere und bessere Prognosen mittels Künstlicher Intelligenz an der GDI-Konferenz «The Power of Predictions»!

Erläuterung der Bewertungskriterien

Technologieeinsatz
Einsatz von Messinstrumenten und Algorithmen (10=Hi-Tech, 0=No-Tech)

Prognose-Horizont
(10=langfristig, 0=kurzfristig)

Aktualität
(10=sehr hoch, 0=niedrig)

Prognosequalität
Treffergenauigkeit und Zuverlässigkeit (10=sehr hoch, 0=zufällig)

Entwicklungsdynamik
Methode entwickelt sich schnell weiter, bezogen auf Genauigkeit, Einsatzmöglichkeit geografische und zeitliche Reichweite (10=sehr hoch, 0=sehr niedrig)

Interne Daten
Daten werden aus dem zu  beobachtenden System selbst generiert (z.B. Körper, Motor)

Position
Daten werden aus dem Standort und Bewegungen generiert (z.B. GPS)

Kommunikation
Daten werden aus Interaktionen zwischen verschiedenen Akteuren im beobachteten System generiert (z.B. Gespräch, Fragebogen)

Aktion
Daten werden aus Aktivitäten und Bewegungen des beobachteten Systems generiert (z.B. Bewegung, Verkauf, Lieferung)

Simulation
Modellierung virtueller Zwillingswelten und Synthetisierung möglicher Entwicklungspfade (z.B. Klimamodelle, Sim-City, artificial life)

selbsterfüllend
Prognose wirkt selbstverstärkend

selbstzerstörend
Prognose wirkt als Warnung, soll verhindert werden

verändert Entscheidungen
Prognose löst eine Verhaltensänderung aus

Macht das Leben angenehmer
Prognose reduziert mentale Last, denkt und entscheidet für mich

Sicherheit
Prävention, Prognose schützt vor zukünftigen Gefahren