Seeing Like a Finite State Machine
Es gibt eine Prämisse, wenn wir über Chinas Kombination aus Unterdrückung, Überwachung und entgrenzter Rechenkraft durch Machine Learning sprechen. Ich habe sie schon häufiger angewendet, aber zum Beispiel auch Sascha Lobo: Dass das alles den Unterdrückungsaparat effizienter, erbarmungsloser macht – nach Kriterien der chinesischen Regierung also funktionaler und auch letzten Endes stabiler.
Henry Farrell macht bei Crooked Timber das Gegenargument auf: Machine Learning ist eben erstens nicht so effektiv wie angenommen, dazu schreibt es existierende Datensatz-Vorurteile fort. Das, kombiniert mit der Neigung autoritärer Staaten, Anführer nicht mit Fehlentwicklungen zu konfrontieren, könnte in China eben nicht zu mehr Stabilität, sondern zu stärkeren negativen Rückkopplungen durch Ketten von Fehlentscheidungen führen.
Das alles ist natürlich im Moment noch eine theoretische Diskussion – und im Kontext Überwachung wird in den (lesenswerten) Kommentaren zurecht angemerkt, dass Digitalautokratien sich anderen Autokratien auch in einem anderen Merkmal ähneln: Nicht die reale Kontrolleffizienz ist relevant, sondern die Verhaltensänderung durch das Wissen, dass man möglicherweise kontrolliert wird (vgl. Panoptikum). Doch unter dem Strich ist eine selbst zugefügte Destabilisierung Chinas mit Hilfe der Digitaltechnologien genauso wahrscheinlich wie eine permanente Stabilisierung. Oder eben auch eine Mischung aus beidem, wie auch immer die aussieht.
Dieser Article wurde erwähnt auf kopfzeiler.org