Ist AI-Autoritarismus wirklich stabil?

Seeing Like a Finite State Machine

Es gibt eine Prämisse, wenn wir über Chinas Kombination aus Unterdrückung, Überwachung und entgrenzter Rechenkraft durch Machine Learning sprechen. Ich habe sie schon häufiger angewendet, aber zum Beispiel auch Sascha Lobo: Dass das alles den Unterdrückungsaparat effizienter, erbarmungsloser macht – nach Kriterien der chinesischen Regierung also funktionaler und auch letzten Endes stabiler.

Henry Farrell macht bei Crooked Timber das Gegenargument auf: Machine Learning ist eben erstens nicht so effektiv wie angenommen, dazu schreibt es existierende Datensatz-Vorurteile fort. Das, kombiniert mit der Neigung autoritärer Staaten, Anführer nicht mit Fehlentwicklungen zu konfrontieren, könnte in China eben nicht zu mehr Stabilität, sondern zu stärkeren negativen Rückkopplungen durch Ketten von Fehlentscheidungen führen.

Das alles ist natürlich im Moment noch eine theoretische Diskussion – und im Kontext Überwachung wird in den (lesenswerten) Kommentaren zurecht angemerkt, dass Digitalautokratien sich anderen Autokratien auch in einem anderen Merkmal ähneln: Nicht die reale Kontrolleffizienz ist relevant, sondern die Verhaltensänderung durch das Wissen, dass man möglicherweise kontrolliert wird (vgl. Panoptikum). Doch unter dem Strich ist eine selbst zugefügte Destabilisierung Chinas mit Hilfe der Digitaltechnologien genauso wahrscheinlich wie eine permanente Stabilisierung. Oder eben auch eine Mischung aus beidem, wie auch immer die aussieht.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.