Was steckt wirklich hinter dem Social Credit System Chinas?
-
Ryoji Iwata/Unsplash
- 19. Dezember 2018 | Aktualisiert: 15. Februar 2022
Chinas Social Credit System mutet an wie eine Dystopie à la „Black Mirror“ – nur ist sie längst Realität: Die Regierung sammelt riesige Mengen an Daten, würdigt gute und bestraft schlechte Taten und will so die Bürger:innen disziplinieren. Doch was genau steckt hinter dem Großprojekt? change räumt auf mit hartnäckigen Mythen und Falschinformationen.
Wenn Staatspräsident Xi Jinping von seiner Vision Chinas als „harmonischer Gesellschaft“ spricht, lohnt es sich, ihn beim Wort zu nehmen: Harmonie ist Wohlklang, die Abwesenheit von Misstönen. Einen Weg zu mehr Harmonie durch Vertrauen soll das Social Credit System Chinas ebnen. Viel ist darüber berichtet worden, auch viel Falsches. Worum geht es beim Social Credit System?
Social Credit System China: Vertrauen ist gut, Kontrolle allgegenwärtig
Was Kritiker:innen als einen „Weg in die IT-Diktatur“ beschreiben, halten viele in China für eine gute Idee. So erhoffen sich viele Chines:innen, besser vor Lebensmittelskandalen und finanziellem Betrug geschützt zu sein. Denn das Social Credit System Chinas bewertet nicht nur Bürger:innen, sondern auch Regierungsstellen, Unternehmen und Verbände.
Wie funktioniert das Social Credit System Chinas?
Vereinfacht gesagt: Big Data. Der Staat sammelt Daten verschiedener Quellen und wertet sie aus. Dabei greift er nicht nur auf seine eigenen Register zurück, sondern auch auf private Dienstleister, wie das weitverbreitete Kredit-Scoring-System Sesame oder die Onlinedienste der Alibaba Group. (Sesame Credit ist ein Unternehmen der Ant Financial Services Group, die zu Alibaba gehört.) Aber auch das umfassende Netz von Überwachungskameras hilft beim Datensammeln. Durch automatische Gesichtserkennung können heute schon Verkehrssünder:innen identifiziert und öffentlich an den Pranger gestellt werden.
China Social Credit System: 1000 Punkte Startkapital
Kingdee, „die chinesische SAP“, hat eine Plattform entwickelt, die alle privat gesammelten und staatlichen Daten zusammenführt und auswertet. 1.000 Punkte hat das Social Credit-Konto als Startwert, auf minimal 600 kann es sinken, auf maximal 1.300 steigen. Welches Verhalten das Punktekonto positiv und negativ beeinflusst, veranschaulicht unsere Infografik, die im Rahmen des Projekts „Deutschland und Asien“ entstanden ist:
Konzept und Umsetzung: Infographics Group; Text: Bernhard Bartsch, Martin Gottske; Illustration: Christian Eisenberg
Intransparente Algorithmen könnten auch ehemals gute Taten bestrafen
Welche „guten und schlechten Taten“ das Punktekonto beeinflussen, ist noch nicht abschließend festgelegt. Besonders perfide: Was früher einmal als okay galt, könnte im Nachhinein von der chinesischen Führung zur unerwünschten Tat erklärt und somit abgestraft werden. Transparent ist das Verfahren jedenfalls nicht – und verstößt so gegen eine der zentralen Forderungen der Algorithmenethik, dass gesellschaftlich relevante elektronische Entscheidungsprozesse nachvollziehbar sein müssen. Verbände wie AlgorithmWatch treten dafür ein.
Oder ist Chinas Sozialkreditsystem nur Propaganda?
Vereinzelt gibt es Stimmen, die bezweifeln, dass das Social Credit System Chinas tatsächlich wirksam ist. Es setze weder auf clevere Künstliche Intelligenz (KI) noch würden potenzielle Strafen wirklich durchgesetzt, meint beispielsweise der US-Jurist Jeremy Daum. Das Social Credit System (SCS) sei viel mehr ein Propagandamittel. Die Bevölkerung Chinas solle im Glauben gehalten werden, ständig von Überwachung umgeben zu sein – und sich deshalb konform benehmen.
Algorithmen brauchen eine ethische Grundlage
Das Beispiel China zeigt: Algorithmen brauche eine ethische Grundlage. Und auch hierzulande gibt es eine Diskussion um den gesellschaftlichen Nutzen und die Risiken algorithmenbasierter Entscheidungen. Das zeigen nicht zuletzt die Recherchen zur „Blackbox Schufa“.
Mehr dazu? Das Programm „Deutschland und Asien“ der Bertelsmann Stiftung analysiert asiatische Entwicklungen – vor allem in China und Indien – und globalen Einfluss sowie die Auswirkungen auf Deutschland und Europa. Das Projekt „Algorithmenethik“ untersucht die gesellschaftlichen Folgen algorithmischer Entscheidungsfindung.