
Sozialstaat und Big Data

Zwischen Individualisierung und Entsolidarisierung?
In Zeiten digitaler Vernetzung verspricht Big Data, eine neue Ära des Sozialstaats einzuläuten: effizienter, präziser, vorausschauender. Doch je genauer individuelle Risiken berechenbar werden, desto stärker gerät das Prinzip kollektiver Absicherung ins Wanken. Unser neuer Beitrag aus der Reihe Smart Welfare beleuchtet das Spannungsfeld zwischen technischer Machbarkeit und solidarischer Gerechtigkeit – und warnt vor einem Sozialstaat, der Menschen anhand von Algorithmen sortiert, statt sie zu unterstützen.
In einer digitalisierten Welt hinterlässt nahezu jede alltägliche Handlung Spuren in Form von Daten – ob beim Einkaufen, dem Arztbesuch oder der Nutzung sozialer Medien. Diese riesigen und schnell wachsenden Datenmengen werden auch als Big Data bezeichnet. Ihre algorithmische Auswertung könnte dem Sozialstaat neue Möglichkeiten eröffnen: Sozialleistungen könnten effizienter, gezielter und präventiver gestaltet werden (Mayer-Schönberger & Cukier, 2013). Doch diese Entwicklung wirft zugleich fundamentale Fragen auf in einem System, das auf Solidarität und kollektiver Absicherung basiert. Wenn es technisch möglich wird, individuelle Risiken präzise zu berechnen, stellt sich die Frage: Warum sollten alle gleich viel beitragen?
Das Prinzip des universellen Risikopools
Die solidarische Finanzierung ist ein Grundpfeiler des Sozialstaats. Das Idealmodell: Alle zahlen ein – alle sind abgesichert. Nach dieser Logik funktionieren Sozialversicherungen, Arbeitsförderung sowie Kinder- und Jugendhilfe. Was zu zahlen ist und was man erhält, richtet sich nach Einkommen und Bedarf. Gezahlt wird also erst einmal ungeachtet dessen, wie sehr man selbst davon profitieren wird.
Im Prinzip kommt es im deutschen Sozialsystem zwar zu Differenzierungen aufgrund der oben genannten Faktoren – zum Beispiel erhalten Personen, die mehr einzahlen, nach dem Äquivalenzprinzip teils auch höhere Auszahlungen – allerdings gibt es hier wichtige Einschränkungen. Differenzierungen aufgrund individueller Risikofaktoren verstoßen beispielsweise gegen das Solidaritätsprinzip (Bundesministerium für Gesundheit, 2024). Man spricht hier von einem universellen Risikopool – einem Modell, das individuelle Risiken nicht gegeneinander aufrechnet, sondern sie bewusst kollektiv trägt. Obwohl im privaten Sektor (etwa bei Krankenversicherungen) bereits seit längerem individuelle Faktoren wie Alter anstelle des Einkommens genutzt werden, um Pauschalen zu berechnen (AOK, n.d.), herrschte auch hier lange weitgehend das Solidaritätsprinzip – viele der Faktoren waren schlicht nicht zugänglich oder zuverlässig erfassbar (Dierks et al., 2001).
Solidaritätsprinzip
Mit der Digitalisierung verändert sich genau das. Plötzlich sind individuelle Daten im Überfluss verfügbar: Körperliche Fitness, Essgewohnheiten, Konsumentscheidungen – alles kann getrackt und analysiert werden. Big Data schafft die Möglichkeit, individuelle Risiken viel präziser zu berechnen, als es früher denkbar war (Spranger & Niederberger, 2021). In Ländern wie den USA, Österreich und zum Teil auch Deutschland werden individuelle Risikofaktoren daher bereits in viele Sozialleistungen einbezogen (Eubanks, 2018; Stangel, 2023).
Big Data als Chance für den Sozialstaat
Die Berücksichtigung von Risikofaktoren im Sozialstaat klingt zunächst vielversprechend – schließlich könnte man potenzielle Hindernisse früh erkennen, Systeme anpassen und gezielt Hilfe bieten, wo sie am dringendsten gebraucht wird (Spranger & Niederberger, 2021). Das Potenzial lässt sich am Beispiel eines Projekts zur Prävention von Wohnungslosigkeit in London aufzeigen: Dort wird seit Jahren ein dreistufiges Programm genutzt, das es ermöglicht, Risiken für Wohnungsverlust frühzeitig zu erkennen. Auf Basis der Analyse bestehender Verwaltungsdaten und ethnografischer Forschung zur Lebensrealität Betroffener entwickelte die Kommune ein System, welches die Risiken noch vor Eintreten der Wohnungslosigkeit erkennt und Risikogruppen identifiziert. Über das weitere Vorgehen wird dann von Fallarbeiter:innen entschieden, die oftmals aktiv Kontakt aufnehmen und flexible Unterstützungsangebote unterbreiten (Local Government Association, 2021).
In Deutschland wurde ein datenbasiert zugeschnittenes Vorgehen bei sich anbahnender Arbeitsunfähigkeit im Rahmen einer Studie getestet (Kern et al., 2021). Diese zeigte, dass sich mithilfe von Machine-Learning-Modellen verlässlich vorhersagen lässt, welche Personen mit hoher Wahrscheinlichkeit langzeitarbeitslos werden. Solche prädiktiven Modelle könnten perspektivisch helfen, zielgerichtet Ressourcen zu verteilen – etwa durch frühzeitige, intensivere Unterstützung. Big Data erlaubt also präventives Handeln, wo vorher vor allem Symptombekämpfung betrieben wurde.
Zwei-Klassen-Gesellschaft?
Bei allen Potenzialen gibt es aber auch gute Gründe, die sozialpolitische Verwendung von Big Data kritisch zu betrachten. Abgesehen von ersten Anwendungsfällen und Forschung zur Thematik steckt der Zugriff auf große, individuelle Datensätze innerhalb von Sozialsystemen noch in den Kinderschuhen. Doch bereits jetzt wird deutlich, welche Risiken entsprechende Ansätze bergen: Schon kleine Änderungen an der Modelllogik oder den Schwellenwerten führen zu teils stark unterschiedlichen Förderquoten für bestimmte Gruppen – was auf systematische Benachteiligungen hinauslaufen kann, wenn keine Fairness-Maßnahmen implementiert werden (Kern et al., 2021). Besonders gefährlich könnte dies für ein auf Solidarität fußendes System sein. Denn wenn technisch erhoben werden kann, wer wie viel „Risiko“ mitbringt, wird das Argument für einen universellen Risikopool schwächer. Warum sollten alle gleich viel zahlen, wenn „objektiv“ festgestellt werden kann, dass manche Menschen gesünder leben, länger arbeitslos bleiben oder weniger wahrscheinlich krank werden?
Die Krankenversicherungen bilden hier ein anschauliches Beispiel: Gesunde, junge oder einkommensstarke Personen könnten zunehmend Anreize haben, sich privat zu versichern oder alternative Modelle zu wählen, die auf datengestützten, individualisierten und dadurch günstigeren Tarifen beruhen – Ökonom:innen sprechen hier von adverser Selektion (Dionne et al., 2000). Zurückbleiben in der gesetzlichen Krankenversicherung würden Menschen mit chronischen Erkrankungen, psychischen Belastungen oder anderen Risikofaktoren, was die Versichertengemeinschaft wiederum finanziell und strukturell belasten würde. So entstünde das Risiko für einen Kreislauf, in dem sich einkommens- und gesundheitsstärkere Gruppen zurückziehen, während sich vulnerable Gruppen zunehmend konzentrieren (Scheuner, 2018).
Auch in anderen sozialen Institutionen birgt Big Data das Risiko, Ungleichbehandlungen zu etablieren und zu fördern. Der Einsatz datengetriebener Systeme zur Priorisierung von Leistungen könnte strukturelle Benachteiligungen reproduzieren – insbesondere dann, wenn sich die Entscheidungen auf historische Daten stützen, die Biases enthalten. Ein prägnantes Beispiel dafür ist das Arbeitsmarktchancen-Assistenzsystem (AMAS) des österreichischen Arbeitsmarktservice. Dort wurden Arbeitssuchende auf Basis von Faktoren wie Alter, Geschlecht oder Betreuungspflichten in Förderkategorien eingeteilt. Der Algorithmus bewertete unter anderem Frauen, Menschen mit Behinderung und Personen mit Migrationsgeschichte systematisch schlechter – weil sie statistisch eine schlechtere Vermittlungsprognose hatten. Der Einsatz des Systems wurde nach massiver Kritik wegen Diskriminierung und Intransparenz durch die Datenschutzbehörde gestoppt (Stangl, 2023).
„Der Einsatz datengetriebener Systeme könnte strukturelle Benachteiligungen reproduzieren – insbesondere dann, wenn sich Entscheidungen auf historische Daten stützen, die Biases enthalten.“
Digitalisierung und Konditionalisierung
In der Nachkriegszeit wurde ein fürsorgender und gemeinsam finanzierter Wohlfahrtsstaat angestrebt. Ziel war es, kollektive Absicherung mit betonter Gleichheit im Risiko zu gewährleisten – individuelle Faktoren wurden in der Regel nicht einbezogen (Kaufmann, 2013). In einem solchen Kontext wäre die Nutzung von Big Data weniger relevant, da eine Differenzierung aufgrund individueller Daten gegen das Prinzip des kollektiv getragenen Risikopools verstoßen würde. Doch seit den 2000er-Jahren wandelt sich das Verständnis der Sozialsysteme hin zu einem aktivierenden Sozialstaat – also einem Staat, der Sozialleistungen stärker an bestimmte Verhaltensforderungen koppelt und Leistungen immer weiter an individuelle Lebenslagen anpasst (Bieling, 2008). Das führt einerseits zu besser zugeschnittenen Programmen, verlagert Verantwortung aber zugleich immer weiter auf Einzelpersonen und wird daher abnehmend kollektiv getragen (Börner, 2022). Diese Risikoverlagerung auf das Individuum bedeutet dabei jedoch keineswegs eine Entlastung für Einzelne: Kommt es im Extremfall zur oben angesprochenen adversen Selektion, können Individuen mit hohen Risikofaktoren kaum noch für Versicherungsprämien aufkommen. Anstatt eines für individuelle Unabhängigkeit dienlichen Systems kommt es so unter Umständen zu Belastungen, die individuelle Entfaltung stark einschränken.
Beispiele für die Konditionalisierung von Leistungen lassen sich auch im aktuellen Koalitionsvertrag finden: So soll die neue Grundsicherung bei „wiederholter Verweigerung zumutbarer Arbeit“ künftig vollständig entfallen. Neue technologische Möglichkeiten könnten Forderungen laut werden lassen, noch individuellere und präzisere Daten für Entscheidungen zur Gewährung von Sozialleistungen zu nutzen, beispielsweise um vermeintlich „kooperationsbereite“ oder „nicht förderfähige“ Gruppen zu identifizieren. Die technologische Infrastruktur ist bereits vorhanden (Stangl, 2023). So wird das Software-System ALLEGRO bereits jetzt zur automatisierten Berechnung von Bürgergeld-Leistungen eingesetzt. Es führt Datenabgleiche mit anderen Behörden durch (z. B. Rentenversicherung, Finanzämter), berechnet Ansprüche regelbasiert und erstellt Bescheide. Zwar handelt es sich bei ALLEGRO nicht um lernende KI und Entscheidungen mit Ermessensspielraum verbleiben beim Menschen. Doch die hohe Formalisierung der Prozesse zeigt, wie stark Datenstrukturen bereits das Verwaltungshandeln prägen (AlgorithmWatch, 2020).
Im Bereich der Rentenversicherung wurde mit „KIRA“ ein KI-gestütztes System zur risikoorientierten Arbeitgebendenprüfung eingeführt. Die Software analysiert digital übermittelte Lohnunterlagen und erkennt Auffälligkeiten, etwa bei möglichen Scheinselbstständigkeiten oder fehlerhaften Sozialabgaben. Ziel ist es, Prüfkapazitäten gezielter einzusetzen. Hier trägt Big Data zur Ressourceneffizienz bei, ohne direkt über individuelle Leistungsansprüche zu entscheiden (Deutsche Rentenversicherung Bund, n.d.).
Big Data sozial implementieren
Big Data im Sozialstaat ist also keine Zukunftsvision: Große Datenmengen werden in Deutschland bereits jetzt von Behörden genutzt, wenn auch bislang in begrenztem Ausmaß. Die schwarz-rote Koalition hat angekündigt, sozialstaatliche Prozesse weiter digitalisieren zu wollen. Darin liegt großes Potenzial: Chancengerechtigkeit lebt davon, dass die spezifischen Bedarfe und Hindernisse im Leben gesellschaftlicher Gruppen identifiziert werden, damit staatliche Hilfen effizient und zielgerichtet zugeteilt werden können. Big Data könnte hier ein passgenau auf Lebensrealitäten zugeschnittenes System ermöglichen, ohne die bürokratischen Aufwände zu erhöhen. Wie am Beispiel zur Früherkennung von drohender Langzeitarbeitslosigkeit gezeigt, eröffnen sich zudem neuen Gelegenheiten für den Sozialstaat, präventiv zu agieren. Dies könnte die Lebenssituation Betroffener schnell verbessern, Folgekosten vermeiden und soziale Spannungen reduzieren.
Gleichzeitig bringt ein passgenauer Zuschnitt von Unterstützungsleistungen immer auch die Gefahr der Stigmatisierung und Kontrolle mit sich. Umso wichtiger ist es, dass die weitere Implementierung von Big Data, etwa durch die im Koalitionsvertrag angekündigte Kommission zur Sozialstaatsreform, bedacht stattfindet und klaren Prinzipien folgt. Der Sozialstaat tut auch in Zeiten ständiger Überprüfbarkeit gut daran, seinen Bürger:innen Vertrauen entgegenzubringen, statt sie durch eine allgemeine Risikoprüfung unter den Generalverdacht zu stellen, eine Last für das System zu sein. Daten dürfen nicht zur Berechnungsgrundlage für soziale Teilhabe werden. Wer sich in einer schwierigen Lebenslage befindet, sollte vielmehr befähigt werden, aus dieser herauszukommen. Insgesamt sollten große Datensätze dazu genutzt werden, die Implementierung des Solidaritätsprinzips zu verbessern – nicht dazu, es zu untergraben. Denn wirklich smart wird der Sozialstaat dann, wenn er Effizienz und Zielgenauigkeit durch die Digitalisierung erhöht, ohne den gesellschaftlichen Zusammenhalt zu gefährden.
Literatur
AOK-Bundesverband. (n.d.). Äquivalenzprinzip. AOK Presse. https://www.aok.de/pp/lexikon/aequivalenzprinzip/
AlgorithmWatch. (2021). Automatisierte Entscheidungen im AMS – Systematische Benachteiligung durch Algorithmen? https://algorithmwatch.org/de/ams-algorithmus-oesterreich-bericht/
AlgorithmWatch. (2020, 6. Oktober). Hartz-IV-Algorithmen: „Hier diskriminiert der Mensch, nicht die Maschine“. https://algorithmwatch.org/de/hartz-iv-algorithmen-diskriminierung/
Bieling, H. J. (2008). Liberalisierung und Privatisierung in Deutschland: Versuch einer Zwischenbilanz. WSI-Mitteilungen, 61(10), 541-547.
Börner, S. (2022). Wohlfahrtsstaatliche Transformation als Prozess der Ent-/Solidarisierung. In Deformation oder Transformation? Analysen zum wohlfahrtsstaatlichen Wandel im 21. Jahrhundert (pp. 49-69). Wiesbaden: Springer Fachmedien Wiesbaden. https://doi.org/10.1007/978-3-658-35210-3_3
Bundesministerium für Gesundheit. (2024). Solidaritätsprinzip. https://www.bundesgesundheitsministerium.de/solidaritaetsprinzip.html
Deutsche Rentenversicherung Bund. (n.d.). KIRA – Künstliche Intelligenz für risikoorientierte Arbeitgeberprüfungen. https://www.deutsche-rentenversicherung.de/Bund/DE/Ueber-uns/Digitalstrategie/KIRA.html
Dierks, M. L., Bitzer, E. M., Lerch, M., Martin, S., Röseler, S., Schienkiewitz, A., Siebeneick, S., & Schwartz, F. W. (2001). Patientensouveränität: Der autonome Patient im Mittelpunkt.
Dionne, G., Doherty, N., & Fombaron, N. (2000). Adverse selection in insurance markets (pp. 185-243). Springer Netherlands. https://doi.org/10.1007/978-94-010-0642-2_7
Eubanks, V. (2018). Automating inequality: How high-tech tools profile, police, and punish the poor. St. Martin’s Press.
Kaufmann, F.-X. (2013). Thinking about social policy: The German tradition (L. Leisering, Hrsg.). Springer. https://doi.org/10.1007/978-3-642-19501-3
Kern, C., Bach, R. L., Mautner, H., & Kreuter, F. (2021). Fairness in Algorithmic Profiling: A German Case Study. arXiv. https://arxiv.org/abs/2108.04134
Local Government Association. (2021). Using predictive analytics in local public services. https://www.local.gov.uk/publications/using-predictive-analytics-local-public-services
Marteau, T. M., Ogilvie, D., Roland, M., Suhrcke, M., & Kelly, M. P. (2011). Judging nudging: Can nudging improve population health? BMJ, 342, d228. https://doi.org/10.1136/bmj.d228
Mayer-Schönberger, V., & Cukier, K. (2013). Big data: A revolution that will transform how we live, work, and think. Houghton Mifflin Harcourt.
Müller, M., & Meier, L. (2023). Innovative Technologien im Gesundheitswesen: Eine empirische Analyse. Zürcher Hochschule für Angewandte Wissenschaften. https://digitalcollection.zhaw.ch/handle/11475/12345
Oschmiansky, F., & Berthold, J. (2020). Aktivierender Staat und aktivierende Arbeitsmarktpolitik: Begriff, Entwicklung, Kritik. Frankfurt University of Applied Sciences. https://fhffm.bsz-bw.de/frontdoor/index/index/docId/6920
Scheuner, B. (2018). Implikationen der Entsolidarisierung für das Geschäftsmodell der Versicherungsindustrie.
Selke, S. (2016). Rational discrimination and lifelogging: The expansion of the combat zone and the new taxonomy of the social. In Lifelogging: Digital self-tracking and Lifelogging—between disruptive technology and cultural transformation (pp. 345–372). Springer Fachmedien Wiesbaden.
Spranger, J., & Niederberger, M. (2022). Big Data in der Gesundheitsförderung und Prävention. Prävention und Gesundheitsförderung, 17, 156–162. https://doi.org/10.1007/s11553-021-00871-8
Stangl, D. (2023). Daten, Algorithmen und technische Diskriminierung. Sozial Extra, 47(3), 165–168. https://doi.org/10.1007/s12054-023-00589-1