Die UN, besorgt über ein Modell des „digitalen Wohlfahrtsstaates“, das die Sozialpolitik in die Hände von Algorithmen legt.

Philip Alston, UN-Sonderberichterstatter für Armut, legte am vergangenen Freitag der Generalversammlung der Organisation einen Bericht vor, in dem er das Konzept des „digitalen Wohlfahrtsstaats“ in Bezug auf die Länder ansprach, die sich entschieden haben, es zu versuchen Verbesserung der Effizienz von Sozialschutzsystemen durch den Einsatz von Big Data und Technologien der künstlichen Intelligenz.

Dies ist ein wachsendes Phänomen: Staatliche Dienste müssen teure Sozialsysteme aufrechterhalten, und Algorithmen versprechen, ihnen zu helfen, indem sie die Entscheidungsfindung erleichtern und beschleunigen. Aber Alston prangert in seinem Bericht an, dass solche Versprechen nicht immer eingehalten werden und dass dieser Versuch ist, öffentliche Mechanismen zu verbessern, die versuchen, Gerechtigkeit zu fördern In vielen Fällen kann dies die Lebensqualität der am stärksten gefährdeten Gruppen beeinträchtigen:

„Dieser Bericht erkennt die unwiderstehliche Anziehungskraft gegenüber Regierungen an, die sich diesem Modell zuwenden, warnt jedoch davor, dass ein ernsthaftes Risiko besteht, dass wir wie Zombies mit einer Dystopie des digitalen Wohlbefindens stolpern werden. „

Die UN, besorgt über ein Modell des „digitalen Wohlfahrtsstaates“, das die Sozialpolitik in die Hände von Algorithmen legt

Die Armen, gefangen von Algorithmen, die sie nicht verstehen (und es scheint, dass der Gesetzgeber es auch nicht versteht)

Als Beispiel für diese Dystopie führt Alston Programme wie SyRI (System Risk Indication) an, die es nationalen und lokalen Behörden ermöglichen, mehrere Datenkategorien auf der Grundlage eines nicht offengelegten „Risikomodells“ zu kombinieren, das es theoretisch ermöglicht, einige Menschen als anfälliger für Hilfeleistungen zu identifizieren Bewerbungsbetrug.

Für Alston, wenn wir versuchen, soziale Gerechtigkeit zu garantieren, „Ein gewisses Maß an Transparenz und Garantien, dass bestimmte Gruppen nicht unfair ausgewählt werden“, seien notwendig.was darauf hinweist, dass SyRI bisher nur zur Analyse der Bevölkerung ganz bestimmter Stadtteile verwendet wurde.

Die UN, besorgt über ein Modell des „digitalen Wohlfahrtsstaates“, das die Sozialpolitik in die Hände von Algorithmen legt

„Dieses Problem verschärft sich, wenn wir wissen, dass es praktisch keine Debatte im niederländischen Parlament gab, nachdem das Programm eine Rechtsgrundlage erhalten hatte, die Medien der Angelegenheit keine Aufmerksamkeit schenkten und es keine Transparenz über die Funktionsweise des Programms gab System: Das Ergebnis ist, dass die Kriterien Sie bleiben selbst für diejenigen, die es sorgfältig studiert haben, ein Rätsel. „

Theoretisch die EU-Datenschutzgrundverordnung garantiert ein „Recht auf Erklärung“ zur Förderung der Rechenschaftspflicht, aber die genauen Konturen dieses Schutzes, wenn es um automatisierte Systeme geht, sind nicht ganz klar.

Die UN, besorgt über ein Modell des „digitalen Wohlfahrtsstaates“, das die Sozialpolitik in die Hände von Algorithmen legt

Einige Tage zuvor wiederholte The Guardian die Probleme, die die Einführung dieses „digitalen Wohlfahrtsstaates“ in einigen Ländern verursacht, vom Einsatz von KI in Illinois, um Exzesse bei der Gewährung von Hilfen während der letzten 30 Jahre aufzudecken (was dazu geführt hat jetzt seine Erstattung zu verlangen), bis zum Einführung – in wenig darauf vorbereiteten Ländern – von technologischen Systemen, von denen der Erhalt der Sozialhilfe abhängt.

So in Indien, wo Der Zugang zu Lebensmittelgeschäften hängt von der Genehmigung des biometrischen Systems von Aadhar abhaben Aktivisten angeprangert, dass Fehler darin bis zu 13 Hungertote verursacht haben und dass einige Städte aufgrund fehlender Internetverbindung zwei Monate lang den Zugang zu diesen Geschäften verloren haben.

Die UN, besorgt über ein Modell des „digitalen Wohlfahrtsstaates“, das die Sozialpolitik in die Hände von Algorithmen legt

Aber es ist nicht nötig, auf so weit entfernte und extreme Fälle einzugehen: Auch The Guardian prangert das an, selbst im Westen, Millionen von Menschen Sie sehen, wie ihre Hilfsmittel von Computersystemen abgeschnitten werden, die auf eine Weise funktionieren, die nur wenige kontrollieren oder verstehen könnenund in denen Fehlurteile endemisch geworden sind, ohne offensichtliche Möglichkeit für ihre Opfer, gegen die Entscheidung Berufung einzulegen.