Die Vorurteile der KI
Ablehnung ist raus. Mehr und mehr werden KIs jedoch auch schon beim Vorstellungsgespräch eingesetzt. Und hier zeigte sich: KIs lassen sich schon von äußeren Merkmalen beeinflussen. Es reicht, ein Kopftuch zu tragen.
Tatsächlich: Eine Bewerberin in der Doku trug einmal ein Kopftuch, einmal keins. Die KI wertete die Bewerberin mit dem Kopftuch dann ab, während sie ohne Kopftuch Tonwerte bekam. Es reicht also schon ein kleines Detail. Das Problem: Ist eher nicht so bekannt. Eine KI lernt zwar, aber auch eine KI ist erstmal nur ein Packen Software, das von Leuten ersonnen wurde. Diese sind in der Regel nun nicht Schwarz, Latinx oder haben Behinderungen. So schwappt der strukturelle Rassismus ohne dass wir es bemerken in die Arbeitswelt rein und sorgt dafür, dass das Ideal des hehren weißen Körpers - aussortiert wird natürlich auch, was nicht der idealen Körperform entspricht - weitergetragen wird. Und weil das Ganze so schön einfach erscheint und man weniger Aufwand hat als wenn man täglich nochmal Gespräche führen muss, wird das Ganze langsam zu einem richtig großem Problem.
Algorithmic Bias: Wenn die Datengrundlage verzerrt ist, nach der die KI lernen soll, dann schleichen sich Vorurteile ein. Kalte Maschinenlogik, die zu einem reinen und gutem Ergebnis führt? Eher nicht so. Dabei sollte man sich nicht täuschen: Wer zum Beispiel entscheidet über die Durchführung der Triade? Ärzt*innen? Noch. Allerdings gibt es schon Forschungsprojekte in Deutschland, die sich damit beschäftigen. Und geplant war das tatsächlich. In Deutschland besteht die Notversorung aus drei Teilen. Lebensbedrohliche und gefährliche Krankheiten - dafür sind die Notaufnahmen der Krankenhäuser zuständig. Die Notfallrettung dagegen leistet die Versorgung an anderen Orten und bei Bedarf für den Transport ins Krankenhaus - zudem: Wer normalerweise mit dringenden Beschwerden zum Hausarzt gegangen wäre, kann den Bereitschaftsdienst anrufen. Die Nummer ist mittlerweile Standard: 116117. Hier wird tatsächlich ein Software von den Mitarbeitenden eingesetzt. SmED. Strukturierte medizinische Ersteinschätzung in Deutschland. Allerdings ist diese bisher nur unterstütztend, an der Hotline sitzt immer noch ein Mensch, der entscheidet. Ein Gesetzentwurf sah allerdings vor, dass eine Software auch bei der Einschätzung für die Notaufnahme zum Tragen kommen sollte. Vermutlich, so war zu lesen, von der Firma, die schon SmeD programmierte. Das hieße: Im Notfall bei einer Trage entschiede nicht nur der Mensch, sondern auch eine Software mit. Vorerst nur begleitend, aber wir wissen ja, wie schnell es passiert, dass wir Software selbstständig werkeln lassen … Rechtschreibkorrektur von WORD? Super, muss ich mich nicht mit befassen …
Das Luxemburger Start-up LuxAI konstruiert einen kleinen niedlichen Roboter, der dabei helfen soll autistischen Kindern und Schlaganfall-Patienten*innen soziale Kompetenzen aufzubauen. Ob das bei Autismus-Erkrankten auf Gegenliebe stößt, ist die Frage, die Antwort ist momentan allerdings nicht erfolgt. Kritisch: Der Roboter setzt KI für die Erkennung von Emotionen, Alter und Geschlecht ein. Das können KIs jedoch schlecht. Oder so gut wie gar nicht momentan. Vor allem: Nichtbinäre Persönlichkeiten stellen die KIs definitiv vor ein Problem: Sie kennen nur Mann oder Frau. Wenn jemand sich als Mann fühlt, aber den Körper einer Frau hat führt das zu einem Problem. Aber bekanntlich sollen doch keine menschlichen Probleme durch Maschinen mehr auftreten, oder? Auftritt: Skeeled. Die luxemburgische Firma verspricht auf ihrer Webseite: „Keine menschlichen Vorurteile mehr bei der Personalbeschaffung“. Die tut das, was ich oben bereits erwähnt hatte: Die filtern schon vorab Kandidat*innen, schaut, ob die auf die Stelle passen und vergibt einen Score. Wie genau das Ganze von statten geht und ob wirklich keine Vorurteile mehr einfließen - gute Frage, nächste Frage. Es klingt ja jedenfalls total schön.
Allerdings: Inwieweit ist das ethisch vertretbar? Und gibt es überhaupt jemanden, der sich dafür zuständig fühlt - auf Bundesebene? So halb. Es gab 2020 eine Pressemitteilung. Thomas Jarzombek, Beauftragter des BMWi für Digitale Wirtschaft und Start-ups: „Normen und Standards können bei der Entwicklung und dem Einsatz von Künstlicher Intelligenz eine zentrale Rolle spielen. KI-Systeme müssen über ihren gesamten Lebenszyklus intern und extern überprüfbar sein, insbesondere in sicherheitskritischen Bereichen. Normen und Standards können einen nachvollziehbaren und sicheren Einsatz solcher Systeme für Verbraucher, Anwender und Hersteller gewährleisten. Deshalb fördern wir die entsprechenden Initiativen.“
Wenn man sich den Satz durchliest wird schnell klar: Über ethische Dinge wie Rassismus wird hier nicht geforscht und wurde bisher wohl auch nicht. Jedenfalls bringt der Suchbegriff Maschinenethik eine Unmenge von höchst interessanten Webseiten hervor, aber keine, die irgendwie von der Bundesregierung betrieben wird - und die sich explizit mit dem Thema Vorurteile bei KI auseinandersetzen würde. Allerdings: Es überrascht nicht. KI ist momentan das Allheilwundermittel, der Geist, den man aus der Flasche gelassen hat, um seine Vorteile zu genießen. Dass KI nur so gut sein wie die Programmierer und so erfolgreich lernen kann wie die Datensätze, die zur Verfügung gestellt werden - das ist ein Aspekt, den man auf digitale Tablets bringen sollte.