Die Vorurteile der KI: Digitaler Rassismus
Die Vorurteile der KI
Digitaler Rassismus
Neee, brauchen wir nicht. Große Lücke, weil man in Babypause war und danach nicht sofort wieder auf dem Markt Fuß fassen konnte? Ablehnung ist raus. Mehr und mehr werden KIs jedoch auch schon beim Vorstellungsgespräch eingesetzt. Und hier zeigte sich: KIs lassen sich schon von äußeren Merkmalen beeinflussen. Es reicht, ein Kopftuch zu tragen.
Tatsächlich: Eine Bewerberin in der Doku trug einmal ein Kopftuch, einmal keins. Die KI wertete die Bewerberin mit dem Kopftuch dann ab, während sie ohne Kopftuch Tonwerte bekam. Es reicht also schon ein kleines Detail. Das Problem: Ist eher nicht so bekannt. Eine KI lernt zwar, aber auch eine KI ist erstmal nur ein Packen Software, das von Leuten ersonnen wurde. Diese sind in der Regel nun nicht Schwarz, Latinx oder haben Behinderungen. So schwappt der strukturelle Rassismus ohne dass wir es bemerken in die Arbeitswelt rein und sorgt dafür, dass das Ideal des hehren weißen Körpers - aussortiert wird natürlich auch, was nicht der idealen Körperform entspricht - weitergetragen wird. Und weil das Ganze so schön einfach erscheint und man weniger Aufwand hat als wenn man täglich nochmal Gespräche führen muss, wird das Ganze langsam zu einem richtig großem Problem.
Algorithmic Bias: Wenn die Datengrundlage verzerrt ist, nach der die KI lernen soll, dann schleichen sich Vorteile ein. Kalte Maschinenlogik, die zu einem reinen und gutem Ergebnis führt? Eher nicht so. Dabei sollte man sich nicht täuschen: Wer zum Beispiel entscheidet über die Durchführung der Triade? Ärzt*innen? Noch. Allerdings gibt es schon Forschungsprojekte in Deutschland, die sich damit beschäftigen. Und geplant war das tatsächlich. In Deutschland besteht die Notversorung aus drei Teilen. Lebensbedrohliche und gefährliche Krankheiten - dafür sind die Notaufnahmen der Krankenhäuser zuständig. Die Notfallrettung dagegen leistet die Versorgung an anderen Orten und bei Bedarf für den Transport ins Krankenhaus - zudem: Wer normalerweise mit dringenden Beschwerden zum Hausarzt gegangen wäre, kann den Bereitschaftsdienst anrufen. Die Nummer ist mittlerweile Standard: 116117. Hier wird tatsächlich ein Software von den Mitarbeitenden eingesetzt. SmED. Strukturierte medizinische Ersteinschätzung in Deutschland. Allerdings ist diese bisher nur unterstütztend, an der Hotline sitzt immer noch ein Mensch, der entscheidet. Ein Gesetzentwurf sah allerdings vor, dass eine Software auch bei der Einschätzung für die Notaufnahme zum Tragen kommen sollte. Vermutlich, so war zu lesen, von der Firma, die schon SmeD programmierte. Das hieße: Im Notfall bei einer Trage entschiede nicht nur der Mensch, sondern auch eine Software mit. Vorerst nur begleitend, aber wir wissen ja, wie schnell es passiert, dass wir Software selbstständig werkeln lassen … Rechtschreibkorrektur von WORD? Super, muss ich mich nicht mit befassen …
Das Luxemburger Start-up LuxAI konstruiert einen kleinen niedlichen Roboter, der dabei helfen soll autistischen Kindern und Schlaganfall-Patienten*innen soziale Kompetenzen aufzubauen. Ob das bei Autismus-Erkrankten auf Gegenliebe stößt, ist die Frage, die Antwort ist momentan allerdings nicht erfolgt. Kritisch: Der Roboter setzt KI für die Erkennung von Emotionen, Alter und Geschlecht ein. Das können KIs jedoch schlecht. Oder so gut wie gar nicht momentan. Vor allem: Nichtbinäre Persönlichkeiten stellen die KIs definitiv vor ein Problem: Sie kennen nur Mann oder Frau. Wenn jemand sich als Mann fühlt, aber den Körper einer Frau hat führt das zu einem Problem. Aber bekanntlich sollen doch keine menschlichen Probleme durch Maschinen mehr auftreten, oder? Auftritt: Skeeled. Die luxemburgische Firma verspricht auf ihrer Webseite: „Keine menschlichen Vorurteile mehr bei der Personalbeschaffung“. Die tut das, was ich oben bereits erwähnt hatte: Die filtern schon vorab Kandidat*innen, schaut, ob die auf die Stelle passen und vergibt einen Score. Wie genau das Ganze von statten geht und ob wirklich keine Vorurteile mehr einfließen - gute Frage, nächste Frage. Es klingt ja jedenfalls total schön.
Allerdings: Inwieweit ist das ethisch vertretbar? Und gibt es überhaupt jemanden, der sich dafür zuständig fühlt - auf Bundesebene? So halb. Es gab 2020 eine Pressemitteilung. Thomas Jarzombek, Beauftragter des BMWi für Digitale Wirtschaft und Start-ups: „Normen und Standards können bei der Entwicklung und dem Einsatz von Künstlicher Intelligenz eine zentrale Rolle spielen. KI-Systeme müssen über ihren gesamten Lebenszyklus intern und extern überprüfbar sein, insbesondere in sicherheitskritischen Bereichen. Normen und Standards können einen nachvollziehbaren und sicheren Einsatz solcher Systeme für Verbraucher, Anwender und Hersteller gewährleisten. Deshalb fördern wir die entsprechenden Initiativen.“ Wenn man sich den Satz durchliest wird schnell klar: Über ethische Dinge wie Rassismus wird hier nicht geforscht und wurde bisher wohl auch nicht. Jedenfalls bringt der Suchbegriff Maschinenethik eine Unmenge von höchst interessanten Webseiten hervor, aber keine, die irgendwie von der Bundesregierung betrieben wird - und die sich explizit mit dem Thema Vorurteile bei KI auseinandersetzen würde. Allerdings: Es überrascht nicht. KI ist momentan das Allheilwundermittel, der Geist, den man aus der Flasche gelassen hat, um seine Vorteile zu genießen. Dass KI nur so gut sein wie die Programmierer und so erfolgreich lernen kann wie die Datensätze, die zur Verfügung gestellt werden - das ist ein Aspekt, den man auf digitale Tablet bringen sollte.
Kommentare
Langsam sollte das Online-Magazin "Back to the Roots" gehen und sich wirklich mal auf die elementarten Themen (Fantasy, Science Fiction, Horror, Krimi, Thriller) zurückbesinnen und konzentrieren, die dieses Online-Magazin ausgemacht und es so erfolgreich gemacht hat.
Und jetzt bitte nicht wieder mit dem Totschlag-Argument kommen, man braucht den Arikel ja nicht zu lesen.
Zumal ich mich auch schon des Öfteren, unter anderem auch bei den Artikeln von Christian Splies (auch bei seinem Winnetou-Artikel: Fünf Seiten Winnetou I) die Frage gestellt habe, was er mit seinem Texten überhaupt bezwecken will.
Und wenn schon das Thema "Rassismus" oder "Diskriminierung" dann sollte man vielleicht mal einen Artikel darüber schreiben, wieso der MDR diverse DEFA-Filme mit Hinweisen versehen will, dass diese Filme "rassistische Stereotype" oder "Diskriminierungen" beinhalten, der ARD die "Karl May"-Filme aus den 1960er Jahren nicht mehr zeigen wird oder das zum Beispiel die TKKG - Hörspiel laut dem Label Europa ebenfalls "rassistisch" oder "diskriminierend" sein sollen.
Ende der Durchsage.
Er hat recht, die KI ist nur so gut, wie der/die Programmierer sie erschaffen. Ich jedenfalls will weder ein selbstlenkendes Auto oder schon gar nicht einen Robotchirurg (if cut to deep the go an call a human).
Genau deshalb gibt es kann man seit 2006 (Allgemeine Gleichbehandlungsgesetz: Menschen unabhängig von Faktoren wie Aussehen, Alter oder ethnischer Herkunft müssen gleichbehandelt werden) auch auf das Foto beim Bewebungsschreiben verzichten. Und genau dieses Allgemeine Gleichbehandlungsgesetzt wird von so eine schlampigen Progammierung des Lernfaktor missachtet.
Von daher war mein Post #3 eher ein Tipp, wie man mit einem Artikel eben auch umgehen kann, wenn man den für sich persönlich als völlige Zeitverschwendung betrachtet. Man hört eben einfach auf zu lesen.
Edit: Ich klicke da schnell weg und lese lieber einen anderen Artikel.
@Hermes. Es steht frei sich in den Kommentaren zu äußern oder auszutauschen. Das kann er/sie tun oder es lassen. Das steht jedem frei. Immerhin zur Beruhigung für Dich war es kein kirchliches Thema, die es ja für dich gefühlt so oft gibt...
Ansonsten hat Christian die Freiheit sich seine Themen zu wählen...
Es ist immer wieder erstaunlich, dass jeder weiß was in den Zauberspiegel gehört und was nicht.
Ich gebe erneut den Rat: Lest es oder lasst es. Keiner wird gezwungen hier alles zu lesen. Das ist auch nicht Sinn und Zweck des ganzen. Der Zauberspiegel macht täglich Angebote und man sucht sich etwas aus oder lässt es.