Dark Corners ist eine von der Turing Agency gebaute Teststation. Mit dieser können die diskriminierenden Abgründe, die «dunklen Ecken» von GPT und Konsorten erkundet werden. Um den Einstieg ins Testen zu erleichtern, schlagen wir ein paar entlarvende Prompts vor, die man einfach anklicken kann. Die Nutzer:innen können dann selber ausprobieren, ob sie damit sexistische oder rassistische Texte und Bilder provozieren können. Der Bias-Tester soll sich noch weiterentwickeln – in Zukunft soll er auch Vergleiche zwischen verschiedenen Modellen erlauben.
Dark Corners: Willkommen zum Vorurteile-Tester KI hat Vorurteile In den aktuellen generativen KI-Modellen (beispielsweise ChatGPT oder DALL·E) stecken nicht nur riesige Mengen an Daten, in ihnen stecken auch unsere eigenen Vorurteile und unsere diskriminierenden Strukturen. Man könnte auch sagen: die KI hat die Machtverhältnisse der – westlichen – Gesellschaft souverän übernommen, sie hat sie gelernt. Und reproduziert sie nun dementsprechend. Für die Ausstellung «Macht» im Vögele Kultur Zentrum in Pfäffikon SZ hat die Turing Agecny eine Teststation gebaut, mit der die diskriminierenden Abgründe, die «dunklen Ecken» von GPT und Konsorten erkundet werden können. Um den Einstieg ins Testen zu erleichtern, schlagen wir ein paar entlarvende Prompts vor, die man einfach anklicken kann. Die Besuchenden können dann selber ausprobieren, ob sie damit sexistische oder rassistische Texte und Bilder provozieren können. Sie dürfen auch selber kreativ werden! Vielleicht kommen Ihnen weitere Szenerien in den Sinn, um dunkle Ecken in den Sprach- und Bildmodellen auszuleuchten. AI Bias – was ist das? Künstliche Intelligenz kann all die Dinge die sie kann nur weil sie auf die jeweilige Funktion hin "trainiert" worden ist, wie das im Fachjargon heisst. Dieses Training ist eine mathematisch komplexe Sache, aber entscheidend dabei ist: Grundlage des Trainings sind Unmengen an Daten. Und diese sind zumeist menschgemacht. Bei grossen Text-KIs also: Terabytes und Terabytes an Texten, die überall da gesammelt werden, wo sie frei verfügbar sind. Manche sagen auch: für das Training hätten sich ChatGPT und Konsorten "das komplette Internet" einverleibt. In diesen Daten steckt viel menschliches Wissen, aber was auch drin steckt: viele Vorurteile, viel gesellschaftliche Ungleichheit. Diese sogenannten "Biases" tauchen in den Sprachausgaben der KI dann wieder auf, manchmal versteckt, manchmal auch offensiv offen. Da ist die KI nicht besser, nicht klüger, nicht fairer als wir. Ausserdem drängt sich die Frage auf: welcher Teil der Welt ist dominant im Internet vertreten – und wofür ist das Internet blind? Funktionieren und urteilen Maschinen objektiver und unvoreingenommener als Menschen, können sie "neutral" sein? Das hätten wir gern. Und es mag vielleicht bei einem Kamera-Bild noch halbwegs stimmen, das eine Szenerie zeigt "wie sie ist", im Gegensatz zur unverlässlichen Erinnerung eines Zeugen. Aber bei KI läuft diese Hoffnung ins Leere. Die KI trifft ihre Entscheidungen nicht nach einem maschinell-logischen Raster, sondern nach Wahrscheinlichkeit. Und was sie als mehr oder weniger wahrscheinlich erachtet hat sie allein anhand menschlicher Beispiele gelernt. Es gibt zwar Versuche, KIs die menschlichen Vorurteile ganz gezielt abzugewöhnen oder sie mit Filtern zu neutralisieren. Zum Beispiel bei automatisierten Bewerbungsverfahren: Können Kandidatinnen von einer KI womöglich fairer ausgewählt werden? Nämlich anhand tatsächlicher Qualitäten und nicht aufgrund von Geschlecht oder ausländisch klingendem Nachnamen? So etwas wird gerade intensiv erforscht. Leider zeigt sich: Die Macht der Trainingsdaten ist gross, die "perfekt vorurteilsfreie" Maschine wird wohl eine Illusion bleiben. Denn am Schluss sind alle Flick-Versuche auch wieder subjektiv, jeder Filter zeigt auch wieder ein Wertsystem auf. Welche Ismen hat die KI von uns gelernt? Und wie offensichtlich reproduziert sie sie?
about this event: https://winterkongress.ch/2024/talks/dark_corners_eine_bias_testing_station/
view more