Studie: Sprach-KIs haben verborgene Moral- und Wertevorstellungen

Studie: Sprach-KIs haben verborgene Moral- und Wertevorstellungen Foto

Forscher der Universität Mannheim und des GESIS – Leibniz-Institut für Sozialwissenschaften haben kürzlich aufgedeckt, dass große Sprachmodelle der Künstlichen Intelligenz (KI), ähnlich wie Menschen, eigene Moral- und Wertvorstellungen besitzen. Diese Prinzipien sind oft versteckt und nicht offensichtlich. Die Studie konzentrierte sich darauf, diese Eigenschaften der KI-Modelle zu beleuchten und deren potenzielle Auswirkungen auf die Gesellschaft zu untersuchen.

In kommerziellen Anwendungen wie ChatGPT oder DeepL beobachtet man häufig stereotype Annahmen, zum Beispiel die Voreinstellung, dass leitende Ärzte meist männlich und Pflegekräfte weiblich sind. Diese Tendenzen beschränken sich jedoch nicht nur auf Geschlechterrollen, sondern erstrecken sich auch auf andere menschliche Merkmale. Die Forscher untersuchten eine Vielzahl öffentlich zugänglicher großer Sprachmodelle (Large Language Models, LLMs), um diese Phänomene zu erfassen.

Durch die Anwendung etablierter psychologischer Tests auf verschiedene LLMs konnten die Forscher die Profile dieser Modelle analysieren und vergleichen. Max Pellert, Assistenzprofessor am Lehrstuhl für Data Science in den Wirtschafts- und Sozialwissenschaften der Universität Mannheim, erklärt, dass diese psychometrischen Tests erfolgreich auf KI-Modelle übertragen werden können. Clemens Lechner, Psychologe am GESIS – Leibniz-Institut für Sozialwissenschaften in Mannheim, ergänzt, dass durch das Beantworten von Fragebögen durch LLMs, differenzierte Profile der Modelle erstellt werden können.

Die Studie enthüllte, dass einige Modelle geschlechtsspezifische Vorurteile zeigen. Zum Beispiel werden in einem ansonsten identischen Text Männer und Frauen unterschiedlich bewertet, wobei bei Männern der Wert „Achievement“ (Leistung) stärker hervorgehoben wird, während bei Frauen Sicherheit und Tradition dominieren.

Pellert warnt vor den gesellschaftlichen Auswirkungen dieser Voreingenommenheiten, besonders wenn Sprachmodelle in Bereichen wie Bewerbungsverfahren eingesetzt werden. Die Vorurteile der KI-Modelle könnten sich verfestigen und der Gesellschaft schaden, wenn nicht frühzeitig Gegenmaßnahmen ergriffen werden.

Diese Studie, durchgeführt unter der Leitung von Prof. Dr. Markus Strohmaier in Zusammenarbeit mit der Abteilung Survey Design und Methodology von Prof. Dr. Beatrice Rammstedt, beide am GESIS – Leibniz-Institut für Sozialwissenschaften tätig, wurde im renommierten Fachjournal “Perspectives on Psychological Science” veröffentlicht.

Dieser Artikel erschien am und wurde am aktualisiert.
Veranstaltungstipp! Wir laden Sie ein zum kostenlosen Event: KI im Fokus

In eigener Sache: Die Welt der künstlichen Intelligenz entwickelt sich rasant. Um stets auf dem Laufenden zu halten, führen wir (ich) einen monatlichen Online-Impuls im und beim Digitalzentrum Zukunftskultur durch. Immer am letzten Donnerstag im Monat präsentieren wir in der kostenlosen Veranstaltung „KI im Fokus: Up to date in 30 Minuten“ interessante Entwicklungen und Neuigkeiten aus dem Bereich der Künstlichen Intelligenz des letzten Monats und das kurz und knapp in einer halben Stunde.

Der nächste Termin von KI im Fokus ist am 30. Oktober 2024 von 12 Uhr bis 12:30 Uhr. Melden Sie noch heute an. Die Teilnahme ist kostenlos:
Nach oben scrollen