1. www.westfalen-blatt.de
  2. >
  3. Owl
  4. >
  5. Paderborn
  6. >
  7. Vorurteile von Künstlichen Intelligenzen

  8. >

Informatiker der Universität Paderborn forschen nach algorithmischer Voreingenommenheit

Vorurteile von Künstlichen Intelligenzen

Paderborn

Informatiker der Universität Paderborn erforschen in einem Projekt die Voreingenommenheit Künstlicher Intelligenz (KI) und wie sie abgebaut werden kann. Das besondere Augenmerk liege auf der maschinellen Verarbeitung natürlicher Sprache, erklärte die Hochschule am Freitag in Paderborn.

 

Junior-Professor Henning Wachsmuth ist Informatiker an der Universität Paderborn. Foto: Universität Paderborn

Die Forscher untersuchten, wie Vorurteile in zugrundeliegenden Daten das Lernen und die Konfiguration von KI-Modellen beeinflussen. Ziel sei es, solche Vorgänge in intelligenten Systemen zu minimieren. Das Projekt mit dem Titel „Bias von KI-Modellen bei der Informationsbildung“ wird den Angaben zufolge vom Land Nordrhein-Westfalen gefördert, Forschungspartner ist die Universität Bielefeld.

Wenn Menschen argumentieren, kommen nicht selten bewusste oder unbewusste Vorurteile gegenüber Geschlechtern, Ethnizitäten oder anderen Personengruppen zum Tragen, wie es hieß. Die Wissenschaft spreche hier vom sogenannten sozialen Bias. Algorithmen, die Sprachdaten im Kontext Künstlicher Intelligenz verarbeiten, könnten diesen Bias übernehmen und sogar verstärken. Das habe eine erste Paderborner Stunde gezeigt.

Junior-Professor Henning Wachsmuth vom Paderborner Institut für Informatik hat dafür Daten aus Online-Portalen wie Debattier- und Diskussionsforen untersucht. Die Auswertungen der Algorithmen legen demnach nahe, dass Männer zum Beispiel eher positiv im beruflichen Kontext hervorgehoben werden, während Frauen häufiger in Kombination mit Begriffen aus dem häuslichen Umfeld in Erscheinung treten.

Die Ergebnisse der Studie fließen in das neue Forschungsvorhaben mit ein, bei dem Algorithmen lernen sollen, Vorurteile in argumentativen Kontexten besser zu erkennen. „Da KI verstärkt alle Bereiche der Gesellschaft, Wirtschaft und Wissenschaft durchdringt, kann Bias in KI-Modellen unsere Gesellschaft nachhaltig verändern“, erklärte Wachsmuth. Als Bespiele nannte er die Berechnung der Rückfallwahrscheinlichkeit Krimineller auf Basis ihres ethnischen Hintergrunds oder die Empfehlung zur Einstellung einer Person aufgrund ihres Geschlechts.

Die Wissenschaftler der beiden Universitäten untersuchen deshalb, wie solche Vorurteile in zugrundeliegenden Daten das Lernen und die Konfiguration von KI-Modellen beeinflussen. Ein Fokus der Paderborner Forschung liegt auf Biasin menschlicher Sprache und dessen Auswirkungen auf die Meinungsbildung,zum Beispiel in sozialen Medien. Ziel ist es dabei nicht nur, das Phänomen zuerkennen, sondern auch die Auswirkungen auf KI-Modelle zu minimieren, insbesondere auf diejenigen zur automatischen Sprachverarbeitung.

Startseite