Zum Hauptinhalt

Darum geht es - Herausforderungen und Risiken

4. Welche Gefahren sieht die Wissenschaft



Wissenschaftler und Wissenschaftlerinnen (Weidinger et al.) haben 2021 folgende Herausforderungen und Risiken ausgemacht: 

Diskriminierung, Ausgrenzung und Toxizität

Sprachmodelle reproduzieren Diskriminierungen, Ausgrenzungen, Stereotype und Toxizität, die in den Trainingsdaten der KI enthalten sind.

Gefährdung durch Information
 
Es kann zu Verletzungen der Privatsphäre und zu Sicherheitsrisiken kommen wenn die Sprachmodelle mit privaten, sensiblen und/oder sicherheitsrelevanten Daten trainiert wurden.

Fehlinformationen

Sprachmodelle können falsche und irreführende Informationen produzieren und Nutzende zu unethische oder illegale Handlungen anregen.

Böswillige Verwendungen

Nutzende können KIs nutzen um absichtlich Schäden anzurichten z.B. um Waffen zu bauen oder Cyberangriffe durchzuführen.

Schäden durch Mensch-Computer-Interaktion

Nutzende können Sprachmodelle vermenschlichen, dadurch falsch einschätzen und dem Modell übermäßig vertrauen was wiederum zu unsicherer Nutzung führen kann.

Automatisierung, Zugang und Umweltschäden

Der Einsatz von Sprachmodellen kann zu sozialen Ungleichheiten führen durch die ungleiche Verteilung von Vorteilen und Risiken. Es kann zum Verlust von Arbeitsplätzen führen. Der Betrieb von KIs kann Umweltschäden verursachen. KIs können die kreative Wirtschaft schwächen (Weidinger et al., 2021). 

Quelle:

Weidinger, L., Mellor, J., Rauh, M., Griffin, C., Uesato, J., Huang, P.-S., Cheng, M., Glaese, M., Balle, B., Kasirzadeh, A., Kenton, Z., Brown, S., Hawkins, W., Stepleton, T., Biles, C., Birhane, A., Haas, J., Rimell, L., Hendricks, L. A., . . . Gabriel, I. (2021). Ethical and social risks of harm from Language Models. https://arxiv.org/pdf/2112.04359.pdf