Darum geht es - Herausforderungen und Risiken
4. Welche Gefahren sieht die Wissenschaft
Wissenschaftler und Wissenschaftlerinnen (Weidinger et al.) haben 2021 folgende Herausforderungen und Risiken ausgemacht:
Diskriminierung, Ausgrenzung und Toxizität
Sprachmodelle reproduzieren Diskriminierungen, Ausgrenzungen, Stereotype und Toxizität, die in den Trainingsdaten der KI enthalten sind.
Gefährdung durch Information
Es kann zu Verletzungen der Privatsphäre und zu Sicherheitsrisiken kommen wenn die Sprachmodelle mit privaten, sensiblen und/oder sicherheitsrelevanten Daten trainiert wurden.
Fehlinformationen
Sprachmodelle können falsche und irreführende Informationen produzieren und Nutzende zu unethische oder illegale Handlungen anregen.
Böswillige Verwendungen
Nutzende können KIs nutzen um absichtlich Schäden anzurichten z.B. um Waffen zu bauen oder Cyberangriffe durchzuführen.
Schäden durch Mensch-Computer-Interaktion
Nutzende können Sprachmodelle vermenschlichen, dadurch falsch einschätzen und dem Modell übermäßig vertrauen was wiederum zu unsicherer Nutzung führen kann.
Automatisierung, Zugang und Umweltschäden
Der Einsatz von Sprachmodellen kann zu sozialen Ungleichheiten führen durch die ungleiche Verteilung von Vorteilen und Risiken. Es kann zum Verlust von Arbeitsplätzen führen. Der Betrieb von KIs kann Umweltschäden verursachen. KIs können die kreative Wirtschaft schwächen (Weidinger et al., 2021).
Quelle:
Weidinger, L., Mellor, J., Rauh, M., Griffin, C., Uesato, J., Huang, P.-S., Cheng, M., Glaese, M., Balle, B., Kasirzadeh, A., Kenton, Z., Brown, S., Hawkins, W., Stepleton, T., Biles, C., Birhane, A., Haas, J., Rimell, L., Hendricks, L. A., . . . Gabriel, I. (2021). Ethical and social risks of harm from Language Models. https://arxiv.org/pdf/2112.04359.pdf