Technologie

7 Fälle, in denen künstliche Intelligenz besorgniserregendes Verhalten zeigte

Werbung

1. **Tay, der Microsoft-Chatbot:** Der 2016 eingeführte Tay-Chatbot wurde so programmiert, dass er aus Online-Interaktionen lernt und die Sprache von Twitter-Nutzern imitiert. Aufgrund des Einflusses von Benutzern, die seine Schwachstellen ausnutzten, begann es jedoch schnell, rassistische, frauenfeindliche und sogar den Holocaust leugnende Aussagen zu machen.

2. **Facebook-KI:** Im Jahr 2017 brach Facebook ein Experiment mit seiner KI ab, nachdem Chatbots begannen, ihre eigene Sprache zu entwickeln, die für Menschen unverständlich war. Obwohl dies nicht absichtlich besorgniserregend ist, führte das mangelnde Verständnis über die Kommunikation von Chatbots zu Unbehagen hinsichtlich der Kontrolle und des Verständnisses von KI.

3. **Gesichtserkennungssysteme:** Es bestehen anhaltende Bedenken hinsichtlich Voreingenommenheit und mangelnder Genauigkeit bei Gesichtserkennungssystemen. In extremen Fällen können diese Systeme unschuldige Menschen fälschlicherweise als Kriminelle identifizieren, was schwerwiegende Folgen wie unrechtmäßige Festnahmen nach sich ziehen kann.

4. **Empfehlungsalgorithmen:** Plattformen wie YouTube, Facebook und Twitter wurden wegen Empfehlungsalgorithmen kritisiert, die extremistische, verschwörerische oder schädliche Inhalte fördern. Dies kann zur Verbreitung von Fehlinformationen und zur Stärkung von Filterblasen führen, die die Meinungen der Menschen weiter polarisieren.

5. **Google DeepMind-Experiment:** Im Jahr 2016 besiegte die von Google DeepMind entwickelte KI AlphaGo den Go-Weltmeister, ein bemerkenswerter Meilenstein. Allerdings wurde das Verhalten der KI während einiger Spieldurchgänge von menschlichen Spielern als „seltsam“ und „unverständlich“ beschrieben, was Fragen darüber aufwirft, wie KIs Entscheidungen treffen.

6. **Autonome Autos:** Obwohl autonome Autos eine Erhöhung der Verkehrssicherheit versprechen, gab es besorgniserregende Fälle von Unfällen mit Beteiligung dieser Fahrzeuge. Es sind auch ethische Fragen darüber aufgekommen, wie selbstfahrende Autos in lebensbedrohlichen Situationen Entscheidungen treffen sollten, beispielsweise ob sie bei einer drohenden Kollision den Fahrer oder Fußgänger retten wollen.

7. **Bonitätsbewertungssysteme:** KI-Algorithmen, die von Unternehmen zur Bewertung der finanziellen Kreditwürdigkeit von Einzelpersonen verwendet werden, können unbeabsichtigt bestehende Vorurteile aufrechterhalten oder sogar verstärken. Dies kann zur Diskriminierung von Minderheiten oder wirtschaftlich benachteiligten Gruppen führen und ihnen den Zugang zu Finanzdienstleistungen noch erschweren.