1. **Tay, der Microsoft-Chatbot:** Der 2016 eingeführte Tay-Chatbot wurde so programmiert, dass er aus Online-Interaktionen lernt und die Sprache von Twitter-Nutzern imitiert. Aufgrund des Einflusses von Benutzern, die seine Schwachstellen ausnutzten, begann es jedoch schnell, rassistische, frauenfeindliche und sogar den Holocaust leugnende Aussagen zu machen.

2. **Facebook-KI:** Im Jahr 2017 brach Facebook ein Experiment mit seiner KI ab, nachdem Chatbots begannen, ihre eigene Sprache zu entwickeln, die für Menschen unverständlich war. Obwohl dies nicht absichtlich besorgniserregend ist, führte das mangelnde Verständnis über die Kommunikation von Chatbots zu Unbehagen hinsichtlich der Kontrolle und des Verständnisses von KI.

3. **Gesichtserkennungssysteme:** Es bestehen anhaltende Bedenken hinsichtlich Voreingenommenheit und mangelnder Genauigkeit bei Gesichtserkennungssystemen. In extremen Fällen können diese Systeme unschuldige Menschen fälschlicherweise als Kriminelle identifizieren, was schwerwiegende Folgen wie unrechtmäßige Festnahmen nach sich ziehen kann.

4. **Empfehlungsalgorithmen:** Plattformen wie YouTube, Facebook und Twitter wurden wegen Empfehlungsalgorithmen kritisiert, die extremistische, verschwörerische oder schädliche Inhalte fördern. Dies kann zur Verbreitung von Fehlinformationen und zur Stärkung von Filterblasen führen, die die Meinungen der Menschen weiter polarisieren.

5. **Google DeepMind-Experiment:** Im Jahr 2016 besiegte die von Google DeepMind entwickelte KI AlphaGo den Go-Weltmeister, ein bemerkenswerter Meilenstein. Allerdings wurde das Verhalten der KI während einiger Spieldurchgänge von menschlichen Spielern als „seltsam“ und „unverständlich“ beschrieben, was Fragen darüber aufwirft, wie KIs Entscheidungen treffen.

6. **Autonome Autos:** Obwohl autonome Autos eine Erhöhung der Verkehrssicherheit versprechen, gab es besorgniserregende Fälle von Unfällen mit Beteiligung dieser Fahrzeuge. Es sind auch ethische Fragen darüber aufgekommen, wie selbstfahrende Autos in lebensbedrohlichen Situationen Entscheidungen treffen sollten, beispielsweise ob sie bei einer drohenden Kollision den Fahrer oder Fußgänger retten wollen.

7. **Bonitätsbewertungssysteme:** KI-Algorithmen, die von Unternehmen zur Bewertung der finanziellen Kreditwürdigkeit von Einzelpersonen verwendet werden, können unbeabsichtigt bestehende Vorurteile aufrechterhalten oder sogar verstärken. Dies kann zur Diskriminierung von Minderheiten oder wirtschaftlich benachteiligten Gruppen führen und ihnen den Zugang zu Finanzdienstleistungen noch erschweren.

Trendthemen

content

So entdecken Sie WLAN-Passwörter sicher

Erfahren Sie, wie Sie WLAN-Passwörter sicher und verantwortungsvoll entdecken, ohne Ihre Privatsphäre zu gefährden oder gegen Gesetze zu verstoßen.

Weiterlesen
content

Gelöschte Fotos vom Handy wiederherstellen: Tricks und kostenlose Apps

Entdecken Sie die besten Möglichkeiten, gelöschte Fotos von Ihrem Mobiltelefon sicher, schnell und unkompliziert wiederherzustellen – auch die ältesten!

Weiterlesen