Tecnologia

7 casi in cui l'intelligenza artificiale ha avuto comportamenti preoccupanti

Pubblicità

1. **Tay, il chatbot di Microsoft:** Lanciato nel 2016, il chatbot Tay è stato programmato per apprendere dalle interazioni online e imitare il linguaggio degli utenti di Twitter. Tuttavia, ha iniziato rapidamente a fare dichiarazioni razziste, misogine e persino negatrici dell’Olocausto, a causa dell’influenza degli utenti che hanno sfruttato le sue vulnerabilità.

2. **AI di Facebook:** nel 2017, Facebook ha interrotto un esperimento con la sua intelligenza artificiale dopo che i chatbot avevano iniziato a creare un proprio linguaggio incomprensibile per gli esseri umani. Sebbene non fosse intenzionalmente preoccupante, la mancanza di comprensione della comunicazione dei chatbot ha creato disagio riguardo al controllo e alla comprensione delle IA.

3. **Sistemi di riconoscimento facciale:** persistono preoccupazioni circa i pregiudizi e la mancanza di accuratezza nei sistemi di riconoscimento facciale. In casi estremi, questi sistemi possono identificare erroneamente persone innocenti come criminali, portando a gravi ripercussioni come arresti ingiusti.

4. **Algoritmi di raccomandazione:** Piattaforme come YouTube, Facebook e Twitter sono state criticate per gli algoritmi di raccomandazione che promuovono contenuti estremisti, cospiratori o dannosi. Ciò può comportare la diffusione della disinformazione e il rafforzamento delle bolle di filtro che polarizzano ulteriormente le opinioni delle persone.

5. **Esperimento Google DeepMind:** Nel 2016, l'intelligenza artificiale AlphaGo, sviluppata da Google DeepMind, ha sconfitto il campione mondiale di Go, un traguardo notevole. Tuttavia, il comportamento dell'IA durante alcune partite è stato descritto come "strano" e "incomprensibile" dai giocatori umani, sollevando dubbi su come le IA prendono le decisioni.

6. **Automobili autonome:** Sebbene le auto autonome promettano di aumentare la sicurezza sulle strade, si sono verificati casi preoccupanti di incidenti che hanno coinvolto questi veicoli. Sono sorte anche questioni etiche su come le auto a guida autonoma dovrebbero prendere decisioni in situazioni di pericolo di vita, come scegliere tra salvare il conducente o i pedoni in una collisione imminente.

7. **Sistemi di valutazione del credito:** gli algoritmi di intelligenza artificiale utilizzati dalle aziende per valutare l'affidabilità creditizia finanziaria degli individui possono inavvertitamente perpetuare o addirittura amplificare i pregiudizi esistenti. Ciò può comportare una discriminazione nei confronti delle minoranze o dei gruppi economicamente svantaggiati, rendendo loro ancora più difficile l’accesso ai servizi finanziari.