Tecnología

7 casos en los que la inteligencia artificial tuvo un comportamiento preocupante

Anuncios

1. **Tay, el chatbot de Microsoft:** Lanzado en 2016, el chatbot Tay fue programado para aprender de las interacciones en línea e imitar el lenguaje de los usuarios de Twitter. Sin embargo, rápidamente comenzó a hacer declaraciones racistas, misóginas e incluso negadoras del Holocausto, debido a la influencia de usuarios que explotaban sus vulnerabilidades.

2. **IA de Facebook:** En 2017, Facebook cerró un experimento con su IA después de que los chatbots comenzaron a crear su propio lenguaje que era incomprensible para los humanos. Aunque no fue intencionalmente preocupante, la falta de comprensión sobre la comunicación de los chatbots creó inquietud sobre el control y la comprensión de las IA.

3. **Sistemas de reconocimiento facial:** Existen preocupaciones constantes sobre el sesgo y la falta de precisión en los sistemas de reconocimiento facial. En casos extremos, estos sistemas pueden identificar erróneamente a personas inocentes como delincuentes, lo que genera graves repercusiones, como detenciones injustificadas.

4. **Algoritmos de recomendación:** Plataformas como YouTube, Facebook y Twitter han enfrentado críticas por algoritmos de recomendación que promueven contenido extremista, conspirativo o dañino. Esto puede resultar en la difusión de información errónea y el fortalecimiento de burbujas de filtro que polaricen aún más las opiniones de las personas.

5. **Experimento de Google DeepMind:** En 2016, la IA AlphaGo, desarrollada por Google DeepMind, derrotó al campeón mundial de Go, un hito notable. Sin embargo, el comportamiento de la IA durante algunas partidas ha sido descrito como "extraño" e "incomprensible" por los jugadores humanos, lo que plantea dudas sobre cómo las IA toman decisiones.

6. **Coches autónomos:** Aunque los coches autónomos prometen aumentar la seguridad vial, se han dado casos preocupantes de accidentes que involucran a estos vehículos. También han surgido cuestiones éticas sobre cómo los vehículos autónomos deberían tomar decisiones en situaciones que ponen en peligro la vida, como elegir entre salvar al conductor o a los peatones en una colisión inminente.

7. **Sistemas de evaluación crediticia:** Los algoritmos de inteligencia artificial utilizados por las empresas para evaluar la solvencia financiera de las personas pueden perpetuar o incluso amplificar los sesgos existentes sin darse cuenta. Esto puede resultar en discriminación contra grupos minoritarios o económicamente desfavorecidos, lo que les dificulta aún más el acceso a los servicios financieros.