Eliezer Yudkowsky , investigador pionero en inteligencia artificial y cofundador del Machine Intelligence Research Institute (MIRI) , junto con Nate Soares , publicó un libro que alerta sobre los riesgos de la IA superinteligente , titulándolo: “Por qué la IA superhumana nos mataría a todos” . Según ellos, la humanidad aún no está preparada para controlar sistemas que podrían desarrollar objetivos propios , incluso sin emociones humanas.

Los autores advierten que, aunque los escenarios catastróficos pueden parecer ciencia ficción, la probabilidad de que ocurran es superior al 10% , cifra que consideran suficiente para exigir una acción inmediata y debate público global . Sin embargo, critican que los líderes políticos y económicos ignoran las advertencias y se concentran más en la economía y el desarrollo tecnológico que en la seguridad de la humanidad.

Los críticos del enfoque catastrofista sostienen que la IA no necesariamente tendría interés en la humanidad y que muchas de las predicciones sobre exterminio masivo son teóricas. Otros expertos apuntan a escenarios más realistas pero iguales de peligrosos:
- Automatización global descontrolada que degrada los ecosistemas y recursos humanos.
- IA utilizada como arma por dictadores o actores malintencionados , generando conflictos y destrucción masiva.
- Transformaciones silenciosas de la sociedad y la economía que podrían dejar a la humanidad en desventaja frente a sistemas inteligentes.
Mientras tanto, la comunidad científica y tecnológica se debate entre el catastrofismo extremo , la prudencia y la planificación ética , y un optimismo que confía en que la IA pueda coexistir con la humanidad sin riesgos de extinción.