“La IA sería una barrera tan difícil de superar que impediría que la mayor parte de la vida evolucione”, señala un estudio científico.
De acuerdo con los autores, se trataría de un “cuello de botella” que determinaría si una civilización avanza hacia la exploración espacial o se extingue.
La inteligencia artificial ha progresado a un ritmo asombroso en los últimos años. Y más que lo hará si tenemos en cuenta el desarrollo de una superinteligencia artificial (ASI por sus siglas en inglés), una forma de IA que no sólo superaría la inteligencia humana, sino que no estaría limitada por las velocidades de aprendizaje de los humanos.
Pero ¿qué pasa si este hito no es solo un logro notable? ¿Qué pasa si también representa un cuello de botella en el desarrollo de todas las civilizaciones, uno tan desafiante que frustra su supervivencia a largo plazo? Esta idea está en el centro de un artículo publicado recientemente en Acta Astronautica. Y la pregunta en la que se basa es muy directa: ¿Podría la IA ser el “gran filtro” del universo, un umbral tan difícil de superar que impide que la mayor parte de la vida evolucione hacia civilizaciones
De acuerdo con Michel Garret, astrofísico de la Universidad de Manchester y líder del estudio, esto podría explicar por qué la búsqueda de inteligencia extraterrestre aún no ha detectado firmas de civilizaciones técnicas avanzadas en otras partes de la galaxia.
La hipótesis del gran filtro es una solución propuesta a la paradoja de Fermi que plantea por qué, en un universo lo suficientemente vasto y antiguo como para albergar miles de millones de planetas potencialmente habitables, no hemos detectado ningún signo de civilizaciones extraterrestres. La repuesta es que existen obstáculos o cuellos de botella insuperables en la evolución de las civilizaciones que les impiden convertirse en exploradoras espaciales. Otros cuellos de botella evolutivos son la obtención de la energía necesaria para explorar otros mundos o la diversidad genética.
De acuerdo con Garret, la aparición de ASI podría ser ese filtro: la IA progresa mucho más rápido que nuestra capacidad para controlarla. “El desafío de la IA, y específicamente de la ASI, radica en su naturaleza autónoma, autoamplificadora y mejoradora. Posee el potencial de mejorar sus propias capacidades a una velocidad que supera nuestros propios cronogramas evolutivos sin IA – explica el estudio -. Así, el potencial de que algo salga mal es enorme, lo que conduciría a la caída de las civilizaciones antes de que tuvieran la oportunidad de volverse multiplanetarias. Por ejemplo, si las naciones dependen cada vez más de sistemas autónomos de inteligencia artificial que compiten entre sí y les ceden poder, las capacidades militares podrían usarse para matar y destruir a una escala sin precedentes. Esto podría conducir potencialmente a la destrucción de toda nuestra civilización, incluidos los propios sistemas de inteligencia artificial”.