Una nueva carta, publicada por algunos de los científicos más destacados en este campo, alerta de sus peligros
Un grupo de 25 de los científicos más destacados en el campo de la IA, incluidos varios premios Nobel, publicó el 20 de mayo una carta en la prestigiosa revista Science alertando sobre los peligros de la IA. La carta tiene como firmantes a Geoffrey Hinton, pionero en el desarrollo de redes neuronales profundas; Andrew Yao, reconocido por sus contribuciones fundamentales a la teoría de la computación; Dawn Song, experta en seguridad informática; o al recientemente fallecido Daniel Kahneman, galardonado con el Premio Nobel de Economía por su trabajo en psicología y economía conductual. Los autores destacan la necesidad urgente de implementar medidas de control más estrictas para mitigar los riesgos asociados al rápido avance de la IA y los sistemas autónomos, que según ella podrían llevar a la “pérdida de vidas” e incluso a la “extinción de la humanidad“. Además, realiza un llamamiento a los gobiernos para establecer instituciones para la supervisión de estos desarrollos, aumentar significativamente la financiación para la investigación en seguridad y exigir a las empresas que prueben sus productos antes de comercializarlos.
¿Es realmente peligrosa la IA?
La tecnología, de manera general, incrementa nuestras posibilidades de actuar en el mundo. A través de ella podemos mejorar las condiciones de vida de los seres humanos de manera nunca vista. Podremos encontrar nuevos tratamientos para las enfermedades, utilizar la energía de manera más eficiente y limpia, o trabajar con menos esfuerzo.
De igual manera, como cualquier tecnología, la IA no está libre de potenciales negativos. Un despliegue descuidado de la IA puede crear desigualdades crecientes, apoyar el desarrollo del cibercrimen, generar manipulación social a gran escala o emplearse en el despliegue de armas autónomas.
¿Cómo de reales son estos peligros?
Las amenazas anteriores describen un uso deliberadamente inadecuado de la IA por parte de humanos. Sin embargo, el peor escenario posible, y que se refleja en la carta, es que se cree una IA general, capaz de resolver cualquier problema, y que derive en una superinteligencia (término popularizado por Nick Bostrom), que nos supere en todas las capacidades, y sea autónoma e incontrolable. ¿Por qué sería tan peligrosa? Porque es muy difícil asegurar que la superinteligencia tenga objetivos alineados con el bienestar de la humanidad. Incluso si se le asigna una meta aparentemente positiva, como encontrar una cura para el cáncer, la IA podría decidir eliminar a los seres humanos como solución, ya que así no habría más enfermos. Si no podemos controlarla y “explicar que esa solución no es válida”, la existencia misma de la humanidad estaría en peligro, lo que se conoce como amenaza existencial.
Por el momento y, para tranquilidad de todos, no sólo no existe una superinteligencia, sino que tampoco tenemos una IA general (y muchos tampoco la esperan, ya que no tenemos claro siquiera cómo construirla). La IA siempre resuelve problemas concretos fijados por un ser humano, incluso en el caso del procesamiento del lenguaje. No estamos seguros siquiera de que construir una IA general sea posible, y tampoco existen, pese a lo que vemos en la ciencia ficción, indicios de que pueda surgir una IA consciente, con sus propios deseos e intenciones. ChatGPT no es más consciente que una calculadora.
¿Qué medidas pueden tomarse para controlar la IA?
Primero, es crucial aumentar la investigación para comprender mejor cómo funcionan los sistemas de IA y desarrollar sistemas transparentes. Actualmente, confiamos demasiado en algoritmos de “caja negra”, en los cuales no es posible comprender cómo se procesan los datos. Las famosas redes neuronales son algoritmos de este tipo.
También es esencial desarrollar sistemas que permitan supervisar y poner límites a las máquinas en cualquier momento, asegurándose de que no puedan evadir estos controles.
Además, debemos centrarnos en los peligros más inmediatos. Uno de ellos es el sesgo: en la toma de decisiones automatizada, podemos acabar perjudicando selectivamente a grupos, por ejemplo, por motivos de raza o sexo. Hemos visto ejemplos en los que se ha eliminado a los CV de mujeres en los procesos de selección de personal porque los algoritmos aprendieron que normalmente los contratados acababan siendo varones, o extranjeros a los que se les negó la ayuda por paternidad por tener doble nacionalidad. La transparencia es clave en este punto, dado que sólo dando razones para las decisiones podemos evitar que se tomen basándose en parámetros equivocados, como la raza o el sexo.
Este no es el único problema. Tenemos por delante el enorme reto de compartir los beneficios de la automatización, evitando que queden en manos de unas pocas empresas, así como reducir la concentración de poder que esto supone. Por no hablar de cómo gestionar el uso de herramientas que pueden dificultar el aprendizaje de los estudiantes, o generar desinformación a una escala nunca vista. La buena noticia es que, desde una multiplicidad de ámbitos (y especialmente desde la Unión Europea, con la reciente Ley de IA) se está proponiendo legislación que específicamente busca limitar estos potenciales negativos. Aún queda mucho por desarrollar, pero se está trabajando intensamente para mejorar la tecnología y hacerla más segura y beneficiosa para la humanidad, limitando estas amenazas.
Fuente: LA RAZÓN ESPAÑA