Página
Digital

Página Digital

domingo, enero 21, 2024

Potosí - Bolivia

56 años
La Potencia Informativa
Radio en Vivo
Inicio¿Sabía usted?Así es como...

Así es como la inteligencia artificial puede implantar recuerdos en la población

La inteligencia artificial ha democratizado la edición de recursos multimedia con lo que eso implica para la generación de bulos

“Foto o no ha ocurrido” es una expresión a punto de caducar. Con el tiempo hemos aprendido a dudar de todo, sabemos que las redes sociales y los medios de comunicación están llenos de bulos. Las palabras son baratas y hay personas dispuestas a todo por un puñado de clics. Nos ha tocado vivir en una constante duda, pero al menos podíamos refugiarnos en los audios, las fotografías y los vídeos. Las ondas de sonido no son tan fáciles de retorcer como las palabras. No basta con teclear cargado de malas intenciones, hay que remangarse, sacar un programa de edición y reunir el tiempo y la pericia para exportar un archivo creíble. No todo el mundo sabe utilizar Photoshop para alterar una imagen y, editar un vídeo verosímil es una tarea que excede el poder de la mayoría de los mortales. O, al menos, lo era hasta la llegada de la inteligencia artificial.

Estamos a las puertas de una nueva era. Acabamos de atravesar el umbral de la inteligencia artificial y los cambios sociales que nos esperan son inimaginables, como ya lo fueron con el fuego o la escritura. La gran diferencia es que estos cambios serán vertiginosos. La IA ya puede crear audios, imágenes y vídeos convincentes. Un experto puede falsear testimonios audiovisuales casi perfectos, pero ese no es el problema, porque con suficiente dinero y tiempo, antes también se podía. La cuestión es que, incluso si no eres un experto, ya puedes crear contenido que engañarían a otros ojos no entrenados. Así que, cuando internet se inunde de audios, imágenes y vídeos falsos… ¿qué certezas nos quedarán? Porque no solo peligra el presente, también se tambalea el pasado, incluso el que hemos vivido en primera persona.

Tu memoria falla

Tu memoria no es perfecta, y no importa a qué edad leas esto o lo inteligente que seas. Son poquísimas las personas con una memoria infalible y, por cuestiones puramente estadísticas, tú no eres una de ellas. El neurocientífico Ulric Neisser demostró en 1986 que somos muy buenos reescribiendo nuestro propio pasado. A raíz de la catástrofe del Challenger tomó a un grupo de estudiantes universitarios y les pidió que detallaran qué estaban haciendo unos días antes, cuando había tenido lugar el accidente. Tres años después volvió a reunir a la práctica totalidad de aquellos estudiantes para pedirles que rememoraran aquella experiencia. Los jóvenes estaban convencidos de recordar el accidente con todo lujo de detalles, pero sus nuevos testimonios no encajaban con lo que habían escrito 3 años antes.

Es más, sabemos que es muy fácil implantar recuerdos falsos, como hacía la científica Elizabeth Loftus con sus pacientes. En sus experimentos logró que algunos sujetos juraran haber estado en Disneyland estrechando la mano de Bugs Bunny, cosa imposible siendo este de la Warner. Ahora imagina lo que podría ocurrir si a esa tendencia al olvido se suman testimonios falsos. Fotos de ti viajando al Gran Cañón con 13 años o cuestiones más graves, como un audio donde dices barbaridades sobre tus seres queridos. Por suerte, la regulación y lo poco importantes que somos como individuos nos podrían mantener a salvo de estas situaciones, pero hay un problema mayor. Los recuerdos no solo se pueden implantar en individuos. Como sociedad también somos vulnerables.

El efecto Mandela

Hace unos años, la bloguera Fiona Broome escribió un artículo sobre la muerte de Nelson Mandela. Tal vez recuerdes que el famoso activista murió en la cárcel en los años 80, como relataba Fiona, pero me temo que estás en un error, porque falleció en 2013 de una infección respiratoria en su hogar. Fiona recordaba cómo habían cubierto la noticia los medios de comunicación sudafricanos y aquellas memorias eran vívidas. De hecho, Fiona no estaba sola y se había encargado de recoger testimonios a través de internet de otras personas con los mismos recuerdos que ella. Para la bloguera, aquello era la prueba de que vivíamos en un universo de realidades paralelas y que a veces se mezclaban. Para la ciencia es un ejemplo más de que nuestro cerebro a veces falla y hace lo que puede con lo que tiene.

Esta volubilidad de los recuerdos no es un defecto como tal del cerebro. A fin de cuentas, las memorias se codifican según cómo se conectan las células de nuestro cerebro entre sí. Para crear nuevos recuerdos, estas células llamadas neuronas tienen que “moverse” con facilidad. Sin embargo, que sean “móviles” hace que también se puedan borrar esos recuerdos. Es una explicación casi caricaturesca de la neuroplasticidad, pero por rematar esta simplificación: tardaremos menos en construir un muro con bloques de poliestireno que con ladrillos, pero también se desmontará con más facilidad. El cerebro ha encontrado un equilibrio que nos permite almacenar memorias con bastante eficacia, pero a riesgo de olvidar una parte de ellas y que otra se deforme.

Intereses que mueven el mundo

Queda claro que nuestra memoria histórica es vulnerable y que, con la IA, casi cualquiera puede crear los documentos gráficos y de audio necesarios para confundirnos. Podemos imaginar un audio de Hitler rindiéndose ante un Roosevelt que, impasible, rechaza la paz a costa de las vidas de sus propios conciudadanos. O, tal vez, algo más plausible pero igual de dañino, como una fotografía de un jovencísimo presidente esnifando en plena fiesta de graduación. Estos falsos testimonios tienen una característica que los hace potencialmente viralizadles: satisfacen los intereses de un colectivo.

Ya existen empresas que se encargan de crear bulos para arruinar la imagen pública de una persona o una marca. Es de esperar que, antes o después, las herramientas de inteligencia artificial se sumarán a los bots, el Photoshop y los actores en estas campañas de difamación. Puede que todo esto suene a ciencia ficción, pero solo se trata de un método más eficiente que el aplicado ahora mismo. Curiosamente, solo la IA podría protegernos frente a tanta confusión multimedia. Podríamos entrenar a una inteligencia artificial para que aprendiera a distinguir el contenido real del generado por ordenador.

El negocio de la mentira

Por desgracia, será como un juego del ratón y el gato en el que, a medida que unas IAs se vuelvan mejores distinguiendo el contenido generado, las otras se volverán mejores generando el contenido. Dos productos producidos por las mismas empresas y que se retroalimentan. Un negocio redondo que, si no ponemos cortapisas éticas y legales, acabará inundando las redes. Y, aunque nos parezca mentira, nos hará pensar lo impensable y decir cosas como “vaya, ¿recuerdas cuando internet era confiable como en 2023?”. O, tal vez, tras todo esto haya una parte positiva. Si internet se vuelve tan poco potable, tal vez los medios (nuevos y tradicionales), empiecen a cuidar más el rigor de su contenido.

Porque en una época de confusión informativa, la forma de hacer lucir tu producto será desmarcándote de la norma y asegurando que tu espacio está libre de bulos. Islas de certeza en medio de un mar picado.

Fuente: LA RAZÓN ESPAÑA

Últimas Noticias

Continua leyendo

Descubren cuál es el fallo del sistema inmunológico que origina el Covid persistente

Este hallazgo podría ser útil para desarrollar nuevos tratamientos contra este síndrome Casi cuatro años después de la pandemia, los científicos continúan estudiando y descubriendo nuevos aspectos sobre el virus que paralizó el mundo y dejó tras de sí millones...

El ‘hermano’ maligno de ChatGPT y otras amenazas de la inteligencia artificial generativa

FraudGPT es el hermano maligno de ChatGPT. Se promociona en la dark web y puede escribir un mensaje haciéndose pasar por un banco, crear malware o mostrar sitios web susceptibles de ser defraudados, según la plataforma de análisis de...

Meta y Facebook, en el ojo del huracán: 100.000 niños son acosados cada día en internet

El gigante tecnológico se enfrenta a una demanda importante por no proteger a los menores de los depredadores sexuales. La compañía niega las acusaciones Documentos internos de Meta advierten que cada día aproximadamente unos 100.000 niños son víctimas de acoso...