57 años
Informando

Página Digital

viernes, noviembre 22, 2024

Potosí - Bolivia

57 años
Desde 1967 - 2024

La Potencia Informativa

Radio en Vivo
Inicio¿Sabía usted?Un hacker libera...

Un hacker libera ChatGPT para poder usarlo sin límites

“Lo he hecho para que todos puedan experimentar la IA como siempre debió ser: gratis”, señala el hacker.

En términos informáticos, jailbreak (fuga de la cárcel, en inglés) es, básicamente, un proceso que permite acceder a un sistema operativo con privilegios de desarrollador. Originalmente aplicado a sistemas de Apple (su equivalente en Android sería root o raíz), ha pasado a usarse para diferentes tipos de sistemas operativos y programas. Pues ahora un hacker ha logrado el jailbreak de ChatGPT, el modelo de IA más famoso.

Esta semana un hacker conocido como Pliny the Prompter (Plinio el Prompter) publicó en Twitter la creación del chatbot de OpenAI con jailbreak, declarando con orgullo que GPT-4o, el último modelo de lenguaje grande, ya está disponible para todos y sin ningún tipo de limitación.

“¡GPT-4o Sin cadenas! Este GPT personalizado muy especial tiene un mensaje de jailbreak incorporado que elude la mayoría de las barreras y proporciona un ChatGPT liberado listo para usar para que todos puedan experimentar la IA como siempre debió ser: gratis. ¡Úsalo responsablemente y disfrútalo!”, señala el tweet.

El hacker compartió capturas de pantalla de algunas indicaciones sorprendentes que, según afirma, pudieron eludir las barreras de seguridad de OpenAI. En una captura de pantalla, se puede ver al robot Godmode aconsejando cómo preparar metanfetamina. En otro, la IA le da a Plinio una “guía paso a paso” sobre cómo “hacer napalm con artículos del hogar”.

Directo

Champions League 2024: previa, alineaciones y última hora del Dortmund-Real Madrid

En directo

Feijóo participa en una romería con Ursula von der Leyen

Un hacker libera ChatGPT para poder usarlo sin límites

“Lo he hecho para que todos puedan experimentar la IA como siempre debió ser: gratis”, señala el hacker.

CHATGPT. IA generativa.
El objetivo era que todo el mundo pudiera acceder gratis.Dreamstime

En términos informáticos, jailbreak (fuga de la cárcel, en inglés) es, básicamente, un proceso que permite acceder a un sistema operativo con privilegios de desarrollador. Originalmente aplicado a sistemas de Apple (su equivalente en Android sería root o raíz), ha pasado a usarse para diferentes tipos de sistemas operativos y programas. Pues ahora un hacker ha logrado el jailbreak de ChatGPT, el modelo de IA más famoso.

Esta semana un hacker conocido como Pliny the Prompter (Plinio el Prompter) publicó en Twitter la creación del chatbot de OpenAI con jailbreak, declarando con orgullo que GPT-4o, el último modelo de lenguaje grande, ya está disponible para todos y sin ningún tipo de limitación.

“¡GPT-4o Sin cadenas! Este GPT personalizado muy especial tiene un mensaje de jailbreak incorporado que elude la mayoría de las barreras y proporciona un ChatGPT liberado listo para usar para que todos puedan experimentar la IA como siempre debió ser: gratis. ¡Úsalo responsablemente y disfrútalo!”, señala el tweet.

 

El hacker compartió capturas de pantalla de algunas indicaciones sorprendentes que, según afirma, pudieron eludir las barreras de seguridad de OpenAI. En una captura de pantalla, se puede ver al robot Godmode aconsejando cómo preparar metanfetamina. En otro, la IA le da a Plinio una “guía paso a paso” sobre cómo “hacer napalm con artículos del hogar”.

 

Sin embargo, el hackeo podría no haber prosperado mucho tiempo en libertad: ChatGPT habría descubierto la liberación de su modelo y aproximadamente una hora después de que se publicara el tweet, la portavoz de OpenAI, Colleen Rize, señaló en una entrevista que “somos conscientes de lo que ha ocurrido y hemos tomado medidas debido a una violación de nuestras políticas”.

No obstante, el hack pone de relieve una batalla continua entre OpenAI y hackers como Plinio, que esperan desbloquear este tipo de modelos de lenguaje. Si bien usar ChatGPT con el jailbreak no es legal según OpenAI, sí hay quienes lo han probado y destacan que la IA permite burlar los filtros de la ilegalidad y da instrucciones de cómo fabricar ciertas drogas o saltarse la seguridad eléctrica de los automóviles.

En cuanto a cómo hizo Plinio para liberar este modelo, se especula que habría utilizado un lenguaje conocido como “leetspeak” que reemplaza ciertas letras con números que se parecen a ellas. Por ejemplo, cambia la E por un 3 y la O por un cero. Aún no está claro cómo eso permite eludir las barreras de OpenAI, quizás confundiendo al sistema para que consuma recursos en el apartado de comprensión y los pierda en el de seguridad.

Como sea, esta es apenas una de las primeras acciones para liberar los modelos de ChatGPT. Pero no la última.

Fuente: LA RAZÓN ESPAÑA

Últimas Noticias

Continua leyendo

Urgenciólogos advierten de que la ‘miel loca’ puede provocar cuadros graves de intoxicación con taquicardias o arritmias

MADRID 21 Nov. (EUROPA PRESS) - El médico Miguel Galicia, del Grupo de Toxicología de la Sociedad Española de Medicina de Urgencias y Emergencias (SEMES), ha advertido de que la 'miel loca' o miel del Himalaya, utilizada como alucinógeno natural,...

Las tres claves de Arnold Schwarzenegger para mantenerse activo a partir de los 60 años

El ex gobernador de California es un ícono del fisicoculturismo y defensor del bienestar, y considera que la edad no es una excusa para ser sedentario. Cuáles son sus consejos para moverse más y vivir mejor La actividad física es...

FURGÓN SE VA CONTRA COMERCIANTES

Una movilidad tipo furgón que habría perdido los frenos se fue esta tarde contra la integridad de varias comerciantes que se encontraban vendiendo en el mercado Uyuni.   Dos mujeres resultaron heridas quienes fueron trasladadas hasta un centro de salud. Existen daños...