Respondió a más de 300 preguntas cerca del umbral de aprobado del 60% de respuestas correctas. Y lo hizo sin el aporte especializado de humanos
La nueva estrella del firmamento de inteligencia artificial es sin duda ChatGPT. Su impacto se está dejando ver en diferentes sectores y podría convertirse en la IA que soñó Alan Turing. Pero ahora ha dado un paso más y, según un estudio, ha aprobado el examen de licencia médica de Estados Unidos (USMLE por sus siglas en inglés).
Los autores del estudio recurrieron al USMLE por ser un conjunto de tres pruebas estandarizadas de conocimiento de nivel experto, que se requieren para obtener la licencia médica en los Estados Unidos y abarca la ciencia básica, el razonamiento clínico, la gestión médica y la bioética. El examen del Paso 1 generalmente lo toman estudiantes de medicina que han completado dos años de aprendizaje didáctico y se centra en ciencia básica, farmacología y fisiopatología. Los estudiantes de medicina dedican aproximadamente 300 a 400 horas de tiempo de estudio dedicado a la preparación para este examen. El segundo examen generalmente lo toman estudiantes de medicina de cuarto año que además han completado entre 1,5 y 2 años de rotaciones clínicas; enfatiza el razonamiento clínico, el manejo médico y la bioética. El último examen es realizado por médicos que generalmente han completado al menos 6 meses de educación médica de posgrado.
ChatGPT tuvo que responder a 350 de las 376 preguntas habituales en el examen y los resultados mostraron un grado de acierto por encima del 60%. Y lo hizo sin ninguna formación especializada o refuerzo. Además, ChatGPT demostró un alto nivel de concordancia en sus explicaciones. Estos resultados sugieren que los modelos de lenguaje extenso pueden tener el potencial de ayudar con la educación médica y, potencialmente, con la toma de decisiones clínicas.
Los sistemas de inteligencia artificial (IA) son una gran promesa para mejorar la atención médica y los resultados de salud. Medir el conocimiento médico de la IA en comparación con el de los médicos humanos expertos es un primer paso fundamental para evaluar estas cualidades. “Nuestro estudio – señalan los autores – sugiere que los modelos de lenguaje extenso, como ChatGPT, pueden ayudar potencialmente a los estudiantes humanos en un entorno de educación médica, como preludio de la futura integración en la toma de decisiones clínicas”.
Por si esto fuera poco, se verificaron aleatoriamente las entradas para garantizar que ninguna de las respuestas, explicaciones o contenido relacionado se indexara en Google antes del 1 de enero de 2022, la última fecha accesible para el conjunto de datos de capacitación de ChatGPT. ¿Significa esto que ChatGPT tiene el título de medicina? No, solo que es capaz de comprender y contextualizar cierto contenido de forma eficiente. Algo que, aún sin entrenamiento, resulta sorprendente.
Fuente: LA RAZON ESPAÑA