Colaboración con el Cuaderno de Cultura Científica.
Los chatbots generados por inteligencia artificial (IA) han experimentado una auténtica revolución entre la población general en el último año, con ChatGPT como su máximo exponente. Centenares de millones de personas alrededor del mundo usan, con más o menos frecuencia, estas tecnologías para diversos fines como resolver dudas o como complemento en el trabajo para redactar textos o para programar. Sin embargo, esta herramienta, que usa el procesamiento del lenguaje natural para generar textos equivalentes a los escritos por los humanos, puede ser tan convincente a la hora de dar información cierta como cuando arroja otra que es totalmente falsa.
n equipo de investigadores de la Universidad Carolina de Praga ha puesto a prueba la capacidad de ChatGPT, desarrollado por la empresa OpenAI, para crear un artículo médico falso, desde cero. Los resultados de su experimento, que se han publicado en la revista Journal of Medical Internet Research, son preocupantes. En tan solo una hora y sin ninguna formación previa del usuario, esta tecnología generó un artículo científico sobre neurocirugía que parecía verídico para los no expertos en la materia. Los autores crearon el documento mediante una serie de preguntas e indicaciones a la IA para ir mejorando progresivamente la calidad de sus respuestas. Posteriormente, expertos en el campo de la neurocirugía, de la psiquiatría y de la estadística evaluaron el artículo falso comparándolo con artículos reales similares.
En apariencia, el artículo científico generado por ChatGPT es idéntico a uno convencional. Reúne los diferentes apartados propios de estos documentos (resumen, introducción, métodos, resultados y discusión), muestra datos y tablas y utiliza las palabras apropiadas con una estructura coherente y lógica. No obstante, las personas expertas podían detectar múltiples errores como imprecisiones en el uso de ciertas palabras o en la redacción de referencias científicas: algunas presentaban detalles incorrectos, mientras que otras directamente eran inventadas. En cualquier caso, el profesor de neurocirugía encargado de evaluarlo explica que «en general, el artículo generado mostró un gran nivel de competencia técnica y autenticidad».
Seguir leyendo en: ChatGPT puede inventarse artículos médicos y hacerte creer que son auténticos