Colaboración con eldiario.es.
El pasado 4 de abril, el periódico El Mundo publicó en su portada una fotografía en la que aparecían juntos, frente a las cámaras, Yolanda Díaz y Pablo Iglesias. La imagen tenía truco: era totalmente falsa y había sido generada por inteligencia artificial (IA). Así lo advertían una etiqueta sobre ella y el titular del artículo. Era la primera vez que uno de los principales medios de comunicación en España ofrecía abiertamente una imagen falsa creada por algoritmos. El debate estaba servido: ¿se estaban vulnerando los principios más básicos del periodismo al crear contenido falso, aunque se advirtiera sobre ello?
Mirando al futuro, esa portada con la fotografía generada por IA plantea otra pregunta aún más inquietante: ¿cuánto tardarán algunos medios en usar de rutina, y sin la precaución necesaria, textos generados de forma totalmente automática gracias a esta tecnología? Los algoritmos que crean contenidos en segundos y con un coste mínimo o inexistente pueden resultar tremendamente tentadores. Sin embargo, cuentan en la actualidad con tres grandes puntos débiles: la información que ofrece una IA suele ser poco original, no es extraño que ofrezca datos falsos y, en la mayoría de los casos, no hay forma de conocer las fuentes de las que procede el contenido creado (de hecho, tecnologías como ChatGPT pueden llegar a inventarse las referencias científicas).
Por estas y otras razones, los grandes medios de comunicación en España apenas emplean la IA para generar noticias de forma automática. No obstante, sí que se está usando cada vez más esta tecnología para recoger y difundir información, entre otras tareas, y es de esperar que su uso se vaya ampliando con el tiempo conforme se vaya perfeccionando y exista un mayor conocimiento entre los periodistas de su potencial.
Seguir leyendo en: “La porcelana triturada añade calcio a la leche”: el peligro de que la inteligencia artificial genere información sanitaria