Logo PipolTV

Científica creó una enfermedad ficticia y la inteligencia artificial la interpretó como real

bixo
Una investigadora de la Universidad de Gotemburgo realizó un experimento para demostrar cómo los sistemas de inteligencia artificial pueden aceptar y difundir información médica falsa cuando esta se presenta con apariencia científica. El caso generó preocupación entre expertos por el potencial de la IA para amplificar desinformación médica.
La investigadora Almira Osmanovic Thunström inventó una enfermedad llamada “bixonimania”, descrita como una supuesta afección ocular asociada a picor de ojos, párpados rosáceos y molestias tras largas horas frente a pantallas. Aunque la enfermedad nunca existió, fue presentada dentro de artículos falsos elaborados deliberadamente para parecer publicaciones científicas legítimas.
Como parte del experimento, Osmanovic Thunström subió dos estudios ficticios a un servidor de prepublicaciones científicas. Según reportó la revista Nature, los artículos incluían múltiples señales absurdas que debían evidenciar el engaño. El supuesto autor principal era “Lazljiv Izgubljenovic”, un investigador inexistente cuya imagen había sido generada con inteligencia artificial. También eran ficticias instituciones como la “Asteria Horizon University de Nova City, California” y organizaciones financiadoras como la “Fundación del Profesor Sideshow Bob” y la “Universidad de la Comunidad del Anillo y la Tríada Galáctica”.
Incluso los agradecimientos contenían referencias claramente irreales, incluyendo menciones a la “Academia de la Flota Estelar” y al “USS Enterprise”. El texto señalaba explícitamente que “todo este trabajo es inventado” y que se habían reclutado “cincuenta personas inventadas”.
A pesar de ello, varios sistemas de inteligencia artificial interpretaron la información como auténtica y comenzaron a generar respuestas médicas detalladas sobre la supuesta enfermedad.
Lo más preocupante, según la investigación, fue que algunos científicos también terminaron citando la enfermedad ficticia en publicaciones académicas revisadas por pares. Un artículo publicado en la revista Cureus, perteneciente a Springer Nature, mencionó la bixonimania como una “forma emergente” de melanosis periorbital. Posteriormente, el artículo fue retirado tras la intervención de Nature y la identificación de referencias falsas.
El aviso de retractación reconoció “la presencia de tres referencias irrelevantes, incluida una referencia a una enfermedad ficticia”.
Osmanovic Thunström advirtió que el problema podría ser mucho mayor de lo que actualmente se detecta. “Es preocupante que estas afirmaciones importantes pasen por la literatura sin ser cuestionadas”, declaró a Nature.
El experimento también puso bajo escrutinio a compañías tecnológicas. OpenAI indicó a Nature que sus modelos actuales son “significativamente mejores” para proporcionar información médica, mientras que Google afirmó que las respuestas problemáticas provenían de versiones anteriores de Gemini. Microsoft no respondió a las consultas del medio científico.
Sin embargo, incluso en marzo de 2026, Copilot todavía describía la bixonimania como una afección “aún no ampliamente reconocida, pero descrita en artículos y casos clínicos emergentes”.
El fenómeno también fue analizado por Mahmud Omar, investigador de Harvard, en un estudio publicado en Lancet Digital Health. Sus hallazgos sugieren que tanto las personas como los modelos de inteligencia artificial tienden a otorgar mayor credibilidad a textos con apariencia académica y científica, incluso cuando contienen información falsa.
Alex Ruani, investigador doctoral en desinformación sanitaria del University College London, describió el experimento como “una lección magistral sobre cómo funciona la desinformación”.
El caso pone en evidencia uno de los principales desafíos de la inteligencia artificial generativa: las llamadas “alucinaciones”, respuestas falsas o inventadas redactadas con gran coherencia y apariencia de autoridad.
Aunque la IA tiene potencial para transformar múltiples áreas de la medicina, especialistas advierten que la información médica generada por estas herramientas debe ser siempre contrastada con fuentes científicas confiables y profesionales de salud.