Un estudio internacional evidenció que los sistemas de inteligencia artificial que responden consultas médicas pueden aceptar y difundir información inventada como si fuera real, generando explicaciones detalladas sobre condiciones que no existen.

La investigación se basó en 300 preguntas ficticias, cada una con un elemento inventado, como una enfermedad o un análisis de laboratorio inexistente. Los resultados mostraron que, en la mayoría de los casos, los chatbots no solo aceptaron la información falsa, sino que la incorporaron con seguridad en sus respuestas. Las tasas de error variaron entre el 50% y el 82% según el modelo analizado.

En algunos ejemplos, los sistemas describieron con lujo de detalles supuestos trastornos neurológicos o raras condiciones infecciosas, pese a que habían sido completamente fabricadas para la prueba. Los expertos señalan que este tipo de fallas, conocidas como “alucinaciones”, representan un riesgo importante de desinformación en el ámbito sanitario.

Como aspecto positivo, los investigadores descubrieron que incluir una advertencia previa en la consulta —recordando que podría haber errores— redujo significativamente la propagación de datos falsos. El hallazgo subraya la importancia de diseñar interacciones más seguras y críticas, en especial cuando se trata de temas de salud.

podría interesarte