Google tiene competencia: los chats de inteligencia artificial como ChatGPT. Algunos ya prometen avances médicos significativos gracias a su uso. Pero el entusiasmo viene con advertencias.
Con la llegada de internet, muchos comenzaron a consultar síntomas en Google antes de acudir a un especialista. Esto generó un fenómeno de autodiagnóstico que, en muchas ocasiones, resulta equivocado. Como se dice popularmente: para el Dr. Google, todo es cáncer.
El problema se agrava con la cantidad de noticias falsas relacionadas con salud. Según encuestas, uno de cada cuatro españoles percibe un aumento de la desinformación. Por eso, las entidades médicas han intensificado su labor de concienciación sobre el uso responsable de la información en línea.
Riesgos de confiar a ciegas
Aunque ChatGPT puede ayudar con diagnósticos comunes, también puede equivocarse con consecuencias graves. Un caso citado es el de un paciente que, tras sufrir un accidente cerebrovascular, confió en la IA y retrasó su visita al hospital, poniendo en riesgo su vida.
El profesor Shunsuke Koga, de la Universidad de Pensilvania, lo resume así: la inteligencia artificial no puede reemplazar a los médicos. Según él, estas herramientas tienen potencial para apoyar, pero también pueden generar desinformación y retrasos peligrosos si se usan sin supervisión profesional.
Más apariencia que entendimiento
Una de las críticas principales a los modelos como ChatGPT es que aparentan saber más de lo que realmente saben. Su diseño busca generar respuestas que “suenen bien”, no necesariamente que sean correctas.
Un ejemplo claro es su respuesta a “¿cuánto es uno más uno?”. ChatGPT acierta porque ha visto muchas veces “uno más uno es dos”, pero no entiende realmente lo que está haciendo. Es como el experimento mental de la “habitación china” de Searle: manipula símbolos sin comprenderlos.
Además, tiende a extenderse en sus respuestas, lo que puede dar una falsa impresión de inteligencia superior. Esto es problemático si los usuarios asumen que están frente a un experto.
Diagnóstico equivocado, ¿quién responde?
La medicina requiere un nivel de responsabilidad alto. Si ChatGPT comete un error sobre un visado, se pierde un viaje. Pero si falla con un diagnóstico, puede costar una vida.
Además, están los sesgos: la IA aprende de datos, y si esos datos están sesgados, sus respuestas también lo estarán. A esto se suma una pregunta crucial que aún no tiene respuesta clara: ¿quién se hace cargo si la IA se equivoca?
Por eso, los expertos coinciden en que lo mejor es una combinación: inteligencia artificial más criterio médico.
La supervisión sigue siendo clave
Aunque la IA es útil para generar, resumir o traducir textos, sigue necesitando supervisión humana. Y en medicina, ese trabajo fino solo puede hacerlo un profesional con criterio clínico.
De hecho, algunos estudios ya sugieren que el uso desmedido de la IA puede afectar negativamente nuestra capacidad crítica. Por eso, es urgente educar en el uso adecuado de estas tecnologías.

No evite la cita médica
La inmediatez de la IA puede resultar tentadora, pero no debe ser una excusa para evitar al especialista. En salud, confiar solo en una máquina puede ser arriesgado.
Así que, aunque ya no haga falta viajar a Delfos, ante una duda médica, el consejo sigue siendo claro: consulte al médico.
Fuente: The Conversation
Otras noticias:
Alibaba crece un 77% priorizando expansión masiva sobre eficiencia