Los malos consejos de salud de ChatGPT

Desde hace ya varios meses la implementación de la inteligencia artificial en la vida del día a día ha sido más evidente. El claro ejemplo de esta transformación tecnológica es ChatGPT. El algoritmo que está detrás de esta inteligencia artificial hace posible poder obtener respuestas acertadas cuando hacemos cuestionamientos diversos a la misma. Sin embargo, como todo en la vida, nada es color de rosa.

Y es que, desde ya hace un tiempo, la introducción de la inteligencia artificial en el sector de la salud se ha vuelto más común. Un claro ejemplo es la creación de un chatbot hecho por Google el cual puede responder dudas diversas de los doctores o del personal de salud. Dicha herramienta ya está siendo probada en clínicas de salud de Estados Unidos. Además, OpenIA, quienes son los creadores de ChatGPT, también están integrando esta tecnología al sector de salud, pero los resultados no están siendo los esperados. 

Recientemente, un estudio publicado en la revista JAMA Oncology reveló que ChatGPT ofreció información poco útil en relación con tratamientos de cáncer. Esto puede resultar preocupante, especialmente para pacientes ansiosos y en busca desesperada de respuestas. Este análisis reveló que, aproximadamente un tercio de las consultas, ChatGPT ofreció recomendaciones de tratamiento para el cáncer que no coincidían con las directrices médicas establecidas. Danielle Bitterman, coautora del estudio y investigadora del Dana-Farber Cancer Institute, comentó: "Aunque las respuestas de ChatGPT pueden parecerse mucho a las de un humano y son bastante persuasivas, la toma de decisiones clínicas implica considerar muchas particularidades de la situación única de cada paciente".

Bitterman continuó diciendo que la respuesta correcta en el ámbito médico puede ser muy matizada y no necesariamente es algo que ChatGPT u otro modelo de lenguaje extenso pueda proporcionar adecuadamente. Para el estudio, se emplearon 104 preguntas relacionadas con el cáncer de pulmón, próstata y mama. Los resultados se compararon con las directrices de tratamiento del cáncer de la Red Nacional Integral del Cáncer (NCCN por sus siglas en inglés). Alarmantemente, ChatGPT proporcionó recomendaciones que no coincidían con las de la NCCN en un 34,3% de las ocasiones. Incluso en 13 de 104 respuestas, el modelo generó respuestas completamente ficticias.

El equipo de Bitterman resaltó la responsabilidad que tienen los desarrolladores de garantizar que las tecnologías no causen daños. "Los pacientes y los profesionales de la salud deben estar conscientes de las limitaciones de estas tecnologías", señalaron. Aunque, la Inteligencia Artificial ha avanzado lo suficiente como para superar exámenes de licencia médica, todavía no está preparada para reemplazar a los profesionales médicos. Así que, antes de que alguien considere buscar asesoramiento médico en ChatGPT, es crucial entender que aún tiene limitaciones importantes en este campo.


- Fredy con una d

No hay comentarios:

Con la tecnología de Blogger.