Exhortan a no hacer preguntas médicas en ChatGPT
Según Investigadores, los robots inteligencia artificial escriben bien, pero para cosas serias como la salud, tienen un elevado índice de error: hacen referencias científicas inventadas y en general, dan información inexacta.
Redacción Crónica Norte
MONTREAL, 11 agosto 2023.— “Se sabe que robots de inteligencia artificial como ChatGPT pueden generar falsedades, pero las consecuencias son mucho más graves cuando se trata de la salud humana, afirmaron investigadores del Centro Hospitalario Universitario Sainte-Justine y el Hospital Infantil de Montreal.
“ChatGPT escribe muy bien, pero a veces habla mal ¡y no parece!”, señalan los especialistas.
En declaraciones a La Presse, los investigadores recomiendan a la población no hacer preguntas médicas a estos sitios de inteligencia artificial porque, según sus estudios, los robots tienen un elevado índice de error, hacen referencias científicas inventadas, dan malos consejos, citas erróneas, y en general, información inexacta.
Para evaluar el programa, los investigadores procedieron en dos tiempos. Primero le hicieron 20 preguntas médicas a ChatGPT sacadas de 20 artículos científicos publicados recientemente. Le pidieron que respondiera proporcionando referencias.
A continuación, presentaron las respuestas a los autores de los artículos en cuestión para evaluar la calidad y la exactitud de las respuestas, en una escala del 0 al 100 %.
El resultado fue que se encontraron cinco grandes errores en las respuestas y que el 70% de las referencias proporcionadas fueron creadas por completo. Al final del ejercicio, la puntuación media concedida a ChatGPT es 60%.
Con información de La Presse.