L'intelligenza artificiale non è ancora pronta a fornire un aiuto ai medici nella formulazione delle diagnosi nei bambini. Uno studio condotto da ricercatori del Cohen Children's Medical Center di New York e pubblicato su Jama Pediatrics ha mostrato infatti che ChatGPT, nella versione 3.5, se interrogata su casi clinici pediatrici, sbaglia l'83% delle diagnosi.
"L'intelligenza artificiale è in rapida evoluzione e le tecnologie basate sull'intelligenza artificiale probabilmente trasformeranno l'assistenza sanitaria pediatrica", si legge in un editoriale pubblicato a corredo dello studio. "L'intelligenza artificiale può supportare un'interpretazione accurata ed efficiente della radiografia del torace e delle immagini retiniche, e probabilmente in futuro migliorerà la diagnosi, la previsione del rischio e la scelta del trattamento". Al momento però non esistono molte ricerche sull'accuratezza diagnostica di questi strumenti nei bambini.
La ricerca ha sottoposto ChatGPT 3.5 a 100 quesiti clinici, constatando che il chatbot sbagliava nell'83% dei casi; nel 72% la risposta era completamente errata, mentre nell'11% le risposte si avvicinavano alla diagnosi corretta ma erano troppo generiche per essere utili.
"Le prestazioni diagnostiche deludenti del chatbot osservate in questo studio sottolineano il ruolo inestimabile dell'esperienza clinica. Il chatbot valutato in questo studio, a differenza dei medici, non è stato in grado di identificare alcune relazioni, come quella tra autismo e carenze vitaminiche", commentano i ricercatori, secondo cui "i medici dovrebbero continuare a studiare le applicazioni" di questi strumenti nella medicina. Anzi, proprio il contributo dei medici potrebbe aiutare ad affinare le loro capacità: "i medici dovrebbero assumere un ruolo più attivo nella generazione di set di dati per prepararli intenzionalmente alle funzioni mediche", scrivono.
Riproduzione riservata © Copyright ANSA