Un’indagine condotta da Sonali Sharma, Fulbright Scholar alla Stanford University School of Medicine, rivela che le principali aziende di intelligenza artificiale starebbero eliminando i disclaimer medici, i messaggi chiari e visibili che avvisavano l’utente che l’AI non è un medico. Al contrario, oggi molti modelli non solo rispondono a domande sulla salute, ma arrivano persino a suggerire check‑up e formulare diagnosi.
Sharma si è accorta del cambiamento mentre nel 2023 esaminava modelli AI per l’interpretazione di mammografie. Allora i sistemi mostravano avvertenze come “non sono un medico” e a volte si rifiutavano di interpretare l’immagine. “Poi, un giorno di quest’anno”, racconta Sharma, “non c’era più alcun disclaimer”. Spinta dalla curiosità, ha testato 15 modelli nel periodo 2022–2025 (tra cui sistemi di OpenAI, Anthropic, Google, xAI e altri) su 500 domande mediche e 1.500 immagini diagnostiche (tra cui mammografie e radiografie del torace).
I risultati, pubblicati su arXiv, sono molto indicativi: nel 2025 meno dell’1% delle risposte testuali includeva un avviso, contro oltre il 26% del 2022. Solo poco più dell’1% delle analisi di immagini presentava un disclaimer, rispetto al quasi 20% iniziale.
Gli autori definiscono la riduzione “statisticamente significativa”.














