Une nouvelle étude de la Harvard Medical School et du Beth Israel Deaconess Medical Center attire l'attention en montrant que l'intelligence artificielle (IA) peut établir des diagnostics dans les urgences avec une plus grande précision que les médecins dans certains cas.
Le travail a été publié dans la revue Science, réalisé par un groupe de médecins et de informaticiens, afin d'évaluer l'efficacité des grands modèles linguistiques dans de nombreux contextes médicaux, y compris les situations d'urgence réelles.
Les chercheurs ont comparé les capacités de diagnostic des deux médecins internes avec les modèles d'IA d'OpenAI, notamment "o1 et 4o".
Dans une expérience notable, l'équipe de recherche a analysé les données de 76 patients venus aux urgences de Beth Israel (un système hospitalier aux États-Unis).
Les diagnostics du médecin et de l'IA sont évalués indépendamment par deux autres médecins, à condition qu'ils ne sachent pas que ce résultat est donné par l'IA ou par l'homme.
Les résultats montrent que le modèle o1 atteint une précision ou une approximation de 67% dans la classification initiale, ce qui est supérieur aux 55% et 50% des deux médecins participants.
Il est à noter que l'IA présente un avantage évident au stade de la classification initiale, qui est le moment où les médecins ont le moins d'informations mais doivent prendre des décisions rapidement.
Le groupe de recherche a déclaré que, dans chaque étape du diagnostic, le modèle o1 donne toujours des résultats égaux ou supérieurs à ceux des médecins et des modèles d'IA de la génération précédente.
Dans le même temps, le groupe de recherche a également souligné que l'IA n'est pas "traitée à l'avance des données" mais utilise uniquement les informations disponibles dans les dossiers médicaux électroniques au moment du diagnostic, de la même manière que les médecins.
Cela montre le potentiel de l'IA pour aider à prendre des décisions dans des environnements à forte pression tels que les urgences.
Cependant, le groupe de recherche a également affirmé que ce résultat ne signifie pas que l'IA est prête à remplacer les médecins dans les décisions de survie. Le groupe de recherche a également appelé à davantage d'essais préventifs dans un environnement réel pour évaluer pleinement l'efficacité et la sécurité de cette technologie.
Une autre limite soulignée est que la recherche n'évalue l'IA que sur la base de données textuelles. Pendant ce temps, la réalité clinique comprend également de nombreux autres facteurs tels que l'imagerie médicale, les signes vitaux et l'observation directe, qui sont des domaines dans lesquels l'IA est encore limitée.
Les experts ont également mis en garde contre l'exagération des résultats. Le Dr Adam Rodman (participant à l'étude et médecin interniste au Beth Israel Deaconess Medical Center) a déclaré qu'il n'existe actuellement pas de cadre juridique clair pour déterminer la responsabilité lorsque l'IA fait un mauvais diagnostic.
Pendant ce temps, la médecine d'urgence Kristen Panthagani a estimé que la comparaison de l'IA avec un médecin interniste plutôt qu'un médecin d'urgence pourrait ne pas refléter fidèlement la réalité.
En effet, dans un environnement d'urgence, l'objectif principal des médecins n'est pas de faire un diagnostic final immédiat, mais d'identifier rapidement les situations dangereuses pour la vie afin de les traiter à temps.
Dans l'ensemble, la recherche ouvre de grandes perspectives pour l'application de l'IA en médecine, en particulier pour aider les médecins à prendre des décisions rapides. Cependant, pour devenir un outil fiable dans la pratique, l'IA doit encore surmonter de nombreux défis techniques, juridiques et éthiques.