Peut-on faire confiance à l’IA pour guérir le cancer ?
L’intelligence artificielle est devenue un outil puissant dans le domaine de la santé et de la médecine, voire dans le traitement du cancer. Cependant, des études récentes démontrent que si l’IA recèle un immense potentiel, elle comporte également des risques inhérents qui doivent être soigneusement gérés. Une startup a utilisé l’IA pour cibler les traitements contre le cancer. Regardons de plus près les évolutions.
TL;DR :
- La société britannique Etcembly utilise l’IA générative pour créer une immunothérapie puissante, ETC-101, une étape importante pour l’IA dans le développement de médicaments.
- Une étude du JAMA Oncology expose les risques liés aux plans de traitement du cancer générés par l’IA, mettant en évidence les erreurs et les incohérences dans les recommandations de ChatGPT.
- Malgré le potentiel de l’IA, des problèmes de désinformation surviennent. 12,5 % des suggestions de ChatGPT ont été fabriquées. Les patients doivent consulter des professionnels humains pour obtenir des conseils médicaux fiables. Une validation rigoureuse reste cruciale pour une mise en œuvre sûre des soins de santé par l’IA.
L’IA peut-elle guérir le cancer ?
Dans le cadre d’une avancée révolutionnaire, la start-up biotechnologique britannique Etcembly a exploité l’IA générative pour concevoir une immunothérapie innovante, ETC-101. Cette immunothérapie cible les cancers difficiles à traiter. De plus, cette réalisation marque une étape importante car c’est la première fois qu’AI développe un candidat d’immunothérapie. Le processus de création d’Etcembly. En tant que tel, cela met en valeur la capacité de l’IA à accélérer le développement de médicaments, en fournissant un activateur de lymphocytes T bispécifiques à la fois hautement ciblé et puissant.
Cependant, malgré ces succès, nous devons procéder avec prudence, car les applications de l’IA dans le domaine de la santé nécessitent une validation rigoureuse. Une étude publiée dans JAMA Oncology souligne les limites et les risques associés au fait de s’appuyer uniquement sur des plans de traitement du cancer générés par l’IA. L’étude a évalué ChatGPT, un modèle de langage d’IA, et a révélé que ses recommandations de traitement contenaient des erreurs factuelles ainsi que des incohérences.
Des faits mêlés à de la fiction
Les chercheurs du Brigham and Women’s Hospital ont découvert que, sur 104 requêtes, environ un tiers des réponses de ChatGPT contenaient des informations incorrectes. Même si le modèle comprenait des lignes directrices précises dans 98 % des cas, celles-ci étaient souvent entremêlées de détails inexacts. Il est donc difficile, même pour les spécialistes, de repérer les erreurs. L’étude a également révélé que 12,5 % des recommandations de traitement de ChatGPT étaient entièrement fabriquées ou hallucinées. Cela soulève donc des inquiétudes quant à sa fiabilité, en particulier dans les cas de cancer avancés et l’utilisation de médicaments d’immunothérapie.
OpenAI, l’organisation derrière ChatGPT, déclare explicitement que le modèle n’est pas destiné à fournir des conseils médicaux pour des problèmes de santé graves. Néanmoins, ses réponses confiantes mais erronées soulignent l’importance d’une validation approfondie avant de déployer l’IA en milieu clinique.
Même si les outils basés sur l’IA offrent une voie prometteuse pour des progrès médicaux rapides, les dangers de la désinformation sont évidents. Il est conseillé aux patients de se méfier de tout avis médical d’AI. Les patients doivent toujours s’adresser à des professionnels humains. À mesure que le rôle de l’IA dans les soins de santé évolue, il devient impératif de trouver un équilibre délicat entre exploiter son potentiel et garantir la sécurité des patients grâce à des processus de validation rigoureux.