Google supprime les réponses de l’IA des recherches médicales pour avoir donné des conseils dangereux

Google a décidé de supprimer en urgence les résumés générés par l’intelligence artificielle dans certaines recherches liées à la santé. Cette mesure drastique répond à une enquête récente qui a mis en lumière des cas dans lesquels l’outil fournissait des informations trompeuses, fausses et potentiellement dangereuses pour les patients.

L’élément déclencheur a été un rapport de Tuteurqui révélait comment le moteur de recherche proposait des conseils médicaux qui contredisaient directement les recommandations des spécialistes. Dans l’un des cas les plus alarmants, l’IA a conseillé aux personnes atteintes d’un cancer du pancréas d’éviter les aliments riches en graisses. Les experts ont évalué ce conseil comme « vraiment dangereux »puisque la recommandation médicale standard est exactement le contraire et que suivre les instructions de l’IA pourrait augmenter le risque de décès.

Un autre exemple concerne les tests de la fonction hépatique. L’outil a fourni de fausses données sur les valeurs normales des tests sanguins, ce qui pourrait conduire les personnes atteintes de maladies graves du foie croire à tort qu’ils sont en bonne santé. Actuellement, des requêtes telles que « quelle est la plage normale pour les analyses de sang du foie ? » Ils n’affichent plus le panneau d’intelligence artificielle.

Cet incident met en lumière un problème croissant dans le secteur technologique : le mise en œuvre excessive de l’intelligence artificielle et l’instabilité des modèles. Même si ces outils se sont révélés utiles pour augmenter la productivité dans des tâches créatives ou administratives, leur mise en œuvre forcée dans certains domaines s’avère souvent inutile et risquée. Déléguer des réponses médicales à un modèle probabiliste, sans encadrement adéquat, transforme un outil d’aide en source de désinformation sur la santé.

Une histoire d’erreurs et de silence des entreprises

La société a refusé de commenter spécifiquement cette suppression ciblée, mais cette décision s’ajoute à une liste de controverses entourant cette fonctionnalité. La technologie, qui cherche à résumer les informations du Web pour l’utilisateur, s’est révélée sujette à des problèmes embarrassants dans le passé.

Ce n’est pas la première fois que les rafles de Google sur l’IA font la une des journaux pour de mauvaises raisons. Auparavant, le système suggérait même aux utilisateurs de mettre coller sur une pizza pour que le fromage adhère mieux ou que manger des cailloux puisse être bénéfique. Même si ces erreurs étaient absurdes, les échecs actuels dans le domaine médical franchissent la frontière et s’étendent sur un terrain beaucoup plus délicat. Ce n’est plus que l’IA détourne le contenu créé par les sites, c’est qu’elle peut mettre la vie des gens en danger.