Il y a quelque chose de rassurant dans la vitesse avec laquelle Chatgpt complète une phrase, suggère une introduction, soutient une thèse. Mais que se passe-t-il dans notre esprit quand nous laissons être une intelligence artificielle de penser à nous?
Une étude récente menée par Le MIT Media Lab a impliqué trois groupes d’étudiants universitaires engagés dans une tâche classique: rédiger un essai. Le premier ne lui confia que son esprit, le second a utilisé un moteur de recherche, le troisième avait accès à un LLM, un Grand modèle linguistique, tel que Chatgpt.
Les résultats étaient surprenants: ceux qui ont écrit avec l’aide de l’IA en ont montré un Moins d’activation neuronale, une capacité plus faible à rappeler les concepts juste exprimés et, surtout, un faible sens de « propriété » par rapport au texte produit. C’est la démonstration que l’intelligence artificielle n’est pas seulement un instrument: c’est un technologie transformatrice. Cela ne nous aide pas seulement à travailler, mais à modéliser la façon dont nous pensons, nous apprenons, nous décidons. Et c’est ici que l’éthique entre en jeu, non pas comme un ornement théorique, mais comme nécessité civile et culturelle.
Chaque fois que nous déléguons à un algorithme la résolution d’un problème ou la formulation d’une idée, nous risquons d’affaiblir la pensée critique, favorisant ce que les chercheurs appellent Dette cognitive: une utilisation passive et continue de modèles génératifs qui, au fil du temps, nous rend moins capables de penser seuls.

Loin d’être une condamnation, cette conscience peut devenir la première étape vers une cohabitation plus responsable avec l’IA. Il ne s’agit pas de le rejeter, mais de négocier la marge d’autonomie que nous voulons garder en tant qu’individus et en tant qu’entreprise. Le risque réel n’est pas que l’IA prenne de mauvaises décisions. Le vrai risque est que nous cessons de les prendre.
L’éthique de l’intelligence artificielle n’est plus une affaire pour les philosophes ou les juristes, mais une urgence concrète pour les citoyens, les entreprises, les institutions. Nous rappeler est aussi leAI ACT, le règlement approuvé par le Parlement européen en 2024, qui introduit une classification des niveaux de risque et exige l’obligation de Transparence, sécurité et supervision humaine dans les systèmes ayant un impact social élevé.
Mais aucune règle ne peut être suffisante, si elle ne s’accompagne pas d’une culture publique de responsabilité algorithmique. En fait, l’intelligence artificielle n’est pas neutre: elle repose sur des données historiques qui reflètent souvent les inégalités passées; apprend pour les corrélations statistiques, pas pour les valeurs morales. Il est conçu pour optimiser les résultats, et non pour garantir la justice. C’est pourquoi l’éthique est essentielle: non pas à freiner l’innovation, mais à l’orienter vers des principes partagés de l’équité, de la transparence et de la dignité.
Dans cette colonne, nous essaierons de le dire, semaine après semaine, car l’IA change la société et comment nous pouvons apprendre à le changer à tour de rôle. Parce que si l’algorithme est une nouvelle forme de pouvoir, l’éthique est sa grammaire.