Le PDG de Nothing dit que les applications vont disparaître et que les agents IA seront ceux qui feront tout sur votre mobile

Carl Pei, co-fondateur et PDG de Nothing, a profité de son passage à la conférence SXSW à Austin pour partager sa vision du futur du smartphone. Les applications telles que nous les connaissons vont disparaîtredit-il, remplacés par des agents d’intelligence artificielle qui connaîtront si bien l’utilisateur qu’ils agiront de leur propre chef sans que personne ne leur demande. L’interface actuelle, avec l’écran d’accueil, les applications et les magasins d’applications, n’a pas beaucoup changé depuis vingt ans. Il s’agit, selon ses mots, d’une expérience « pré-iPhone ».

L’argument a sa logique. Commander un café avec quelqu’un aujourd’hui nécessite de passer par quatre applications différentes : messagerie, cartes, Uber et calendrier. Pei imagine un système qui, connaissant votre intention, il le fait juste. Pas de menus, pas d’étapes, pas de friction. Il ne s’agit pas d’un agent utilisant une interface humaine, mais d’une interface conçue expressément pour que l’agent puisse fonctionner efficacement.

De même l’année dernière, Nothing a clôturé un tour de financement de 200 millions de dollars avec ce discours comme argument central. Et cette vision n’est pas exclusive à Pei. OpenAI développe depuis quelques temps ChatGPT Agent, capable d’exécuter des tâches complexes sur le web de manière autonome. Microsoft travaille sur des agents IA pour Windows qui nécessiteront autorisations utilisateur explicites pour accéder aux informations privéesune mesure qui anticipe déjà les risques d’un système automatisé ayant accès à tout.

Le problème ? Les agents IA continuent d’étonner dans des environnements réels

La vision de Pei est intéressante sur le papier. Le problème est que Les agents IA d’aujourd’hui ne sont pas des entités avec leurs propres critèresmais des modèles de langage connectés à des environnements numériques réels. Et la différence entre les deux compte beaucoup lorsque l’agent a accès à votre agenda, vos emails, votre compte bancaire ou les systèmes internes d’une entreprise.

Sans aller plus loin, Meta a confirmé cette semaine un incident qui illustre exactement ce risque. Un employé a demandé des conseils sur un problème d’ingénierie sur un forum interne. Un agent IA a répondu avec une solution. L’employé l’a mis en œuvre. Le résultat fut que Pendant deux heures, une grande quantité de données sensibles a été exposée aux ingénieurs Meta. L’entreprise a indiqué qu’aucune donnée n’avait été utilisée à mauvais escient et qu’un être humain aurait également pu donner des conseils erronés. Mais l’ampleur et la rapidité avec lesquelles un agent peut agir ne sont pas comparables à celles d’un humain.

Le problème technique est connu. Les agents IA fonctionnent avec ce qu’on appelle une fenêtre contextuelle, un type de mémoire de travail qui contient les instructions pour la tâche en cours. Mais cette mémoire est limitée et se dégrade. Un ingénieur avec deux ans d’expérience porte en lui des connaissances accumulées sur quels systèmes sont critiques, ce qui peut tomber en panne à deux heures du matin et quelles actions ont des conséquences. L’agent n’a rien de tout cela à moins que cela ne soit expliqué dans l’invite, et même si cela est expliqué, cette information commence à s’estomper à mesure que la tâche progresse.

Ce n’est pas le seul cas récent. Amazon a connu au moins deux pannes liées au déploiement d’outils d’IA internes. Les employés de l’entreprise ont décrit aux médias internationaux de graves erreurs, un code bâclé et une productivité réduite en raison de l’intégration accélérée des agents dans leurs flux de travail.

Voulons-nous vraiment que l’IA contrôle nos environnements numériques ?

La vision de Carl Pei décrit un futur dans lequel l’agent agit avant que l’utilisateur ne réalise qu’il en a besoin. Un système qui anticipe les intentions et s’exécute sans demander de confirmation. Pour que cela fonctionne en toute sécurité, l’agent aurait besoin d’un niveau de fiabilité et de compréhension contextuelle qui aujourd’hui n’existe tout simplement pas. Les modèles linguistiques, même les plus avancés, continuent d’halluciner, de confondre les contextes et de prendre des décisions erratiques.

Pei lui-même reconnaît que les applications ne vont pas disparaître de si tôt et que son propre système d’exploitation permet toujours aux utilisateurs de créer leurs propres mini-applications à l’aide du vibe coding. Le passage de « l’agent peut réserver un vol si je lui demande » à « l’agent sait ce que je veux et le fait sans que personne ne lui demande » est un grand pas en avant en termes de confiance, de sécurité et de capacité technique réelle.

La question qui reste est de savoir si l’utilisateur moyen a réellement besoin ou veut un système automatisé a ce niveau d’accès et d’autonomie sur votre vie numérique. Avant que les agents d’IA puissent agir pour nous sans que nous y réfléchissions à deux fois, ils devraient démontrer qu’ils sont capables de le faire sans commettre les erreurs qui les rendent encore dangereux dans les environnements réels d’aujourd’hui.