Intel améliore les performances « gratuites » avec son outil d’optimisation binaire, mais Geekbench remet en question ses résultats

Intel continue de se concentrer sur l’amélioration des performances de ses processeurs au-delà du matériel lui-même, et en collaboration avec le Core Ultra 200S Plus (également connu sous le nom d’Arrow Lake Refresh) a présenté son nouveau Outil d’optimisation binaire. Cet outil promet d’augmenter les performances sans intervention de l’utilisateur, ce qui est particulièrement intéressant pour les jeux et les applications exigeantes. Cependant, son fonctionnement a suscité des doutes au sein de la communauté, notamment dans le domaine des benchmarks, où la cohérence est la clé.

Geekbench prévient : les résultats peuvent ne pas être valides

Le développeur Geekbench, Laboratoires de primatesa réagi rapidement à cette technologie, assurant que son utilisation pouvait compromettre la validité des résultats. C’est parce que l’outil Intel modifie la façon dont les fichiers .exe sont exécutésmodifiant le comportement attendu du logiciel. Dans un environnement de test standardisé, cela enfreint les règles du jeu, puisque les résultats ne reflètent plus le comportement « pur » du système.

Pour éviter toute confusion, Geekbench affichera un avis spécifique lorsqu’il détecte ce type d’optimisations, indiquant que le résultat peut être invalide. Cela représente un changement important, car il introduit une nouvelle variable dans les tests de performances qui n’existait pas jusqu’à présent. En outre, il met sur la table le débat sur la mesure dans laquelle ces optimisations doivent être considérées comme légitimes dans les comparaisons entre processeurs.

Des améliorations allant jusqu’à 22 % dans les jeux et environ 8 % dans les benchmarks

En termes de performances, le bilan est clair et plutôt positif, du moins sur le papier. Les tests effectués montrent une augmentation proche de 8% sur Geekbench 6aussi bien en monocœur que multicœur, ce qui constitue une amélioration notable sans avoir à toucher aux configurations. Cette augmentation vient grâce à une optimisation plus efficace de l’utilisation du processeur, ce sur quoi Intel a travaillé directement dans ses laboratoires.

Dans les jeux vidéo, les comportements sont plus variables, mais aussi prometteurs. Des titres comme Cyberpunk 2077 connaissent des améliorations plus contenues, tandis que d’autres, comme L’Ombre du Tomb Raider Ils peuvent atteindre jusqu’à 22% de performances supplémentaires grâce à cet outil. Pour le moment, la compatibilité est limitée à seulement 12 jeux, même si Intel a déjà confirmé qu’il élargirait cette liste avec de futures mises à jour.

Une optimisation au niveau binaire qui ne touche pas au code original

L’un des aspects les plus intéressants de cette technologie est son fonctionnement interne. L’outil est basé sur la technologie Intel APO et analyse les charges de travail au niveau microarchitectural pour détecter les inefficacités dans l’utilisation de l’IPC. À partir de là, Intel génère des versions optimisées du code directement au niveau binaire, sans avoir besoin d’accéder au code source ni de modifier l’exécutable d’origine.

Lorsque l’utilisateur active cette fonction, un service en arrière-plan se charge de rediriger l’exécution vers ces routes optimisées. Tout cela se produit de manière transparente, sans intervention de l’utilisateur et sans altération du fichier original sur le disque. Il s’agit d’une approche très similaire à celle utilisée par les pilotes graphiques lors de l’optimisation des shaders dans les jeux, transférant désormais ce concept au domaine des processeurs.

Une arme puissante pour le gaming, mais controversée dans les tests de performances

Du point de vue de l’utilisateur, notamment dans le domaine des jeux, cet outil représente un net avantage : plus de performances sans surcoût et sans complications. Il n’y a pas de perte de qualité ni de réduction de la charge de travail, simplement une meilleure organisation des instructions pour tirer le meilleur parti du matériel disponible. Cela en fait une solution très intéressante pour éliminer les processeurs compatibles.

Cependant, dans le domaine des benchmarks, la situation est très différente. S’agissant d’un système fermé et non transparent, beaucoup le considèrent comme une sorte de « boîte noire »où l’on ne sait pas exactement quels changements sont appliqués. Cela rend difficile les comparaisons équitables entre les plates-formes et ouvre un nouveau débat dans l’industrie sur la manière de mesurer les performances réelles à une époque où les logiciels jouent également un rôle clé.