L’intelligence artificielle nous a laissés dans le cloud. Ou plutôt, il n’y vit plus seul. De plus en plus de tâches qui dépendaient auparavant de grands centres de données sont exécutées directement sur l’appareil : sur l’ordinateur portable, dans la voiture, sur une caméra professionnelle ou dans un robot d’entrepôt. Cela a une conséquence directe dont on parle moins que les puces ou les GPU : Le stockage est devenu l’un des grands goulots d’étranglement de la nouvelle ère de l’IA à la périphérie.
Un modèle qui génère des images, comprend la voix, analyse des vidéos 4K en temps réel ou fusionne les données de plusieurs capteurs n’a pas seulement besoin de puissance de calcul. Vous devez lire et écrire d’énormes quantités de données, souvent en très petits blocs et de manière chaotique..
À cela s’ajoute un problème d’échelle. Des sociétés comme Gartner prédisent que, dans quelques années seulement, plus de la moitié des les ordinateurs vendus seront des PC dotés d’une IA capable d’exécuter des modèles localement. Cela signifie des centaines de millions d’appareils générant et transférant des données entre eux : de l’ordinateur portable à l’ordinateur de bureau, du robot à la station de surveillance, de la voiture au système de diagnostic de l’atelier. Le stockage n’est plus seulement « l’endroit où je garde les choses », mais un élément clé pour que toute cette intelligence distribuée fonctionne sans rester bloquée.
Dans ce contexte, des propositions apparaissent telles que nouveau noyau de stockage IA de Lexarune sorte de « module d’intelligence » qui tente de répondre précisément à ces défis : plus de bande passante, plus de capacité de réponse, plus de résistance physique et beaucoup plus de flexibilité lors du déplacement de systèmes et de données entre machines.
Les performances ne se limitent plus aux gigaoctets par seconde
Lorsque nous parlons de stockage rapide, nous pensons généralement aux chiffres de lecture et d’écriture séquentiels, ceux qui paraissent bien sur la fiche technique. Dans l’IA à la pointe, l’histoire est différente. Ce qui fait vraiment la différence, c’est la manière dont le système se comporte lors de petites opérations aléatoires et constantes. Charger un modèle volumineux, consulter des poids, gérer des caches, travailler avec de nombreuses images ou fragments audio en même temps… tout cela soumet le stockage à un schéma d’accès bien différent de celui d’une utilisation « normale ».
L’approche de Lexar implique optimiser précisément ce scénario– Améliorez la gestion des E/S en petits blocs et jouez avec les couches de cache et les modes de type SLC pour réduire la latence des charges de travail telles que le LLM local, l’édition d’images générative ou l’analyse vidéo en temps réel. Le résultat, sur le papier, est un module qui est non seulement capable d’atteindre des vitesses élevées, mais aussi de les maintenir lorsque le système commence à le bombarder d’opérations aléatoires.
Une IA qui ne s’arrête pas même si l’environnement est hostile
L’autre grand front est la fiabilité. La plupart des appareils qui pilotent l’IA en périphérie ne vivent pas dans un bureau à température contrôlée. Pensez aux caméras montées sur des drones, aux robots qui parcourent un entrepôt, aux véhicules à conduite assistée ou autonome circulant en plein été ou à plusieurs degrés en dessous de zéro. Le stockage y souffre.
C’est pourquoi il est logique que Ces types de modules reposent sur un emballage intégré et scellé.capable de résister à l’eau, à la poussière et aux chocs, et de fonctionner dans des plages de températures extrêmes.
Rangement en tant que pièce amovible et portable
Le troisième volet de l’approche de Lexar est la flexibilité. L’idée ici est de traiter le stockage presque comme une « cartouche intelligente » que vous pouvez retirer et remplacer sans éteindre l’appareil. Il conception remplaçable à chaud Il permet de retirer le module alors que le système est encore allumé, ce qui ouvre une gamme d’utilisations intéressante : du déplacement de modèles et de données entre différents postes de travail jusqu’à la mise à jour de « l’intelligence » d’une flotte de robots par un simple changement de module.
Cinq scénarios qui résument où tout cela va
Bien que la technologie soit la même, les cas d’usage sont très différents :
- PC avec IA: la polyvalence règne ici. Téléchargez des modèles, gérez des projets d’IA générative, travaillez avec l’édition vidéo ou photo accélérée par l’IA.
- Jeux d’IA– Il ne s’agit pas seulement de réduire les temps de chargement. Les titres qui commencent à intégrer des personnages et des systèmes basés sur des modèles nécessitent de déplacer beaucoup de données en arrière-plan alors que tout se déroule à 60, 120 FPS ou plus. Des IOPS élevées et une bonne lecture aléatoire signifient moins de bégaiements et une expérience plus stable.
- Caméras IA: capture continue en 4K ou 8K, reconnaissance de scène, suivi du sujet, filtres intelligents… Le tout en temps réel et souvent en extérieur.
- Conduire avec l’IA: Une voiture actuelle dotée de systèmes d’assistance avancés ou de conduite semi-autonome pourrait recevoir des données de diverses caméras, radars, capteurs à ultrasons et, à l’avenir, LiDAR. Tout cela doit être stocké et traité sans relâche.
- Robotique avec IA: peut-être le cas qui résume le mieux la philosophie de ces modules. Robots d’entrepôt, armes industrielles, véhicules de livraison autonomes… tous fonctionnent dans des espaces restreints, avec des mouvements brusques et, souvent, avec des équipes presque ininterrompues.
Des propositions telles que le cœur de stockage IA de Lexar sont un exemple de la direction que prend l’industrie : des modules conçus dès le départ pour ce nouveau type de charges, pour ces scénarios physiques très différents et pour un avenir dans lequel les données et les systèmes ne seront plus liés à une seule machine.