Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.

AMD lance de nouvelles puces pour accélérer la formation en IA


AMD veut que les gens se souviennent que Nvidia n’est pas la seule entreprise à vendre des puces IA. Il a annoncé la disponibilité de nouveaux accélérateurs et processeurs destinés à exécuter de grands modèles de langage, ou LLM.

Le fabricant de puces a dévoilé l’accélérateur Instinct MI300X et l’unité de traitement accéléré (APU) Instinct M1300A, qui, selon la société, servent à former et à exécuter des LLM. La société a déclaré que le MI300X dispose de 1,5 fois plus de capacité de mémoire que la version précédente du M1250X. Les deux nouveaux produits ont une meilleure capacité de mémoire et sont plus économes en énergie que leurs prédécesseurs, a déclaré AMD.

« Les LLM continuent d’augmenter en taille et en complexité, nécessitant d’énormes quantités de mémoire et de calcul », a déclaré Lisa Su, PDG d’AMD. « Et nous savons que la disponibilité des GPU est le moteur le plus important de l’adoption de l’IA. »

Su a déclaré lors d’une présentation que le MI300X « est l’accélérateur le plus performant au monde ». Elle a affirmé que le MI300X est comparable aux puces H100 de Nvidia dans la formation des LLM, mais qu’il est plus performant du côté de l’inférence – 1,4 fois mieux que le H100 lorsqu’on travaille avec Llama 2 de Meta, un LLM de 70 milliards de paramètres.

AMD s’est associé à Microsoft pour intégrer le MI300X dans ses machines virtuelles Azure. Kevin Scott, directeur technique de Microsoft, invité lors du discours de Su, a également annoncé que les machines virtuelles Azure ND MI300X, révélées pour la première fois en novembre, sont désormais disponibles en avant-première. Meta a également annoncé le déploiement de processeurs MI300 dans ses centres de données.

Su a déclaré qu’AMD avait lancé l’APU MI300A pour les centres de données, qui, selon elle, devrait porter son marché potentiel total à 45 milliards de dollars. Les APU combinent généralement des CPU et des GPU pour un traitement plus rapide. AMD a déclaré que le MI300A offre des performances informatiques plus élevées, une formation de modèle plus rapide et une efficacité énergétique 30 fois supérieure. Par rapport au H100, AMD affirme qu’il dispose d’une capacité de mémoire 1,6 fois supérieure. Il dispose également d’une mémoire unifiée, il n’est donc plus nécessaire de déplacer les données de différents appareils.

Le MI300A alimentera le supercalculateur El Capitan construit par Hewlett Packard Enterprise au Lawrence Livermore National Laboratory. El Capitan est considéré comme l’un des supercalculateurs les plus puissants et devrait offrir des performances supérieures à deux exaflops.

L’APU MI300A « est maintenant en production et est en cours d’intégration dans les centres de données ».

Les informations sur les prix n’étaient pas immédiatement disponibles.

Su a taquiné les puces MI300 lors de la Code Conference, affirmant qu’AMD était enthousiasmé par l’opportunité d’exploiter davantage d’utilisateurs de puces, non seulement auprès des fournisseurs de cloud, mais aussi auprès des entreprises et des startups.

AMD a également annoncé le dernier ajout à ses processeurs Ryzen, le Ryzen 8040, qui peut intégrer davantage de fonctions d’IA natives dans les appareils mobiles. La société a déclaré que la série 8040 offre des performances de traitement d’IA 1,6 fois supérieures à celles des modèles précédents et intègre des unités de traitement neuronal (NPU).

La société a déclaré que le Ryzen 8040 ne se limiterait pas au traitement de l’IA, car elle affirme que le montage vidéo serait 65 % plus rapide et que les jeux seraient 77 % plus rapides qu’avec des produits concurrents comme les puces Intel.

AMD s’attend à ce que des fabricants comme Acer, Asus, Dell, HP, Lenovo et Razer lancent des produits intégrant les puces Ryzen 8040 au premier trimestre 2024.

Su a déclaré que la prochaine génération de ses NPU Strix Point serait lancée en 2024.

AMD a également annoncé que la plate-forme logicielle Ryzen AI est désormais largement disponible, ce qui permettra aux développeurs de créer des modèles d’IA sur des ordinateurs portables équipés de Ryzen de décharger les modèles dans le NPU afin que le processeur puisse réduire la consommation d’énergie. Les utilisateurs bénéficieront d’une prise en charge des modèles de base tels que le modèle de reconnaissance vocale Whisper et des LLM comme Llama 2.

Pour alimenter les modèles d’IA – et profiter du battage médiatique actuel autour de cette technologie – des entreprises comme AMD, Nvidia et Intel se sont engagées dans ce qui est fondamentalement une course aux armements en matière de puces d’IA. Jusqu’à présent, Nvidia a conquis la plus grande part de marché avec ses très convoités GPU H100 utilisés pour former des modèles comme le GPT d’OpenAI.


Entertainment

Toutes les actualités du site n'expriment pas le point de vue du site, mais nous transmettons cette actualité automatiquement et la traduisons grâce à une technologie programmatique sur le site et non à partir d'un éditeur humain.
Bouton retour en haut de la page