Red Hat dévoile d’importantes améliorations pour Red Hat Enterprise Linux axées sur l’intelligence artificielle
Red Hat a récemment annoncé des améliorations significatives pour sa plateforme Red Hat Enterprise Linux (RHEL), avec un accent particulier sur l’intégration de l’intelligence artificielle. Ces modifications visent à simplifier le développement et le déploiement de modèles d’IA, rendant la technologie plus accessible et abordable pour les entreprises. La version 1.2 de RHEL AI introduit de nouvelles fonctionnalités et des outils adaptés pour optimiser l’usage de l’IA dans divers environnements, qu’ils soient cloud ou sur site, renforçant ainsi la capacité des organisations à tirer parti des avancées technologiques dans leurs opérations quotidiennes.
Red Hat a récemment procédé à la mise à jour de sa plateforme Red Hat Enterprise Linux AI (RHEL AI), avec le lancement de la version 1.2. Cette nouvelle version apporte des améliorations significatives qui visent à faciliter le développement, le test et le déploiement de modèles de langage de grande envergure (LLMs). Grâce à une approche collaborative et des outils adaptés, RHEL AI se positionne comme une solution incontournable pour intégrer l’intelligence artificielle générative au sein des entreprises.
Optimisation du développement et du déploiement
La version 1.2 de RHEL AI se concentre sur l’amélioration de l’accessibilité des technologies de gen AI à un plus large éventail d’utilisateurs, notamment les développeurs et les experts en la matière, et pas seulement les scientifiques des données. Cette mise à jour inclut des outils basés sur la méthodologie LAB, permettant d’exploiter au mieux les capacités des LLM et d’optimiser le processus de formation.
Accès aux connaissances externes
RHEL AI intègre également la technique de Retrieval-Augmented Generation (RAG) qui permet aux modèles d’accéder à des connaissances externes validées stockées dans divers formats de données. Cette approche assure que les réponses fournies par les modèles sont non seulement correctes, mais aussi pertinentes pour les utilisateurs, contribuant ainsi à une meilleure prise de décision.
Support matériel élargi et déploiement simplifié
Un autre point fort de cette mise à jour est l’extension du support matériel. Le système prend désormais en charge les serveurs Lenovo ThinkSystem SR675 V3, facilitant ainsi le déploiement avec des options préchargées. De plus, les utilisateurs peuvent profiter de la prise en charge de AMD Instinct Accelerators pour des tâches d’inférence et d’entraînement, renforçant la polyvalence de la plateforme.
Améliorations logicielles remarquables
La nouvelle fonctionnalité de Checkpointing Périodique permet de sauvegarder les longues séances d’entraînement à des intervalles réguliers, offrant la possibilité de reprendre la formation à partir du dernier point de contrôle enregistré. Cela non seulement économise du temps, mais préserve également les ressources informatiques.
Avancées technologiques avec PyTorch
Avec l’introduction de PyTorch Fully Sharded Data Parallel (FSDP), RHEL AI 1.2 répond à la nécessité d’accélérer les temps d’entraînement. Cette technologie permet de diviser les paramètres des modèles sur différents travailleurs, tels que les GPUs, réduisant ainsi le temps d’entraînement pour les modèles utilisant des données synthétiques.
Un futur accessible pour l’IA d’entreprise
En réduisant les barrières à l’entrée pour le développement et l’entraînement des modèles basés sur l’intelligence artificielle, Red Hat affirme clairement sa volonté de rendre ces technologies accessibles à tous types d’utilisateurs. L’approche collaborative adoptée par RHEL AI est un atout majeur pour les entreprises souhaitant intégrer l’IA à leurs processus opérationnels, tout en bénéficiant d’une infrastructure solide et fiable.
En trompant la version 1.1, Red Hat encourage ses utilisateurs à migrer vers la version 1.2 dans un délai de 30 jours, une démarche qui témoigne de sa volonté d’évoluer rapidement dans le domaine compétitif de l’IA en entreprise.
Comparaison des améliorations de RHEL AI 1.2
Amélioration | Détails |
Support des serveurs | Ajout du support pour les serveurs Lenovo ThinkSystem SR675 V3. |
Accélérateurs AMD | Prise en charge des GPU AMD Instinct MI300x et MI210 pour l’entraînement. |
Fonctionnalité de sauvegarde | Introduction du “Periodic Checkpointing” pour des formations plus efficaces. |
Intégration Cloud | Support étendu sur Azure et Google Cloud, en plus d’AWS et IBM Cloud. |
Optimisation des Temps de Formation | Utilisation de PyTorch FSDP pour réduire significativement les temps d’entraînement. |
Accès aux données externes | Utilisation de la génération augmentée par récupération (RAG) pour des réponses plus précises. |
Base Open Source | Collaboration ouverte via le projet InstructLab pour l’alignement des modèles. |
Accessibilité | Facilite l’accès à l’entraînement des modèles pour les experts de domaine, pas uniquement les data scientists. |
Version 1.1 | Dépréciation de la version 1.1 avec un délai de 30 jours pour mise à jour. |
Améliorations clés de Red Hat Enterprise Linux AI
- Lancements rapides : RHEL AI 1.2 disponible après 1.0.
- Développement simplifié : Facilite la création de modèles d’IA générative.
- Collaboration ouverte : Utilisation d’InstructLab pour le développement de modèles.
- RAG : Accès à des connaissances externes et fiables.
- Support hardware : Intégration avec des serveurs Lenovo et AMD.
- Déploiement cloud : Compatibilité avec Azure et Google Cloud.
- Optimisation des ressources : Fonctionnalité de checkpointing périodique pour sauvegarde.
- Réduction du temps d’entraînement : Technologie PyTorch Fully Sharded Data Parallel.
- Accessibilité : Outils destinés aux experts de domaine, pas seulement aux data scientists.
- Transition vers la version 1.2 : Fin du support pour RHEL AI 1.1.
Commentaires
Laisser un commentaire