En collaboration avec NVIDIA, HPE vous invite à participer à son atelier " Building Self-Hosted Generative AI Solutions at Scale " à Paris.
Si vous êtes un professionnel de l'IT, Machine Learning Engineer, ou un Data Scientist chargé de mettre en œuvre des solutions d'IA générative sur site à l'échelle, cet événement est fait pour vous !
Ce que vous retiendrez de cette journée en tant que professionnel de l’IT :
- Comment construire votre plateforme de ML pour l'IA générative ?
- Quelle infrastructure, quel logiciel de plateforme et quelles ressources sont nécessaires lors de la construction pour la scalabilité.
Ce que vous retiendrez de votre journée en tant que Machine Learning Engineer :
- Comment mettre à l'échelle l'entraînement de votre modèle d'IA, à travers des milliards de paramètres de manière efficace et durable et, en simultané, construire des applications de GenAI complètes prêtes à la production.
- Comment déployer rapidement les microservices d'inférence NVIDIA (NIMS) avec les outils HPE.
Ce que vous obtiendrez de votre journée en tant que Data Scientist :
- Comment maintenir une reproductibilité complète grâce aux données et à la lignée d'expériences ?
- Comment construire un pipeline de données à travers plusieurs silos de données différents ?
Comprendre la stratégie commune de HPE et NVIDIA pour les solutions d'entreprise pour l'IA générative :
- Comment éviter l'escalade des coûts du cloud et pourquoi vous devriez envisager un déploiement sur site avec HPE Private Cloud AI.
- Comment HPE et NVIDIA fournissent ensemble une solution inégalée pour l'IA générative.
Agenda
08:00 - 09:00
Inscription et petit-déjeuner
09:00 - 09:15
Accueil et agenda
09:15 - 10:30
Infrastructure optimisée pour les charges de travail d'IA à grande échelle
Stratégie commune de HPE et NVIDIA pour l'IA générative – HPE Private Cloud AI
10:30 - 11:00
Pause café
11:00 - 11:45
Développement, entraînement et optimisation de modèles à grande échelle
Former plus rapidement des modèles d'apprentissage automatique à grande échelle tout en masquant la complexité de l'infrastructure hétérogène sous-jacente.
11:45 - 12:30
Déploiement de modèles et inférence à grande échelle
Déployer et gérer des modèles et exécuter des inférences sur une infrastructure hétérogène, du centre de données à la périphérie.
12:30 - 13:30
Déjeuner
13:30 - 14:30
Session pratique optionnelle
Modèles de base et RAG pour la mise en œuvre de pratiques d’IA générative
13:30 - 14:30
Discussions individuelles
Rencontrez nos intervenants
Hana Malha
AI Solution Architect
HPE
Christophe Menichetti
AI Solution Architect
HPE
Sebastien Grimonet
HPC/AI Solution Architect
HPE
Guillaume Barat
EMEA Alliance Director
NVIDIA