Data & AIData & AI
Tools-in-Action30min
INTERMEDIATE

✨ Du GPU dans mes conteneurs !

La DSI décide de gérer ses propres LLMs sur Kubernetes, nécessitant des GPUs performants et accessibles. Cette session détaille l'utilisation de "NVIDIA GPU Operator" pour optimiser l'usage des GPUs, couvrant installation, configuration, partage de ressources et add-ons comme "node-feature-discovery", tout en maîtrisant les coûts.

Rémi Verchère
Rémi VerchèreAccenture

talkDetail.whenAndWhere

Wednesday, April 16, 17:50-18:20
Neuilly 153
talks.description
Après avoir validé le POC du dernier projet IA, à grands coups de requêtes vers OpenAI, la DSI met le holà, impossible d’envoyer des informations de l'entreprise à un service tiers, on va gérer nos LLMs sur nos propres clusters Kubernetes !Cela demande par contre d’avoir des GPUs (sic) pour que ce soit performant, accessibles aux applications conteneurisées, mais alors comment ça marche ?! Et puis les GPUs c'est cher, c'est rare, comment les utiliser au mieux sans exploser les budgets ?Je vous propose alors de voir ensemble comment, grâce à l’opérateur "NVIDIA GPU Operator" on peut accéder à ces fameux GPUs : installation, configuration, interaction avec l’hôte et gestion des modules noyau, mais surtout les contraintes et divers modes de partage de ressources (time-slicing, mig), et d’autres add-ons sympa comme le "node-feature-discovery" pour utiliser au mieux les ressources, le tout en mode pas-à-pas.Après cette session, mes équipes de devs pourront enfin avoir du GPU dans leurs conteneurs !
kubernetes
gpu
conteneurs
installation
talks.speakers
Rémi Verchère

Rémi Verchère

Accenture

France

D'abord chez les Devs sur des solutions embarquées, j'ai au fur et à mesure de mes postes basculé chez les Ops sur des solutions d'infrastructure diverses et variées. 

Pendant plus de 10 ans j'ai donc bossé avec les Devs et les Ops, affichant une volonté de proposer des choix autour des solutions Open Source.

Je suis maintenant consultant depuis plusieurs années, et apporte aux entreprises mon savoir-faire sur des sujets d'automatisation, observabilité et cloud native infrastructure, en tant qu'Ops au service des Devs.

talkDetail.rateThisTalk

talkDetail.ratingExpired

talkDetail.ratingWindowExpired

occupancy.title

occupancy.votingClosed

occupancy.votingWindowExpired

comments.title

comments.speakerNotEnabledComments