
Dans le premier volet de notre entretien, Eric Bezille, directeur avant-vente Ingénierie Systèmes et ambassadeur CTO chez Dell Technologies France, expliquait comment l’essor de l’IA agentique transforme profondément la conception des infrastructures IA. Au-delà du simple GPU, les entreprises doivent désormais orchestrer agents autonomes, pipelines RAG continus, stockage contextuel et traitements distribués capables de fonctionner en permanence.
Cette évolution pousse Dell à repositionner sa stratégie autour d’une chaîne complète intégrant calcul, données, réseau, orchestration et automatisation.
Toutefois, cette industrialisation de l’IA pose la question du passage à l’échelle. Derrière les nouveaux usages d’Agentic AI émergent des besoins considérables en capacité de calcul, en interconnexion réseau, en stockage parallèle et en infrastructures capables d’alimenter des environnements IA fonctionnant à très grande échelle.
C’est précisément l’objectif des annonces réalisées par Dell lors de la GTC 2026 autour de Lightning File System, de Dell Exascale Storage, des nouveaux serveurs PowerEdge Vera/Rubin et des fabrics IA basés sur Spectrum-X, Quantum-X800 ou les DPU BlueField. Le constructeur ne parle plus simplement de clusters IA, mais de futures “usines à tokens” capables de servir simultanément des milliers d’agents IA, de modèles et de workloads génératifs.
Au-delà de la puissance brute, Dell cherche surtout à construire des infrastructures capables de redistribuer intelligemment les rôles entre CPU, GPU, DPU, stockage et réseau afin d’optimiser les flux de données, la consommation énergétique et les coûts opérationnels. Une évolution qui rapproche progressivement les architectures IA des logiques hyperscale historiquement réservées aux grands cloud providers.
Dans ce second volet de l’interview, Eric Bezille explique comment Dell prépare les futures AI Factory hyperscale destinées à faire fonctionner des milliers d’agents IA et de workloads génératifs en continu.