Mots-clésCascade Lake Cooper Lake cpu deep learning edge computing fpga google GPU ia Ice Lake Intel Intelligence Artificielle Machine Learning Movidius Nervana Open Vino processeur Remi El Ouazzane réseau neuronal Skylake Tensor Processor Units Tensorflow VNNI VPU Xeon
Rémi El-Ouazzane, Intel – IA: «Peu de modèles sont vraiment parallélisables sur GPU»

Avant d’accéder aux fonctions de vice-président et directeur des opérations (COO) de l’Artificial Intelligence Products Group chez Intel, Rémi El-Ouazzane occupait le poste de CEO chez Movidius, une start-up spécialisée dans les Vision Processing Units (VPU): un système sur puce ou SoC (System on Chip) à très basse consommation pour doter tout type de machines d’une “vision humaine”.
A l’occasion de l’Intel AI DevCon à Munich, Place de l’IT a interviewé cet expert afin de mieux comprendre le positionnement d’Intel sur les architectures liées à l’Intelligence artificielle, et pour essayer de rendre un peu plus accessible tout ce jargon technnologique.
Pourquoi Intel parle-t-il de processeurs CPU d’intelligence artificielle différents des processeurs traditionnels? Pourquoi Google a-t-il créé ses Tensor Processor Units alors que les GPU semblaient s’imposer en IA? Pourquoi Intel propose-t-il aussi ses processeurs généralistes Xeon à l’IA et au Deep Learning? Les processeurs Intel Nervana ont-ils vocation à remplacer les infrastructures IA en place? … Autant de points sur lesquels Rémi a accepté de répondre, tout en expliquant sa vision et les choix d’Intel. Quelques définitions sont abordées au préalable afin que l’interview reste accessible au plus grand nombre.