Tags Cooper Lake google Ice Lake Intel Intelligence Artificielle Machine Learning Movidius Nervana Open Vino Skylake Tensor Processor Units VPU Xeon
Rémi El-Ouazzane, Intel - IA: «Peu de modèles sont vraiment parallélisables sur GPU»
Avant d’accéder aux fonctions de vice-président et directeur des opérations (COO) de l’Artificial Intelligence Products Group chez Intel, Rémi El-Ouazzane occupait le poste de CEO chez Movidius, une start-up spécialisée dans les Vision Processing Units (VPU): un système sur puce ou SoC (System on Chip) à très basse consommation pour doter tout type de machines d’une “vision humaine”.
A l’occasion de l’Intel AI DevCon à Munich, Place de l’IT a interviewé cet expert afin de mieux comprendre le positionnement d’Intel sur les architectures liées à l’Intelligence artificielle, et pour essayer de rendre un peu plus accessible tout ce jargon technnologique.
Pourquoi Intel parle-t-il de processeurs CPU d’intelligence artificielle différents des processeurs traditionnels? Pourquoi Google a-t-il créé ses Tensor Processor Units alors que les GPU semblaient s’imposer en IA? Pourquoi Intel propose-t-il aussi ses processeurs généralistes Xeon à l’IA et au Deep Learning? Les processeurs Intel Nervana ont-ils vocation à remplacer les infrastructures IA en place? … Autant de points sur lesquels Rémi a accepté de répondre, tout en expliquant sa vision et les choix d’Intel. Quelques définitions sont abordées au préalable afin que l’interview reste accessible au plus grand nombre.