Guerre de l'intelligence artificielle générative : « La demande de puces IA explose »

Les services d'intelligence artificielle générative tels que ChatGPT et Midjourney suscitent un vif intérêt sur le marché. Dans ce contexte, l'Association coréenne de l'industrie de l'intelligence artificielle (KAIIA) a organisé le « Gen-AI Summit 2023 » au COEX de Samseong-dong, à Séoul. Cet événement de deux jours vise à promouvoir et à accélérer le développement de l'intelligence artificielle générative, un secteur en pleine expansion.

Le premier jour, débutant par le discours d'ouverture de Jin Junhe, responsable du département commercial de fusion de l'intelligence artificielle, de grandes entreprises technologiques telles que Microsoft, Google et AWS, qui développent et exploitent activement ChatGPT, ainsi que des industries sans usine développant des semi-conducteurs pour l'intelligence artificielle, ont participé et ont fait des présentations pertinentes, notamment « Les changements apportés au traitement automatique du langage naturel par ChatGPT » par Yoo Seung-jae, PDG de Persona AI, et « La construction d'une puce d'inférence d'IA haute performance, économe en énergie et évolutive pour ChatGPT » par Baek Jun-ho, PDG de Furiosa AI.

Jin Junhe a déclaré qu'en 2023, année de la guerre de l'intelligence artificielle, le plugin ChatGPT fera son apparition sur le marché, bouleversant les règles du jeu dans la compétition féroce entre Google et Microsoft en matière de modèles de langage. Il entrevoit, dans ce contexte, des opportunités dans le domaine des semi-conducteurs et des accélérateurs d'IA qui prennent en charge les modèles d'IA.

Furiosa AI est une entreprise coréenne sans usine de fabrication (fabless) représentative du secteur des semi-conducteurs dédiés à l'IA. Son PDG, Baek, qui s'efforce de développer des semi-conducteurs d'IA à usage général pour rivaliser avec Nvidia, leader mondial de l'IA à très grande échelle, est convaincu que « la demande de puces dans le domaine de l'IA va exploser dans le futur ».

À mesure que les services d'IA se complexifient, leurs coûts d'infrastructure augmentent inévitablement. Les GPU A100 et H100 de Nvidia offrent les performances et la puissance de calcul nécessaires à l'intelligence artificielle, mais l'augmentation des coûts totaux, notamment la forte consommation énergétique et les coûts de déploiement, dissuade même les très grandes entreprises de passer aux produits de nouvelle génération. Le rapport coût-bénéfice suscite des inquiétudes.

À cet égard, Baek a prédit l'orientation du développement technologique, affirmant qu'en plus de l'adoption croissante de solutions d'intelligence artificielle par les entreprises, la demande du marché consistera à maximiser l'efficacité et les performances au sein d'un système spécifique, comme par exemple « les économies d'énergie ».

En outre, il a souligné que le point clé du développement des semi-conducteurs pour l'intelligence artificielle en Chine est « l'utilisabilité », et a déclaré que la manière de résoudre les problèmes de soutien à l'environnement de développement et de « programmabilité » sera essentielle.

Nvidia a créé CUDA pour mettre en valeur son écosystème de support, et s'assurer que la communauté de développement prenne en charge des frameworks représentatifs pour l'apprentissage profond tels que TensorFlow et Pytoch devient une stratégie de survie importante pour la commercialisation.


Date de publication : 29 mai 2023