Guerre de l’intelligence artificielle générative, « la demande de puces IA explose »

Les produits de services d'intelligence artificielle générative tels que ChatGPT et Midjourney attirent l'attention du marché. Dans ce contexte, l'Association coréenne de l'industrie de l'intelligence artificielle (KAIIA) a organisé le « Sommet Gen-AI 2023 » au COEX à Samseong-dong, à Séoul. L'événement de deux jours vise à promouvoir et à faire progresser le développement de l'intelligence artificielle (IA) générative, qui étend l'ensemble du marché.

Le premier jour, à commencer par le discours d'ouverture de Jin Junhe, chef du département commercial de fusion de l'intelligence artificielle, de grandes entreprises technologiques telles que Microsoft, Google et AWS développant et servant activement ChatGPT, ainsi que des industries sans usine développant des semi-conducteurs d'intelligence artificielle étaient présentes et a fait des présentations pertinentes, notamment « Changements NLP apportés par ChatGPT » par Yoo Seung-jae, PDG de Persona AI, et « Création d'une puce d'inférence IA hautes performances, économe en énergie et évolutive pour ChatGPT » par Baek Jun-ho, PDG de Furiosa AI.

Jin Junhe a déclaré qu'en 2023, année de la guerre de l'intelligence artificielle, le plug ChatGPT entrera sur le marché en tant que nouvelle règle du jeu pour l'énorme compétition de modèles de langage entre Google et MS. Dans ce cas, il prévoit des opportunités dans les semi-conducteurs et les accélérateurs d’IA prenant en charge les modèles d’IA.

Furiosa AI est une entreprise sans usine représentative fabriquant des semi-conducteurs d’IA en Corée. Baek, PDG de Furiosa AI, qui travaille dur pour développer des semi-conducteurs d'IA à usage général pour rattraper Nvidia, qui détient la majeure partie du marché mondial de l'IA hyperscale, est convaincu que « la demande de puces dans le domaine de l'IA va exploser à l'avenir. »

À mesure que les services d’IA deviennent plus complexes, ils sont inévitablement confrontés à une augmentation des coûts d’infrastructure. Les produits GPU A100 et H100 actuels de Nvidia offrent les hautes performances et la puissance de calcul requises pour le calcul de l'intelligence artificielle, mais en raison de l'augmentation des coûts totaux, tels que la consommation d'énergie élevée et les coûts de déploiement, même les très grandes entreprises hésitent à passer à produits de nouvelle génération. Le rapport coût-bénéfice a exprimé des inquiétudes.

À cet égard, Baek a prédit l'orientation du développement technologique, affirmant qu'en plus du fait que de plus en plus d'entreprises adoptent des solutions d'intelligence artificielle, la demande du marché sera de maximiser l'efficacité et les performances au sein d'un système spécifique, tel que « l'économie d'énergie ».

En outre, il a souligné que le point de diffusion du développement des semi-conducteurs d'intelligence artificielle en Chine est la « facilité d'utilisation », et a déclaré que la manière de résoudre le problème du support de l'environnement de développement et de la « programmabilité » sera la clé.

Nvidia a construit CUDA pour présenter son écosystème de support, et s'assurer que la communauté de développement prend en charge des cadres représentatifs pour l'apprentissage profond tels que TensorFlow et Pytoch devient une stratégie de survie importante pour la production.


Heure de publication : 29 mai 2023