Guerre de l'IA de l'intelligence artificielle générative, "La demande de puces IA explose"

Les produits de services d'intelligence artificielle générative tels que ChatGPT et Midjourney attirent l'attention du marché.Dans ce contexte, l'Association coréenne de l'industrie de l'intelligence artificielle (KAIIA) a organisé le «Sommet Gen-AI 2023» au COEX à Samseong-dong, Séoul.L'événement de deux jours vise à promouvoir et à faire progresser le développement de l'intelligence artificielle générative (IA), qui élargit l'ensemble du marché.

Le premier jour, en commençant par le discours d'ouverture de Jin Junhe, chef du département commercial de la fusion de l'intelligence artificielle, de grandes entreprises technologiques telles que Microsoft, Google et AWS développant et servant activement ChatGPT, ainsi que des industries sans usine développant des semi-conducteurs d'intelligence artificielle ont assisté et a fait des présentations pertinentes, notamment "Modifications NLP apportées par ChatGPT" par le PDG de Persona AI, Yoo Seung-jae, et "Building a High-Performance, Power-Efficient and Scalable AI Inference Chip for ChatGPT" par le PDG de Furiosa AI, Baek Jun-ho.

Jin Junhe a déclaré qu'en 2023, l'année de la guerre de l'intelligence artificielle, la prise ChatGPT entrera sur le marché en tant que nouvelle règle du jeu pour l'énorme compétition de modèles linguistiques entre Google et MS.Dans ce cas, il prévoit des opportunités dans les semi-conducteurs et les accélérateurs d'IA qui prennent en charge les modèles d'IA.

Furiosa AI est une société sans usine représentative fabriquant des semi-conducteurs IA en Corée.Le PDG de Furiosa AI, Baek, qui travaille dur pour développer des semi-conducteurs d'IA à usage général pour rattraper Nvidia, qui détient la majeure partie du marché mondial de l'IA hyperscale, est convaincu que "la demande de puces dans le domaine de l'IA va exploser à l'avenir". ”

À mesure que les services d'IA deviennent plus complexes, ils sont inévitablement confrontés à des coûts d'infrastructure accrus.Les produits GPU A100 et H100 actuels de Nvidia disposent des hautes performances et de la puissance de calcul requises pour le calcul de l'intelligence artificielle, mais en raison de l'augmentation des coûts totaux, tels que la consommation d'énergie élevée et les coûts de déploiement, même les très grandes entreprises hésitent à passer à produits de nouvelle génération.Le rapport coût-bénéfice inquiète.

À cet égard, Baek a prédit la direction du développement technologique, affirmant qu'en plus du nombre croissant d'entreprises adoptant des solutions d'intelligence artificielle, la demande du marché sera de maximiser l'efficacité et les performances au sein d'un système spécifique, tel que "l'économie d'énergie".

En outre, il a souligné que le point de diffusion du développement des semi-conducteurs d'intelligence artificielle en Chine est la «convivialité», et a déclaré comment résoudre le support de l'environnement de développement et la «programmabilité» seront la clé.

Nvidia a construit CUDA pour présenter son écosystème de support, et s'assurer que la communauté de développement prend en charge des cadres représentatifs pour l'apprentissage en profondeur tels que TensorFlow et Pytoch devient une stratégie de survie importante pour la productisation.


Heure de publication : 29 mai 2023