EnCharge lève 22,6 millions de dollars pour commercialiser ses puces qui accélèrent l’IA

EnCharge lève 22,6 millions de dollars pour commercialiser ses puces qui accélèrent l’IA

Il y a environ un an, TechCrunch a écrit sur une entreprise peu connue qui développe des puces accélérant l’IA pour affronter le matériel des titans de l’industrie – par exemple Nvidia, AMD, Microsoft, Meta, AWS et Intel. À l’époque, sa mission semblait un peu ambitieuse – et elle l’est toujours. Mais la startup, EnCharge AI, est toujours en vie et vient de lever 22,6 millions de dollars dans le cadre d’un nouveau tour de table.

La VentureTech Alliance, le fonds de capital-risque stratégique associé au géant des semi-conducteurs TSMC, a mené le tour de table avec la participation de RTX Ventures, ACVC Partners, Anzu Partners et Schams Ventures. Portant le total des fonds levés par EnCharge à 45 millions de dollars, ce nouveau capital servira à développer l’équipe de la société, qui compte 50 employés aux États-Unis, au Canada et en Allemagne. et à soutenir le développement des puces d’IA d’EnCharge et des solutions d’IA « complètes », selon le cofondateur et PDG Naveen Verma,

« La mission d’EnCharge est de fournir un accès plus large à l’IA pour les 99 % d’organisations qui ne peuvent pas se permettre de déployer les puces d’IA coûteuses et gourmandes en énergie d’aujourd’hui », a déclaré Naveen Verma, cofondateur et PDG d’EnCharge. Verma a déclaré. « Plus précisément, nous permettons de nouveaux cas d’utilisation de l’IA et des facteurs de forme qui fonctionnent de manière durable, d’un point de vue économique et environnemental, afin de libérer tout le potentiel de l’IA. »

M. Verma, directeur du Keller Center for Innovation in Engineering Education de Princeton, a lancé EnCharge l’année dernière avec Echere Iroaga et Kailash Gopalakrishnan. Gopalakrishnan était jusqu’à récemment un membre d’IBM, ayant travaillé pour le géant de la technologie pendant près de 18 ans. M. Iroaga avait auparavant dirigé l’unité commerciale de connectivité de la société de semi-conducteurs Macom en tant que vice-président, puis directeur général.

A lire aussi  Google expérimente des publicités qui apparaissent dans son chatbot IA dans le cadre de la recherche

EnCharge trouve ses racines dans les subventions fédérales que Verma a reçues en 2017 aux côtés de collaborateurs de l’Université de l’Illinois à Urbana-Champaign. Dans le cadre de l’Initiative de résurgence de l’électronique de la DARPA, qui vise à faire progresser une série de technologies de puces informatiques, Verma a dirigé un effort de 8,3 millions de dollars pour étudier de nouveaux types de dispositifs de mémoire non volatile.

Contrairement à la mémoire « volatile » qui prévaut dans les ordinateurs actuels, la mémoire non volatile peut conserver des données sans alimentation électrique continue, ce qui la rend théoriquement plus économe en énergie.

La DARPA a également financé les recherches de Verma sur l’informatique en mémoire – « en mémoire » désignant ici l’exécution de calculs dans la mémoire vive afin de réduire le temps de latence introduit par les dispositifs de stockage.

EnCharge a été lancée pour commercialiser les recherches de Verma. Grâce à l’informatique en mémoire, le matériel d’EnCharge peut accélérer les applications d’intelligence artificielle dans les serveurs et les machines en périphérie de réseau, affirme M. Verma, tout en réduisant la consommation d’énergie par rapport aux processeurs informatiques standard.

« Le calcul de l’IA d’aujourd’hui est coûteux et gourmand en énergie ; actuellement, seules les organisations les mieux capitalisées innovent dans le domaine de l’IA. Pour la plupart d’entre elles, l’IA n’est pas encore réalisable à l’échelle de leur organisation ou de leurs produits », a-t-il déclaré. « Les produits Encharge peuvent fournir la puissance de traitement demandée par le marché tout en répondant aux besoins énergétiques extrêmement élevés et aux obstacles financiers auxquels les organisations sont confrontées.

A lire aussi  ChatGPT arrive sur l'iPad et prend en charge Siri et les raccourcis

Si l’on fait abstraction de ce langage pompeux, il convient de noter qu’EnCharge n’a pas encore commencé à produire son matériel en série et qu’elle n’a pour l’instant que « plusieurs » clients. En outre, EnCharge doit faire face à une concurrence bien financée sur le marché déjà saturé des accélérateurs d’IA. Axelera et GigaSpaces développent tous deux du matériel en mémoire pour accélérer les charges de travail d’IA, et NeuroBlade a levé des dizaines de millions de dollars de financement en capital-risque pour sa puce d’inférence en mémoire destinée aux centres de données et aux appareils de périphérie.

Il est également difficile de prendre les performances annoncées par EnCharge pour argent comptant étant donné que des tiers n’ont pas eu l’occasion de comparer les puces de la startup. Mais les investisseurs d’EnCharge les soutiennent pour ce qu’elles valent.

« EnCharge résout les problèmes critiques liés à la puissance de calcul, à l’accessibilité et aux coûts qui limitent l’IA aujourd’hui et sont inadéquats pour gérer l’IA de demain », a déclaré Kai Tsang, de la VentureTech Alliance, par courrier électronique. « L’entreprise a développé une puissance de calcul qui dépasse les limites des systèmes actuels grâce à une architecture technologiquement unique qui s’intègre dans la chaîne d’approvisionnement d’aujourd’hui.

IA