Según un estudio de The Information, OpenAI se gastaba 700.000 dólares al día para mantener los servidores de ChatGPT-3. Esa cantidad ha aumentado ahora que usa GPT-4, que requiere más potencia.
Poca gente sabe que la inteligencia artificial exige unos recursos similares a las criptomonedas. La IA se basa en hacer cálculos y tomar decisiones, lo que exige millones de operaciones por segundo. Por eso necesita una enorme potencia de proceso, y un alto consumo de electricidad.
Todo eso genera un alto coste a la hora de comprar el hardware de los servidores que usa la inteligencia artificial, y de la factura de la luz. Y es un coste que aumenta de forma exponencial: como más mejora la IA y más usuarios tiene, más hardware y electricidad necesita.
El algo gasto de ChatGPT
Con GPT-4, y con el aumento de usuarios, es posible que OpenAI ya esté gastándose más de un millón de dólares al día en mantener los servidores de ChatGPT, según informa The Information, vía Futurism.
La primera razón es que OpenAI emplea procesadores gráficos de NVIDIA, que son caros y consumen bastante, aunque son muy potentes. Por suerte esta vez los gamers no se van a quedar sin tarjetas gráficas como en la pesadilla de las criptomonedas, ya que la IA usa GPUs especializadas creadas para ella.
Es el caso del popular chip A100 de NVIDIA, que copa el 95% del mercado. Según cuenta The Guardian, NVIDIA vendió hace unas semanas docenas de miles de tarjetas A100 a Microsoft para potenciar ChatGPT, así como 20.000 tarjetas H100, la sucesora de la A100, a Amazon. Y otras 16.000 a Oracle.
Las GPUs de NVIDIA son muy potentes, pero caras, y también consumen bastante electricidad. Por eso, según cuenta The Information, OpenAI está buscando alternativas más económicas, y las has encontrado… en la propia Microsoft.
Microsoft ha invertido docenas de miles de dólares en OpenAI. Una alternativa a comprar la empresa, que le permite obtener privilegios, como integrar ChatGPT en Bing u Office.
Lleva también tres años desarrollando un chip de inteligencia artificial más económico que los de NVIDIA, con nombre en clave Athena. Y según parece, ya hay empleados de Microsoft y OpenAI que lo están probando.
No solo es más barato, sino que también consume menos, lo que podría ahorrar mucho dinero a OpenAI.
Los creadores de ChatGPT también están trabajando en reducir el tamaño de su modelo de IA, que ya maneja más de un billón de parámetros. Como mas grande es un modelo más potente y realista, pero más energía y hardware necesita.
ChatGPT genera un gasto en hardware y electricidad a OpenAI, de más de un millón de dólares al día. La solución podría estar en un nuevo chip de IA creado por Microsoft, llamado Athena. Aún así la relación con NVIDIA está asegurada, porque han firmado un contrato de colaboración de varios años.