Costes crecientes de la IA, ¿es realmente un negocio rentable?
La IA es actualmente una tendencia importante, con millones de usuarios que acceden a ChatGPT a diario. Dada esta gran demanda, no sorprende que ChatGPT incurra en costos operativos sustanciales. Se estima que ejecutar ChatGPT le cuesta a OpenAI alrededor de 700,000 por día, lo que se traduce en 36 centavos por consulta. A pesar del creciente interés de empresas e individuos, ejecutar un chatbot OpenAI en un modelo comercial básico de uso gratuito podría dificultar la generación de ganancias. Estos gastos se ven exacerbados por la necesidad de las empresas de inteligencia artificial, incluida Microsoft, de comprar GPU en grandes cantidades de fabricantes como NVIDIA. Para respaldar sus esfuerzos comerciales, se estima que OpenAI podría requerir 30 000 GPU NVIDIA adicionales este año, en comparación con las 10 000-15 000 GPU actualmente en uso.
Comience a invertir hoy o pruebe una demo gratuitamente
Hazte Cliente PRUEBE UNA DEMO Descarga la app móvil Descarga la app móvil¡La próxima tecnología de Nvidia!
Ayer, Nvidia anunció el lanzamiento de su súper chip GH200, diseñado para satisfacer la creciente demanda de ejecutar grandes modelos de IA y los altos costos asociados. El GH200 cuenta con la misma GPU que el actual chip AI de nivel superior de Nvidia, el H100, pero ofrece el triple de capacidad de memoria. Esta mejora es crucial para las aplicaciones de IA generativa, como ChatGPT, que requieren una potencia computacional sustancial. El coste de ejecutar dichos modelos es significativo, especialmente dado que incluso con los chips H100 de Nvidia, algunos modelos deben distribuirse en varias GPU. El GH200 tiene como objetivo abordar este desafío, con el CEO de Nvidia, Jensen Huang, enfatizando su diseño para escalar los centros de datos globales. Está previsto que el chip esté disponible en el segundo trimestre de 2024 y, aunque el precio sigue sin revelarse, la línea H100 actual tiene un precio de alrededor de 40.000 dólares.
Cuota de mercado de Nvidia
Microsoft y Nvidia han colaborado en la construcción de nuevas supercomputadoras, incluso cuando, Microsoft explora la fabricación de sus propios chips de IA. Sin embargo, el casi monopolio de Nvidia en el mercado de GPU con capacidad de IA, con una participación de mercado estimada del 80 %, podría enfrentar desafíos. Los proveedores de la nube, incluidos AWS, Azure y Google, utilizan principalmente las GPU H100 Tensor Core de Nvidia, pero también están trabajando para agregar sus propios servicios. El dominio de Nvidia también está amenazado por competidores como AMD, que planea aumentar la producción de su GPU AI a finales de este año. Además, gigantes tecnológicos como Google y Amazon se están aventurando a diseñar chips de IA personalizados. El panorama competitivo sugiere que, si bien Nvidia sigue siendo el jugador dominante, el espacio del hardware de IA está evolucionando rápidamente, con nuevas empresas que también exploran este espacio.
"Este informe se proporciona sólo con fines de información general y con fines educativos. Cualquier opinión, análisis, precio u otro contenido no constituyen asesoramiento de inversión o recomendación en entendimiento de la ley de Belice. El rendimiento en el pasado no indica necesariamente los resultados futuros, y cualquier persona que actúe sobre esta información lo hace bajo su propio riesgo. XTB no aceptará responsabilidad por ninguna pérdida o daño, incluida, sin limitación, cualquier pérdida de beneficio, que pueda surgir directa o indirectamente del uso o la confianza de dicha información. Los contratos por diferencias (""CFDs"") son productos con apalancamiento y acarrean un alto nivel de riesgo. Asegúrese de comprender los riesgos asociados. "