Custos crescentes da IA, será um negócio realmente rentável?
A IA é atualmente uma tendência significativa, com milhões de utilizadores a acederem diariamente ao ChatGPT. Dada esta elevada procura, não é surpreendente que o ChatGPT incorra em custos operacionais substanciais. Estima-se que o funcionamento do ChatGPT custe à OpenAI cerca de 700.000 dólares por dia, o que se traduz em 36 cêntimos por consulta. Apesar do interesse crescente por parte de empresas e particulares, gerir um chatbot da OpenAI num modelo de negócio básico de utilização gratuita pode dificultar a geração de lucros. Estas despesas são exacerbadas pela necessidade de as empresas de IA, incluindo a Microsoft, comprarem GPUs em grandes quantidades a fabricantes como a NVIDIA. Para apoiar os seus esforços comerciais, estima-se que a OpenAI possa necessitar de mais 30.000 GPUs NVIDIA este ano, em comparação com as 10.000-15.000 GPUs atualmente em utilização.
A próxima tecnologia de ponta da Nvidia!
Ontem, a Nvidia anunciou o lançamento do seu super chip GH200, concebido para satisfazer a crescente procura de modelos de IA de grandes dimensões e os elevados custos associados. O GH200 possui a mesma GPU que o atual chip de IA de topo da Nvidia, o H100, mas oferece o triplo da capacidade de memória. Esta melhoria é crucial para aplicações de IA generativa, como o ChatGPT, que requerem um poder computacional substancial. O custo de execução desses modelos é significativo, especialmente tendo em conta que, mesmo com os chips H100 da Nvidia, alguns modelos precisam de ser distribuídos por várias GPUs. O GH200 tem como objetivo enfrentar este desafio, tendo o CEO da Nvidia, Jensen Huang, sublinhado a sua conceção para a expansão de centros de dados globais. O chip deverá estar disponível no segundo trimestre de 2024 e, embora o preço não tenha sido revelado, a atual linha H100 custa cerca de 40.000 dólares.
Quota de mercado da Nvidia
A Microsoft e a Nvidia têm colaborado na construção de novos supercomputadores, mesmo quando a Microsoft está a explorar o fabrico dos seus próprios chips de IA. No entanto, o quase monopólio da Nvidia no mercado de GPUs com capacidade de IA, com uma quota de mercado estimada em 80%, poderá enfrentar desafios. Os fornecedores de serviços na nuvem, incluindo a AWS, a Azure e a Google, utilizam sobretudo as GPUs H100 Tensor Core da Nvidia, mas também estão a trabalhar para adicionar os seus próprios serviços. O domínio da Nvidia também está sob ameaça de concorrentes como a AMD, que planeia aumentar a produção da sua GPU de IA ainda este ano. Além disso, gigantes da tecnologia como a Google e a Amazon estão a aventurar-se na conceção de chips de IA personalizados. O cenário competitivo sugere que, embora a Nvidia continue a ser o ator dominante, o espaço do hardware de IA está a evoluir rapidamente, com novas empresas a explorarem também este espaço.