Em um anúncio recente, Demis Hassabis, cofundador da DeepMind, revelou que o Google está desenvolvendo uma solução inovadora para reduzir os custos de execução de modelos de inteligência artificial (IA).
Até agora, grande parte do poder computacional necessário para a IA era concentrado na fase de «pré-treinamento», quando o modelo é criado pela primeira vez.
No entanto, à medida que os modelos evoluíram, a demanda por «inferência» — o processo que faz a IA «pensar» e responder às solicitações — aumentou drasticamente.
Imagine que a inferência é como o cérebro humano em ação: quanto mais tempo dedicamos a pensar, mais complexas se tornam nossas respostas.
O problema é que, atualmente, o poder computacional disponível não é suficiente para explorar todo o potencial dessa tecnologia.
A solução? Novos processadores chamados de «chips de luz», que estão em desenvolvimento para tornar a execução de modelos de IA mais eficiente e econômica.
Hassabis explicou que, com modelos cada vez mais avançados, como o Gemini 2.0 Flash do Google, a demanda por esses sistemas cresceu exponencialmente.
Ele brincou que isso é um exemplo de ser «vítima do próprio sucesso»: quando você cria algo incrível, todo mundo quer usar, mas a infraestrutura atual nem sempre consegue acompanhar.
Enquanto isso, a corrida por poder computacional continua aquecida. Empresas como Amazon e Microsoft estão investindo bilhões em infraestrutura de IA, e até o governo dos EUA anunciou um projeto bilionário chamado Stargate para impulsionar a tecnologia.
O diferencial do Google, segundo Hassabis, é que a empresa está construindo toda a cadeia de tecnologia de IA por conta própria, desde os chips até os data centers.
Essa abordagem integrada permite que a empresa ajuste cada componente para maximizar a eficiência, criando um ciclo de feedback único entre hardware e software.