O Google anunciou nesta quarta-feira (12/03) o Gemma 3, nova geração do seu LLM de código aberto. O Gemma é um modelo voltado para desenvolvedores e não exige o pagamento de API da big tech para ser usado. Este novo LLM é multimodal, permite a criação de agentes e baseado no Gemini 2 — usado na IA generativa comercial do Google.
Quais são as novidades do Gemma 3?
Em seu comunicado, o Google explicou que o Gemma 3 será liberado em quatro tamanhos de parâmetros: 1 bilhão (1B), 4 bilhões (4B), 12 bilhões (12B) e 27 bilhões (27B). Os arâmetros são especificações ligada ao desempenho e requisitos de hardware de uma IA. Quanto maior o tamanho, maior a base de treinamento que ela usou e maior é o processamento necessário.
No vídeo acima, apresentado por Gus Martins, brasileiro que é gerente de produtos do Gemma, está uma breve explicação sobre porque diferenciar o LLM em diferentes tamanhos. Desenvolvedores precisam de uma IA que atenda às requisições do seu projeto, não o LLM mais potente do momento.
Assim, para um aplicativo mobile mais simples, os parâmetros de 1B ou 4B já resolvem — podendo até ser rodados em celulares. Como aponta Martins, um modelo pequeno era uma das demandas da comunidade. Em tarefas mais exigentes, os devs podem utilizar as versões de 12B e 27B.
Segundo o Google, o Gemma 3 teve melhorias nas habilidades de identificação de texto e imagens. Isso inclui a capacidade de analisar vídeos curtos. Essa funcionalidade não está disponível na versão de 1B. O LLM também pode ser configurado em 140 idiomas,
O Google também otimizou o Gemma 3 para GPUs Nvidia. A big tech explica também que o seu LLM agora integra o catálogo de API da Nvidia, permitindo mais agilidade na prototipagem de aplicações.
A AMD não ficou de fora do Gemma 3: o LLM está integrado ROCm, aplicativo para a programação de GPUs. E sim, as TPUs em nuvem do Google também estão otimizadas para rodar o Gemma 3.
Se você é desenvolvedor, pode começar a usar o Gemma 3 através do Google AI Studio.
Com informações de Google, 9to5Google e The Verge