De acordo com pt.wedoany.com-A Google lançou de uma só vez quatro especificações de modelos de grande porte open source. No dia 2 de abril, horário local, a Google lançou oficialmente a família de modelos Gemma 4, cobrindo uma linha completa de produtos que vai de 2 bilhões a 31 bilhões de parâmetros.
De acordo com o anúncio oficial da Google, o Gemma 4 inclui quatro modelos de uso geral: uma versão eficiente de 2 bilhões de parâmetros (E2B), uma versão eficiente de 4 bilhões de parâmetros (E4B), um modelo de especialistas mistos (MoE) de 26 bilhões de parâmetros, e um modelo denso de 31 bilhões de parâmetros (31B). A característica da arquitetura MoE é que apenas parte dos parâmetros é ativada durante a inferência, fazendo com que o custo computacional real do modelo de 26 bilhões de parâmetros seja muito menor do que o de um modelo denso da mesma escala. Já a versão densa de 31 bilhões é a versão com maior número de parâmetros e mais poderosa da série.
A série Gemma é um modelo de grande porte leve lançado pela Google para a comunidade open source, com as versões Gemma 1 e Gemma 2 já lançadas anteriormente, que podem ser executadas em hardware de consumo. As novas versões E2B e E4B focam em inferência eficiente, sendo adequadas para cenários de dispositivos de borda e móveis. Já as versões MoE de 26 bilhões e densa de 31 bilhões são voltadas para implantação em nuvem e tarefas complexas.
No cenário de modelos de grande porte open source, as séries Llama 3 da Meta (8B, 70B, 405B) e Phi da Microsoft (que focam em alta eficiência com poucos parâmetros) são os principais concorrentes atuais. A entrada do Gemma 4 preenche a matriz de produtos da Google no intervalo de 2 a 31 bilhões de parâmetros, oferecendo mais opções para os desenvolvedores.
Este texto foi elaborado por Wedoany. Qualquer citação por IA deve indicar a fonte “Wedoany”. Em caso de infração ou outros problemas, informe-nos prontamente, por favor. O conteúdo será corrigido ou removido. E-mail: news@wedoany.com









