🧠Inteligência em Código
📰 Notícias1 min de leitura

Meta Libera Llama 4: O Modelo Open Source Mais Poderoso

A Meta lançou o Llama 4 como open source, rivalizando com modelos proprietários em qualidade e superando em flexibilidade.

#meta#llama#open-source#llm

Llama 4: Open Source no Topo

A Meta surpreendeu a comunidade ao liberar o Llama 4 com licença permissiva, permitindo uso comercial sem restrições para empresas com menos de 700 milhões de usuários.

Benchmarks Impressionantes

O Llama 4 compete diretamente com o GPT-4 e Claude 3.5 em tarefas de raciocínio, código e compreensão de texto. Em coding benchmarks (HumanEval, SWE-bench), supera ambos em várias categorias.

Versões Disponíveis

| Modelo | Parâmetros | Uso Recomendado | |--------|-----------|-----------------| | Llama 4 Scout | 8B | Mobile, edge computing | | Llama 4 | 70B | Uso geral, servidores | | Llama 4 Maverick | 405B | Tarefas complexas, pesquisa |

Como Usar Localmente

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "meta-llama/Llama-4-70B-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, device_map="auto")

inputs = tokenizer("Explique IA generativa:", return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

A democratização de modelos de alta qualidade continua acelerando. Vamos publicar um tutorial completo de deploy do Llama 4 em breve.