Blog do Marcellini
  • Início
  • 🧭 Explorar
    • 🏷️ Tags
    • 📂 Categorias
  • 🧠 Ciências Exatas
    • 🧮 Matemática
    • 📊 Estatística
    • 🔭 Física
    • 💻 Programação
  • 📝 Blog Pessoal
    • 📝 Blog Pessoal
    • 👤 Sobre Mim e Sobre o Blog
  • 📘 Cursos
    • 🧮 Cursos de Matemática
    • 📊 Cursos de Estatística
  • 🗺️ Mapa do Site
  • EN 🇬🇧
  • Contato

Nesta página

  • 🔷 Introdução
  • 📖 1. Pré-treinamento auto-supervisionado
    • Características:
  • 🧩 Quiz — Pré-treinamento
  • 🛠️ 2. Fine-Tuning supervisionado
  • 🧩 Quiz — Fine-Tuning
  • 🎯 3. RLHF (Aprendizado por Reforço com Feedback Humano)
    • Como funciona:
  • 🖼️ Visualizando o Processo de Treinamento
  • 🧩 Quiz — RLHF
  • 📊 Resumo Comparativo
  • 👉 Em Resumo
  • ✅ Conclusão
  • 🔗 Navegação
  • 🔗 Links Úteis

⚡ Como os LLMs são treinados: Pré-treinamento, Fine-Tuning e RLHF

inteligência artificial
IA
LLM
machine learning
treinamento
pré-treinamento
fine-tuning
RLHF
deep learning
NLP
Aprenda como os Large Language Models são treinados: desde o pré-treinamento auto-supervisionado até o ajuste fino supervisionado e o RLHF com feedback humano.
Autor

Blog do Marcellini

Data de Publicação

28 de setembro de 2025

· ← Série de LLMs 🤖


🎯 Post Anterior: 👉 Atenção em Transformers: Q, K, V e Multi-Head Attention


🔷 Introdução

Os Large Language Models (LLMs) como GPT, Claude e LLaMA não “nascem prontos”.
Eles passam por um processo de treinamento em múltiplas etapas, para aprender primeiro os padrões gerais da linguagem e depois serem ajustados para tarefas específicas.

As três etapas principais são:
1. Pré-treinamento (auto-supervisionado)
2. Fine-Tuning (ajuste supervisionado)
3. RLHF (Reinforcement Learning with Human Feedback)


📖 1. Pré-treinamento auto-supervisionado

  • É a fase inicial e mais cara do treinamento.
  • O modelo recebe enormes quantidades de texto (livros, artigos, sites).
  • A tarefa é simples: prever a próxima palavra (token) em uma sequência.

Exemplo:
Frase: “O céu está ___”.
👉 O modelo aprende a prever “azul”.

Características:

  • Não precisa de rótulos humanos → é auto-supervisionado.
  • Ensina o modelo a estatística da linguagem (gramática, estilo, vocabulário).
  • Gera o “cérebro básico” do LLM.
Dica💡 Lembre-se

Pré-treinamento = exposição massiva a textos.
O modelo aprende como a língua funciona, mas ainda não sabe seguir instruções humanas.

🧩 Quiz — Pré-treinamento

Q1. O pré-treinamento de um LLM é chamado de auto-supervisionado porque:

✗Depende de milhões de rótulos feitos por humanos.

✓A própria sequência de palavras fornece os rótulos (a próxima palavra).

✗Usa apenas textos traduzidos automaticamente.


🛠️ 2. Fine-Tuning supervisionado

Depois do pré-treinamento, o modelo é especializado para tarefas específicas.

  • Usa bases menores, mas rotuladas manualmente.
  • Exemplo: pares de pergunta → resposta, diálogos ou resumos corretos.
  • Permite que o modelo aprenda a seguir instruções.

👉 É nessa fase que o modelo aprende a se comportar como um assistente útil.

Nota📊 Diferença básica
  • Pré-treinamento: aprende a linguagem em geral.
  • Fine-tuning: aprende o que fazer com a linguagem.

🧩 Quiz — Fine-Tuning

Q2. No fine-tuning supervisionado, a base de dados é:

✗Gerada automaticamente pelo próprio modelo.

✓Rotulada manualmente por humanos (pares de entrada → saída correta).

✗Aleatória, sem necessidade de rótulos.


🎯 3. RLHF (Aprendizado por Reforço com Feedback Humano)

Mesmo com fine-tuning, os modelos ainda podem gerar respostas sem utilidade ou até perigosas.
Para corrigir isso, entra o RLHF (Reinforcement Learning with Human Feedback).

Como funciona:

  1. Humanos avaliam várias respostas do modelo.
  2. Essas avaliações geram um ranking de preferências.
  3. Um modelo de recompensa é treinado com esse ranking.
  4. O LLM principal é ajustado usando algoritmos de aprendizado por reforço (ex: PPO — Proximal Policy Optimization).

👉 Resultado: o modelo aprende não só a responder, mas a responder do jeito que preferimos.

Nota🍽️ Analogia prática

Pense num aprendiz de chef:

  • Primeiro, ele aprende todas as receitas possíveis (pré-treinamento).
  • Depois, pratica apenas as receitas do restaurante (fine-tuning).
  • Por fim, os clientes avaliam os pratos e o chef ajusta até agradar mais gente (RLHF).

🖼️ Visualizando o Processo de Treinamento

ImportanteCódigo em Python — clique para expandir
# Gera e salva "images/llm-training-stages.png"
from pathlib import Path
import matplotlib.pyplot as plt

out = Path("images"); out.mkdir(parents=True, exist_ok=True)
outfile = out / "llm-training-stages.png"

fig, ax = plt.subplots(figsize=(7, 4), dpi=150)

boxes = {
    "pretrain": {"text": "Pré-treinamento\nAuto-supervisionado\nBilhões de palavras", "xy": (0.2, 0.7)},
    "finetune": {"text": "Fine-Tuning\nSupervisionado\nBases rotuladas", "xy": (0.5, 0.7)},
    "rlhf": {"text": "RLHF\nFeedback humano\nAprendizado por reforço", "xy": (0.8, 0.7)},
    "final": {"text": "LLM treinado\n(GPT, Claude, LLaMA...)", "xy": (0.5, 0.3)}
}

# caixas
for box in boxes.values():
    ax.text(box["xy"][0], box["xy"][1], box["text"], fontsize=9,
            ha="center", va="center",
            bbox=dict(boxstyle="round,pad=0.5", facecolor="lightblue", edgecolor="black"))

# setas
ax.annotate("", xy=(0.35, 0.7), xytext=(0.3, 0.7), arrowprops=dict(arrowstyle="->", lw=2))
ax.annotate("", xy=(0.65, 0.7), xytext=(0.6, 0.7), arrowprops=dict(arrowstyle="->", lw=2))
ax.annotate("", xy=(0.5, 0.45), xytext=(0.5, 0.55), arrowprops=dict(arrowstyle="->", lw=2))

ax.text(0.5, 0.95, "Etapas do Treinamento de um LLM", ha="center", fontsize=11, weight="bold")

ax.axis("off")
plt.tight_layout()
plt.savefig(outfile, bbox_inches="tight")
plt.close()
print(f"Figura salva em: {outfile}")
Figura salva em: images/llm-training-stages.png

🧩 Quiz — RLHF

Q3. No RLHF, o papel do modelo de recompensa é:

✗Gerar automaticamente perguntas novas.

✓Aprender, a partir de rankings humanos, quais respostas são preferidas.

✗Corrigir erros gramaticais no texto.


📊 Resumo Comparativo

Etapa Dados usados Tipo de aprendizado Objetivo
Pré-treinamento Texto bruto (livros, sites, artigos) Auto-supervisionado Aprender a linguagem geral
Fine-Tuning Conjuntos menores rotulados (perguntas/respostas, diálogos) Supervisionado Ensinar o modelo a seguir instruções
RLHF Rankings de respostas preferidas por humanos Reforço com feedback humano Ajustar para alinhamento e utilidade

👉 Essa progressão transforma um modelo “cru” em um assistente conversacional confiável.


👉 Em Resumo

Dica🤖 Por que dizemos que um LLM não ‘nasce pronto’?

Um Large Language Model (LLM) não surge já sabendo responder perguntas, traduzir textos ou escrever código.
Ele precisa passar por um processo de treinamento em camadas:

  1. Pré-treinamento:
    • O modelo lê bilhões de palavras.
    • Aprende as estatísticas da linguagem: gramática, vocabulário, estilo, associações.
    • Resultado: um modelo que completa frases, mas ainda não é um bom “assistente”.
  2. Fine-Tuning (ajuste supervisionado):
    • Recebe dados rotulados por humanos (ex.: pares de pergunta → resposta).
    • Aprende a seguir instruções e dar respostas úteis.
    • Resultado: começa a agir como uma ferramenta prática.
  3. RLHF (Reinforcement Learning with Human Feedback):
    • Pessoas avaliam respostas e dão preferências.
    • Um modelo de recompensa orienta o LLM principal.
    • Resultado: o modelo aprende a responder do jeito que preferimos.

👉 Assim como uma criança passa por aprendizado básico, depois educação formal e finalmente ajustes sociais, um LLM também precisa dessas fases para se tornar um assistente confiável.


✅ Conclusão

O treinamento de um LLM acontece em camadas:

  1. Pré-treinamento → ensina a linguagem em geral.
  2. Fine-tuning → adapta para seguir instruções.
  3. RLHF → refina com preferências humanas.

👉 Graças a esse processo, temos hoje modelos que não apenas geram texto coerente, mas também interagem de forma útil e alinhada com as necessidades humanas.


✍️ Este post faz parte da série sobre LLMs no Blog do Marcellini.
No próximo capítulo, vamos explorar os desafios e limitações dos LLMs: vieses, alucinações e custos de treinamento. ⚠️


🔗 Navegação

🎯 Próximo Post: 👉 Desafios e Limitações dos LLMs


· ← Série de LLMs 🤖 · 🔝 Topo


Blog do Marcellini — Explorando a Matemática, a Estatística e a Física com Rigor e Beleza.

Nota

Criado por Blog do Marcellini com ❤️ e código.

🔗 Links Úteis

  • 🧑‍🏫 Sobre o Blog
  • 💻 GitHub do Projeto
  • 📬 Contato por E-mail

© 2025 - Blog do Marcellini

 

📬 Contato por E-mail
💻 GitHub do Projeto