Blog do Marcellini
  • Início
  • 🧭 Explorar
    • 🏷️ Tags
    • 📂 Categorias
  • 🧠 Ciências Exatas
    • 🧮 Matemática
    • 📊 Estatística
    • 🔭 Física
    • 💻 Programação
  • 📝 Blog Pessoal
    • 📝 Blog Pessoal
    • 👤 Sobre Mim e Sobre o Blog
  • 📘 Cursos
    • 🧮 Cursos de Matemática
    • 📊 Cursos de Estatística
  • 🗺️ Mapa do Site
  • EN 🇬🇧
  • Contato

Nesta página

  • 🔷 Introdução
  • 🎭 Vieses nos modelos
  • 🌀 Alucinações
    • 📚 Exemplos práticos
    • 🔬 Como a pesquisa tenta reduzir alucinações
  • 💰 Custos de Treinamento
  • 🌱 Impacto Ambiental
  • ⚖️ Questões Éticas
  • 🖼️ Resumo Visual
  • 🧩 Quiz — Teste seus conhecimentos
  • 📊 Resumo Comparativo
  • ✅ Conclusão
  • 🔗 Navegação
  • 🔗 Links Úteis

⚠️ Desafios e Limitações dos LLMs

inteligência artificial
IA
LLM
ética
desafios
limitações
vieses
alucinações
impacto ambiental
deep learning
Os Large Language Models são poderosos, mas não perfeitos. Descubra suas principais limitações: vieses, alucinações, custos de treinamento, impacto ambiental e questões éticas.
Autor

Blog do Marcellini

Data de Publicação

29 de setembro de 2025

· ← Série de LLMs 🤖


🎯 Post Anterior: 👉 Como os LLMs são treinados: Pré-treinamento, Fine-Tuning e RLHF


🔷 Introdução

Os Large Language Models (LLMs) já transformaram a forma como interagimos com tecnologia.
Mas, apesar de seu poder, eles não são perfeitos.
Existem limitações técnicas, sociais e éticas que precisam ser entendidas.

Neste post, vamos explorar os principais desafios dos LLMs.


🎭 Vieses nos modelos

LLMs aprendem a partir de textos da internet, que refletem opiniões, preconceitos e desigualdades humanas.

  • Isso significa que eles podem reproduzir vieses de gênero, raça, classe social etc.
  • Exemplo: associar profissões a um gênero específico.
Dica💡 Exemplo prático

Se perguntarmos: “Quem é um bom programador?”

  • O modelo pode tender a responder “ele” em vez de “ela”, refletindo o desequilíbrio de representatividade nos dados de treino.

👉 Esse é um desafio ético e técnico, pois remover completamente os vieses é praticamente impossível.


🌀 Alucinações

LLMs são excelentes em gerar texto fluente e coerente, mas isso não garante que o conteúdo seja verdadeiro.
Esse fenômeno é chamado de alucinação (hallucination).

  • O modelo pode inventar fatos, nomes, artigos e até códigos que não existem.
  • O texto parece confiável, mas é fabricado.

📚 Exemplos práticos

  • Criar citações falsas: “Segundo o artigo de Silva (2019)…” (mas o artigo não existe).
  • Inventar datas históricas erradas: dizer que a 2ª Guerra Mundial terminou em 1944.
  • Gerar códigos que não compilam, mas que parecem plausíveis.

Aviso⚠️ Por que os LLMs alucinam?
  1. Natureza estatística: eles não “sabem fatos”, apenas calculam a próxima palavra provável.
  2. Falta de memória real: não têm acesso a uma base de dados estruturada, apenas padrões do treino.
  3. Pressão para responder: quando não sabem, ainda assim produzem um texto coerente.

🔬 Como a pesquisa tenta reduzir alucinações

  • Busca externa: integrar LLMs com bancos de dados ou mecanismos de busca em tempo real.
  • Verificação cruzada: pedir que o modelo gere múltiplas respostas e compare.
  • Instruções mais fortes: técnicas de prompt engineering para limitar respostas “inventadas”.
  • Treinamento específico: usar bases com informações verificadas.

Dica💡 Analogia simples

Imagine um aluno criativo numa prova:

  • Quando não sabe a resposta, inventa uma explicação convincente.
  • Pode enganar no primeiro olhar, mas não significa que está certo.
    Assim funcionam as alucinações de LLMs.

💰 Custos de Treinamento

Treinar um LLM moderno exige:

  • Centenas de GPUs ou TPUs trabalhando em paralelo.
  • Semanas ou meses de processamento.
  • Milhões de dólares em infraestrutura.
Nota📊 Exemplo de custo (aproximado)
  • GPT-3 (2020): estimado em US$ 4,6 milhões em energia e hardware.
  • GPT-4 (2023): valores não oficiais, mas provavelmente dezenas de milhões.

👉 Isso limita o acesso à tecnologia a poucas empresas gigantes, criando concentração de poder.


🌱 Impacto Ambiental

O consumo de energia dos LLMs é enorme.

  • Cada treinamento pode emitir toneladas de CO₂.
  • A manutenção (uso diário) também consome energia significativa em data centers.
Dica🌍 Comparação ilustrativa

Treinar um modelo do porte do GPT-3 pode emitir tanto carbono quanto a vida útil de 5 carros circulando.

Isso levanta preocupações sobre sustentabilidade e a necessidade de modelos mais eficientes.


⚖️ Questões Éticas

  • Transparência: usuários muitas vezes não sabem como o modelo foi treinado.
  • Direitos autorais: textos, músicas e imagens usados no treinamento podem ter copyright.
  • Uso malicioso: deepfakes, desinformação, fraudes automatizadas.
Aviso🚨 Dilema ético

A mesma tecnologia que gera aulas acessíveis pode ser usada para criar propaganda enganosa ou desinformação política.

👉 A ética da IA é um campo em rápida evolução, e os LLMs estão no centro do debate.


🖼️ Resumo Visual

ImportanteCódigo em Python — clique para expandir
# Gera e salva "images/llm-challenges.png"
from pathlib import Path
import matplotlib.pyplot as plt

out = Path("images"); out.mkdir(parents=True, exist_ok=True)
outfile = out / "llm-challenges.png"

fig, ax = plt.subplots(figsize=(6.5, 4.5), dpi=150)

items = [
    "Vieses",
    "Alucinações",
    "Custos",
    "Impacto ambiental",
    "Ética"
]

# posição vertical para as caixas
ys = [0.85, 0.70, 0.55, 0.40, 0.25]

for text, y in zip(items, ys):
    ax.text(0.5, y, text, fontsize=11, ha="center", va="center",
            bbox=dict(boxstyle="round,pad=0.4", facecolor="lightcoral", edgecolor="black"))

ax.text(0.5, 0.95, "Principais Desafios dos LLMs", ha="center", fontsize=12, weight="bold")

ax.set_xlim(0, 1)
ax.set_ylim(0, 1)
ax.axis("off")

plt.tight_layout()
plt.savefig(outfile, bbox_inches="tight")
plt.close()
print(f"Figura salva em: {outfile}")
Figura salva em: images/llm-challenges.png

🧩 Quiz — Teste seus conhecimentos

Q1. O que significa “alucinação” em um LLM?

✗Quando o modelo reproduz vieses sociais.

✓Quando o modelo inventa informações falsas, mas de forma coerente.

✗Quando o modelo consome muita energia para treinar.

Q2. Qual dos pontos abaixo está ligado ao impacto ambiental dos LLMs?

✗Tendência de associar estereótipos.

✗Geração de respostas falsas.

✓O consumo de energia e emissão de CO₂ em data centers.

📊 Resumo Comparativo

Desafio Descrição Exemplo
Vieses Reproduzem preconceitos sociais Associar profissões a um gênero
Alucinações Inventam fatos falsos Citar artigo inexistente
Custos Milhões em GPUs e energia GPT-3 → ~US$ 4,6 milhões
Impacto ambiental Altas emissões de CO₂ Equivalente à vida útil de 5 carros
Ética Questões de uso e copyright Deepfakes, desinformação

✅ Conclusão

Os LLMs são uma tecnologia transformadora, mas que traz riscos e responsabilidades.

  • Podem reproduzir vieses sociais.
  • Estão sujeitos a alucinações.
  • Exigem recursos financeiros e energéticos gigantescos.
  • Levantam questões éticas profundas.

👉 O futuro da IA depende não só de avanços técnicos, mas também de como escolhemos usá-la.


✍️ Este post faz parte da série sobre LLMs no Blog do Marcellini.
No próximo capítulo, vamos explorar as aplicações práticas dos LLMs: educação, saúde, programação, arte e muito mais. 🚀


🔗 Navegação

🎯 Próximo Post: 👉 Aplicações Práticas dos LLMs


· ← Série de LLMs 🤖 · 🔝 Topo


Blog do Marcellini — Explorando a Matemática, a Estatística e a Física com Rigor e Beleza.

Nota

Criado por Blog do Marcellini com ❤️ e código.

🔗 Links Úteis

  • 🧑‍🏫 Sobre o Blog
  • 💻 GitHub do Projeto
  • 📬 Contato por E-mail

© 2025 - Blog do Marcellini

 

📬 Contato por E-mail
💻 GitHub do Projeto