import matplotlib.pyplot as plt
# ---------- Dados ----------
= [
marcos 1956, "Dartmouth Workshop\n(nascimento da IA)"),
(1986, "Backpropagation\n(popularização)"),
(1997, "Deep Blue\n(derrota Kasparov)"),
(2012, "AlexNet\n(revolução em visão)"),
(2017, "Attention is All You Need\n(Transformer)"),
(2018, "BERT\n(encoder bidirecional)"),
(2020, "GPT-3\n(175B parâmetros)"),
(2022, "ChatGPT\n(popularização dos LLMs)"),
(2023, "GPT-4\n(multimodal inicial)"),
(2023, "LLaMA 1 (Meta)\n(open-source)"),
(2023, "Gemini 1 (Google DeepMind)\n(multimodal)"),
(2023, "Mistral 7B\n(eficiência)"),
(2024, "Claude 3\n(alinhamento e contexto)"),
(2024, "LLaMA 3 (Meta)\n(ecossistema aberto)"),
(2024, "Mixtral 8x7B (Mistral)\n(Mixture of Experts)"),
(2024, "Gemini 1.5\n(janelas longas)"),
(2025, "GPT-5\n(modelo multimodal avançado)"), # 👈 novo marco
(
]
# ---------- Amplia o espaçamento entre eventos ----------
# cria um eixo Y "esticado" multiplicando a posição de cada evento
= 3.2 # controle de espaçamento (↑ aumenta a distância entre rótulos)
gap = [i * gap for i in range(len(marcos))]
anos = [f"{ano} — {texto}" for ano, texto in marcos]
labels
# ---------- Figura ----------
= plt.subplots(figsize=(6.4, 11), dpi=150)
fig, ax
# linha do tempo central
1, min(anos) - gap, max(anos) + gap, linewidth=2)
ax.vlines(1]*len(anos), anos, 'o', markersize=7, color="black")
ax.plot([
# ---------- Anotações ----------
for i, (y, text) in enumerate(zip(anos, labels)):
= (i % 2 == 0)
is_left = 0.84 if is_left else 1.16
x_text = 'right' if is_left else 'left'
ha
ax.annotate(
text,=(1, y),
xy=(x_text, y),
xytext='data',
textcoords='center',
va=ha,
ha=9,
fontsize=dict(arrowstyle='-', lw=0.7, alpha=0.8),
arrowprops=dict(boxstyle="round,pad=0.25", alpha=0.85)
bbox
)
# ---------- Estilo geral ----------
0.7, 1.3)
ax.set_xlim(
ax.set_xticks([])
ax.set_yticks([])"Linha do Tempo — Evolução da Inteligência Artificial (até GPT-5)", fontsize=11.5, weight="bold", pad=12)
ax.set_title("")
ax.set_ylabel(
plt.tight_layout()"images/ia-timeline-vertical.png", bbox_inches="tight")
plt.savefig( plt.close()
🧠 Inteligência Artificial — Índice da Seção
Tutoriais, exemplos práticos e aplicações de IA e LLMs modernos, como GPT (OpenAI), Claude (Anthropic), Gemini (Google DeepMind), LLaMA (Meta) e Mistral (França) — integrados ao ecossistema Quarto.
Explore como esses modelos funcionam, suas bases em redes neurais,
Transformers, NLP, RNNs, BERT, LSTM, GRU e a ascensão da IA generativa.
🚀 Série Especial: Large Language Models (LLMs)
Uma jornada para entender como funcionam os modelos que estão transformando o mundo digital.
✨ Overview
Os Modelos de Linguagem de Grande Porte (LLMs) são o coração da IA generativa moderna.
Eles conseguem entender e gerar texto, escrever código, resumir documentos, criar roteiros, responder perguntas e muito mais.
Nesta série você vai aprender:
- 🔹 O que são os LLMs e como nasceram.
- 🔹 A evolução das redes neurais: de RNNs a Transformers.
- 🔹 Como funciona o mecanismo de atenção.
- 🔹 O processo de treinamento: pré-treinamento, fine-tuning e RLHF.
- 🔹 Quais os desafios, limitações e riscos éticos.
- 🔹 Aplicações práticas em educação, saúde, programação, negócios e arte.
- 🔹 O futuro da IA: multimodalidade, democratização e especialização.
📚 Série Completa
- O que é um Large Language Model (LLM)?
- Atenção em Transformers: Q, K, V e Multi-Head Attention
- Como os LLMs são treinados: Pré-treinamento, Fine-Tuning e RLHF
- Desafios e Limitações dos LLMs
- Aplicações Práticas dos LLMs
- O Futuro dos LLMs e da IA Generativa
🧭 Linha do tempo da IA
✍️ Sugestões são bem-vindas!
Se quiser ver algum tema específico por aqui, abra um issue no repositório ou mande sua ideia 😉