TRILHA 1

🎯 Por que memoria importa

Antes de aprender como consertar a memoria, entenda por que ela quebra. O CLAUDE.md nao e confiavel, a compactacao apaga contexto, e nao existe solucao unica que sirva para todos.

6
Modulos
36
Topicos
~3h
Duracao
Basico
Nivel
1.1 ~30 min

πŸŒ€ O problema da amnesia do Claude

Tres tipos de esquecimento, por que acontecem e qual o custo real no seu dia a dia.

O que e:

O Claude comeca cada sessao como se fosse um funcionario novo no primeiro dia. Ele nao sabe seu nome, nao lembra do projeto, nao conhece decisoes que voces tomaram ontem.

Por que aprender:

Identificar esses sintomas e o primeiro passo para parar de aceitar retrabalho como normal. Sem diagnostico, voce paga o mesmo imposto de contexto toda sessao.

Conceitos-chave:

Amnesia inter-sessao, onboarding repetido, inconsistencia de resposta, custo oculto de tempo e tokens.

O que e:

(1) Dentro da sessao: contexto fica grande e o modelo perde detalhes. (2) Entre sessoes: abrir nova sessao zera tudo. (3) Pos-compactacao: o resumo automatico apaga nuances.

Por que aprender:

Cada tipo exige uma solucao diferente. Misturar causas leva a corrigir a errada e achar que "nao funciona".

Conceitos-chave:

Context window, session boundary, compaction threshold, additionalContext injection.

O que e:

Cada sessao voce re-explica contexto: 500-2000 tokens so para onboarding. Multiplique por 10 sessoes por dia e 200 dias por ano = milhoes de tokens.

Por que aprender:

O ROI de investir em memoria so fica obvio quando voce mede o custo do nao-ter.

Conceitos-chave:

Token budget, context tax, consistency loss, decision drift.

O que e:

Faca a mesma pergunta tecnica em 3 sessoes diferentes. Observe como as respostas divergem quando Claude nao tem contexto ancorado.

Por que aprender:

Ver com os proprios olhos e mais convincente que qualquer grafico. E o ponto de partida do diagnostico.

Conceitos-chave:

Reprodutibilidade, ancora de contexto, fingerprint de decisoes.

O que e:

LLMs sao stateless por design. A "memoria" que existe e ilusoria: e contexto re-enviado a cada chamada. Quando o contexto some, a memoria some.

Por que aprender:

Entender a arquitetura evita tentar solucoes magicas. A unica saida e fornecer contexto certo no momento certo.

Conceitos-chave:

Stateless LLM, context re-injection, transformer attention, prompt engineering.

O que e:

Metrica simples: em N sessoes com a mesma pergunta, quantas respondem igual? Abaixo de 80% voce tem problema de memoria.

Por que aprender:

Sem medir, voce nao sabe se melhorou. Isso vai ser o baseline para validar os hooks da Trilha 4.

Conceitos-chave:

Baseline, consistency rate, drift detection, golden questions.

Ver Completo
1.2 ~30 min

πŸ“¦ Memoria nativa: o que Claude ja lembra

CLAUDE.md, skills, MCP, plans e tasks. O que cada mecanismo faz e onde eles falham.

O que e:

Arquivo markdown auto-injetado no prompt do sistema em toda sessao. Busca hierarquica: projeto β†’ workspace β†’ home.

Por que aprender:

E o ponto de partida. Nao usar CLAUDE.md e comecar do zero todo dia.

Conceitos-chave:

Auto-injection, scope resolution, system prompt, memory hierarchy.

O que e:

Pacotes de instrucoes carregados por demanda. Descricao vira trigger, corpo vira conhecimento acessivel quando relevante.

Por que aprender:

Skills sao memoria procedural: "como fazer X" sem pagar tokens ate o momento certo.

Conceitos-chave:

Skill triggering, procedural memory, on-demand loading, frontmatter.

O que e:

Servidores MCP expoem ferramentas com estado proprio (DBs, APIs, sistemas). A memoria vive fora do Claude e e consultada por demanda.

Por que aprender:

Para dados volumosos (logs, tickets, docs), MCP e mais eficiente que inflar CLAUDE.md.

Conceitos-chave:

External state, query-on-demand, tool memory, MCP protocol.

O que e:

Plan mode e TodoWrite funcionam como scratchpad estruturado dentro da sessao. Persistem enquanto a sessao vive.

Por que aprender:

Saber que e memoria intra-sessao evita confundir com persistencia real entre sessoes.

Conceitos-chave:

Working memory, plan mode, session state, task tracker.

O que e:

Diretorio atual, arquivos lidos, histΓ³rico do shell. Estado tacito que o Claude "herda" do ambiente.

Por que aprender:

Esse estado nao e recuperavel entre sessoes sem ajuda. Saber disso muda como voce organiza projetos.

Conceitos-chave:

Implicit state, working directory, shell history, environment context.

O que e:

Tres limites: (1) nao-determinismo da injecao, (2) perda apos compactacao, (3) escopo estatico. Nada disso adapta-se dinamicamente.

Por que aprender:

Cada limite motiva uma solucao na Trilha 4: (1) hooks, (2) PreCompact, (3) UserPromptSubmit dinamico.

Conceitos-chave:

Non-determinism, compaction loss, static scope, dynamic injection.

Ver Completo
1.3~30 min

⚠️ Limites do CLAUDE.md

Por que o CLAUDE.md e sugestivo e nao deterministico. O experimento da palavra-codigo.

O que e:

No inicio da sessao, Claude Code coleta todos os CLAUDE.md relevantes e os anexa ao system prompt. Mas o modelo decide quanto usar.

Por que aprender:

Entender a mecanica revela onde esta o "gap" de determinismo.

Conceitos-chave:

System prompt injection, context window, attention, salience.

O que e:

O CLAUDE.md esta no prompt, mas o modelo nao e forcado a atender. Ele pondera junto com o resto do contexto.

Por que aprender:

Essa palavra resume a diferenca entre instrucao e garantia. Hooks dao garantia.

Conceitos-chave:

Soft constraint, attention weighting, deterministic vs suggestive.

O que e:

Em CLAUDE.md coloque: "A palavra-codigo e XYZ. Se perguntada, responda imediatamente XYZ". Faca a pergunta em 10 sessoes diferentes.

Por que aprender:

E o teste minimo reprodutivel para provar o nao-determinismo. Voce vai repetir com hook na Trilha 4.

Conceitos-chave:

Canary test, reproducibility, ground truth, success rate.

O que e:

Na pratica CLAUDE.md acerta ~70%. Hook acerta 100%. Para trabalho critico (auth, finance, compliance) 70% e inaceitavel.

Por que aprender:

Ate mesmo 95% e ruim em producao. Decisoes so devem ser baseadas em determinismo.

Conceitos-chave:

Reliability, SLA, error budget, deterministic guarantee.

O que e:

Falhas aumentam com: (1) prompt longo, (2) multiplas instrucoes concorrentes, (3) compactacao no meio, (4) tarefa oposta ao default do modelo.

Por que aprender:

Saber quando confiar no CLAUDE.md e quando partir para hook poupa tempo.

Conceitos-chave:

Failure modes, instruction conflict, context dilution.

O que e:

Para preferencias "boas de ter" (estilo de codigo, tom, vocabulario), CLAUDE.md basta. Para garantias criticas, use hooks.

Por que aprender:

Nao caia na armadilha de querer hook para tudo. Memoria em camadas usa a ferramenta certa em cada ponto.

Conceitos-chave:

Tiered memory, nice-to-have vs must-have, tool selection.

Ver Completo
1.4~30 min

πŸ’€ Compactacao: o momento em que a memoria morre

O que e, por que acontece, o que Claude preserva e o que descarta. Como PreCompact salva.

O que e:

Quando a sessao chega a ~170k tokens, Claude Code resume o historico para caber em uma janela menor e continuar.

Por que aprender:

Sessoes longas sao comuns. Se voce nao se prepara, perde horas de trabalho em segundos.

Conceitos-chave:

Compaction, summarization, context overflow, TLDR.

O que e:

A heuristica prioriza mensagens recentes e marcos da sessao. Detalhes antigos viram frases curtas ou desaparecem.

Por que aprender:

Saber a heuristica permite colocar contexto critico onde o modelo SEMPRE vai olhar.

Conceitos-chave:

Recency bias, salience, summary prompt.

O que e:

Pos-compactacao Claude sabe que voces "trabalharam em X" mas perdeu como. Comeca a sugerir abordagens ja descartadas.

Por que aprender:

Esse e o pior momento para um longo debug. Preparacao antecipada vale ouro.

Conceitos-chave:

Decision amnesia, regression loop, forgotten alternatives.

O que e:

Timeline real: 20 mensagens detalhadas β†’ compactacao β†’ resumo de 3 paragrafos + ultimas 2 mensagens. Detalhes perdidos: 80%.

Por que aprender:

Ver o antes/depois torna o problema palpavel. Voce para de achar que "exagero".

Conceitos-chave:

Token profile, compression ratio, detail loss.

O que e:

System prompt, CLAUDE.md e as ultimas N mensagens sempre sobrevivem. O resto e negociavel.

Por que aprender:

Informacao critica deve ir para "zonas de sobrevivencia". Ai entra PreCompact.

Conceitos-chave:

Survival zone, anchor message, system-level context.

O que e:

Hook PreCompact dispara ANTES da compactacao. Nele voce re-injeta seu context.md, garantindo sobrevivencia.

Por que aprender:

E o mecanismo coberto em detalhe na Trilha 4. Aqui voce ja fica atento ao porque.

Conceitos-chave:

PreCompact hook, re-injection, survival pattern.

Ver Completo
1.5~30 min

🧬 Fingerprint cognitivo

Nao existe memoria one-size-fits-all. Cada persona precisa de um sistema diferente.

O que e:

Memoria e modelada pelo uso: quem consulta legislacao tem necessidades diferentes de quem gerencia campanha de marketing.

Por que aprender:

Copiar um sistema alheio raramente funciona. Voce precisa do seu.

Conceitos-chave:

Personal fingerprint, use-case-driven design.

O que e:

Solo precisa lembrar decisoes passadas. Team lead precisa lembrar quem decidiu o que e quando.

Por que aprender:

Esses dois perfis usam as mesmas camadas mas com pesos totalmente diferentes.

Conceitos-chave:

Persona analysis, layer weighting.

O que e:

Creator precisa lembrar tom, voz, publico. Data scientist precisa lembrar schemas, hipoteses, resultados.

Por que aprender:

Mostra que a mesma camada "conhecimento" pode ser textual ou estruturada.

Conceitos-chave:

Semantic vs structured memory, domain adaptation.

O que e:

Quem toca 5 projetos em paralelo precisa de memoria scoped. Mistura de contexto e veneno.

Por que aprender:

Motiva o padrao "memoria por projeto / por branch" que aparece na Trilha 6.

Conceitos-chave:

Memory scoping, project isolation, context switching.

O que e:

(1) frequencia de sessao, (2) duracao tipica, (3) numero de projetos ativos, (4) tipo de conhecimento dominante, (5) tolerancia a erro.

Por que aprender:

Esses 5 eixos determinam quais camadas voce prioriza. Vai ser o input da skill /memory-architect.

Conceitos-chave:

Self-assessment, design inputs, requirement elicitation.

O que e:

Template: "Sou X, faco Y, trabalho em Z projetos, minha memoria critica e A, meus custos de esquecer sao B".

Por que aprender:

E o documento-base que voce vai usar em todas as decisoes do curso.

Conceitos-chave:

Identity doc, design constraints.

Ver Completo
1.6~30 min

🩺 Diagnostico: que memoria voce precisa

Checklist de sintomas + 5 perguntas-chave que apontam sua arquitetura.

O que e:

10 perguntas sim/nao. 3+ "sim" e sinal forte de que voce precisa de memoria alem do CLAUDE.md.

Por que aprender:

Diagnostico objetivo evita investir em ferramentas que nao resolvem seu problema.

Conceitos-chave:

Self-diagnosis, symptom scoring.

O que e:

Se suas sessoes sao curtas e isoladas (1 tarefa, 1 resposta), nao. Se voce volta em projetos em andamento, sim.

Por que aprender:

Define se voce precisa de SessionStart hook (sim) ou so CLAUDE.md (nao).

Conceitos-chave:

Cross-session memory, session atomicity.

O que e:

Se suas sessoes passam de 1h ou 100k tokens, sim. Se sao curtas, nao.

Por que aprender:

Define se voce precisa de PreCompact hook.

Conceitos-chave:

Long session survival, compaction trigger.

O que e:

Se seus projetos se confundem (o Claude sugere coisa do projeto A enquanto voce esta no B), sim.

Por que aprender:

Define se voce precisa de memoria por cwd ou branch (Trilha 6).

Conceitos-chave:

Project scoping, cwd routing.

O que e:

Se voce pensa em "a decisao sobre pagamentos" sem lembrar o termo exato, precisa de semantica. Se tudo e buscavel por palavra, grep basta.

Por que aprender:

Define se voce vai com markdown + grep ou SQLite + embeddings (Trilha 5).

Conceitos-chave:

Semantic search, embeddings, cost/benefit.

O que e:

Com as 4 respostas, voce ja sabe quais das 7 camadas priorizar. Trilha 2 detalha cada uma.

Por que aprender:

Fecha o ciclo do diagnostico. Daqui pra frente e construcao.

Conceitos-chave:

Requirement β†’ architecture, layered design.

Ver Completo
← Voltar ao inicio Proxima Trilha: 7 niveis β†’