TRILHA 2

🧱 Os 7 niveis de memoria

Modelo mental em camadas. 4 camadas sempre-ativas + 3 processos de fundo. A linguagem comum para desenhar qualquer sistema.

6
Modulos
36
Topicos
~3h30
Duracao
Modelo
Nivel
2.1~30 min

🪪 Identidade (~100 tokens, persistente)

A camada mais estavel. Quem voce e, sua stack, suas preferencias duradouras.

O que e:

Fato persistente sobre voce: papel, stack, timezone, idioma, estilo preferido. Nunca muda a menos que voce edite.

Por que aprender:

Se Claude nao sabe quem voce e, todo outro conhecimento vira menos util. Identidade e a primeira ancora.

Conceitos-chave:

Persistent facts, identity file, low-token footprint.

O que e:

Pequeno o suficiente para ser carregado em toda sessao sem custo perceptivel. Grande o suficiente para ancorar identidade.

Por que aprender:

Arquivos de identidade que crescem demais viram memoria de trabalho disfarcada e perdem a funcao.

Conceitos-chave:

Token budget, layer discipline, always-on cost.

O que e:

Muda trimestralmente ou quando voce muda de cargo, stack principal ou time. Raramente.

Por que aprender:

Se voce edita identidade toda semana, provavelmente esta colocando coisa errada nela.

Conceitos-chave:

Edit cadence, layer separation.

O que e:

Role, stack, timezone, style, team/contexto. Cinco campos em linhas curtas.

Por que aprender:

Um bom template elimina decisoes de "o que colocar" toda vez que voce atualiza.

Conceitos-chave:

Schema, template, structured identity.

O que e:

Identidade e o primeiro candidato a entrar via hook SessionStart. Garante presenca em 100% das sessoes.

Por que aprender:

Colocar identidade no CLAUDE.md ainda deixa margem. Hook e garantia.

Conceitos-chave:

Deterministic injection, SessionStart hook.

O que e:

O cracha tem sua foto, nome, cargo. Todo mundo que fala com voce ja sabe isso. Identidade funciona igual.

Por que aprender:

Analogia ajuda a lembrar: o que vai no cracha e identidade. O resto vai em outras camadas.

Conceitos-chave:

Mental model, layer test.

Ver Completo
2.2~30 min

📌 Contexto Critico (~400 tokens, sobrevive compactacao)

O que voce esta fazendo AGORA. Atualiza frequentemente. Re-injeta em PreCompact.

O que e:

Projeto ativo, foco da semana, ultima decisao, bloqueios. Muda quase toda sessao. ~400 tokens.

Por que aprender:

Separar do CLAUDE.md (que e mais perene) reduz poluicao e aumenta sinal.

Conceitos-chave:

Active state, high volatility, re-injection on compact.

O que e:

PreCompact hook re-injeta contexto critico antes do resumo. Voce nao perde o fio do trabalho.

Por que aprender:

E a razao tecnica de ter uma camada separada. Sem ela, contexto ativo morre em sessoes longas.

Conceitos-chave:

PreCompact survival, re-injection pattern.

O que e:

Projeto, foco, bloqueios, ultima decisao, proximo passo. Mini log de vida do trabalho.

Por que aprender:

Usar template fixo reduz friccao. Atualizar vira automatico.

Conceitos-chave:

Schema, fixed fields, update hygiene.

O que e:

Pode ser: (a) manual no fim do dia, (b) SessionEnd hook, (c) Claude sugere ao final e voce aprova.

Por que aprender:

A disciplina de atualizar define se essa camada funciona ou vira letra morta.

Conceitos-chave:

Update automation, hook-driven maintenance.

O que e:

Historico e detalhes vao para long-term ou episodica. Contexto critico e agora, nao passado.

Por que aprender:

Erro comum: contexto vira arquivo de log. Cresce, polui, perde funcao.

Conceitos-chave:

Layer discipline, anti-patterns.

O que e:

Voce olha, em 2 segundos sabe onde parou. Contexto critico e igual: compacto, util, descartavel quando o estado muda.

Por que aprender:

Reforca o teste: se voce nao resume em 2 segundos, esta prolixo demais.

Conceitos-chave:

Glanceable, throwaway-by-design.

Ver Completo
2.3~30 min

🗂️ Memoria de Trabalho (sessao, descartavel)

Mesa bagunçada da sessao. Tentativas, logs, hipoteses. Comprime ou morre no fim.

O que e:

Tentativas em andamento, logs temporarios, hipoteses em teste, arquivos tocados. ~1-2k tokens.

Por que aprender:

Sem essa camada, plans e tasks virariam eternos — e voce entope o sistema.

Conceitos-chave:

Scratchpad, session-scoped, transient.

O que e:

Durante: expande. SessionEnd: comprime em 2-3 linhas e arquiva. Depois de 30 dias: some.

Por que aprender:

Entender o ciclo define quais scripts voce precisa na Trilha 6.

Conceitos-chave:

Lifecycle, compression, archival.

O que e:

Plan mode e TodoWrite sao a working memory nativa. Arquivos session-scratch.md funcionam quando quer persistir dentro da sessao.

Por que aprender:

Sem lugar fisico definido, working memory vira contexto inflado.

Conceitos-chave:

Storage choice, Plans, TodoWrite.

O que e:

Tentativa que falhou: ruido. Tentativa que virou decisao: sinal. So sinais vao para long-term.

Por que aprender:

Sem criterio, voce acumula. Com criterio, voce capitaliza.

Conceitos-chave:

Signal vs noise, promotion criterion.

O que e:

Hook SessionEnd roda script que pega o scratch, resume e grava em long-term se houver decisoes.

Por que aprender:

Trilha 6 mostra como usar Gemini Flash para esse resumo automatico.

Conceitos-chave:

SessionEnd, auto-summarization.

O que e:

Mesa no meio do trabalho: papeis por toda parte. No fim do dia: joga fora, arquiva o que importa.

Por que aprender:

A analogia forca aceitar que a bagunça e legitima — enquanto dura.

Conceitos-chave:

Productive chaos, end-of-day ritual.

Ver Completo
2.4~30 min

🗄️ Conhecimento de Longo Prazo (pesquisado)

Arquivo fisico. Ilimitado. Nunca bulk-load, sempre busca.

O que e:

Fatos (como e), decisoes (escolhemos X), padroes (sempre fazer Y), preferencias (gosto de Z).

Por que aprender:

Taxonomia de 4 tipos aumenta recall em ~34% vs flat.

Conceitos-chave:

Typed memory, retrieval boost.

O que e:

Mesmo com 10.000 entradas, voce so carrega 3-5 relevantes por query. 10x menos tokens que bulk-load.

Por que aprender:

Sem isso, long-term nao escala. Com isso, cresce linearmente em capacidade e constante em custo.

Conceitos-chave:

Search-on-demand, progressive disclosure.

O que e:

Flat: zero esforço, busca grep. Taxonomia: pastas por tipo, 34% melhor recall. Grafo: links entre notas, mais complexo.

Por que aprender:

Comecar em flat e migrar conforme necessidade e mais barato que super-engenheirar.

Conceitos-chave:

Structure evolution, incremental design.

O que e:

Keyword acha "pgvector" mas nao "banco vetorial". Semantica acha os dois. Custa 1-2s de setup.

Por que aprender:

Para 90% dos casos, hybrid (keyword + semantic) e a resposta. Trilha 5 cobre.

Conceitos-chave:

FTS, embeddings, hybrid search.

O que e:

Auto: hook captura tudo. Manual: voce escolhe o que salvar. Hibrido: Claude sugere, voce aprova.

Por que aprender:

Hibrido tem o melhor balanço entre ruido zero e esforço baixo.

Conceitos-chave:

Capture strategy, approval gate.

O que e:

Voce nao carrega o arquivo. Quando precisa, levanta e vai buscar a pasta. Long-term funciona igual.

Por que aprender:

Analogia ajuda a nao confundir long-term com sempre-ativo.

Conceitos-chave:

Pull-based, just-in-time.

Ver Completo
2.5~30 min

📔 Memoria Episodica (o "porque")

Conversas inteiras arquivadas. Raramente lida, insubstituivel.

O que e:

Registro bruto da conversa. Nao e resumo, e a coisa inteira. Long-term guarda "escolhemos X", episodica guarda o debate inteiro.

Por que aprender:

Quando voce precisa lembrar porque — e nao so o quê —, so episodica tem.

Conceitos-chave:

Raw history, rationale preservation.

O que e:

Claude Code ja salva transcripts em JSONL. Episodica e usar esses arquivos como fonte.

Por que aprender:

Voce nao precisa reinventar storage. So precisa organizar e indexar.

Conceitos-chave:

Transcript store, JSONL logs.

O que e:

Episodica nao entra no prompt por default. So quando voce pergunta explicitamente.

Por que aprender:

Trazer tudo para o prompt quebra contexto. Deixe na gaveta.

Conceitos-chave:

Query-only access, cold storage.

O que e:

Script que le o JSONL da data de referencia, extrai o trecho relevante e injeta no prompt atual.

Por que aprender:

E o padrao "time-travel": voltar a um dia especifico sem abrir o arquivo manualmente.

Conceitos-chave:

Time-travel query, targeted retrieval.

O que e:

JSONLs antigos viram tarballs. Ainda pesquisaveis, mas desktop nao lista tudo.

Por que aprender:

Preserva sem sufocar o filesystem ativo.

Conceitos-chave:

Rotation, cold archive.

O que e:

Voce nao le todo dia. Mas quando precisa lembrar um sentimento ou decisao especifica, so o diario tem.

Por que aprender:

Ajuda a aceitar o custo: guardar muito, usar raramente, precioso quando usa.

Conceitos-chave:

Rare-but-critical.

Ver Completo
2.6~40 min

⚙️ Processos de fundo: Decay, Promotion, Progressive

As 3 forças que fazem o sistema se manter limpo e inteligente sem intervencao manual.

O que e:

Dia 1: detalhe completo. Dia 7: resumo. Dia 30: one-liner. Dia 90: arquivado ou deletado.

Por que aprender:

Sem decay, long-term cresce sem limite. Com decay, cresce controlado.

Conceitos-chave:

Ebbinghaus curve, compression schedule.

O que e:

Se voce acessa uma memoria toda semana, ela resiste ao decay. Formula: decay = base × (1/access_count)

Por que aprender:

Nao queremos que memoria valiosa desapareca so por ser antiga.

Conceitos-chave:

Salience scoring, access frequency.

O que e:

Observou o mesmo padrao 3 vezes? Promove para CLAUDE.md. Observacao original deletada.

Por que aprender:

Transforma memoria em sabedoria. Cada regra promovida e um erro que voce nao repete.

Conceitos-chave:

Pattern promotion, rule extraction.

O que e:

Sempre-ativo: identidade + contexto. Tudo mais: busca on-demand. 10x economia de tokens.

Por que aprender:

E o principio arquitetural que torna memoria escalavel. Sem ele, tudo vira CLAUDE.md inflado.

Conceitos-chave:

Progressive loading, layer budget.

O que e:

Identidade: 200. Contexto: 400. Working (ativo): 2k. Total always-on: <3k tokens.

Por que aprender:

Cap ensina disciplina. Quando estoura, voce PRECISA refatorar a camada.

Conceitos-chave:

Budget enforcement, layer fitness.

O que e:

Identidade + Contexto + Working + Long-term + Episodica, moldadas por Decay + Promotion + Progressive.

Por que aprender:

Esse e o mapa que voce usa pro resto do curso.

Conceitos-chave:

Memory stack, architectural view.

Ver Completo
← Trilha 1Trilha 3: 18 hooks →