SECOND BRAIN LOCAL APP

Transforma tu Conocimiento en un
Activo Estratégico

Chat Recall: Búsqueda semántica profunda y organización inteligente para tus conversaciones. 100% local y privado.

ChatRecall — TUI

quijote@cifrid:~$ crec --search "estrategia de datos"

Loading vector store… OK

[SCORE: 0.89]
Tema: Arquitectura de Datos
…discusión sobre implementación híbrida…
[SCORE: 0.85]
Tema: Planificación Q3
…definición de KPIs de gobernanza…
Features Soberanía Arquitectura Flujo de Trabajo

Búsqueda Semántica

Recupera información por concepto y significado, no solo palabras clave exactas.

Vector-First

Embeddings locales para una comprensión profunda del contexto de tus chats.

Organización Automática

Segmenta y clasifica automáticamente largas conversaciones en temas digeribles.

Ponlo a Prueba en 5 Minutos

Código abierto, sin registro, sin API keys. Clona el repo y lanza tu primera búsqueda semántica.

Soberanía de Datos: 100% Local

Tu ventaja competitiva no debería estar en la nube de otro. Chat Recall se ejecuta exclusivamente en tu infraestructura local.

Cero Dependencia de Nube
Eficiencia de TUI

Bajo el Capó

Arquitectura y Trade-offs

Decisiones técnicas que tomamos y por qué — para que entiendas los límites antes de escalar.

Embedding Model

all-MiniLM-L6-v2 — 384 dimensiones, ~80MB en disco.

Trade-off: Menor precisión que modelos grandes (ada-002, e5-large), pero corre en CPU sin GPU ni API key. Para búsqueda sobre tu propio corpus, la precisión es suficiente.

Vector Store

ChromaDB local — persistencia en SQLite + HNSW index.

Trade-off: No escala a millones de documentos como Pinecone/Weaviate, pero zero-config, sin servidor y sin costos recurrentes. Para <10K conversaciones, el rendimiento es instantáneo.

Privacidad

Zero network calls — embeddings generados localmente con SentenceTransformers.

Implicancia: Tu historial de ChatGPT nunca sale de tu máquina. No hay telemetría, no hay API calls, no hay cuenta.

Performance

Indexación: ~2 min para 5K conversaciones. Búsqueda: <50ms por query.

Cuello de botella: La tokenización del modelo es el 80% del tiempo de indexación. La búsqueda HNSW es O(log n) — escala bien hasta el límite de ChromaDB.

Stack Técnico

ChatGPT .zip

Export oficial

Parser + Chunker

Python

MiniLM

Embeddings locales

ChromaDB

HNSW + SQLite

TUI / Search

Semantic query

Flujo de Trabajo

1

Obtén tu Historial

Descarga tu .zip oficial desde ChatGPT.

2

Indexa

Procesa localmente.

3

Busca

Recupera insights y redescubre tus conversaciones perdidas.

Toma el Control

Solución relacionada

Integración de Sistemas

Conecta tus fuentes de datos internas con pipelines automatizados: n8n, APIs REST, webhooks y conectores a medida.

Ver solución
Automatización relacionada

Cómo Leer los Respaldos de WhatsApp con IA

El mismo motor de indexación aplicado a respaldos de WhatsApp: clasificación, embeddings y búsqueda semántica sobre conversaciones reales.

Leer automatización