Letta + Ertas

    Construye agentes con memoria persistente usando Letta: el framework antes conocido como MemGPT, con arquitecturas de memoria con estado que sobreviven entre sesiones y un proveedor oficial del Vercel AI SDK para modelos ajustados.

    Overview

    Letta es el sucesor en produccion del framework de investigacion MemGPT, enfocado en construir agentes con memoria persistente y con estado que sobrevive entre sesiones. Donde la mayoria de frameworks de agentes tratan la memoria como contexto efimero dentro de una sola ejecucion, Letta convierte la memoria en una primitiva de primera clase: los agentes tienen una jerarquia de memoria estructurada (memoria de trabajo, memoria de archivo, memoria de recuerdo) que el propio agente gestiona y actualiza con el tiempo. Esto permite agentes de larga duracion que recuerdan genuinamente interacciones de hace semanas o meses, pueden razonar sobre informacion que excede cualquier ventana de contexto unica, y desarrollan personalidades y bases de conocimiento persistentes.

    El framework esta construido sobre la arquitectura pionera de la investigacion de MemGPT: paginacion de memoria al estilo de un sistema operativo con el LLM como la 'CPU'. El agente decide de forma autonoma que mantener en memoria de trabajo, que descargar al almacenamiento de archivo y que recuperar cuando lo necesite. Este patron significa que incluso con un modelo que solo tiene una ventana de contexto de 32K, un agente Letta puede operar efectivamente sobre historiales arbitrariamente largos al tratar su contexto como una jerarquia de memoria. Letta incluye un proveedor oficial del Vercel AI SDK, lo que facilita su uso con bases de codigo TypeScript.

    How Ertas Integrates

    Los modelos entrenados con Ertas impulsan los agentes de Letta a traves de la interfaz estandar de configuracion de modelos. Letta admite cualquier endpoint compatible con OpenAI, asi que un modelo ajustado en Ertas Studio y desplegado via Ollama, vLLM o Ertas Cloud se conecta a un agente Letta con unas pocas lineas de configuracion. La combinacion es especialmente potente para casos de uso donde el conocimiento especifico del dominio necesita acumularse en el tiempo: la memoria persistente de Letta captura hechos, preferencias e historial especificos del usuario mientras que el modelo entrenado con Ertas aporta razonamiento especifico del dominio a nivel de pesos.

    Para aplicaciones de agentes que necesitan evolucionar, Letta + Ertas crea un bucle de mejora continua. La memoria de archivo de Letta almacena todas las interacciones pasadas; puedes extraer periodicamente trazas de conversacion de alta calidad del almacen de memoria de Letta y usarlas como datos de entrenamiento adicionales en Ertas Studio para refinar aun mas el modelo. El modelo ajustado entonces rinde mejor sobre los patrones que mas ha visto en produccion, mientras que la memoria persistente de Letta sigue manejando el contexto individual que no generaliza. Esta separacion entre 'conocimiento de dominio incorporado' (pesos del modelo via Ertas) y 'estado persistente por usuario' (memoria via Letta) es una arquitectura limpia para aplicaciones de IA personal de larga duracion.

    Getting Started

    1. 1

      Ajusta tu modelo de dominio en Ertas Studio

      Entrena un modelo sobre tu corpus de dominio. El modelo ajustado captura el conocimiento de dominio estable que compartiran todos tus agentes Letta.

    2. 2

      Despliega en un endpoint compatible con OpenAI

      Exporta a GGUF y sirve via Ollama, vLLM o Ertas Cloud. Letta llama a cualquier endpoint estandar de chat completion.

    3. 3

      Instala Letta y configura el modelo

      Instala letta-client (Python) o @letta-ai/letta (TypeScript). Configura tu proveedor de modelo para apuntar al endpoint de inferencia de Ertas.

    4. 4

      Crea un agente con estado y memoria

      Define un agente Letta con memoria persistente. Letta gestiona automaticamente la jerarquia de memoria a medida que las conversaciones crecen mas alla de la ventana de contexto.

    5. 5

      Opera, evoluciona y refina el modelo

      Ejecuta el agente en produccion. Extrae periodicamente conversaciones de alta senal de la memoria de archivo de Letta para reintroducirlas en Ertas Studio y mejorar el modelo de forma continua.

    python
    from letta_client import Letta, LlmConfig
    
    # Point Letta at your Ertas-trained model served via vLLM
    client = Letta(base_url="http://localhost:8283")
    
    llm_config = LlmConfig(
        model="ertas-personal-assistant-14b",
        model_endpoint_type="openai",
        model_endpoint="http://localhost:8000/v1",
        context_window=32000,
    )
    
    # Create a stateful agent with persistent memory
    agent = client.agents.create(
        name="alex-personal-assistant",
        llm_config=llm_config,
        memory={
            "human": "User is Alex, an enterprise architect at FinTech Corp.",
            "persona": "I'm a personal AI assistant that learns Alex's preferences over time.",
        },
    )
    
    # First conversation
    client.agents.messages.create(
        agent_id=agent.id,
        messages=[{"role": "user", "content": "I prefer concise responses, under 100 words."}],
    )
    
    # Weeks later — agent still remembers
    response = client.agents.messages.create(
        agent_id=agent.id,
        messages=[{"role": "user", "content": "Summarize the AWS Q3 financials."}],
    )
    # Response is concise, matching Alex's stated preference from weeks ago
    Crea un agente Letta respaldado por un modelo entrenado con Ertas. La memoria persistente del agente sobrevive entre sesiones, semanas y meses sin limites de ventana de contexto.

    Benefits

    • La memoria persistente sobrevive entre sesiones, dias y meses: agentes de larga duracion reales
    • La paginacion de memoria al estilo de un sistema operativo permite que ventanas de contexto pequenas produzcan comportamiento de contexto largo
    • Proveedor oficial del Vercel AI SDK para integracion de primera clase con TypeScript
    • Sucesor de MemGPT con patrones de produccion maduros y APIs estables
    • Combina conocimiento de dominio en pesos ajustados con estado por usuario en memoria persistente
    • Bucle de mejora continua: extrae trazas de memoria para ajustar modelos en Ertas

    Related Resources

    Ship AI that runs on your users' devices.

    Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.