Continue.dev + Ertas

    Combina modelos ajustados con Ertas con la extension de codificacion IA de codigo abierto Continue.dev, dando a tu equipo un asistente de codificacion IA completamente autoalojado y personalizable que entiende tu codigo base y se ejecuta completamente en tu infraestructura.

    Overview

    Continue.dev es el asistente de codificacion IA de codigo abierto lider, disponible como extension para VS Code y JetBrains IDEs. A diferencia de las herramientas de IA propietarias, Continue da a los desarrolladores control total sobre que modelos impulsan sus funciones de IA — soportando cualquier endpoint OpenAI-compatible, Ollama, LM Studio y docenas de otros proveedores. Sus funciones incluyen autocompletado con tab, edicion inline, chat consciente del codigo base y comandos slash personalizados, todo configurable a traves de un simple archivo JSON. Esta flexibilidad ha hecho de Continue la opcion preferida para desarrolladores y equipos que quieren asistencia de codificacion con IA sin dependencia de proveedores.

    El diseno agnostico de modelos de Continue significa que puedes cambiar entre cualquier modelo, pero la calidad de la asistencia es tan buena como el modelo detras. Los modelos de proposito general proporcionan competencia amplia en lenguajes de programacion y frameworks, pero carecen del conocimiento especifico de las APIs internas de tu proyecto, abstracciones personalizadas y convenciones de equipo. Aqui es donde la combinacion de un modelo ajustado y la arquitectura abierta de Continue crea un flujo de trabajo unicamente poderoso — inteligencia construida a proposito entregada a traves de una herramienta construida a proposito.

    How Ertas Integrates

    Ertas y Continue.dev son una combinacion natural. Ertas Studio maneja el lado de personalizacion del modelo — permitiendote curar datos de entrenamiento de tu codigo base, ajustar un modelo de codigo con LoRA y exportarlo en un formato listo para despliegue. Continue maneja el lado de experiencia del desarrollador — proporcionando la integracion con el editor, recopilacion de contexto y UI que hace al modelo util en el trabajo diario. Juntos, forman un stack completo y autoalojado de codificacion con IA donde cada componente esta bajo tu control.

    La integracion es directa: ajusta un modelo en Ertas Studio, despliegalo a traves de Ollama y apunta la configuracion de Continue al endpoint local. El `config.json` de Continue te permite especificar diferentes modelos para diferentes tareas — tu modelo ajustado para autocompletado y generacion de codigo donde el conocimiento del proyecto importa, y un modelo general para preguntas mas amplias. Debido a que Continue es de codigo abierto y Ertas mantiene todo local, todo el pipeline desde los datos de entrenamiento hasta la inferencia opera en tu infraestructura con cero datos saliendo de tu red.

    Getting Started

    1. 1

      Prepara tus datos de entrenamiento del codigo base

      Recopila muestras de codigo de alta calidad que representen los estandares de tu equipo: PRs aprobados, codigo de bibliotecas internas, documentacion y ejemplos de configuracion. Organizalos en pares de instruccion-completado que capturen tus convenciones y patrones.

    2. 2

      Ajusta un modelo en Ertas Studio

      Sube el dataset curado y selecciona un modelo base capaz de codigo. Configura parametros de fine-tuning — rango LoRA, tasa de aprendizaje y cantidad de epochs — luego lanza el trabajo de entrenamiento. Compara experimentos en Ertas para encontrar la configuracion optima.

    3. 3

      Despliega el modelo via Ollama

      Exporta el modelo entrenado en formato GGUF y registralo con Ollama. Inicia el servidor Ollama para exponer un endpoint OpenAI-compatible al que Continue pueda conectarse para inferencia.

    4. 4

      Configura Continue para usar tu modelo ajustado

      Edita el config.json de Continue para agregar tu endpoint de Ollama como proveedor de modelo. Asigna tu modelo ajustado a los roles de autocompletado y chat, opcionalmente manteniendo un modelo general disponible para preguntas amplias de programacion.

    5. 5

      Crea comandos slash personalizados para tu flujo de trabajo

      Aprovecha los comandos slash personalizados de Continue para crear acciones especificas del equipo — como generar pruebas unitarias en tu framework preferido, construir componentes con tus convenciones o explicar APIs internas — todo impulsado por tu modelo ajustado.

    Benefits

    • Asistente de codigo abierto completo combinado con un modelo entrenado especificamente en tu codigo base
    • Stack autoalojado completo — sin servicios propietarios, sin datos saliendo de tu red
    • Enrutamiento flexible de modelos: modelo ajustado para tareas del proyecto, modelo general para preguntas amplias
    • Comandos slash personalizados impulsados por un modelo que entiende tus patrones internos
    • Sin costos de licencia por asiento para la extension del editor ni el runtime de inferencia
    • Pipeline transparente y auditable desde los datos de entrenamiento hasta el despliegue del modelo y la experiencia del desarrollador

    Related Resources

    Ship AI that runs on your users' devices.

    Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.