Windsurf + Ertas
Ajusta un modelo con el código base de tu equipo y conéctalo al editor impulsado por IA de Windsurf, ofreciendo generación de código consciente del contexto, refactorización y asistencia por chat que entiende tu proyecto de principio a fin.
Overview
Windsurf, desarrollado por Codeium, es un editor de código nativo de IA diseñado desde cero para integrar modelos de lenguaje grandes en cada aspecto del flujo de trabajo de desarrollo. A diferencia de los editores que añaden IA sobre interfaces existentes, Windsurf trata la asistencia de IA como ciudadano de primera clase — ofreciendo autocompletado inteligente, edición multi-archivo, chat consciente del código base y herramientas de refactorización automatizada que entienden el contexto del proyecto. Su función Cascade puede razonar a través de repositorios completos, haciéndolo particularmente efectivo para bases de código complejas.
A pesar de sus capacidades avanzadas de recopilación de contexto, los modelos subyacentes de Windsurf están entrenados con datos de programación generales. Sobresalen en patrones comunes y frameworks populares pero carecen de conocimiento de las bibliotecas propietarias de tu organización, APIs internas y convenciones específicas del equipo. Al trabajar con frameworks personalizados o abstracciones específicas de dominio, las sugerencias pueden fallar — recurriendo a implementaciones genéricas en lugar de aprovechar las utilidades y patrones arquitectónicos cuidadosamente elaborados por tu equipo.
How Ertas Integrates
Ertas cierra la brecha entre las potentes funciones del editor de Windsurf y el conocimiento único del código base de tu equipo. Al recopilar ejemplos de tu mejor código — PRs aprobados, documentación interna, registros de decisiones arquitectónicas y guías de estilo — construyes un dataset de entrenamiento que codifica los estándares de codificación de tu organización. Ertas Studio gestiona el proceso de fine-tuning, permitiéndote entrenar un modelo que entiende tus convenciones de nomenclatura, patrones de diseño preferidos y la superficie de tu API interna sin requerir experiencia en infraestructura de ML.
Después del fine-tuning, despliegas el modelo a través de un endpoint compatible con OpenAI usando Ollama o un runtime local similar. Windsurf soporta endpoints de modelo personalizados, permitiendo que tu modelo ajustado alimente sus funciones de autocompletado, chat y Cascade. El resultado es el sofisticado razonamiento multi-archivo de Windsurf combinado con un modelo que genuinamente entiende tu proyecto — sugiriendo código que usa tus utilidades reales, sigue los patrones de tu equipo y respeta tus límites arquitectónicos, todo mientras mantiene tu código completamente en tu propia infraestructura.
Getting Started
- 1
Cura tus datos de entrenamiento del código base
Extrae muestras de código representativas de tu repositorio: pull requests bien revisados, implementaciones de bibliotecas internas, comentarios de documentación y patrones de configuración. Formátalos como pares instrucción-respuesta que demuestren tus convenciones de codificación.
- 2
Entrena un modelo personalizado con Ertas Studio
Sube tu dataset a Ertas Studio y selecciona un modelo base capaz para código. Configura los parámetros de fine-tuning basados en LoRA e inicia el trabajo de entrenamiento. Usa el seguimiento de experimentos de Ertas para comparar diferentes configuraciones y seleccionar el mejor checkpoint.
- 3
Despliega el modelo con un servidor de inferencia local
Exporta el modelo ajustado en formato GGUF y despliégalo a través de Ollama, exponiendo un endpoint API compatible con OpenAI. Prueba el modelo con prompts de codificación representativos para verificar que captura los patrones de tu equipo con precisión.
- 4
Conecta Windsurf a tu endpoint de modelo personalizado
Configura los ajustes de modelo de Windsurf para apuntar a tu endpoint de inferencia local. Mapea el modelo a las funciones de autocompletado y chat de Windsurf para que tu modelo ajustado alimente la asistencia de IA en todo el editor.
- 5
Itera y mejora la calidad del modelo
Monitorea las sugerencias del modelo durante el trabajo de desarrollo real. Recopila correcciones y casos límite donde el modelo se desvía de tus estándares, agrégalos al dataset de entrenamiento y ejecuta fine-tuning incremental para mejorar la alineación con el tiempo.
Benefits
- El razonamiento multi-archivo de Windsurf impulsado por un modelo que entiende tu código base específico
- Sugerencias de autocompletado que usan tus bibliotecas internas y siguen tus convenciones de nomenclatura
- Soberanía total de datos — los datos de entrenamiento y la inferencia permanecen en tu infraestructura
- Sin costos recurrentes de IA por puesto para tu equipo una vez que el modelo está desplegado localmente
- Función Cascade mejorada con conocimiento de la arquitectura y dependencias de tu proyecto
- Ciclo de refinamiento continuo a medida que tu código base evoluciona y emergen nuevos patrones
Related Resources
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.