Cursor + Ertas
Ajusta un modelo de codificacion con las convenciones de tu equipo, patrones arquitectonicos y guias de estilo para crear un asistente de codificacion especifico del dominio que Cursor puede usar como endpoint de modelo personalizado.
Overview
Cursor se ha convertido rapidamente en el editor de codigo nativo de IA preferido por los desarrolladores que quieren una integracion profunda de IA en su flujo de trabajo diario. Su completado con tab, edicion inline y funciones de chat han redefinido lo que los desarrolladores esperan de un editor de codigo, habilitando la practica frecuentemente llamada vibe coding — donde los desarrolladores describen la intencion y la IA genera la implementacion. Desde hackers independientes hasta grandes equipos de ingenieria, Cursor ha acortado la brecha entre la idea y el codigo funcional en ordenes de magnitud.
Los modelos predeterminados que impulsan Cursor son de proposito general: entrenados en conocimiento amplio de programacion pero no en tu codigo base especifico, tus bibliotecas internas, tus convenciones de nomenclatura ni las decisiones arquitectonicas que tu equipo ha tomado durante anos de desarrollo. Esto significa que las sugerencias de Cursor frecuentemente requieren correccion manual para alinearse con los estandares del proyecto — rutas de importacion incorrectas, patrones de nomenclatura inconsistentes, utilidades auxiliares desconocidas ignoradas a favor de codigo inline verboso. Para equipos con codigos base grandes u opinados, estas correcciones suman una friccion significativa.
How Ertas Integrates
Ertas te permite cerrar la brecha entre la asistencia de codificacion IA generica y el estilo de codificacion real de tu equipo. Al recopilar ejemplos representativos de tu codigo base — pull requests aprobados, documentacion de guias de estilo, patrones de uso de APIs internas y registros de decisiones arquitectonicas — puedes ensamblar un dataset de entrenamiento que captura como tu equipo escribe codigo. Ertas Studio gestiona el proceso de fine-tuning, permitiendote entrenar un modelo de codificacion que entiende las convenciones de tu proyecto, bibliotecas preferidas y patrones comunes sin requerir experiencia en ML de tu equipo de ingenieria.
Una vez entrenado, despliegas el modelo localmente a traves de Ollama y configuras Cursor para usarlo como un endpoint de modelo personalizado OpenAI-compatible. La configuracion de Cursor permite especificar proveedores de modelos alternativos, asi que tu modelo ajustado aparece junto a las opciones integradas. El resultado es un asistente de IA que sugiere codigo usando tus funciones utilitarias reales, sigue tus convenciones de nomenclatura y estructura componentes de la manera que tu equipo espera — todo mientras mantiene tu codigo propietario completamente fuera de servidores de terceros tanto durante el entrenamiento como la inferencia.
Getting Started
- 1
Recopila datos de entrenamiento de tu codigo base
Recopila ejemplos de alta calidad del codigo de tu equipo: pull requests aprobados, modulos bien documentados, fragmentos de guias de estilo y patrones de uso de bibliotecas internas. Estructuralos como pares de prompt-completado que demuestren tus convenciones.
- 2
Ajusta un modelo de codificacion en Ertas Studio
Sube tu dataset curado a Ertas Studio y selecciona un modelo base capaz de codigo. Configura parametros de entrenamiento y lanza el trabajo de fine-tuning. Ertas rastrea experimentos para que puedas comparar diferentes configuraciones de entrenamiento.
- 3
Exporta y despliega via Ollama
Descarga el modelo ajustado en formato GGUF, registralo con Ollama e inicia el servidor de inferencia. Verifica que el modelo responda correctamente probando con prompts de codificacion representativos de tu proyecto.
- 4
Configura Cursor para usar el endpoint personalizado
En la configuracion de Cursor, agrega un proveedor de modelo personalizado apuntando a tu endpoint de Ollama (http://localhost:11434/v1). Establece el nombre del modelo para que coincida con tu registro de Ollama y configuralo como modelo disponible para chat y completados.
- 5
Itera en los datos de entrenamiento basandote en el uso
A medida que tu equipo usa el modelo, recopila casos donde las sugerencias no aciertan. Agrega ejemplos corregidos a tu dataset de entrenamiento y ejecuta fine-tuning incremental en Ertas para mejorar continuamente la alineacion del modelo con tu codigo base.
Benefits
- Sugerencias de IA que siguen las convenciones de nomenclatura, patrones de importacion y estilo arquitectonico de tu equipo
- Privacidad completa del codigo — tu codigo propietario nunca sale de tu infraestructura durante el entrenamiento o la inferencia
- Sugerencias consistentes en todos los miembros del equipo usando el mismo modelo ajustado
- Tiempo de correccion de sugerencias reducido a medida que el modelo aprende patrones y utilidades especificas del proyecto
- Sin costos por token para codificacion asistida por IA sin importar el tamano del equipo o volumen de uso
- Ciclo de mejora iterativa — retroalimenta correcciones en los datos de entrenamiento para refinar continuamente el modelo
Related Resources
Fine-Tuning
GGUF
Inference
LoRA
Your Vibe-Coded App Hit 10K Users. Now Your AI Bill Is $3K/Month.
Self-Hosted AI for Indie Apps: Replace GPT-4 with Your Own Model
LM Studio
Ollama
Ertas for Code Generation
Ertas for Indie Developers & Vibe-Coded Apps
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.