
Por Qué Construimos una Interfaz de Canvas para Machine Learning
La mayoría de las herramientas de ML están hechas para la línea de comandos. Creemos que el fine-tuning merece un espacio de trabajo visual. Así es por qué diseñamos Ertas Studio como un canvas — y qué cambia eso del flujo de trabajo de fine-tuning.
Cada herramienta de machine learning que usamos seguía el mismo patrón: escribir un script, ejecutarlo en una terminal, revisar los logs, ajustar un archivo de configuración, ejecutar de nuevo. Todo el flujo de trabajo vivía en texto — desde la configuración hasta el monitoreo y la evaluación.
Seguíamos volviendo a la misma pregunta: ¿por qué ajustar un modelo se siente como gestionar un servidor, cuando lo que realmente estamos haciendo es comparar experimentos?
Esa pregunta nos llevó a construir Ertas Studio como un canvas visual en lugar de otra herramienta CLI.
El Problema con los Flujos de Trabajo de ML Basados en Terminal
No hay nada inherentemente malo con las herramientas de línea de comandos. Son poderosas, componibles y eficientes para tareas que son bien entendidas y repetitivas. Pero ajustar un modelo de lenguaje no es una tarea repetitiva — es una tarea experimental.
La Gestión de Experimentos Es Espacial
Cuando estás comparando ejecuciones de fine-tuning, necesitas verlas lado a lado. ¿Qué configuración produjo mejores salidas? ¿Cómo difirieron las curvas de pérdida? ¿Qué pasa cuando cambias el dataset?
En un flujo de trabajo de terminal, esta información vive en archivos de log, ventanas de terminal separadas, hojas de cálculo rastreando parámetros de experimentos, y tu memoria de cuál ejecución era cuál. Estás constantemente cambiando de contexto entre escribir comandos, leer logs y comparar resultados.
Este es un problema espacial forzado en una interfaz secuencial.
La Configuración Está Oculta
Un archivo de configuración YAML es un muro de texto. Cambiar un parámetro significa encontrarlo en el archivo, entender su relación con otros parámetros, y recordar qué valores has probado antes. No hay retroalimentación visual hasta que ejecutas el trabajo de entrenamiento y esperas los resultados.
La Audiencia Está Equivocada
Las herramientas de ML basadas en CLI asumen que el usuario es un ingeniero de ML que se siente cómodo en una terminal. Pero las personas con el conocimiento de dominio más profundo — las que pueden curar los mejores datos de entrenamiento y evaluar resultados más efectivamente — frecuentemente no son ingenieros de ML.
Al requerir dominio de la terminal, las herramientas existentes excluyen a las personas que podrían contribuir más a la calidad del modelo.
Qué Cambia un Canvas
Comparación Lado a Lado
En un canvas, organizas los experimentos espacialmente. Dos ejecuciones de fine-tuning se sientan una al lado de la otra. Sus curvas de pérdida se superponen. Sus salidas para los mismos prompts de prueba aparecen en paneles adyacentes. Puedes ver de un vistazo qué configuración funciona mejor.
Esta no es una diferencia cosmética — cambia cómo piensas sobre el problema. En lugar de ejecutar experimentos secuencialmente y rastrear mentalmente los resultados, diseñas experimentos en paralelo y los comparas visualmente.
Manipulación Directa
Ajustar un hiperparámetro es un deslizador, no una edición a un archivo de configuración. Iniciar una ejecución de entrenamiento es un botón, no un comando de terminal. La interfaz proporciona contexto inmediato para cada acción: qué hace el parámetro, qué rango es razonable, qué valores has probado antes.
Esto elimina una capa de indirección. Estás trabajando directamente con la configuración de entrenamiento en lugar de escribir comandos que modifican la configuración.
Revelación Progresiva
Un canvas puede mostrarte exactamente tanta complejidad como necesitas. Configuraciones predeterminadas para una ejecución r ápida de entrenamiento. Paneles expandibles para control granular de hiperparámetros. Opciones avanzadas ocultas hasta que las necesitas.
Un CLI, por contraste, o esconde todo (requiriendo búsquedas de documentación) o muestra todo (abrumando a los nuevos usuarios con cientos de flags).
Comprensión Compartida
Un espacio de trabajo visual se puede compartir. Un product manager puede mirar el canvas y entender qué experimentos se han ejecutado, cómo se ven los resultados, y dónde está el modelo en el proceso de desarrollo. Intenta hacer eso con una carpeta de scripts de entrenamiento y archivos de log.
Decisiones de Diseño Que Tomamos
El Canvas Es el Espacio de Trabajo
Ertas Studio no es un formulario que llenas y envías. Es un espacio de trabajo donde organizas tus datasets, modelos, ejecuciones de entrenamiento y evaluaciones espacialmente. Construyes un canvas con el tiempo, y se convierte en un registro visual de tus experimentos de fine-tuning.
Entrenamiento Simultáneo
Uno de los patrones de fine-tuning más comunes es ejecutar la misma configuración de entrenamiento con pequeñas variaciones — diferentes tasas de aprendizaje, diferentes rangos de LoRA, diferentes subconjuntos de dataset. El canvas hace esto natural: duplica una configuración de entrenamiento, cambia un parámetro, y ejecuta ambas al mismo tiempo. Los resultados aparecen lado a lado a medida que se completan.
Esto convierte lo que solía ser un proceso secuencial de varias horas en una comparación paralela que se completa en un solo ciclo de entrenamiento.
GGUF como Punto de Salida
No queríamos construir otro jardín cerrado. El canvas es donde experimentas. GGUF es cómo sales. Cada modelo ajustado se puede exportar como un archivo GGUF estándar y desplegar con cualquier herramienta compatible — Ollama, LM Studio, llama.cpp, o tu propia configuración de inferencia personalizada.
El canvas hace el fine-tuning accesible. El formato abierto asegura que nunca estés atrapado.
Valores Predeterminados Inteligentes, Control Total
Cada configuración tiene un valor predeterminado bien probado. Para la mayoría de los usuarios, hacer clic en "Iniciar Entrenamiento" con los valores predeterminados produce buenos resultados. Pero cada parámetro es ajustable para usuarios que quieren control total. Descubrimos que este enfoque dual sirve a ambas audiencias sin comprometer a ninguna.
Lo Que Aprendimos
Construir una herramienta visual de ML nos enseñó algunas cosas:
Los expertos de dominio producen mejores datos de entrenamiento que los ingenieros de ML. Cuando eliminamos la barrera de la terminal, la calidad de los datasets de entrenamiento mejoró dramáticamente. Las personas que entendían el dominio podían curar e iterar directamente sobre sus datos.
La comparación es la actividad principal. La mayor parte del fine-tuning no es entrenar — es evaluar y comparar. La herramienta debería optimizar para la comparación, no solo la ejecución.
La infraestructura no debería ser visible. Aprovisionamiento de GPU, drivers CUDA, versiones de frameworks de entrenamiento — nada de esto le importa a alguien que intenta construir un modelo personalizado. El canvas lo abstrae sin eliminar el control para usuarios que lo quieran.
Las herramientas visuales no son menos poderosas. Este fue nuestro mayor error de concepto al inicio. Esperábamos sacrificar capacidad por usabilidad. En cambio, la interfaz visual hizo ciertos flujos de trabajo — como la comparación multi-modelo — significativamente más poderosos que el equivalente CLI.
Pruébalo Tú Mismo
Ertas Studio es cómo creemos que debería funcionar el fine-tuning: visual, paralelo y accesible — sin sacrificar el poder que los profesionales experimentados necesitan.
Asegura el precio de early bird a $14.50/mes de por vida — el precio estándar será $34.50/mes en el lanzamiento. Únete a la lista de espera →
Lectura Adicional
- Presentando Ertas Studio — recorrido de funciones con demos
- Ajusta Modelos de AI Sin Escribir Código — guía práctica para usuarios no técnicos
- Cómo Hacer Fine-Tune a un LLM: Guía Completa — el flujo de trabajo completo de fine-tuning
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.
Keep reading

Fine-Tune AI Models Without Writing Code
You don't need ML expertise or a command line to fine-tune language models. Visual tools like Ertas Studio let product teams, researchers, and non-technical users train custom AI models through a point-and-click interface.

Best Visual RAG Pipeline Builder: From Documents to Retrieval Endpoint Without Writing Code
Building RAG pipelines typically requires Python expertise across five or more libraries. A visual pipeline builder lets domain experts and engineers alike build production RAG by dragging and connecting nodes on a canvas.

RAG Pipeline for Non-ML Engineers: How Domain Experts Build Retrieval Systems
The people closest to the data — doctors, lawyers, engineers, analysts — are locked out of building RAG pipelines because the tooling requires Python expertise. A visual pipeline builder changes who can participate.