Back to blog
    El Prompt Engineering Tiene un Techo. Esto Es lo Que Viene Después.
    prompt-engineeringfine-tuningagencysolutions-architectsegment:agency

    El Prompt Engineering Tiene un Techo. Esto Es lo Que Viene Después.

    El prompt engineering puede llevarte lejos, pero cada agencia y desarrollador choca con el muro eventualmente. Aquí está cómo se ve el techo, por qué existe y qué técnicas vienen después.

    EErtas Team·

    El prompt engineering es real y valioso. Un prompt de sistema bien elaborado puede mejorar dramáticamente la calidad de salida del LLM. Los ejemplos few-shot desbloquean comportamientos que el prompting zero-shot no puede. Las técnicas de cadena de pensamiento mejoran el razonamiento en tareas complejas.

    Pero hay un techo. Todo practicante lo alcanza eventualmente, y las agencias y desarrolladores que navegan más allá construyen productos fundamentalmente mejores que aquellos que siguen optimizando prompts indefinidamente.

    Este artículo trata sobre reconocer el techo y saber qué viene después.

    Qué Hace Realmente el Prompt Engineering

    Para entender el techo, necesitas entender qué hacen los prompts. Un prompt es una entrada que guía al modelo hacia una región particular de su espacio de salida. El modelo ya "sabe" todo lo que va a saber: los pesos están congelados. Un prompt solo puede activar y dirigir lo que ya está ahí.

    Esto significa que los prompts están fundamentalmente limitados por lo que el modelo base aprendió durante el entrenamiento. No pueden:

    • Enseñar al modelo vocabulario nuevo o terminología específica de dominio a la que nunca fue expuesto
    • Inyectar patrones de comportamiento que no estaban representados en los datos de entrenamiento
    • Cambiar la precisión subyacente del modelo en una tarea, solo su estilo de expresión
    • Eliminar alucinaciones causadas por brechas en los datos de entrenamiento

    Los prompts son instrucciones para un empleado que ya tiene conocimiento y habilidades fijos. Puedes dirigirlo mejor, pero no puedes cambiar lo que sabe.

    Señales de que Has Llegado al Techo

    La salida tiene el estilo incorrecto a pesar de instrucciones extensas. Tienes un prompt de sistema de 2,000 tokens describiendo el tono, formato y estilo exactos que necesitas. El modelo "casi" lo sigue pero se desvía: usa palabras que tu cliente nunca usa, estructura las respuestas de forma incorrecta, pierde la voz de marca. Ninguna cantidad de instrucciones adicionales lo resuelve.

    El modelo no conoce la terminología de tu cliente. Trabajas con una empresa de tecnología legal. El modelo sigue usando lenguaje legal genérico en lugar de las convenciones de nomenclatura de documentos específicas de la firma, su sistema de numeración de asuntos y su jerga interna. Agregas más ejemplos. Ayuda parcialmente, luego vuelve a lo anterior.

    La precisión se estanca en tareas específicas de dominio. Estás construyendo un asistente de codificación médica. Has optimizado tu prompt extensamente. Estás al 78% de precisión en el conjunto de prueba. Pasas dos semanas más en iteración de prompts y llegas al 81%. Más trabajo produce retornos decrecientes. El modelo simplemente no tiene suficiente exposición a esta taxonomía de codificación específica.

    La latencia y el costo son insostenibles. Para lograr calidad aceptable, necesitas 6,000 tokens de contexto por solicitud: 2,000 de prompt de sistema más 4,000 de ejemplos few-shot. A escala, esto hace cada solicitud costosa y lenta. Tu solución con prompts está costando más que el problema que resuelve.

    Los límites de ventana de contexto son una restricción estructural. Tu pipeline RAG necesita meter demasiados documentos en el contexto para encontrar la respuesta correcta de forma confiable. El modelo presta atención al inicio y al final pero pierde el medio. Ningún truco de prompt arregla los patrones de atención en el límite del contexto.

    Por Qué el Techo Existe Donde Existe

    El techo no está en el mismo lugar para cada tarea. El prompt engineering funciona mucho mejor para:

    • Tareas para las que el modelo tiene datos de entrenamiento extensos (escritura general, código en lenguajes populares, tipos de preguntas comunes)
    • Tareas donde el estilo y formato importan más que la precisión factual
    • Tareas con reglas claras y describibles que pueden expresarse en texto

    Alcanza el techo más rápido para:

    • Tareas de dominio estrecho con terminología especializada
    • Tareas que requieren comportamiento consistente a través de muchos casos extremos
    • Tareas de horizonte largo que requieren patrones de comportamiento persistentes
    • Tareas donde la "respuesta correcta" depende de datos privados con los que el modelo nunca fue entrenado

    Qué Viene Después: El Stack de Técnicas

    1. Fine-Tuning

    El fine-tuning modifica directamente los pesos del modelo para aprender nuevos comportamientos, terminología y patrones a partir de ejemplos. Resuelve los problemas estructurales que los prompts no pueden:

    • El modelo aprende el lenguaje y tono específico de tu cliente a nivel de parámetros
    • La precisión específica de dominio mejora sustancialmente (a menudo 15-30 puntos porcentuales en tareas estrechas)
    • Puedes eliminar los bloques masivos de ejemplos few-shot de tus prompts, reduciendo tokens por solicitud
    • La consistencia de comportamiento mejora dramáticamente: el modelo no se desvía porque el comportamiento está integrado

    Cuándo usarlo: Cuando tienes al menos 200-500 ejemplos del comportamiento de entrada-salida deseado, y la tarea es lo suficientemente estrecha y específica de dominio que un modelo general consistentemente tiene bajo rendimiento.

    Punto de entrada práctico: El fine-tuning con LoRA en un modelo 7B toma 1-3 horas en una GPU de consumidor con herramientas como Ertas. La salida es un archivo de adaptador que puedes desplegar inmediatamente. Esto ya no es un ejercicio académico, es una técnica de producción accesible.

    2. Generación Aumentada por Recuperación (RAG)

    RAG inyecta dinámicamente contexto relevante de una base de conocimiento en el prompt en tiempo de inferencia. Resuelve el problema de "el modelo no sabe esto" para información factual:

    • Catálogos de productos, documentación, documentos de políticas, archivos de casos, todo buscable en tiempo de inferencia
    • El modelo no necesita memorizar datos estáticos; los recupera
    • El conocimiento puede actualizarse sin reentrenar

    Cuándo usarlo: Cuando la brecha de conocimiento es sobre hechos que cambian con el tiempo o que son demasiado voluminosos para incluir en un prompt estático. Servicio al cliente con un catálogo de productos grande y frecuentemente actualizado es un caso de uso canónico de RAG.

    El techo de RAG: RAG sigue usando los patrones de comportamiento y lenguaje del modelo base. Si el estilo de salida, tono o comportamiento de dominio del modelo es incorrecto, RAG no lo arregla. El fine-tuning y RAG resuelven problemas diferentes y frecuentemente se usan juntos.

    3. Fine-Tuning + RAG Juntos

    Muchos sistemas de producción usan ambos. El modelo ajustado trae los patrones de comportamiento correctos, terminología y precisión base. RAG trae contexto factual actual que el modelo no necesita memorizar.

    Un asistente de documentación médica podría estar ajustado con el estilo de escritura de notas y terminología de la clínica, luego usar RAG para recuperar el registro específico del paciente y las guías clínicas relevantes para cada consulta. Ningún enfoque solo logra calidad de producción; juntos, sí.

    4. Salida Estructurada con Uso de Herramientas

    Para tareas que requieren formato determinístico o acceso a datos externos, el prompt engineering para formato es frágil. La salida estructurada (esquemas JSON, tipos TypeScript aplicados en tiempo de inferencia) te da parsing confiable sin gimnasia de prompts. El uso de herramientas permite al modelo llamar APIs externas o bases de datos para obtener datos que necesita, en lugar de alucinar respuestas.

    Estos no son reemplazos del fine-tuning, resuelven problemas diferentes, pero eliminan toda una categoría de "prompt engineering para obtener salida JSON consistente" en la que los ingenieros pierden tiempo.

    Framework de Decisión Práctico

    Si el problema es...La solución es...
    El modelo no sigue el formato de salidaSalidas estructuradas / aplicación de esquema JSON
    El modelo no conoce hechos actualesRAG
    El modelo no conoce datos privados/propietariosRAG para hechos, fine-tuning para comportamiento
    El modelo usa terminología incorrectaFine-tuning
    El estilo de respuesta del modelo es consistentemente incorrectoFine-tuning
    La precisión se estancó a pesar de optimización de promptsFine-tuning
    Los prompts son demasiado largos y costosos a escalaFine-tuning para reducir ejemplos few-shot
    El modelo maneja mal los casos extremosFine-tuning con ejemplos curados de casos extremos

    La Implicación de Negocio

    Hay una consecuencia de negocio directa al alcanzar el techo de prompts y superarlo.

    Las agencias que ajustan modelos tienen conversaciones fundamentalmente diferentes con los clientes. "Nuestro modelo logra X% de precisión en tu tarea, validado con tus datos" es un pitch diferente de "tenemos un prompt de sistema muy bueno." Lo primero es un activo técnico. Lo segundo es una configuración.

    Los desarrolladores que ajustan modelos lanzan mejores productos con menos tickets de soporte. Cuando un modelo ajustado falla, falla de forma consistente: puedes identificar la brecha en los datos de entrenamiento y arreglarla. Cuando un modelo con prompt engineering falla, falla de forma impredecible y la solución es más iteración de prompts.

    El techo no es un callejón sin salida. Es un punto de transición de una técnica a la siguiente. Los practicantes que lo reconocen y navegan más allá construyen cosas que los practicantes estancados debajo del techo no pueden.


    Ship AI that runs on your users' devices.

    Ertas early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.

    Lecturas Adicionales

    Ship AI that runs on your users' devices.

    Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.

    Keep reading