What is System Prompt?
Una instrucción especial proporcionada al inicio de una conversación que define el comportamiento, la persona, las restricciones y el formato de respuesta del modelo.
Definition
Un system prompt (también llamado mensaje del sistema o instrucción del sistema) es un texto privilegiado colocado al inicio de una conversación que establece el contexto de comportamiento para el modelo de lenguaje. A diferencia de los mensajes del usuario, que representan la entrada del usuario final, el system prompt representa las instrucciones del desarrollador — definiendo quién debe pretender ser el modelo, qué tono usar, qué temas evitar y cómo formatear las respuestas. Es el mecanismo principal para configurar el comportamiento del modelo en tiempo de inferencia sin modificar los pesos.
Los system prompts varían desde una sola oración ('Eres un asistente útil.') hasta documentos de múltiples páginas que especifican directrices de comportamiento detalladas, esquemas de salida, protocolos de uso de herramientas y barreras de protección de seguridad. En aplicaciones en producción, el system prompt típicamente está oculto del usuario final y controlado por el desarrollador de la aplicación. Se inyecta en la conversación a través de la plantilla de chat como el primer mensaje con el rol 'system', y el modelo está entrenado para tratarlo como una instrucción persistente que se aplica a lo largo de toda la conversación.
La efectividad de un system prompt depende en gran medida de las capacidades del modelo para seguir instrucciones, que están moldeadas por su instruction tuning y entrenamiento con RLHF. Los modelos base sin instruction tuning pueden ignorar en gran medida los system prompts, mientras que los modelos bien ajustados como los entrenados para chat los siguen de cerca. El fine-tuning puede fortalecer aún más la adherencia de un modelo a patrones específicos de system prompt, especialmente cuando los datos de entrenamiento incluyen consistentemente el system prompt objetivo.
Why It Matters
Los system prompts son la interfaz principal entre los desarrolladores de aplicaciones y los modelos de lenguaje. Determinan la experiencia del usuario — si el modelo es conciso o verboso, formal o casual, restrictivo o abierto. Para aplicaciones en producción, un system prompt bien elaborado es esencial para la seguridad (prevenir salidas dañinas), la consistencia de marca (mantener el tono correcto) y la funcionalidad (asegurar el formato de salida correcto para análisis posterior). Los system prompts también son la primera línea de defensa en ataques de inyección de prompt, haciendo que su diseño sea también una consideración de seguridad.
How It Works
Cuando una conversación se envía a un modelo, el system prompt se formatea como el primer mensaje usando la plantilla de chat del modelo (por ejemplo, <|im_start|>system\n{content}<|im_end|> en ChatML). El system prompt tokenizado ocupa el inicio de la ventana de contexto, y el mecanismo de atención del modelo permite que todos los tokens subsiguientes atiendan a él. Esto significa que las instrucciones del sistema influyen en cada token que el modelo genera a lo largo de la conversación. En conversaciones largas, la influencia del system prompt puede debilitarse a medida que se aleja del punto de generación — un fenómeno a veces llamado 'perdido en el medio' — razón por la cual los system prompts concisos y bien estructurados funcionan mejor que los excesivamente largos.
Example Use Case
Una plataforma de salud despliega un modelo ajustado con un system prompt que instruye: 'Eres un asistente de soporte a decisiones clínicas. Siempre cita guías basadas en evidencia. Nunca proporciones diagnósticos definitivos — recomienda que el clínico verifique todas las sugerencias. Formatea las dosificaciones de medicamentos en una tabla estructurada.' Este system prompt, combinado con el fine-tuning del modelo en datos médicos, produce salidas que son clínicamente útiles, correctamente formateadas e incluyen las advertencias de seguridad apropiadas — cumpliendo con los requisitos regulatorios mientras proporciona valor genuino a los clínicos.
Key Takeaways
- Los system prompts definen el comportamiento, la persona y las restricciones del modelo al inicio de cada conversación.
- Son instrucciones controladas por el desarrollador, separadas de los mensajes del usuario.
- La efectividad depende de las capacidades del modelo para seguir instrucciones (mejoradas por fine-tuning).
- Los system prompts consumen tokens de la ventana de contexto, por lo que la concisión importa.
- El fine-tuning con system prompts consistentes fortalece la adherencia del modelo a esas instrucciones.
How Ertas Helps
Ertas Studio permite a los usuarios definir un system prompt predeterminado que se incluye en el formato de los datos de entrenamiento, asegurando que el modelo ajustado aprenda a seguirlo de manera fiable. Durante la evaluación del modelo dentro de Studio, los usuarios pueden probar diferentes system prompts contra su modelo ajustado para optimizar el comportamiento. Este flujo de trabajo de entrenar-con-system-prompt significa que los modelos ajustados con Ertas exhiben una adherencia más fuerte a las instrucciones que los modelos donde el system prompt se introdujo solo en tiempo de inferencia.
Related Resources
Chat Template
Context Window
Fine-Tuning
Inference
Prompt Engineering
Getting Started with Ertas: Fine-Tune and Deploy Custom AI Models
Privacy-Conscious AI Development: Fine-Tune in the Cloud, Run on Your Terms
llama.cpp
Ollama
Ertas for Healthcare
Ertas for SaaS Product Teams
Ertas for Customer Support
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.