La Guía más completa de prompting para Inteligencia Artificial

AI-Prompts-638x638.jpeg
Bienvenido a la Guía más completa de prompting para Inteligencia Artificial, esta guía tenía pendiente de escribir ya tiempo atrás, ya tengo algunas horas de vuelo enseñado a usar herramientas que usan IA; la forma de comunicarnos con ella es a través de prompts, y el prompt engineering es el arte de formular instrucciones claras y estructuradas para obtener resultados coherentes de los modelos de lenguaje.
Una misma tarea puede dar respuestas muy distintas dependiendo de cómo se plantee la solicitud, de modo que dominar este proceso es fundamental para aprovechar la IA de forma productiva. Este artículo sintetiza las directrices extraídas de varias guías técnicas y libros blancos sobre prompt engineering y recoge las mejores prácticas específicas para los principales modelos comerciales. Al final se incluyen notas al pie con enlaces a las fuentes originales.
Introducción
El prompt engineering consiste en dar instrucciones detalladas a los modelos de lenguaje de gran escala. Formular bien los mensajes permite evitar alucinaciones y obtener respuestas orientadas al objetivo. Esta guía combina lo mejor de varias fuentes, incluyendo recomendaciones para GPT‑4 y un libro blanco de prompt engineering, y recoge pautas específicas para modelos como Claude, Gemini, ChatGPT, Kimi, Qwen, DeepSeek R1, Perplexity y Grok. Cada apartado explica cómo estructurar las peticiones, controlar el formato de salida y aprovechar las capacidades de razonamiento de cada plataforma.
Principios generales de ingeniería de prompts
Estructura recomendada
Un prompt eficaz debe estar ordenado en secciones claras. Las guías de GPT‑4 proponen el siguiente esquema general:

  • Rol y objetivo: definir quién es el modelo y qué se espera de él (por ejemplo, “Eres un analista financiero que debe resumir…”).
  • Instrucciones: detallar con claridad la tarea que debe realizar. Utiliza verbos directos en lugar de frases genéricas y evita instrucciones ambiguas.
  • Pasos de razonamiento: si la tarea es compleja, explica los pasos o el plan que debe seguir el modelo.
  • Formato de salida: especifica la estructura deseada (lista, tabla, JSON, XML, redacción narrativa, etc.).
  • Ejemplos: proporciona uno o más ejemplos de la respuesta que deseas recibir.
  • Contexto y referencias: incluye información relevante que el modelo necesita para responder correctamente (por ejemplo, fragmentos de textos o datos numéricos).
  • Instrucciones finales: refuerza las reglas más importantes al final para asegurarte de que el modelo las recuerde, sobre todo en prompts largos.
Delimitar cada sección con títulos o etiquetas (por ejemplo, ## Objetivo o <context>…</context>) ayuda a que el modelo identifique la función de cada parte del mensaje. En contextos muy extensos se recomienda repetir las instrucciones al inicio y al final.
Claridad y especificidad
Las mejores prácticas recomiendan utilizar lenguaje sencillo y ser específico respecto al resultado deseado. Los modelos responden mejor a instrucciones positivas (“realiza X”) que a restricciones (“no hagas Y”). Conviene controlar la longitud de la salida con parámetros como max_tokens y detallar si el formato debe ser JSON, XML o cualquier otra estructura. Cuando se utiliza la técnica de cadena de razonamiento (Chain‑of‑Thought) es preferible colocar la respuesta final después del razonamiento y fijar la temperatura a cero para obtener un camino de pensamiento coherente.
Uso de ejemplos y roles
Proporcionar ejemplos concretos —conocido como few‑shot prompting— ayuda al modelo a imitar el formato y el tono deseados. Otro método muy eficaz es asignar un rol al modelo, por ejemplo, “Actúa como un asesor de inversiones” o “Imagina que eres un profesor universitario”. Esta técnica alinea el estilo de la respuesta con la personalidad que se espera.
Control del formato y la salida
Para reducir alucinaciones y asegurar uniformidad, es imprescindible especificar el formato de la salida. Indica si necesitas una lista numerada, un cuadro comparativo, una respuesta en primera persona o un documento estructurado (JSON/XML). Incluir un ejemplo de la estructura exacta incrementa la precisión del resultado. Cuando desees que el modelo razone de forma interna pero utilice pocos tokens, puedes adoptar la Chain‑of‑Draft: se pide que piense paso a paso y después resuma cada paso en una frase corta, lo que reduce el coste en tokens.
Manejo del contexto y las temperaturas
En prompts extensos se aconseja dividir la tarea en subtareas y utilizar delimitadores claros para cada sección. Para modelos que siguen cadenas de razonamiento, el parámetro temperatura debe ser 0 o cercana a 0, esto produce respuestas más deterministas. En modelos con búsqueda web incorporada, como Perplexity, no debes incluir URLs ni pedir que cite enlaces específicos, porque el modelo no accede a las páginas directamente; en su lugar aprovecha los filtros y parámetros de búsqueda disponibles.
Técnicas comunes de prompting
  • Zero‑shot: solicitud sin ejemplos; adecuada para tareas sencillas.

  • Few‑shot: se aportan uno o varios ejemplos para guiar al modelo; útil para clasificación o formateo, aunque puede perjudicar el rendimiento en modelos de razonamiento como DeepSeek R1.

  • System prompting: se define un “sistema” o rol general que establece normas de comportamiento (por ejemplo, “Eres un asistente educativo obediente”).

  • Chain‑of‑Thought (CoT): se le pide al modelo que muestre su razonamiento paso a paso; útil en problemas complejos, aunque algunos modelos con razonamiento interno pueden deteriorar la calidad si se les fuerza a explicitarlo.

  • Chain‑of‑Draft (CoD): variante del CoT en la que cada paso de razonamiento se resume en una frase breve para reducir el consumo de tokens.

  • Tree of Thoughts y ReAct: métodos avanzados que combinan exploración de múltiples caminos de razonamiento o el uso de herramientas externas.
Mejores prácticas por modelo
Claude
  • Instrucciones explícitas y contexto: Claude responde mejor cuando se le indica exactamente qué hacer y se le proporciona el contexto necesario. Es preferible describir lo que sí debe hacer en lugar de imponer restricciones.
  • Ejemplos y rol profesional: incluir ejemplos de la salida deseada y establecer un rol (por ejemplo, “eres un redactor técnico”) alinean la respuesta con la tarea.
  • Control del formato: se pueden usar etiquetas XML para definir la estructura de la respuesta; Claude respeta bien delimitadores como <title> o <summary>.
  • Pensamiento intercalado y planificación: el modelo puede razonar internamente si se le indica “piensa paso a paso y luego responde”. Se recomienda evitar excesivas llamadas paralelas a herramientas y limitar la creación de archivos temporales.
  • Compatibilidad con agentes: para tareas independientes se puede pedir que ejecute todas las herramientas a la vez, aprovechando su capacidad para llamadas paralelas.
Gemini
  • Prompts breves con cuatro elementos: la guía de Gemini sugiere que un prompt ideal tiene alrededor de 21 palabras e incluye: persona (quién eres o quién es la audiencia), tarea, contexto y formato deseado.
  • Instrucciones directas, no preguntas: escribir órdenes en lugar de preguntas abiertas mejora la precisión de las respuestas.
  • Ejemplos y límites: proporcionar ejemplos y especificar límites como número de palabras, fuentes permitidas o tono deseado ayuda a enfocar la salida.
  • Especificar tono y estilo: se puede indicar si el resultado debe ser profesional, amistoso, académico, etc., para obtener la voz apropiada.
  • Iterar con retroalimentación: Gemini permite ajustar sus respuestas; es recomendable evaluar la salida, pedir correcciones y puntuar la calidad para refinar el resultado19.
ChatGPT
  • Descripción del proyecto y rol: un prompt eficaz describe claramente el proyecto, asigna un rol (por ejemplo, “actúa como historiador”) y ofrece el contexto necesario.
  • Especificar formato y tono: indica la longitud, la estructura (lista, tabla, relato) y el tono (formal, casual, académico) de la respuesta esperada.
  • Reglas y restricciones: define con claridad lo que debe y no debe incluir la respuesta, evitando instrucciones ambiguas.
  • Ejemplos y criterios de evaluación: mostrar ejemplos de respuestas y explicar los criterios de éxito ayudan al modelo a calibrar su salida.
  • Estrategias avanzadas: se pueden utilizar instrucciones personalizadas, bibliotecas de prompts, resúmenes de conversaciones largas, perspectivas múltiples y puntuación de respuestas para mejorar la interacción con ChatGPT.
Kimi
  • Instrucciones claras y detalladas: Kimi necesita que se especifique con exactitud la acción y el formato deseado, ya sea narrativo, analítico o en forma de lista.
  • Proporcionar contexto y referencias: cuanto más contexto se incluya (por ejemplo, fragmentos de un informe), más relevante será la respuesta.
  • Asignar rol y utilizar delimitadores: se puede establecer un rol mediante el mensaje del sistema y separar las partes del prompt con comillas triples, etiquetas XML o encabezados para que el modelo identifique cada sección.
  • Definir pasos y aportar ejemplos: detallar los pasos que debe seguir y ofrecer ejemplos del formato deseado guía al modelo y mejora la coherencia.
  • Longitud y referencia: especificar el número de palabras o párrafos y pedir que utilice la referencia proporcionada evita respuestas demasiado breves o irrelevantes.
  • Dividir tareas y resumir: para tareas complejas conviene separar instrucciones y resumir segmentos largos antes de enviarlos al modelo; esto ayuda a que Kimi mantenga la coherencia en diálogos prolongados.
Qwen
  • Parámetros de muestreo: el manual de Qwen3 recomienda utilizar temperature = 0.6, top_p = 0.95 y top_k = 20 para el modo thinking, mientras que para el modo estándar se sugieren valores ligeramente superiores. Ajustar presence_penalty permite regular la repetición de palabras y fomentar la diversidad.
  • Evitar la exposición del razonamiento: en diálogos de varios turnos se debe conservar solo la respuesta final y no incluir el contenido interno de pensamiento.
  • Utilizar delimitadores: al estructurar el prompt con etiquetas o encabezados se facilita que el modelo identifique las diferentes partes, aunque Qwen gestiona peor las salidas muy estructuradas que otros modelos.
DeepSeek R1
El manual de DeepSeek R1 (un modelo centrado en el razonamiento) indica que las instrucciones deben ser claras y específicas; se recomienda un temperature entre 0.5 y 0.7 (0.6 como valor por defecto) y top_p = 0.9. No se debe utilizar un system prompt ni la técnica few‑shot, ya que reduce el rendimiento. Es importante estructurar la entrada con marcadores como etiquetas XML o títulos y definir las restricciones de forma explícita. En la resolución de problemas matemáticos se sugiere pedir razonamiento paso a paso y colocar la respuesta final dentro de {…}; a veces es necesario forzar el uso de la etiqueta <think> si el modelo omite la fase de razonamiento.

Las investigaciones sobre modelos de razonamiento ofrecen pautas adicionales:

  • Minimalismo: utilizar prompts concisos y directos; el exceso de información puede reducir la precisión porque estos modelos ya estructuran su razonamiento internamente.
  • Estimular razonamiento adicional: para tareas complejas, invitar al modelo a tomarse su tiempo (“piensa con cuidado antes de responder”) mejora la calidad, aunque aumenta el coste computacional.
  • Evitar few‑shot y CoT: proporcionar ejemplos o pedir que muestre su cadena de pensamientos reduce el rendimiento, por lo que se recomienda el zero‑shot.
  • Utilizar en tareas de múltiples pasos: estos modelos destacan en problemas que requieren al menos cinco pasos de razonamiento, pero pueden rendir peor en tareas sencillas.
  • Delimitadores y estructura: aunque los modelos de razonamiento gestionan peor las salidas estructuradas, se pueden usar delimitadores para marcar secciones; si el formato es crítico, puede ser preferible utilizar un modelo estándar.
  • Ensamblado de respuestas: para problemas complejos se pueden ejecutar varios prompts (variando ligeramente la formulación) y combinar las respuestas, a costa de un mayor consumo de recursos.
  • Chain‑of‑Draft: un método que reduce el número de tokens permitiendo al modelo generar borradores muy breves de su razonamiento.
Perplexity
Perplexity combina un LLM con un motor de búsqueda y sus prompts deben redactarse como si fueran consultas en un buscador. Algunas recomendaciones clave son:

  • Especificidad y contexto: utiliza términos que aparecerían en páginas relevantes y proporciona contexto crítico pero conciso. Una frase bien elaborada con algunas palabras de contexto suele ofrecer mejores resultados que una pregunta genérica.
  • Evitar few‑shot: proporcionar ejemplos confunde al motor de búsqueda, que intenta localizar los ejemplos en lugar de centrarse en la pregunta principal.
  • Pensar como un usuario de buscador: pregunta de forma directa lo que quieres saber y evita frases ambiguas. No dividas la solicitud en varias preguntas desconectadas.
  • No pedir enlaces ni URLs: el modelo no ve las páginas web; la API devuelve las fuentes por separado, así que no pidas enlaces en la respuesta.
  • Evitar preguntas abiertas o roles genéricos: no uses prompts vagos como “¿qué pasa en IA?” ni pidas que actúe como experto; formula preguntas concretas con fechas, lugares o conceptos específicos.
  • Solicitar honestidad cuando no hay datos: indica que, si no encuentra información, debe admitirlo. Esto reduce el riesgo de alucinaciones y mejora la fiabilidad.
  • Ajustar parámetros de búsqueda: en la API de Perplexity puedes filtrar por dominio o ajustar la profundidad de la búsqueda; para investigaciones profundas limita los dominios a fuentes de confianza y aumenta el parámetro search_context_size, mientras que para preguntas simples conviene usar valores bajos.
  • Consejos por tipo de consulta: para investigación factual usa preguntas específicas y filtros académicos; para contenido creativo define el tono y la voz; para preguntas técnicas incluye contexto y lenguaje de programación; para análisis solicita razonamiento paso a paso y métricas concretas.
Grok
  • Equilibrar especificidad y simplicidad: las mejores prácticas para Grok enfatizan la importancia de ser claro sobre el resultado esperado sin saturar el prompt con demasiados detalles. En vez de pedir “escribe un blog”, solicita “escribe un artículo de 500 palabras sobre los beneficios de la IA en marketing digital”.
  • Proporcionar contexto: indicar el escenario, el público objetivo y cualquier información de apoyo aumenta la coherencia del resultado.
  • Iterar y ajustar: si la primera respuesta no es satisfactoria, ajusta el tono o el nivel de detalle y vuelve a probar. El proceso de prompting es iterativo y conviene anotar las fórmulas que mejor funcionan para reutilizarlas.
  • Ética y limitaciones: evita solicitar contenido manipulador, sesgado o que infrinja derechos de autor. Grok puede generar imágenes realistas de personas o logotipos, pero esto podría violar derechos de imagen, así que utilízalo con responsabilidad.
  • Generación de imágenes: al generar imágenes con Grok 2 especifica el estilo (realista, caricatura), el tono y los elementos clave. Si no te convence la primera imagen, pide ajustes o inicia un nuevo hilo; el modelo mantiene el contexto de la conversación. Aprovecha su tono sarcástico para crear composiciones creativas y humorísticas.
  • Privacidad y configuración de datos: X (antes Twitter) activa por defecto el uso de tus publicaciones para entrenar Grok; puedes desactivar esta opción en la configuración de privacidad60.
Conclusión
La ingeniería de prompts es un proceso en constante evolución. Las directrices generales —claridad, estructura, especificidad, ejemplos y control del formato— son válidas para cualquier modelo, pero cada plataforma presenta particularidades que conviene conocer. 
1753683163314.png
Siguiendo estas recomendaciones obtendrás respuestas más precisas, coherentes y alineadas con tus objetivos, maximizando el valor de la inteligencia artificial en investigación, negocios y creatividad.
Roberto Esteves.png
Roberto Esteves

Gerente General en Masapp

Miembro SEE

©2023 All Rights Reserved. 
Cookie Preferences, Privacy, and Terms.