A pesar de la capacidad de la inteligencia artificial generativa (IA) de imitar el comportamiento humano, a menudo es necesario proporcionar instrucciones detalladas para generar contenido de alta calidad y relevancia. La ingeniería de prompts es el proceso de elaborar estos insumos, llamados prompts, que guían a los modelos de base (FMs) y a los grandes modelos de lenguaje (LLMs) para producir los resultados deseados. Los templates de prompts también se pueden utilizar como una estructura para construir estos prompts. Mediante la formulación cuidadosa de estos prompts y templates, los desarrolladores pueden aprovechar el poder de los FMs, fomentando intercambios naturales y contextualmente apropiados que mejoran la experiencia del usuario en general. El proceso de ingeniería de prompts también es un equilibrio delicado entre la creatividad y una profunda comprensión de las capacidades y limitaciones del modelo. Elaborar prompts que generen respuestas claras y deseadas de estos FMs es tanto un arte como una ciencia.
Este artículo proporciona información valiosa y ejemplos prácticos para ayudar a equilibrar y optimizar el flujo de trabajo de la ingeniería de prompts. Nos enfocamos específicamente en técnicas avanzadas de prompts y mejores prácticas para los modelos proporcionados en Amazon Bedrock, un servicio totalmente gestionado que ofrece una variedad de FMs de alto rendimiento de compañías líderes en IA como Anthropic, Cohere, Meta, Mistral AI, Stability AI, y Amazon a través de una sola API. Con estas técnicas de prompts, los desarrolladores e investigadores pueden aprovechar al máximo Amazon Bedrock, proporcionando una comunicación clara y concisa mientras mitigan posibles riesgos o salidas indeseables.
La ingeniería avanzada de prompts es una forma efectiva de aprovechar el poder de los FMs. Puedes pasar instrucciones dentro de la ventana de contexto del FM, permitiéndote pasar contexto específico en el prompt. Al interactuar con un FM a través de una serie de preguntas, declaraciones o instrucciones detalladas, puedes ajustar el comportamiento de salida del FM en función del contexto específico del resultado que deseas lograr.
El proceso de COSTAR es una metodología estructurada que te guía a través de la creación de prompts efectivos para FMs. COSTAR significa:
- Contexto: Proporcionar información de fondo ayuda al FM a entender el escenario específico y ofrecer respuestas relevantes.
- Objetivo: Definir claramente la tarea dirige el enfoque del FM para cumplir con ese objetivo específico.
- Estilo: Especificar el estilo de escritura deseado, como emular a una personalidad famosa o a un experto profesional, guía al FM para alinear su respuesta con tus necesidades.
- Tono: Establecer el tono asegura que la respuesta resuene con el sentimiento requerido, ya sea formal, humorístico o empático.
- Audiencia: Identificar el público destinatario adapta la respuesta del FM para que sea apropiada y comprensible para grupos específicos, como expertos o principiantes.
- Respuesta: Proporcionar el formato de respuesta, como una lista o JSON, asegura que el FM entregue en la estructura requerida para tareas posteriores.
La técnica de "Chain-of-Thought" (CoT) es un enfoque que mejora las habilidades de razonamiento de los FMs al desglosar preguntas complejas o tareas en pasos más manejables, imitando cómo los humanos razonan y resuelven problemas. Con el prompting tradicional, un modelo de lenguaje intenta proporcionar una respuesta final directamente basada en el prompt, lo que a menudo puede llevar a respuestas subóptimas o incorrectas. El CoT aborda este problema guiando al modelo de lenguaje a exponer explícitamente su proceso de pensamiento paso a paso, conocido como "cadena de razonamiento", antes de llegar a la respuesta final. Esta técnica ha demostrado mejorar significativamente el rendimiento en tareas que requieren razonamiento en varios pasos, deducciones lógicas o resolución de problemas complejos.
El prompting de "Tree of Thoughts" (ToT) es una técnica que mejora las capacidades de razonamiento del FM al desglosar declaraciones problemáticas más grandes en un formato ramificado, donde cada problema se divide en subproblemas más pequeños. Este enfoque permite a los FMs autoevaluarse, razonando a través de cada subtema y combinando las soluciones para llegar a la respuesta final. Según estudios recientes, ToT supera sustancialmente otros métodos de prompting.
Además, la cadena de prompts es un método útil para manejar problemas más avanzados. En esta técnica, la salida de un FM se pasa como entrada a otro FM en una secuencia de N modelos, con ingeniería de prompts entre cada paso. Esto permite desglosar tareas complejas y preguntas en subtemas, cada uno como un prompt de entrada diferente a un modelo. Por ejemplo, en la revisión de un caso legal, se pueden usar diferentes prompts para analizar los detalles del caso, proporcionar un resumen conciso, y evaluar las fortalezas y debilidades del caso.
Para garantizar la seguridad y evitar el uso indebido de los prompts, es fundamental implementar técnicas de defensa como el uso de guardrails en Amazon Bedrock, que proporcionan una capa adicional de salvaguardias para evitar la generación de contenido dañino o sesgado. La adopción de prácticas de seguridad en el diseño desde el principio es crucial para el desarrollo de aplicaciones de IA generativa seguras y efectivas.
En resumen, la ingeniería de prompts ofrece una mezcla fascinante de creatividad y conocimiento técnico, esencial para aprovechar al máximo el potencial de la IA generativa. Adopta estas técnicas y mejores prácticas para desarrollar aplicaciones de IA generativa avanzadas y seguras.
vía: AWS machine learning blog