¿Qué es “prompt engineering” y cómo funciona?
“Prompt engineering” se ha convertido en un potente método para optimizar los modelos lingüísticos en el procesamiento del lenguaje natural (PLN). Consiste en crear instucciones eficaces, a menudo denominados instrucciones o preguntas, para dirigir el comportamiento y los resultados de los modelos de IA.
Debido a la capacidad de la “prompt engineering” para mejorar la funcionalidad y la gestión de los modelos lingüísticos, ha atraído mucha atención. Este artículo profundiza en el concepto de ingeniería rápida, su importancia y su funcionamiento.
Entender la “prompt engineering”
“Prompt engineering” consiste en crear preguntas o instrucciones precisas e informativas que permitan a los usuarios obtener los resultados deseados de los modelos de IA. Estas instrucciones sirven como entradas precisas que dirigen el comportamiento de los modelos lingüísticos y la generación de texto. Los usuarios pueden modificar y controlar los resultados de los modelos de IA estructurando cuidadosamente las instrucciones, lo que aumenta su utilidad y fiabilidad.
Historia de la “prompt engineering”
En respuesta a la complejidad y el aumento de las capacidades de los modelos lingüísticos, la “prompt engineering” ha cambiado con el tiempo. Aunque la ingeniería rápida puede no tener una larga historia, sus cimientos pueden verse en las primeras investigaciones sobre PNL y en la creación de modelos lingüísticos de IA. He aquí un breve resumen de la historia de la ingeniería rápida:
La era anterior a los transformadores (antes de 2017)
La “prompt engineering” era menos común antes del desarrollo de modelos basados en transformadores como el transformador generativo preentrenado (GPT) de OpenAI. Los modelos lingüísticos anteriores, como las redes neuronales recurrentes (RNN) y las redes neuronales convolucionales (CNN), carecen de conocimiento contextual y adaptabilidad, lo que limita el potencial de la ingeniería de instrucciones.
La formación previa y la aparición de transformadores (2017)
La introducción de los transformadores, concretamente con el artículo “Attention Is All You Need” de Vaswani et al. en 2017, revolucionó el campo de la PNL. Los transformadores hicieron posible preentrenar modelos lingüísticos a gran escala y enseñarles a representar palabras y frases en contexto. Sin embargo, durante todo este tiempo, la ingeniería de prontos seguía siendo una técnica relativamente inexplorada.
El ajuste fino y el auge de los modelos GPT (2018)
La introducción de los modelos GPT de OpenAI supuso un importante punto de inflexión para la “prompt engineering”. Los modelos GPT demostraron la eficacia del preentrenamiento y el ajuste fino en determinadas tareas posteriores. Con diversos fines, investigadores y profesionales han empezado a utilizar técnicas de “prompt engineering” para dirigir el comportamiento y los resultados de los modelos GPT.
Avances en técnicas de “prompt engineering” (2018-presente)
A medida que aumentaban los conocimientos sobre “prompt engineering”, los investigadores empezaron a experimentar con distintos enfoques y estrategias. Por ejemplo, diseñando instucciones ricas en contexto, utilizando plantillas basadas en reglas, incorporando instrucciones del sistema o del usuario y explorando técnicas como el ajuste de prefijos. El objetivo era aumentar el control, mitigar los sesgos y mejorar el rendimiento general de los modelos lingüísticos.
Contribuciones comunitarias y exploración (2018-presente)
A medida que la “prompt engineering” ganaba popularidad entre los expertos en PNL, académicos y programadores empezaron a intercambiar ideas, lecciones aprendidas y mejores prácticas. Los foros de debate en línea, las publicaciones académicas y las bibliotecas de código abierto contribuyeron significativamente al desarrollo de métodos de “prompt engineering”.
Investigación en curso y orientaciones futuras (presente y futuro)
La “prompt engineering” sigue siendo un campo activo de investigación y desarrollo. Los investigadores están explorando formas de hacer que la ingeniería rápida sea más eficaz, interpretable y fácil de usar. Se investigan técnicas como las recompensas basadas en reglas, los modelos de recompensa y los enfoques humanos para perfeccionar las estrategias de ingeniería rápida.
Importancia de la “prompt engineering”
La “prompt engineering” es esencial para mejorar la usabilidad e interpretabilidad de los sistemas de IA. Tiene una serie de ventajas, entre ellas:
Control mejorado
Los usuarios pueden dirigir el modelo lingüístico para que genere las respuestas deseadas dando instrucciones claras mediante instrucciones. Este grado de supervisión puede ayudar a garantizar que los modelos de IA proporcionen resultados que cumplan normas o requisitos predeterminados.
Reducir los sesgos en los sistemas de IA
La “prompt engineering” puede utilizarse como herramienta para reducir los sesgos en los sistemas de IA. Los sesgos en textos generados pueden detectarse y reducirse diseñando cuidadosamente las instrucciones, lo que conduce a resultados más justos y equitativos.
Modificar el comportamiento del modelo
Los modelos lingüísticos pueden modificarse para que muestren los comportamientos deseados mediante ingeniería de instrucciones. Como resultado, los sistemas de IA pueden convertirse en expertos en tareas o dominios concretos, lo que aumenta su precisión y fiabilidad en casos de uso particulares.
Cómo funciona la “prompt engineering”
La “prompt engineering” utiliza un proceso metódico para crear instucciones potentes. He aquí algunas acciones cruciales:
GPT-4 General Prompting Tips
The following tips will help give you a competitive advantage with the latest version of ChatGPT:
→ Capture Your Writing Style
Feed GPT a few samples of your writing and ask it to create a style guide for future outputs.Example prompt:… pic.twitter.com/JWYYLV4ZLS
— Chase Curtis (@realchasecurtis) April 2, 2023
Especificar la tarea
Establezca el fin u objetivo preciso que desea que alcance el modelo lingüístico. Puede tratarse de cualquier tarea de PNL, incluidas la finalización de textos, la traducción y el resumen.
Identificar las entradas y resultados
Define claramente las entradas que necesita el modelo lingüístico y los resultados que espera del sistema.
Crear instrucciones informativas
Crea instrucciones que comuniquen claramente al modelo el comportamiento esperado. Estas preguntas deben ser claras, breves y apropiadas para el fin perseguido. Encontrar las mejores preguntas puede requerir ensayo, error y revisión.
Iterar y evaluar
Ponga a prueba las instrucciones creadas introduciéndolas en el modelo lingüístico y evaluando los resultados. Revise los resultados, busque fallos y modifique las instrucciones para mejorar el rendimiento.
Calibración y arrelgos
Ten en cuenta los resultados de la evaluación a la hora de calibrar y ajustar las indicaciones. Para obtener el comportamiento deseado del modelo y asegurarse de que se ajusta al trabajo y los requisitos previstos, este procedimiento implica realizar pequeños ajustes.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.
Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.