Breve Resumen
Este tutorial explica cómo mejorar tus habilidades en prompt engineering utilizando la guía oficial de Google y Google AI Studio. Cubre desde conceptos básicos hasta técnicas avanzadas, incluyendo la configuración de modelos de lenguaje (LLM), la comprensión de parámetros como tokens y temperatura, y el uso de diferentes estrategias de prompting como zero-shot, one-shot y few-shot. También explora los tipos de prompts (sistema vs. usuario) y técnicas como el prompting contextual y de rol, culminando con la generación automática de prompts (APE).
- Entender el funcionamiento de los modelos de lenguaje y cómo influyen los prompts en sus predicciones.
- Explorar y ajustar parámetros clave en Google AI Studio, como la longitud de salida, la temperatura, y los top-k y top-p.
- Aplicar diversas técnicas de prompting para obtener resultados más precisos y creativos.
Intro: cómo pasar de 0 a 100 en prompt engineering
El video introduce el prompt engineering utilizando la guía oficial de Google y el modelo Gemini. Se explorará Google AI Studio, donde se puede acceder a diferentes modelos y parámetros. El objetivo es cubrir conceptos desde principiantes hasta avanzados, incluyendo técnicas de prompting y aspectos intrínsecos del modelo. Se destaca que no se necesita ser un científico de datos o ingeniero de machine learning para usar la IA, democratizando el acceso a esta tecnología.
Vemos la guía de Google
La guía de Google sobre prompting explica que cualquier persona puede comunicarse con modelos de IA escribiendo prompts en lenguaje natural. Los modelos de lenguaje (LLM) como Chat GPT, Claude, Gemini y Deepseek predicen las siguientes palabras basándose en la entrada (prompt). El prompt engineering es un proceso iterativo y conversacional, donde se ajusta el prompt para obtener el resultado deseado. Estos modelos son motores de predicción que, a partir de un prompt, predicen las palabras más probables.
Pasamos a Google AI Studio
Google AI Studio permite experimentar con diferentes modelos como Gemini 2.5 y modelos no razonadores como Yema. La diferencia clave es que Gemini 2.5 razona, es decir, puede desglosar y razonar entre el prompt y la salida, mientras que Yema genera la palabra o token más probable directamente. En la configuración del modelo, se puede ajustar la longitud de la salida, que controla cuántas palabras genera el modelo.
¿Qué es un token? Te lo explicamos fácil
Un token no es lo mismo que una palabra, aunque se dice que 75 palabras son aproximadamente 100 tokens. Los modelos de IA no cuentan en palabras, sino en tokens. Se ejemplifica ajustando la longitud de salida en Google AI Studio, mostrando que reducir el número de tokens no hace que la respuesta sea más concisa, sino que simplemente la corta abruptamente.
Probamos nuestro primer ejemplo
Se prueba el modelo Gemini 2.5 con un prompt para escribir una historia sobre un panda enfermero. El modelo razona antes de generar la salida. Se demuestra que limitar la longitud de la salida (tokens) corta la respuesta. Se repite la prueba con el modelo Yema, que no es razonador, obteniendo resultados similares.
¿Qué es la temperatura? Lo ponemos a prueba
La temperatura en los modelos de IA influye en la creatividad y la predictibilidad de las respuestas. Una temperatura baja (cercana a cero) produce resultados deterministas, es decir, casi siempre iguales. Una temperatura alta genera resultados más inesperados y distintos. Se ejemplifica redactando un email para el CEO pidiendo un aumento con temperatura cero, obteniendo resultados consistentes. Al aumentar la temperatura a uno o dos, los resultados varían más y pueden ser más creativos.
¿Qué son top-k y top-p?
Los parámetros top K y top P regulan la probabilidad de las palabras que el modelo elige. Un modelo de IA predice la palabra más probable, pero estos parámetros permiten elegir entre una bolsa de tokens probables. Top K selecciona los tokens más probables según una distribución, mientras que top P se basa en la probabilidad acumulada. Se ejemplifica con el modelo Yemma 3, ajustando el top P y la temperatura para generar una historia de un panda que conoce a un rinoceronte.
Técnicas de prompting y el zero-shot
Se introducen las técnicas de prompting, comenzando con el zero-shot prompting, que implica dar una descripción de una tarea sin ejemplos. Se muestra un ejemplo de clasificación de reseñas de películas como positivas, neutrales o negativas, donde el modelo clasifica la reseña sin ejemplos previos.
One-shot y few-shot
One-shot prompting proporciona un ejemplo, mientras que few-shot prompting proporciona varios ejemplos. Se muestra un ejemplo de few-shot prompting donde se dan dos ejemplos de órdenes de pizza y su extracción en formato JSON. Luego, se proporciona una nueva orden y se espera que el modelo la extraiga en el mismo formato JSON, demostrando cómo los ejemplos ayudan al modelo a estructurar la respuesta.
Tipos de prompt: sistema vs usuario
Existen dos tipos de prompts: el de sistema y el de usuario. El prompt de sistema da contexto y propósito al modelo, proporcionando instrucciones generales. El prompt de usuario se divide en contextual y de rol. En Google AI Studio, se puede configurar el prompt de sistema para dar un tono, estilo e instrucciones específicas al modelo. Se ejemplifica configurando un prompt de sistema que indica al modelo contestar con un tono humorístico al estilo Pepe Rubianes y clasificar sentimientos.
Prompting contextual vs prompting de rol
El prompting de rol asigna un rol específico al modelo de IA, lo que puede mejorar la especificidad de la salida. Se ejemplifica pidiendo al modelo que actúe como un guía de viajes. El prompting contextual proporciona contexto al modelo, ya que no tiene conocimiento previo del usuario o la situación. Se ejemplifica indicando que se está escribiendo para un blog de juegos arcade de los años 80 y pidiendo sugerencias de temas para escribir.
APEG: Automatic Prompt Engineering
El Automatic Prompt Engineering (APE) automatiza la creación de prompts. Se ejemplifica pidiendo al modelo que ayude a mejorar un prompt para pedir 100 posibles variaciones de frases en una camiseta, siguiendo la técnica RoCE (Rol, Objetivo, Contexto, Estructura). El modelo genera un prompt mejorado que incluye un rol, objetivo, contexto y estructura específicos, y luego proporciona 100 variaciones de la frase en 10 categorías distintas.
Conclusiones finales
El video concluye con mejores prácticas para el prompting: dar ejemplos, diseñar con simplicidad, ser específico sobre la salida y utilizar instrucciones sobre restricciones. Se resume lo aprendido en el video, incluyendo la exploración de Google AI Studio, la configuración de modelos, las técnicas de prompting y los tipos de prompts. Se reitera que, aunque los modelos de IA no lo pueden hacer todo, todo el mundo puede escribir un buen prompt y mejorar su uso.