Lección #1 - Conceptos básicos
Accediendo a ChatGPT
Lo primero que debemos hacer (si no lo hemos hecho ya), es registrarnos en la web de ChatGPT, a través del botón "Sign up". Podemos iniciar sesión directamente con nuestra cuenta de Google o Apple, que es lo más cómodo.
Una vez allí, nos aparecerá la pantalla principal de GPT con una nueva conversación lista para escribir.
Si te has fijado, arriba indica que estoy usando ChatGPT 4, y eso es porque estoy suscrito al plan de pago mensual. El plan gratuito solo ofrece acceso a unos cuantos mensajes con el modelo avanzado y después pasa al más básico. La diferencia es bastante grande en términos de capacidad de razonamiento, memoria (de la que hablaremos en esta lección) y eficacia general.
¿Es importante suscribirse al plan de pago, entonces? Todo depende del uso que le vayas a dar a la IA. Mientras aprendes a utilizarla, el plan básico es suficiente. En el futuro, si te resulta muy útil para tu trabajo y necesitas mejores resultados, puedes pensar en pagar y suscribirte.
La suscripción también incluye acceso a Dall-E 3, la IA generativa de imagen. Hablaremos de ella en próximas entradas y enseñaremos a sacarle partido.
Cuestión de probabilidad
Antes de pasar a la acción y escribir nuestros primeros prompts, es necesario comprender algunos puntos que determinan la forma en la que usamos la IA Generativa, especialmente las de texto. Esta clase es como la primera en la autoescuela. No es la más divertida, pero si no la aprendes, te la pegas.
ChatGPT funciona a través de probabilidades. Es decir, calcula la siguiente palabra más probable a partir del texto que tú le has introducido. Y lo puede hacer porque ha sido entrenada con un conjunto de datos inmenso. Es como si se hubiera "leído" medio Internet.
Por eso es importante el Prompt Engineering, porque, a más detallado sea el prompt, menos “amplia” es su probabilidad de respuesta y más concreta será. Si le haces preguntas vagas, obtienes respuestas vagas. Si le haces preguntas ricas en información, obtendrás respuestas igualmente ricas.
La memoria de la IA
Para poder comprender lo que dices, GPT divide el texto en “tokens”, que, para entendernos, son como las sílabas de nuestra propia lengua (no es así exactamente, pero recuerda, aquí no nos metemos en fregados técnicos).
Y, lo mismo que la memoria de los seres humanos, las IA tienen un límite de palabras que pueden recordar mientras hablan de un tema, aunque por fortuna es bastante mayor. A esta memoria a corto plazo la llamamos “contexto”.
Es muy importante que tengas claro este concepto, porque es el más importante de todos y el que va a determinar la forma en la que trabajas con la IA.
Las IA más antiguas tenían poca “memoria” y se atoraban más rápido. Afortunadamente, hoy tenemos modelos que pueden trabajar con miles de palabras sin problema.
Por ejemplo, todo lo que llevas leído hasta ahora en esta entrada equivale a unos 783 tokens. ChatGPT hasta hace poco era capaz de manejar 4096 tokens, pero desde las últimas actualizaciones ese número ha aumentado mucho.
Sea como fuere, los límites de tokens equivalen a los límites de la “memoria a corto plazo” de la IA. Si te pasas de ahí, se le empezarán a olvidar las primeras cosas de las que hablasteis. Para paliar esto, GPT hace “resúmenes” de lo que lleváis hablado hasta el momento. No obstante, es mejor mantenerse dentro de los límites.
¿Y cómo sabremos si lo que le vamos a pedir es demasiado largo? Con esta herramienta. Introduces cualquier texto y te calcula los tokens a los que equivale.
Hoy por hoy, los límites “funcionales” equivalen a muchas páginas enteras de texto y capítulos no muy largos de libros. Pero no le pidas que te resuma libros completos extensos, porque la IA se pierde y te va a dar información errónea (salvo algunas herramientas de las que hablaremos en próximas entradas, mantente atento).
Ojo: el límite de tokens corresponde a la suma de tu prompt + la respuesta de la IA. Es decir: si el límite de memoria de GPT fueran 4096 tokens, y tu prompt tiene 2048, solo le estás dejando otros 2048 para que te responda. En la práctica, GPT se va a saltar este límite, pero a costa de lo que hemos dicho antes, estará tirando de sus propios “resúmenes” y empezará a olvidar las cosas del principio.
Si no has entendido algo hasta ahora, vuelve a leerlo entero, porque es importante. O no, tú sabrás.
Esto es alucinante
Por otro lado, por mucho que las IA se hayan leído medio Internet y tengan un conocimiento amplísimo, no lo saben todo, (especialmente las cosas más concretas) y como cualquier sabihondo, odia decir que no sabe algo, y hace lo mismo que tu cuñado: se lo inventa (decimos entonces que la IA “alucina”)
Por eso, cuando trabajemos con información muy concreta, conviene informarle con nuestros propios datos (algo que ya veremos en próximas entradas).
Por ejemplo, GPT probablemente no conozca a tu cuñado, aunque el tipo tenga una página web para vender estufas. Si queremos trabajar con esos datos, probablemente tengamos que facilitárselos en el prompt.
Así que ya sabes, no creas al 100% todo lo que dice la IA, especialmente en casos concretos, y si algo te huele “raruno”, búscalo en Google o Wikipedia y verifica la información, porque igual se lo está sacando de la manga.
La IA no es racista, pero…
No podemos pasar por alto que las IA han aprendido con información humana, y como tal, han adoptado los sesgos propios de los seres humanos.
Por eso, si a una IA de imagen como Dall-E se le pide que genere “una persona conduciendo”, lo más probable es que nos devuelva un hombre blanco de un país desarrollado.
No lo menciono por el matiz ético, que nos importa menos en este punto del aprendizaje, sino porque lo tengas en cuenta a la hora de generar el contenido.
Si quieres que tu protagonista sea negro, vas a tener que especificarlo. Y así con todo lo que se te ocurra, incluidos otros sesgos que no sean raciales, sino de la propia información.
Ahora es un poco menos libre
En sus orígenes, GPT tenía mayor libertad para generar textos técnicos de diversa índole, incluso legal o médico. En algunos lugares se especuló con la posibilidad de que OpenAI (la empresa detrás de ChatGPT) degradase las capacidades técnicas en algunos ámbitos con el objetivo de que no fuese una amenaza para ciertas profesiones.
Es algo que, hasta cierto punto, ya no tiene mucho sentido plantearse, a la luz de las capacidades que ofrecen los últimos modelos. Pero sí es cierto que cuando entramos en terrenos médicos o legales, GPT se vuelve entre panoli y miedoso y no da toda la buena respuesta que podría, además de una serie inacabable de recomendaciones de precaución.
Hay formas de paliar un poco esto (vía prompt), pero no hace milagros. No obstante, para la mayoría de las tareas básicas, GPT sigue funcionando perfectamente.
AI is not for Porn
Por último, al hilo de lo anterior, la mayoría de IA Generativas tienen algún tipo de censura para evitar que se generen contenidos sexuales, de odio y con mucha violencia, por lo que, si le preguntas algo relacionado, lo más probable es que se niegue en rotundo a responder.
El problema de esto es que a veces estás trabajando con algún contenido censurado sin mala intención (por ejemplo, para algún trabajo de ficción) y GPT te lo pone muy difícil.
En próximas entradas veremos algunas técnicas para saltarnos un poco esta censura cuando sea necesario.
Hasta aquí esta primera clase, un poco más teórica, pero considero que es interesante conocer algunos conceptos de esta nueva disciplina conocida como Prompt Engineering o Ingeniería de Instrucción.