Este video explora el viaje de los modelos de lenguaje de IA, desde sus modestos inicios hasta el desarrollo de los modelos GPT de OpenAI. Nuestro viaje nos lleva a través de los momentos clave en la investigación de redes neuronales generativas involucradas en la predicción de la siguiente palabra. Profundizamos en los primeros experimentos con pequeños modelos de lenguaje en la década de 1980, destacando contribuciones significativas de investigadores como Jordan, quien introdujo las redes neuronales recurrentes, y Elman, cuyo trabajo sobre el aprendizaje de los límites de las palabras revolucionó nuestra comprensión del procesamiento del lenguaje. Nos deja con una pregunta: ¿qué es el pensamiento? ¿Es pensamiento simulado, pensamiento? Con Noam Chomsky, Douglas Hofstadter Michael I. Jordan, Jeffrey Elman, Geoffrey Hinton, Ilya Sutskever, Andrej Karpathy, Yann LeCun y más.