1. ¿Qué es un Modelo de Lenguaje Grande (LLM)?
2. ¿Cuáles son las principales diferencias entre un modelo de lenguaje tradicional y un LLM?
3. ¿Qué es la tokenización en el contexto de los LLM?
4. ¿Cuáles son los principales desafíos en el entrenamiento de LLMs?
5. ¿Cuál es el papel del pre-entrenamiento en los LLMs?
6. ¿Qué es el "fine-tuning" (ajuste fino) en el contexto de los LLM?
7. ¿Cuáles son las características del fine-tuning (ajuste fino)?
8. ¿Qué es el aprendizaje de cero disparos (zero-shot learning) en LLMs?
9. ¿Qué son los transformers en el contexto de los LLMs?
10. ¿Cuáles son las ventajas de la tokenización de subpalabras sobre la tokenización a nivel de palabra?
11. ¿Cuáles son ventajas de los transformers sobre las RNNs?
12. ¿Qué es el olvido catastrófico en el fine-tuning?
13. ¿Cuál es el riesgo de "overfitting" (sobreajuste) en los LLMs y cómo se puede abordar?
14. ¿Qué es la perplejidad en la evaluación de LLMs?
15. ¿Qué es la ingeniería de prompts?
16. ¿Cómo se utiliza la Comprensión del Lenguaje Natural (NLU) en los LLMs?
17. ¿Qué son los "transformers dispersos" (sparse transformers) y cómo mejoran la eficiencia de los LLMs?
18. ¿Qué es la generación aumentada por recuperación (RAG)?
19. ¿Para qué se usa la destilación de conocimiento en LLMs?
20. ¿Cuáles son características de los modelos encoder-only como BERT?