1. Qué es un token en el contexto de los modelos de lenguaje?
2. Un token siempre equivale exactamente a una palabra completa.
3. La tokenización es el proceso de convertir texto en una secuencia de tokens que pueden ser procesados por modelos de lenguaje.
4. ¿Cuál es el objetivo principal de la tokenización en procesamiento de lenguaje natural?
5. Una vez que el texto ha sido tokenizado, ¿en qué se convierte cada token para que los LLMs puedan procesarlo y "entender" su significado?
6. ¿Por qué es crucial entender la tokenización para el cálculo de costos en APIs de LLMs?
7. La tokenización es el proceso principal mediante el cual un modelo de IA transforma su salida final en un formato comprensible para el usuario.
8. ¿Qué tipo de tokenización es aquella que descompone una palabra como "racket" en "rack" y "##et"?