Un token es una unidad de texto que un modelo de IA utiliza para procesar información. Puede ser una palabra completa, parte de una palabra, un signo o un fragmento de texto.
En productos con IA, los tokens importan porque influyen en el costo, la longitud del contexto, la velocidad de respuesta y la cantidad de información que el modelo puede analizar en una interacción.







