El texto explica que ChatGPT no procesa textos directamente, sino que los divide en tokens, con un límite de 4.096 tokens por solicitud. Para saber cuántos tokens tiene un texto, se puede usar una herramienta llamada Tokenizer. Si el texto es demasiado largo, se puede dividir en partes más pequeñas que quepan dentro del límite de tokens y luego combinar los resúmenes.
Esto nos hace mas fácil para trabajar con textos largos que sobre pasan la limitación de carga en el chat sobre el chatGPT, esto agiliza el tiempo de respuesta de la herramienta y haciéndola mas precisa.