Aprendimos técnicas para mejorar los resultados al utilizar herramientas de inteligencia artificial, como el ChatGPT, para trabajar con textos largos. Una técnica importante es dividir los textos largos en partes más pequeñas, utilizando el concepto de tokens. el maximo de 4096 token considerando la entrada y también la salida la herramienta tokenizer nos da la cantidad de tokens que tiene en total y cada color en un tokens si nos pasamos de la cantidad de token nos generaría un error entonces podemos dividirlos para obtener mejores resultado