Leyendo los comentarios, algunos compañeros identifican que, si se trabaja con textos grandes como se mostró en la clase (a través de chats separados), existe la posibilidad de que se pierda el contexto del resumen. Basado en los comentarios de Mariana Andrea Lois en el tópico iniciado por Jonathan Sebastian Sanchez Rojas, sugiero los siguientes pasos:
- Considerar dividir el texto en varias secciones (tomando en cuenta los 4,096 tokens tanto para la entrada como la salida).
- Calcular los tokens que conforman a cada una de las secciones del texto a resumir a través de la herramienta Tokenizer https://platform.openai.com/tokenizer para asegurar no exceder los 4,096 tokens.
- Contextualizar a ChatGPT sobre la necesidad de resumir un texto muy largo y que, por lo tanto, se dividirá en “n” cantidad de partes.
- Realizar la “n” cantidad de prompts necesarios para realizar la “n” cantidad subdivisiones del texto correspondientes.
- Solicitar la unión de los resúmenes realizados previamente de una manera coherente.
- Solicitar que realice un resumen del texto emitido en el paso anterior en forma de "bullet points".