El modelo de ChatGPT procesa el texto dividiéndolo en tokens, que pueden ser palabras, caracteres o partes de palabras. La tokenización varía según el idioma. Cada token recibe un valor de representación que captura información semántica y contextual, permitiendo al modelo comprender el significado e intención del texto. Los tokens ingresan secuencialmente, analizando el contexto previo para predecir respuestas. Sin embargo, existe un límite de tokens para optimizar el rendimiento y controlar costos, por lo que es necesario ajustarse a este límite al redactar comandos.