Hola Carlos, espero que estés bien
¡Qué interesante tu observación sobre las diferentes herramientas LLM! En el ejercicio que mencionas, parece que la clave está en aplicar los principios de la ingeniería de prompt para obtener mejores resultados, independientemente de la herramienta que estés utilizando.
En tu caso, ya que has probado las versiones gratuitas de Gemini, Chat GPT y DeepSeek, podrías intentar aplicar algunos de los principios que se enseñan en la clase para ver si mejoras los resultados. Por ejemplo, podrías:
Claridad en las instrucciones: Asegúrate de que el prompt sea claro y específico sobre lo que necesitas. Esto puede ayudar a los modelos a entender mejor la tarea y proporcionar respuestas más precisas.
Dividir en subtareas: Como se sugiere en el ejercicio, dividir la tarea en pasos más pequeños puede ayudar a los modelos a procesar la información de manera más efectiva. Por ejemplo, primero analiza las pistas, luego combina las pistas relevantes, y finalmente mapea la respuesta.
Explicación y justificación: Pide al modelo que explique sus pasos y justifique sus respuestas. Esto no solo te dará una mejor comprensión de cómo llegó a su conclusión, sino que también puede mejorar la calidad de la respuesta.
Generar múltiples respuestas: Si es posible, pide al modelo que genere varias respuestas y luego elige la mejor. Esto puede darte una perspectiva más amplia y ayudarte a identificar la respuesta más precisa.
Aplicando estos principios, podrías experimentar con las diferentes herramientas y comparar los resultados. Es una excelente manera de entender cómo cada modelo maneja las instrucciones y mejora tus habilidades en la ingeniería de prompt.
Espero que estas sugerencias te sean útiles. ¡Espero haber ayudado y buenos estudios!