Ya estoy inscrito ¿Todavía no tienes acceso? Nuestros Planes
Ya estoy inscrito ¿Todavía no tienes acceso? Nuestros Planes
1
respuesta

Creando una publicación para tu trabajo

prompt:
Habla sobre como puedo identificar cuando un llm alucina, dame los consejos mas relevantes y justifica tu respuesta. 2. Muéstrame un ejemplo basado en el mundo real 3. Crea un post para publicarlo en LinkedIn, utilizando el hashtag #IAenAlura, de forma no tan profesional pero llamativo

1. Consejos para identificar cuando un LLM alucina

Un Large Language Model (LLM) puede alucinar cuando genera información falsa, inventada o no sustentada. Algunos consejos clave para detectarlo son:

  • Verificar fuentes: si el modelo da un dato, autor o referencia, comprobar si realmente existe. Una alucinación común es inventar artículos académicos o estudios.
  • Revisar consistencia: si se hace la misma pregunta de dos formas distintas y las respuestas cambian drásticamente, puede ser señal de alucinación.
  • Detectar vaguedad: cuando el modelo responde con frases muy generales, sin fechas, nombres o datos concretos, es posible que esté rellenando con supuestos.
  • Evaluar exceso de seguridad: si responde con tono categórico pero sin respaldo verificable, hay que sospechar.
  • Contrastar con hechos básicos: comparar con conocimientos fáciles de confirmar, como fechas históricas o leyes vigentes.
  • Identificar invenciones: si aparecen nombres de instituciones, programas o conceptos que no existen, probablemente son fabricados.

En resumen, un LLM alucina cuando mezcla lo cierto con lo inventado y lo presenta con seguridad, por lo que siempre hay que contrastar.

2. Ejemplo basado en el mundo real

Si se pregunta: ¿Quién ganó el Premio Nobel de Literatura en 2023?

Un LLM podría inventar y responder:
"El Nobel de Literatura 2023 fue otorgado a Haruki Murakami por su novela Tokyo Blues."

Esto sería una alucinación, porque Murakami nunca lo ha ganado y Tokyo Blues es de 1987.
La respuesta real es que el Nobel de Literatura 2023 fue otorgado a Jon Fosse, dramaturgo noruego.

Este tipo de error es común cuando el modelo rellena la respuesta con candidatos plausibles pero no confirmados.

3. Post ejemplo para LinkedIn

¿Sabías que la inteligencia artificial también se equivoca?
Incluso los modelos más avanzados como los LLMs pueden alucinar. Esto significa que inventan datos, autores o hechos con un tono muy convincente.

Algunos consejos para no caer en la trampa:

  • Verificar siempre las fuentes
  • Formular la misma pregunta de diferentes maneras
  • Desconfiar de respuestas demasiado seguras sin respaldo

Ejemplo real: un LLM me dijo que Haruki Murakami ganó el Nobel de Literatura en 2023. Esto es falso. El verdadero ganador fue Jon Fosse.

La clave no es dejar de usar la inteligencia artificial, sino aprender a dialogar con ella de manera crítica.
Cuando se identifican sus límites, se puede aprovechar todo su potencial.

1 respuesta

¡Hola Asenat, espero que estés bien!

Gracias por compartir tu duda. Parece que estás en el camino correcto con el ejercicio de crear un prompt para generar un post en LinkedIn. Has identificado bien los pasos para detectar cuando un LLM alucina y has proporcionado un ejemplo claro y un post atractivo para LinkedIn.

Para mejorar aún más tu prompt, podrías considerar dividir el proceso en pasos más pequeños, como se sugiere en la actividad. Por ejemplo:

  1. Instrucciones claras: Asegúrate de que el prompt tenga instrucciones específicas y detalladas para que el modelo entienda exactamente lo que necesitas.

  2. Subtareas: Divide el proceso en subtareas, como identificar alucinaciones, proporcionar ejemplos y finalmente crear el post.

  3. Explicación de pasos: Pide al modelo que explique cómo llegó a cada conclusión o respuesta, lo que te ayudará a verificar la precisión de la información.

  4. Justificación de respuestas: Solicita que el modelo justifique sus respuestas para entender mejor su lógica.

  5. Variabilidad de respuestas: Genera varias versiones del post y elige la que mejor se adapte a tu estilo y necesidades.

Tu post de LinkedIn ya es bastante llamativo y cumple con el objetivo de ser informativo y accesible. Solo asegúrate de que el contenido sea revisado para evitar cualquier error que un LLM pueda introducir.

Espero que estas sugerencias te sean útiles para perfeccionar tu habilidad en la creación de prompts y en la publicación de contenido en LinkedIn. ¡Espero haber ayudado y buenos estudios!