Businesswoman using laptop with AI data visualization and graphs in an office

Cómo comunicarse con la IA para obtener mejores respuestas

Cuando nos comunicamos con la IA para solicitarle un resultado, debemos utilizar diversas estrategias para obtener respuestas más precisas de los grandes modelos de lenguaje (LLM), en herramientas como ChatGPT. Hay quienes sostienen que la IA funciona mejor si se le amenaza, otros creen que los chatbots son más cooperativos cuando se les habla con educación. También hay quienes piden a los robots que se hagan pasar por expertos en la materia. Son mitos sobre la «ingeniería de indicaciones», disciplina que estudia cómo construir instrucciones, para obtener mejores resultados de la IA. Sin embargo, los expertos advierten que muchos de estos conocimientos no funcionan y, en algunos casos, son peligrosos. Aun así, la forma en que se habla a una IA sí puede marcar la diferencia.

La dimensión de la cortesía

Un usuario de la red social X, publicó un tuit en el que se preguntaba cuánto dinero habría perdido OpenAI en consumo de electricidad, por los mensajes que incluyen ‘por favor’ y ‘gracias’, por parte de los usuarios al comunicarse con la IA. Sam Altman, director ejecutivo de OpenAI, respondió a ello: «Decenas de millones de dólares bien gastados. Nunca se sabe». Por lo tanto, mucha gente interpretó erróneamente su respuesta, como una referencia a un posible apocalipsis de la IA, pero lo cierto es que la cortesía también tiene una dimensión práctica. Los chatbots dividen las palabras que introducimos en nuestras solicitudes en «tokens» y las analizan estadísticamente para generar respuestas, lo que hace que cada palabra influya en el resultado y que este efecto sea difícil de predecir.

Se han realizado numerosas investigaciones, buscando patrones en los pequeños cambios de las indicaciones, pero la mayoría de la evidencia es contradictoria. Un estudio de 2024 mostró que los chatbots ofrecían respuestas más precisas cuando se les preguntaba con cortesía, en lugar de dar órdenes directas. Curiosamente, los chatbots en japonés mostraban un rendimiento ligeramente inferior con exceso de cortesía, en comparación con los de chino e inglés. Sin embargo, los expertos sostienen que no se ha investigado lo suficiente para llegar a conclusiones sólidas, y las empresas de tecnología actualizan constantemente sus modelos, volviendo obsoletas las investigaciones en pocos meses.

La IA no es una persona

Los expertos afirman que los modelos de IA más recientes, como ChatGPT o Gemini entre otros, han mejorado drásticamente en pocos años. Son más hábiles a la hora de identificar partes importantes de una instrucción y no se dejan influir por pequeños cambios en el lenguaje de manera consistente. Técnicas como la cortesía, insultos o amenazas se han vuelto, en el mejor de los casos, una pérdida de tiempo y en el peor, una fuente de errores impredecibles.

Hay una razón por la que estos comportamientos parecen naturales: las empresas diseñan la IA para que se comporte como las personas. Esto nos puede llevar a pensar que los chatbots tienen estados de ánimo o personalidades manipulables. Sin embargo, los investigadores insisten en que no nos dejemos engañar; la IA es imitadora, no un ser vivo. Simulan el comportamiento humano, pero carecen de motivaciones internas. Por ello, para obtener mejores respuestas, lo más inteligente es tratar a la IA como lo que es: una herramienta.

Personificación de la IA: un grave error.
Con demasiada frecuencia, tendemos a personificar a la IA cuando nos comunicamos con ella.

La IA presenta problemas reales, desde cuestiones éticas hasta su impacto ambiental, y algunas personas optan por no interactuar con ella. Sin embargo, si se utiliza, aprender a obtener lo que se quiere de manera eficiente beneficiará al usuario y al consumo energético. Para ello, los expertos proponen seis recomendaciones:

  • Solicitar múltiples opciones para contar con un amplio abanico de soluciones.
  • Aportar ejemplos concretos de lo que se busca, sin aportar información confidencial, ayudando así al modelo a «situarse».
  • Solicitar una entrevista para aclarar antes de responder.
  • Tener cuidado con los juegos de rol: hacer que la IA finja ser un experto, puede mejorar resultados en modelos antiguos, pero en los modelos modernos puede introducir sesgos.
  • Mantenerse neutral y evitar insultos o halagos, que difícilmente mejoran la respuesta.
  • Importancia de la ética: decir «por favor» y «gracias», no porque la IA lo necesite, sino para mantener la cortesía humana en un mundo automatizado.

“Comunica con la IA como con un buen colaborador: sé claro, específico y aporta contexto; las mejores respuestas nacen de preguntas bien formuladas.”

* Imágenes obtenidas mediante IA por STI 2020 ®


Descubre más desde STI 2020 ®

Suscríbete y recibe las últimas entradas en tu correo electrónico.