Sam Altman, director ejecutivo de OpenAI, fue claro al señalar que usar fórmulas educadas al interactuar con ChatGPT no aporta beneficios y solo incrementa los recursos utilizados. Sin embargo, esta postura no es compartida por todos los expertos. Alan Daitch, emprendedor argentino con más de veinte años dedicados a desarrollar soluciones digitales con inteligencia artificial, sostiene lo contrario: Lejos de considerarlo un simple gesto de cortesía, Daitch lo describe como una táctica eficaz para mejorar la calidad de las respuestas generadas. Esta idea está respaldada por investigaciones recientes sobre cómo los modelos de lenguaje, como ChatGPT, responden dependiendo del tono con que se les consulta. Un grupo de investigadores de la Universidad de Cornell examinó cómo reacciona la inteligencia artificial ante diferentes estilos de comunicación. Descubrieron que los pedidos formulados de manera seca o agresiva tienden a producir respuestas más pobres, con mayor margen de error y menos detalladas. En contraste, las solicitudes formuladas con respeto (por ejemplo, incluyendo palabras como “por favor” o “¿podrías...?”) tienden a generar resultados más completos y certeros, sobre todo en tareas complejas como redactar explicaciones o hacer resúmenes.Los científicos explican que esta diferencia se debe al modo en que se entrena a estos sistemas: utilizando millones de ejemplos de lenguaje humano, donde abundan normas sociales como la cortesía. Así, los modelos aprenden que un tono colaborativo suele requerir una respuesta más elaborada.“La actitud con la que nos dirigimos a la inteligencia artificial influye, y mucho, en el tipo de respuesta que recibimos”, confirma Daitch. También considera que este enfoque tiene un valor añadido: fomentar habilidades como la empatía y la claridad comunicativa, útiles especialmente en entornos laborales donde el uso de IA ya es frecuente.Más allá de su utilidad, las interacciones con modelos como ChatGPT no son neutras desde el punto de vista ambiental. Procesar cada consulta requiere una cantidad significativa de energía eléctrica y agua, ésta última necesaria para mantener frescos los servidores.Según cálculos compartidos por Tom’s Hardware, una pregunta promedio al modelo puede consumir 0,3 vatios-hora de electricidad, mucho más que una búsqueda habitual en Google. En paralelo, un informe de la Universidad de California estima que incluso respuestas muy cortas pueden implicar el uso de entre 40 y 50 mililitros de agua para enfriar los centros de datos.La Agencia Internacional de la Energía ha señalado que estas diferencias, aunque pequeñas por usuario, se amplifican al ser replicadas millones de veces cada día. Por eso, aunque palabras como “gracias” o “por favor” parezcan inofensivas, alargan el texto y aumentan la demanda energética del sistema. La relación entre el tono amable y el consumo de recursos fue abordada directamente por Sam Altman en la red social X. Allí, un usuario le preguntó si la cortesía en las preguntas elevaba los costos operativos de ChatGPT. Su respuesta, con tono irónico, fue: “Decenas de millones de dólares bien gastados”.Aunque dicha frase fue dicha en tono de broma, señala una realidad: al extenderse el número de palabras en cada consulta, se incrementa el número de tokens procesados. Esto implica un procesamiento más complejo, mayor uso de unidades gráficas de procesamiento (GPU) y un consumo de energía superior.Por esta razón, Altman y otros especialistas advierten que, aunque el trato amable puede elevar la calidad de las respuestas, conviene usarlo con criterio. Es decir, reservarlo para momentos donde realmente se busque precisión o detalle, y evitar extender innecesariamente los mensajes cuando no es necesario.BB