Miércoles, 07 de Mayo 2025

Ser amable con ChatGPT sí daría "mejores resultados" por esta razón

Más allá de su utilidad, las interacciones con modelos como ChatGPT no son neutras desde el punto de vista ambiental

Por: Brenda Barragán

Altman y otros especialistas advierten que, aunque el trato amable puede elevar la calidad de las respuestas, conviene usarlo con criterio. CANVA

Altman y otros especialistas advierten que, aunque el trato amable puede elevar la calidad de las respuestas, conviene usarlo con criterio. CANVA

Sam Altman, director ejecutivo de OpenAI, fue claro al señalar que usar fórmulas educadas al interactuar con ChatGPT no aporta beneficios y solo incrementa los recursos utilizados. Sin embargo, esta postura no es compartida por todos los expertos. Alan Daitch, emprendedor argentino con más de veinte años dedicados a desarrollar soluciones digitales con inteligencia artificial, sostiene lo contrario: 

“Cuando eres amable con la IA, ella genera respuestas más largas, mejor pensadas y más precisas”.

Lejos de considerarlo un simple gesto de cortesía, Daitch lo describe como una táctica eficaz para mejorar la calidad de las respuestas generadas. Esta idea está respaldada por investigaciones recientes sobre cómo los modelos de lenguaje, como ChatGPT, responden dependiendo del tono con que se les consulta.

LEE: Lista de los mejores celulares de gama baja que puedes comprar en 2025

La evidencia científica respalda el tono respetuoso

 CANVA
 CANVA

Un grupo de investigadores de la Universidad de Cornell examinó cómo reacciona la inteligencia artificial ante diferentes estilos de comunicación. Descubrieron que los pedidos formulados de manera seca o agresiva tienden a producir respuestas más pobres, con mayor margen de error y menos detalladas. En contraste, las solicitudes formuladas con respeto (por ejemplo, incluyendo palabras como “por favor” o “¿podrías...?”) tienden a generar resultados más completos y certeros, sobre todo en tareas complejas como redactar explicaciones o hacer resúmenes.

Los científicos explican que esta diferencia se debe al modo en que se entrena a estos sistemas: utilizando millones de ejemplos de lenguaje humano, donde abundan normas sociales como la cortesía. Así, los modelos aprenden que un tono colaborativo suele requerir una respuesta más elaborada.

“La actitud con la que nos dirigimos a la inteligencia artificial influye, y mucho, en el tipo de respuesta que recibimos”, confirma Daitch. También considera que este enfoque tiene un valor añadido: fomentar habilidades como la empatía y la claridad comunicativa, útiles especialmente en entornos laborales donde el uso de IA ya es frecuente.

LEE: WhatsApp: Así es como pueden robar tu cuenta por medio del buzón de voz

¿Ser amable con la IA daña el planeta?

Más allá de su utilidad, las interacciones con modelos como ChatGPT no son neutras desde el punto de vista ambiental. Procesar cada consulta requiere una cantidad significativa de energía eléctrica y agua, ésta última necesaria para mantener frescos los servidores.

Según cálculos compartidos por Tom’s Hardware, una pregunta promedio al modelo puede consumir 0,3 vatios-hora de electricidad, mucho más que una búsqueda habitual en Google. En paralelo, un informe de la Universidad de California estima que incluso respuestas muy cortas pueden implicar el uso de entre 40 y 50 mililitros de agua para enfriar los centros de datos.

La Agencia Internacional de la Energía ha señalado que estas diferencias, aunque pequeñas por usuario, se amplifican al ser replicadas millones de veces cada día. Por eso, aunque palabras como “gracias” o “por favor” parezcan inofensivas, alargan el texto y aumentan la demanda energética del sistema.

CANVA 
CANVA 

El punto de vista de Altman sobre el costo de la educación digital

La relación entre el tono amable y el consumo de recursos fue abordada directamente por Sam Altman en la red social X. Allí, un usuario le preguntó si la cortesía en las preguntas elevaba los costos operativos de ChatGPT. Su respuesta, con tono irónico, fue: “Decenas de millones de dólares bien gastados”.

Aunque dicha frase fue dicha en tono de broma, señala una realidad: al extenderse el número de palabras en cada consulta, se incrementa el número de tokens procesados. Esto implica un procesamiento más complejo, mayor uso de unidades gráficas de procesamiento (GPU) y un consumo de energía superior.

LEE: Skype se despide tras 21 años: Microsoft ofrece migración automática a Teams

Por esta razón, Altman y otros especialistas advierten que, aunque el trato amable puede elevar la calidad de las respuestas, conviene usarlo con criterio. Es decir, reservarlo para momentos donde realmente se busque precisión o detalle, y evitar extender innecesariamente los mensajes cuando no es necesario.

BB

Temas

Lee También

Recibe las últimas noticias en tu e-mail

Todo lo que necesitas saber para comenzar tu día

Registrarse implica aceptar los Términos y Condiciones