Una de las buenas costumbres humanas radica en el hecho de ser amable, empleando palabras como el por favor y las gracias. Sin embargo, los expertos explican que con ChatGPT esto no es necesario para nada, ya que tiene un costo relativamente alto en materia de consumo de energía.
En algunos casos, el hecho de ser cortés con esta tecnología mejora la precisión de las respuestas de la herramienta de la inteligencia artificial. Pese a esto, los expertos recomiendan no hacerlo.
Por qué no hay que ser amable con ChatGPT
ChatGPT, como muchos otros modelos de inteligencia artificial, funciona mediante un proceso complejo que involucra miles de operaciones computacionales para generar respuestas a las consultas de los usuarios.
Cada vez que se realiza una solicitud, ChatGPT debe procesar la entrada en su totalidad, dividiéndola en tokens (unidades más pequeñas de texto), lo que incrementa el tiempo y los recursos requeridos, especialmente cuando las interacciones son más largas y detalladas debido a la cortesía.
Si se incluyen palabras adicionales en una consulta, como las mencionadas anteriormente, la cantidad de tokens que debe procesar ChatGPT se incrementa, lo que exige más tiempo de cálculo, mayor uso de las unidades de procesamiento gráfico (GPU) y, en última instancia, una mayor carga sobre los servidores que operan el sistema.
El estudio que respalda esta teoría
Un estudio realizado por la Universidad de Cornell en Estados Unidos evaluó cómo las interacciones con IA variaban dependiendo de si se usaba un lenguaje cortés o descortés.
Los resultados demostraron que, al igual que en las interacciones humanas, el lenguaje cortés suele generar respuestas más eficaces y satisfactorias, mientras que las indicaciones groseras pueden desencadenar un rendimiento inferior de la tecnología.
No obstante, se demostró también que el exceso de cortesía puede no ser beneficioso para esta tecnología. Definitivamente, este hallazgo resalta que los modelos de IA no solo están influenciados por las normas humanas.






