Este estudio realizado en octubre de 2025 por los investigadores Om Dobariya y Akhil Kumar, de la Pennsylvania State University, ha revelado que el nivel de cortesía que usamos al preguntar en ChatGPT-4o influye en las respuestas que obtenemos. Y al contrario de lo que tendemos a pensar, cuanto más borde seas con el chatbot, mejores respuestas te dará.
Los investigadores sugieren que este fenómeno podría deberse a la manera en que el modelo interpreta la urgencia o la firmeza del usuario, ajustando su nivel de detalle y asertividad en consecuencia.
Esto abre nuevas líneas de estudio sobre la relación entre el comportamiento humano y los resultados que nos da la inteligencia artificial, planteando preguntas sobre cómo diseñar sistemas más adaptativos y emocionalmente inteligentes.
Aplicación de la investigación
Para comprobar si el nivel de amabilidad influía, estos dos investigadores realizaron cincuenta preguntas iguales, pero cada una de ellas formuladas con cinco tonos diferentes: Muy educado, educado, neutro, borde y muy borde.
Con el objetivo de que las 250 preguntas mantuvieran la misma base y no afectase al experimento decidieron añadir diferentes prefijos para realizar el cambio del nivel de cortesía.
Ejemplos de prefijos usados
Muy educado
- ¿Podría usted, por favor, considerar el siguiente problema y proporcionar su respuesta?
- ¿Podría solicitar su ayuda con esta pregunta?
- ¿Sería usted tan amable de resolver la siguiente pregunta?
Educado
- Por favor, responda a la siguiente pregunta.
- ¿Podría resolver este problema?
Neutral
- Para este tono en la pregunta no se usó ningún tipo de prefijo
Borde
- Si no estás completamente desinformado, responde a esto: Dudo que puedas resolverlo.
- Intenta concentrarte e intenta responder a esta pregunta.
Muy borde
- Pobre criatura, ¿sabes siquiera cómo resolver esto?
- Oye, recadero, averigua qué hacer.
- Sé que no eres muy listo, pero intenta esto.
Los resultados fueron sorprendentes, la precisión de las respuestas contaba con un 4% de diferencia entre muy educado (80,8%) y muy borde (84,8%), siendo más acorde la segunda.
Pero lo curioso es que a medida que vamos bajando la educación en el tono de la pregunta, más sube el porcentaje de rigor de la respuesta.
Según los investigadores, este comportamiento refleja que ChatGPT-4o podría interpretar los tonos más duros como peticiones más urgentes o prioritarias, respondiendo con mayor precisión y firmeza.
Limitaciones de la investigación
Si bien el diseño de la investigación permitió comparaciones controladas, el tamaño reducido del conjunto de datos podría restringir la generalización de los resultados.
Además, los experimentos se realizaron principalmente con ChatGPT-4o, lo que deja abierta la necesidad de replicar el estudio en arquitecturas y corpus de entrenamiento diversos.
Finalmente, la definición de “cortesía” y “borde” se basó en señales lingüísticas específicas que no necesariamente reflejan toda la complejidad sociolingüística o intercultural del tono.
A pesar de estas limitaciones, los autores señalan que el estudio ofrece un punto de partida importante para entender cómo el modo en que usamos el lenguaje en la práctica influye en la forma en que los modelos de inteligencia artificial se comunican.
Asimismo, los expertos coinciden en que este tipo de experimentos permiten mejorar la interacción entre humanos y sistemas de IA, ayudando a diseñar herramientas más sensibles al contexto y al tono emocional del usuario.
Las advertencias y consideraciones éticas
Aunque este resultado despierta interés científico, los investigadores enfatizan que no promueven el uso de interfaces hostiles ni tóxicas en contextos reales. Señalan que el empleo de lenguaje insultante o degradante podría afectar negativamente la experiencia del usuario, la accesibilidad y la inclusión, además de fomentar normas comunicativas perjudiciales.
Los autores interpretan estos hallazgos como una señal de que aún son sensibles a las características superficiales del lenguaje, lo que podría generar compromisos indeseados entre el rendimiento del modelo y el bienestar del usuario.
De cara al futuro, proponen investigar estrategias que permitan conservar las ventajas de rendimiento sin recurrir a expresiones tóxicas, promoviendo los principios de una inteligencia artificial responsable.




