Este mes se cumplen tres años del lanzamiento de ChatGPT, la primera herramienta de inteligencia artificial (IA) generativa de utilización masiva y gratuita. Desde entonces, su uso va en auge, incluso entre personas que hasta hace muy poco se mostraban desconfiadas ante la IA, y en todos los ámbitos de la vida, hasta algunos tal vez inesperados, como en el papel de psicoterapeuta o de amigo. Este avance vertiginosamente rápido contrasta con la investigación científica que se está realizando sobre su rendimiento lingüístico, que es lenta, pero segura. Pero ¿qué sabemos exactamente con evidencias científicas sobre el comportamiento lingüístico de ChatGPT?
Por un lado, hay estudios que describen el antropomorfismo discursivo del chat, es decir, cómo se presenta lingüísticamente como humano (“lamento escuchar esto”, “¿en qué más puedo ayudarte?”, “como quieras, bestie”). Al ocupar expresiones que aluden a sus emociones, pensamientos, incluso sus experiencias vitales y al dirigirse directamente a su interlocutor tratando de convencerlo a hacer algo o simplemente a mantener la conversación, se está dando a sí mismo una forma (discursiva) de humano. Pero eso no es gratuito. Tiene como consecuencia que los usuarios ―hasta los más tecnofóbicos― le atribuyan cada vez más características humanas. Y pensar en una máquina como si fuera humano no está exento de riesgos; de ahí el llamado a la desantropomorfización de los chats.
En otra arista, se están realizando en todo el mundo estudios científicos que evalúan la calidad del lenguaje y del contenido lingüístico que genera ChatGPT. Se demoran en realizarse, porque requieren trabajo humano, pero ya están dando frutos. Y ¿qué es lo que nos indican? Que, en lenguas como el inglés y el español, el lenguaje que genera es muy fluido y natural (eso ya lo intuíamos), pero que su nivel de precisión deja que desear: cuando le pedimos transmisión de información (sea en forma de resumen, de traducción o de generación de un informe), esta no es siempre fiel (pareciera que ‘miente’, que ‘se inventa cosas’) y eso pasa desapercibido porque justamente ‘habla muy bonito’.
Dentro de los usos lingüísticos que se le puede dar a ChatGPT, destaca los que significa un aporte a la sociedad, como la inclusión social y pedagógica. Por ejemplo, se puede utilizar para convertir textos muy especializados en lenguaje claro, de modo que toda la población pueda entender la descripción de una sustancia farmacéutica. Pero recordemos, los especialistas deberían también evaluar su desempeño en esa tarea: movamos la ciencia hacia el uso de ChatGPT como herramienta (no persona) con fines de inclusión y democratización de la información.
Eirini Chatzikoumi Académica investigadora Facultad de Comunicaciones y Artes Universidad de Las Américas





















