
Los grandes modelos de lenguaje siguen sin superar una barrera fundamental: imitar con precisión cómo hablan las personas. Esa fue la conclusión de una investigación reciente publicada en PMC, donde se analizó la capacidad de herramientas como ChatGPT-4, Claude Sonnet 3.5, Vicuna y Wayfarer para simular conversaciones humanas.
El estudio fue desarrollado por investigadores de las universidades de Basilea, Neuchâtel y la Universidad Noruega de Ciencia y Tecnología (NTNU). En él, se compararon transcripciones de llamadas telefónicas reales con conversaciones generadas por estos sistemas de inteligencia artificial. El objetivo fue determinar si otras personas podían diferenciar entre ambos tipos de diálogos. "Los grandes modelos lingüísticos hablan de manera diferente a las personas", afirmó Lucas Bietti, profesor asociado del Departamento de Psicología de la NTNU.
Uno de los principales hallazgos fue la presencia de lo que los autores denominan "alineación exagerada". Esta ocurre cuando los modelos imitan demasiado el estilo del interlocutor, algo que los seres humanos no hacen de forma tan marcada. Según explicó Bietti, "los modelos lingüísticos grandes tienden a imitar con demasiada frecuencia, y esta imitación exagerada es algo que los humanos podemos percibir".
Otro error frecuente está en el uso de palabras de relleno o "marcadores discursivos", como "así que", "bueno" o "de todos modos". Aunque suelen pasar desapercibidas, estas expresiones cumplen funciones sociales y estructurales clave en las conversaciones reales. Sin embargo, los modelos de lenguaje no logran utilizarlas de forma natural. "Los modelos lingüísticos grandes utilizan estas palabras pequeñas de manera diferente y a menudo incorrectamente", señaló el investigador.
También se identificaron fallas en las fases de inicio y cierre de las conversaciones. A diferencia de las personas, que suelen introducirse con saludos informales y concluir con frases que indican cortesía o continuidad, los modelos tienden a pasar de un tema a otro de forma abrupta. Bietti comentó: "Esta introducción y el cambio a una nueva fase de la conversación también son difíciles de imitar para los modelos lingüísticos grandes".
En conjunto, estas limitaciones hacen que los sistemas actuales aún no logren engañar al interlocutor de forma consistente. Aunque pueden generar textos coherentes, su desempeño en contextos conversacionales sigue siendo deficiente. "Los grandes modelos lingüísticos actuales aún no son capaces de imitar a los humanos lo suficientemente bien como para engañarnos consistentemente", indicó Bietti.
A pesar de esto, los investigadores reconocen el rápido avance de estas tecnologías y la posibilidad de mejoras en el corto plazo. "Las mejoras en los grandes modelos lingüísticos probablemente lograrán reducir la brecha entre las conversaciones humanas y las artificiales, pero es probable que persistan diferencias clave", concluyó el académico. (NotiPress)