Filóloga analiza inteligencia artificial. Lo que pasó después te sorprenderá.

Hace poco leí este artículo sobre inteligencia artificial (gracias, FDM), que es tremendamente pesimista con lo que esta nos puede traer. Por resumir: la destrucción de la especie humana —recomiendo la lectura para conocer los detalles, son interesantes—. Parece que el lema de nuestra época es «Elige tu propio apocalipsis». Hay que admitir que nos ha quedado resultón.

En el artículo se pone el foco —adecuadamente, creo—en un tipo de inteligencia artificial muy concreta: los grandes modelos de lengua (LLM por sus siglas en inglés: large language models). Y ya que, aunque solo sea por la parte de la segunda ele, ese es también un poco mi negociao, voy a opinar yo también. Me parece que el riesgo de estos modelos deriva de algo tan sencillo como que la lengua nos atañe a todos, nos interesa a todos; todos la entendemos y todos sabemos usarla. Una inteligencia artificial que detecta tumores cancerígenos nos beneficiará a todos, pero, como la mayoría de nosotros no nos dedicamos a detectar tumores cancerígenos, no tendremos mucho interés en utilizarla.

Con los modelos de lengua no ocurre eso, porque todos empleamos el idioma constantemente. Por lo tanto, estos modelos pueden sernos útiles a todos. Sin embargo, precisamente nuestra familiaridad con la lengua es la que puede ser la fuente del peligro de los modelos de lengua: enseguida pensamos que sabemos cómo funcionan, igual que sabemos cómo funciona nuestra lengua, pero… quizá nuestro conocimiento previo no es directamente aplicable a la lengua de las inteligencias artificiales. Por muchísimo que parezca que sí. Y esa va a ser una tentación difícil de superar.

En este podcast de Marta García Aller, Julio Gonzalo describía a ChatGPT como un cuñao estocástico, que se ha convertido en mi definición favorita. Es que explica muy bien cómo funciona: simple y llanamente, encadenando palabras una tras otras por estadística. Con ese “simple y llanamente” no pretendo desmerecer el funcionamiento de estos modelos, que tienen detrás un algoritmo tan complejo que literalmente nadie sabe cómo funciona. (Nadie. Tampoco los que la han creado. Mola, ¿no? NO.) Pretendo subrayar que lo que sabe hacer ChatGPT (o GPT-4 o cualquiera de sus amigos) es crear textos, textos que parecen humanos, pero no tiene control sobre el contenido de esos textos. No sabe si es verdad. No sabe si es coherente. No sabe si dice disparate tras disparate. El problema, claro, es que el humano que lo lea tampoco lo sepa. Porque, a quién queremos engañar, somos más de desconfiar del cuñao que todo lo sabe que de lo que leemos en una pantalla.

Estos modelos de lenguaje son la prueba viviente de las tradiciones discursivas, un concepto lingüístico que describe el hecho de que nuestros textos contienen muchas estructuras repetidas entre sí. Estas repeticiones evocan otros textos y, así, a base de evocaciones, forman una tradición de textos. El otro día estuve en una reunión en alemán en la que se pronunció un discurso sobre un tema que conocía. Con mi alemán estándar nivel usuario, en muchos pasajes era capaz de completar las frases cuando la oradora hacía una pausa. ¿Por qué? Porque conozco el tema y, sobre todo, conozco el formato. He escuchado un porrón de discursos en alemán a estas alturas de mi vida. Yo no sabría hacer uno bueno, pero mi cerebro ya tiene la función de autorelleno. Es decir, muchos fragmentos de las cosas que escribimos y decimos son predecibles: cuantos más textos hayamos oído y escuchado, mejor compondremos (y predeciremos) textos nuevos.

Lo mismo hace ChatGPT. Ha estado expuesto a un montón de textos, ha encontrado regularidades estadísticas y las sabe aplicar. Con una pequeña salvedad: ChatGPT no entiende esos textos. Y además no le importa. Le da igual decir verdades o mentiras: ¡no sabe lo que es la verdad ni la mentira! Muchas veces puede parecer que sí, porque los textos presentan cohesión temática (eso es algo que también se aprende), pero el ojo atento y, sobre todo, el ojo conocedor del tema, podrá detectar las meteduras de patas.

El ojo inexperto, sin embargo, podrá ser engañado fácilmente. Un texto bien redactado es ya un buen argumento a favor de su contenido, algo que sabe cualquiera que se sumerge en un tema que no conoce: le convencerán los argumentos de un lado y del otro si están bien expuestos, porque la capacidad crítica viene del conocimiento del contenido. (Paréntesis: seguramente no es el mejor momento para ir contra los contenidos en la educación primaria y secundaria. Nunca lo será, en realidad. Cierro paréntesis.)

Ahí radica el peligro de estos modelos de lenguaje: en su capacidad de engaño. No se trata de que quieran engañarnos, sino de que “su inteligencia” no es como la nuestra. Cuando crean un texto no lo hacen como nosotros, aunque lleguen a un resultado muy parecido. Son inteligencias inhumanas, como dicen Ferguson y también Klein (aquí, gracias a FIC). El problema en realidad es nuestro, que tendemos a creernos cualquier cosa que suene bien: es el poder de la retórica, como tan bien sabían los griegos.

Estos modelos pueden ser utilísimos. Nos pueden ayudar a redactar textos que tienen una estructura muy rutinizada, es decir, que siguen tradiciones discursivas muy asentadas. Cualquiera que tenga que escribir muchos informes sabe de lo que hablo: primero decidimos el contenido y luego… tenemos que redactarlo en un formato que ya hemos usado mil y una veces. Esa es una tarea que puede ser aburrida y que las inteligencias artificiales actuales pueden hacer bastante bien: dándoles unas instrucciones concretas redactan el texto y basta una lectura (¡cuidadosa!) para redondearlo. Una maravilla.

Pero los modelos de lenguaje no están ahí para ayudarnos a recabar información fiable de temas que desconocemos. Aunque pueda parecer que sí, por lo bien que lo dice todo, ChatGPT no consulta fuentes antes de construir un texto. Ese sigue siendo nuestro trabajo, al menos si queremos tener un conocimiento ajustado de la realidad. (Que digo yo que es lo que queremos, aunque a veces dudo.) ChatGPT y sus amigos solo combinan palabras que saben que van bien juntas. Pero lo mismo te puede decir una cosa que la contraria. Debe escribir unos discursos políticos magníficos. Quizá así se vea mejor el problema.

4 comentarios en “Filóloga analiza inteligencia artificial. Lo que pasó después te sorprenderá.

  1. Sin ir más lejos, esta mañana le pedí a ChatGPT que me diera referencias de artículos sobre el uso de transmedia en la enseñanza de lenguas extranjeras. Me dio dos referencias con nombres y apellidos de los autores, lugar y fecha de publicación y… resulta que ¡no existen! Existen los autores, existen las revistas, pero no los textos de esos autores en esas revistas. Cuando se lo comenté, me contestó: «Something went wrong. If this issue persists please contact us through our help center at help.openai.com». ¡Alucinante!

  2. Me alegra ver que no has abandonado, del todo, este rincón y está bien tener una visión de un tema tan presente (y futuro) desde una perspectiva nueva, al menos para mi.

    ¡Gracias!

Responder a Juan Cancelar respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *