No hay nada nuevo en los "chatbots" capaces de mantener una conversación en lenguaje natural, comprender la intención básica de un usuario y ofrecer respuestas basadas en reglas y datos preestablecidos. Sin embargo, la capacidad de estos chatbots se ha incrementado drásticamente en los últimos meses, lo que ha generado preocupación y pánico en muchos ámbitos.
Mucho se ha dicho sobre cómo los chatbots auguran el fin del ensayo estudiantil tradicional. Pero un problema que merece una atención más cercana es cómo deberían responder los chatbots cuando los interlocutores humanos usan comentarios agresivos, sexistas o racistas para provocar al bot y hacer que este presente sus propias fantasías groseras como respuesta. ¿Deberían programarse a los IA para responder al mismo nivel que las preguntas que se plantean? Si decidimos que se requiere algún tipo de regulación, entonces debemos determinar hasta qué punto debería llegar la censura. ¿Se prohibirán las posturas políticas que algunos grupos consideran "ofensivas"? ¿Y qué hay de las expresiones de solidaridad con los palestinos de Cisjordania, o la afirmación de que Israel es un estado apartheid (que el ex presidente estadounidense Jimmy Carter mencionó en el título de un libro)? ¿Serán bloqueadas estas expresiones como "antisemitas"?
El problema no termina ahí. Como advierte el artista y escritor James Bridle, los nuevos IA se basan en la apropiación total de la cultura existente, y creer que son "realmente conocedores o significativos es activamente peligroso". Por lo tanto, también debemos ser muy cautelosos con los nuevos generadores de imágenes de IA. "En su intento de comprender y replicar la totalidad de la cultura visual humana", observa Bridle, "[ellos] parecen haber recreado también nuestros miedos más oscuros. Tal vez esto sea solo una señal de que estos sistemas son realmente buenos imitando la conciencia humana, hasta el horror que acecha en las profundidades de la existencia: nuestros miedos a la suciedad, la muerte y la corrupción". Pero ¿qué tan buenos son los nuevos IA aproximándose a la conciencia humana? Consideremos el caso de un bar que recientemente anunció una oferta de bebidas con los siguientes términos: "¡Compra una cerveza al precio de dos y recibe una segunda cerveza absolutamente gratis!". Para cualquier humano, esto es obviamente una broma. La clásica oferta de "compra uno y llévate otro" se reformula para anularse a sí misma. Es una expresión de cinismo que será apreciada como honestidad cómica, todo para impulsar las ventas. ¿Un chatbot captaría algo de esto? "Fuck" presenta un problema similar. Aunque designa algo que a la mayoría de las personas les gusta hacer (la cópula), también adquiere a menudo una valencia negativa ("¡Estamos jodidos!", "Vete a la mierda"). El lenguaje y la realidad son complicados. ¿Está preparada la IA para discernir tales diferencias?
En su ensayo de 1805 titulado "Sobre la formación gradual de los pensamientos en el proceso del habla" (publicado por primera vez póstumamente en 1878), el poeta alemán Heinrich von Kleist invierte la sabiduría común de que uno no debería abrir la boca para hablar a menos que tenga una idea clara de qué decir: "Si un pensamiento se expresa de manera confusa, no se sigue en absoluto que ese pensamiento haya sido concebido de manera confusa. Al contrario, es bastante posible que las ideas expresadas de la manera más confusa sean las que se pensaron de manera más clara". La relación entre el lenguaje y el pensamiento es extraordinariamente complicada. En un pasaje de uno de los discursos de Stalin a principios de la década de 1930, propone medidas radicales para "detectar y combatir sin piedad incluso a aquellos que se oponen a la colectivización solo en sus pensamientos, sí, lo digo en serio, deberíamos luchar incluso contra los pensamientos de las personas". Se puede suponer con seguridad que este pasaje no fue preparado de antemano. Después de dejarse llevar por el momento, Stalin se dio cuenta de inmediato de lo que acababa de decir. Pero en lugar de retractarse, decidió mantener su exageración. Como Jacques Lacan lo expresó más tarde, esto fue un caso de la verdad que emerge sorprendentemente a través del acto de enunciación. Louis Althusser identificó un fenómeno similar en la interacción entre prise y surprise. Alguien que de repente comprende ("prise") una idea quedará sorprendido por lo que ha logrado. Una vez más, ¿puede cualquier chatbot hacer esto?
El problema no es que los chatbots sean estúpidos; es que no son lo suficientemente "estúpidos". No es que sean ingenuos (que no captan la ironía y la reflexividad); es que no son lo suficientemente ingenuos (que no detectan cuándo la ingenuidad encubre perspicacia). El verdadero peligro, entonces, no es que las personas confundan a un chatbot con una persona real; es que comunicarse con los chatbots hará que las personas reales hablen como chatbots, perdiendo todos los matices e ironías, diciendo obsesivamente solo lo que creen que quieren decir. Cuando era más joven, un amigo acudió a un psicoanalista para recibir tratamiento después de una experiencia traumática.
La idea de mi amigo sobre lo que estos analistas esperaban de sus pacientes era un cliché, así que en su primera sesión entregó falsas "asociaciones libres" sobre cómo odiaba a su padre y quería que estuviera muerto. La reacción del analista fue ingeniosa: adoptó una postura ingenua "prefreudiana" y reprochó a mi amigo por no respetar a su padre ("¿Cómo puedes hablar así de la persona que te hizo ser lo que eres?"). Esta ingenuidad fingida envió un mensaje claro: no compro tus falsas "asociaciones". ¿Sería capaz un chatbot de captar este subtexto? Lo más probable es que no, porque es como la interpretación de Rowan Williams sobre el príncipe Myshkin en "El idiota" de Dostoyevski. Según la lectura estándar, Myshkin, "el idiota", es un hombre santificado, "positivamente bueno y hermoso", que es llevado a la locura aislada por las brutalidades y pasiones crueles del mundo real. Pero en la relectura radical de Williams, Myshkin representa el ojo de la tormenta: aunque sea bueno y santo, él es quien desencadena la devastación y la muerte que presencia, debido a su papel en la compleja red de relaciones que lo rodea.
No es solo que Myshkin sea un ingenuo simplón. Es que su tipo particular de obtusidad lo deja inconsciente de sus efectos desastrosos en los demás. Es una persona plana que literalmente habla como un chatbot. Su "bondad" radica en el hecho de que, al igual que un chatbot, reacciona a los desafíos sin ironía, ofrece lugares comunes carentes de reflexividad, lo toma todo literalmente y confía en un autocompletado mental en lugar de la formación auténtica de ideas.
Por esta razón, los nuevos chatbots se llevarán muy bien con los ideólogos de todo tipo, desde la multitud "despertada" de hoy en día hasta los nacionalistas "MAGA" que prefieren permanecer dormidos.