Idiotez artificial

Imagen: ThisIsEngineering
Whatsapp
Facebook
Twitter
Instagram
Telegram

por SLAVEJ ŽIŽEK*

El problema no es que los chatbots sean estúpidos; es que no son lo suficientemente "tontos"

No hay nada nuevo en los “chatbots” que son capaces de sostener una conversación en lenguaje natural, entendiendo las intenciones básicas del usuario y ofreciendo respuestas basadas en reglas y datos predefinidos. Su capacidad, sin embargo, ha aumentado dramáticamente en los últimos meses, provocando el pánico y la desesperación de muchos.

Mucho se ha dicho acerca de que los chatbots son un presagio del final de las tesis de los estudiantes. Pero un problema que necesita más atención es cómo deben responder los chatbots cuando los interlocutores humanos usan declaraciones agresivas, sexistas o racistas para incitar al robot a que responda con sus propias fantasías desagradables. ¿Deberían programarse las inteligencias artificiales para que respondan al mismo nivel que las preguntas que se les plantean?

Si decidimos que se debe aplicar algún tipo de control, entonces debemos determinar hasta dónde debe llegar la censura. ¿Se prohibirán posiciones políticas que algunos sectores consideran “ofensivas”? ¿Qué pasa con las expresiones de solidaridad con los palestinos de Cisjordania? La afirmación de que Israel es un estado de segregación racial (lo que el ex presidente Jimmy Carter puso una vez en el título de un libro)? ¿Todo esto será bloqueado por ser “antisemita”?

El problema no acaba aquí. Como nos advierte el escritor y artista James Bridle, las nuevas inteligencias artificiales están “basadas en la apropiación masiva de la cultura existente”, y la creencia de que son “verdaderamente conocedores o significativos es activamente peligrosa”. Por ello, debemos ser muy cautelosos con los nuevos generadores de imágenes por inteligencia artificial. “En su intento de comprender y replicar la cultura visual humana en su totalidad”, observa Bridle, “[ellos] también parecen haber recreado nuestros mayores temores. Quizás esto sea solo una señal de que estos sistemas son realmente muy buenos para imitar la conciencia humana, llegando incluso a los horrores que acechan en las profundidades de nuestra conciencia: nuestros miedos a la suciedad, la muerte y la corrupción”.

Pero, ¿qué tan buenas son las nuevas inteligencias artificiales para parecerse a la conciencia humana? Considere el bar que recientemente anunció una promoción especial bajo los términos: "¡Compre una cerveza por el precio de dos y obtenga una segunda cerveza completamente gratis!" Para cualquier humano, esto es obviamente una broma. La oferta típica de "compre uno, obtenga uno gratis" se reelaboró ​​para cancelarse. Es una expresión de cinismo apreciada como honestidad cómica para aumentar las ventas. Uno chatterbot ¿serías capaz de entender eso?

“Fucking” presenta un problema similar. Aunque la palabra designa algo que a la mayoría de la gente le gusta hacer (copular), también adquiere un valor negativo (“¡Estamos jodidos!”, “¡Vete a la mierda!”). Lenguaje y realidad se confunden. ¿Está lista la inteligencia artificial para discernir tales diferencias?

En su ensayo de 1805 "Sobre la formación gradual de pensamientos en el proceso del habla" (publicado póstumamente en 1878), el poeta alemán Heinrich von Kleist invirtió el dicho popular de que uno no debe abrir la boca para hablar a menos que tenga una idea clara de qué decir: “Siendo así, si un pensamiento se expresa de manera confusa, no significa en absoluto que tal pensamiento haya sido concebido de manera confusa. Por el contrario, es posible que las ideas que se expresan de forma más confusa sean precisamente las que han sido pensadas con mayor claridad.”

Esta relación entre lenguaje y pensamiento es extraordinariamente complicada. En un pasaje de uno de sus discursos a principios de la década de 1930, Joseph Stalin propone medidas radicales para "detectar y combatir despiadadamente incluso a aquellos que se oponen a la colectivización solo en sus pensamientos: sí, eso es lo que quiero decir, debemos luchar". gente." Podemos asumir con seguridad que esta oración no fue preparada de antemano. Al dejarse llevar por el momento, Stalin se dio cuenta de inmediato de lo que acababa de decir. Pero en lugar de retroceder, decidió continuar con su hipérbole.

Como diría más tarde Jacques Lacan, este fue uno de esos casos en los que la verdad surge por sorpresa a través del acto de enunciación. Louis Althusser identificó un fenómeno similar en la relación entre toma e sorpresa. Alguien que de repente se da cuenta ("toma”) de una idea se sorprenderá de lo que ha logrado. Nuevamente, ¿algún chatbot capaz de hacer esto?

El problema no es que los chatbots sean estúpidos; es que no son lo suficientemente "estúpidos". No es que sean ingenuos (incapaces de ironizar y reflexionar); es que no son lo suficientemente ingenuos (no darse cuenta de los momentos en que la ingenuidad enmascara la intuición). El peligro real, entonces, no es que las personas confundan los chatbots con personas reales; sino de chatbots que hacen que personas reales hablen como chatbots, incapaces de notar matices e ironías, obsesivamente diciendo exactamente lo que creen que quieren decir.

Cuando era más joven, un amigo acudió a un psicoanalista para recibir tratamiento después de una experiencia traumática. La idea de este amigo de lo que tales analistas esperan de sus pacientes era un cliché, y se pasó la primera sesión produciendo falsas "asociaciones libres" sobre cómo odiaba a su padre y deseaba su muerte. La reacción del analista fue ingenua: adoptó una posición ingenua “prefreudiana” y regañó a mi amigo por no respetar a su padre (“¿Cómo puedes hablar así de la persona que te hizo ser lo que eres?”). Esta falsa inocencia envió un mensaje claro: no estoy comprando sus "asociaciones" falsas. ¿Sería capaz un chatbot de entender este subtexto?

Probablemente no lo entendería, porque es como la interpretación de Rowan Williams del Príncipe Myshkin del libro. El idiota por Dostoievski. Según la interpretación convencional, Myshkin, "el idiota", es "un hombre positivamente bueno y hermoso" que ha sido llevado a la locura solitaria por las duras brutalidades y pasiones del mundo real. Sin embargo, en la reinterpretación radical de Williams, Myshkin representa el ojo de la tormenta: no importa cuán bueno y santo sea, él es quien causa el caos y las muertes de las que es testigo debido a su papel en la compleja red de relaciones que lo rodean.

No es que Myshkin sea un tonto ingenuo. Pero que su marca particular de estupidez lo hace incapaz de darse cuenta de sus efectos desastrosos en los demás. Es un personaje plano que literalmente habla como un chatbot. Su “bondad” se basa en que, como un chatbot, reacciona a los desafíos sin ironía, ofreciendo tópicos desprovistos de toda reflexividad, tomándose todo al pie de la letra y apoyándose en un mecanismo mental de respuestas de autocompletado en lugar de formar frases e ideas. Por eso, a los nuevos chatbots les irá muy bien con ideólogos de todo tipo, de la multitud”despertócontemporáneo a los nacionalistas “MAGA”, que prefieren quedarse dormidos.

*Slavoj Žižek, profesor de filosofía en la European Graduate School, es director internacional del Birkbeck Institute for the Humanities de la Universidad de Londres. Autor, entre otros libros, de En defensa de las causas perdidas (boitempo).

Traducción: Daniel Paván.

Publicado originalmente en el portal Proyecto Syndicate.


El sitio web de A Terra é Redonda existe gracias a nuestros lectores y simpatizantes.
Ayúdanos a mantener esta idea en marcha.
Haga clic aquí para ver cómo

Ver todos los artículos de

10 LO MÁS LEÍDO EN LOS ÚLTIMOS 7 DÍAS

Ver todos los artículos de

BUSQUEDA

Buscar

Temas

NUEVAS PUBLICACIONES

Suscríbete a nuestro boletín de noticias!
Recibe un resumen de artículos

directo a tu correo electrónico!