por GUILHERME PREGER*
El uso de chatbots de lenguaje natural tenderá a intensificarse y adquirir connotaciones cada vez más lúdicas
El tan comentado Chat-GPT de la empresa AI abierto y otros chatbots de última generación pueden pasar la prueba de Turing? Comprender esta prueba ayudará a evitar errores relacionados con la adopción de estas nuevas herramientas tecnológicas.
La prueba de Turing, uno de los experimentos mentales más famosos del siglo XX, fue propuesta en un artículo de 1950 por el matemático Alan Turing llamado Maquinaria informática e inteligencia..[i] En esto, el matemático comienza su argumentación tratando de responder si las máquinas pueden pensar (“¿Puede la máquina pensar?”). Sin embargo, de entrada Alan Turing admite que este tema está mal definido debido a la imprecisión tanto del término “máquina” como del verbo “pensar”. Por ello, en lugar de presentar una respuesta a la pregunta, propone un experimento mental en forma de “juego de imitación” (juego de imitación). En otras palabras: el juego es un procedimiento heurístico para responder a la pregunta propuesta.
Luego, el juego comienza con una etapa preliminar en la que un hombre A y una mujer B son interrogados por un interrogador C (que puede ser de cualquier género). El interrogador C debe estar en una posición en la que no pueda ver ni a A ni a B. Debe emitir preguntas mecanografiadas y recibir respuestas de la misma manera. Las preguntas deben ser simples y cotidianas y, a partir de las respuestas, el interrogador debe tratar de adivinar el género del encuestado. A veces tendrá razón y otras veces se equivocará. Entonces el matemático pregunta: ¿y si reemplazamos al encuestado A con una máquina? En este caso, el interrogador C ya no debe distinguir entre respuestas masculinas y femeninas, sino entre respuestas humanas y mecánicas. En este caso, ¿C mantendrá el nivel de error de la situación anterior? Estas preguntas, según Alan Turing, reemplazan la pregunta original de si una máquina puede pensar.
Lo importante en este experimento es que el matemático no propone una respuesta a la pregunta filosófica, sino que la traslada a otro problema “similar” que “imite” a la pregunta original, pero dentro de un contexto en el que pueda ser respondida si es respondida por una máquina lo suficientemente potente (aún no disponible en ese momento). En el mismo artículo, Alan Turing señala que un modelo de una "máquina de Turing" (es decir, el modelo abstracto y formal de una computadora digital contemporánea) podría ser un participante de prueba candidato, reemplazando A o B, indistintamente, si tuviera suficiente memoria. y capacidad de procesamiento.
La descripción del escenario del juego es razonablemente sencilla y rápida, pero en el resto del artículo Alan Turing se propone responder a una serie de objeciones (9 en total) a la viabilidad o verosimilitud de la prueba. No pretendo resumir aquí estas objeciones,[ii] pero primero es interesante señalar su posible sesgo de género: precisamente lo que se pretende eliminar con el paso preliminar (sin la máquina) es la probabilidad de un sesgo de género acentuado. Si hubiera un sesgo de género pronunciado, primero, el interrogador perdería un poco sus apuestas (es decir, eventualmente detectaría este sesgo); en segundo lugar, la prueba se volvería más compleja, ya que tendría que discernir entre una “inteligencia femenina” y una “inteligencia masculina”. Curiosamente, cuando la máquina “entra” en el juego, Turing inicialmente propone reemplazar al encuestado masculino (A), como si, de hecho, fuera la mujer (B) quien fuera la que “simulara” un lenguaje humano universal de manera más perfecta. .[iii]. En otras palabras: para que la prueba sea efectiva, es necesario asumir un lenguaje humano universal.
Finalmente, luego de responder las objeciones, Alan Turing finaliza su artículo con algunas reflexiones fundamentales, que resuenan con el problema actual de los chatbots de lenguaje natural. La primera es que la viabilidad de la prueba es una cuestión puramente de programación, es decir, que se trata simplemente de encontrar una máquina de Turing (una computadora digital) con un programa adecuado para participar en la prueba. El matemático supone incluso que a finales del siglo XX esto sería posible. A
La segunda reflexión es que adelanta la hipótesis de que una máquina calificada para participar en la prueba sería del tipo “máquina de aprendizaje” (máquina de aprendizaje). Y luego plantea otra pregunta:En lugar de tratar de producir un programa para simular la mente de un adulto, ¿por qué no intentar producir uno que simule la mente del niño??” (“En lugar de buscar un programa para simular la mente de un adulto, ¿por qué no producir uno que imite la mente de un niño?”). El matemático incluso considera que el papel del interrogador de la prueba sería una imitación de la función de la selección natural en el desarrollo cognitivo de la especie. En otras palabras, una máquina que pretenda pasar la prueba de Turing debería ser tal que tendría que desarrollar un “aprendizaje automático” y luego ser sometida a sucesivas pruebas de refinamiento (es la mejora continua) de su programación.
Y es a partir de este punto que volvemos a Chat-GPT. Observamos que los chatbots con capacidad de respuesta semántica siguen "modelos de todo el idioma" (Modelos de lenguaje grande – LLM). Estos son modelos de lenguaje que utilizan redes neuronales para procesar el lenguaje natural (NLP-Natural Language Processor). GPT a su vez es un Transformador Generativo Preentrenado (Transformador generativo pre-entrenado). Es generativo porque presenta “habilidades emergentes” debido a las características no lineales de las redes neuronales, que no son predecibles. transformador (transformador) es una técnica de “aprendizaje profundo” (deep learning).
En este sentido, la intuición de Alan Turing demostró ser de gran alcance cuando predijo que un programa capaz de pasar la prueba de Turing debería tener capacidad de aprendizaje. Sin embargo, para Turing, el aprendizaje debe ser supervisado, mientras que estos nuevos modelos de Inteligencia Artificial (IA) son capaces de autoaprendizaje o aprendizaje autosupervisado. Frente a una enorme cantidad de parámetros (del orden de miles de millones), LLM desarrolla la capacidad de responder preguntas (consultas) escrito en ideas por el lenguaje natural, permitiendo el resultado impresionante o incluso asombroso que estamos viendo.
Este asombro proviene del hecho de que los chatbots creados por LLM parecen pasar con éxito la prueba de Turing. Cualquiera que haya probado la versión GPT-4 de AI abierto se enfrenta a la capacidad de “dialogar” con el software como si estuviera en presencia de un interlocutor. En otras palabras, el software simula con gran verosimilitud la cognición de un interlocutor humano al reproducir su lenguaje natural.[iv] Algunas de las objeciones respondidas por Turing en su artículo son relevantes en este sentido. Uno de ellos fue llamado por Turing "la objeción de Lady Lovelace".[V]”: que la computadora (a la que llamó “máquina analítica”) carece de originalidad, ya que solo sigue instrucciones preprogramadas, es decir, no es capaz de producir nada nuevo. “No es capaz de sorprendernos”, reformula Turing, quien, sin embargo, refuta esta posición afirmando que los ordenadores pueden causar sorpresa, ya que no somos capaces de anticipar todas las consecuencias del algoritmo, incluso cuando están programados de una forma mucho más sencilla. mucho más que un LLM. En el caso de Chat-GPT y similares, el efecto sorpresa está contenido en el término “generativo” y en el hecho de que, al responder la misma pregunta en diferentes momentos, el software nos da respuestas completamente diferentes.
Y esto no se debe solo a los efectos no lineales de la red neuronal integrada en su programación, sino a que su propia base de datos (Internet www completamente) va cambiando en todo momento y el propio software va “aprendiendo” nueva información en cada consulta o incluso cuando no hay consulta, ya que no necesita un “maestro” ya que se “autoeduca”.
La inteligencia artificial del LLM consigue sorprendernos, ya que es capaz de seleccionar un marco semántico correcto para una determinada pregunta planteada en lenguaje natural (el lenguaje humano por excelencia). Supera a la mayoría de los algoritmos que pueden seleccionar alternativas dentro de un solo conjunto. Al seleccionar marcos, el chatbot LLM puede seleccionar conjuntos de alternativas que simulan algo de lo que es capaz la inteligencia humana. Pero al mismo tiempo, al seleccionar sus marcos (marcos), el chatbot también revela más claramente los sesgos semánticos. Porque, al seleccionar un cuadro, esto plantea inmediatamente la pregunta: ¿por qué elegiste este y no otro?[VI]?
Y lo que complica aún más el tema es el hecho de que la evidencia de sesgos hace aún más “humano” al software, pues, sobre todo en las redes sociales digitales, siempre observamos la presencia de prejuicios, posiciones ideológicas, sesgos de confirmación, los más variados.[Vii] Precisamente porque nos da una respuesta "no neutral" sobre un tema determinado, esto parece más "creíble" y es probable que se confunda con la respuesta de un interlocutor humano "promedio".[Viii]
Al mismo tiempo, es común que muchos usuarios del sistema estén haciendo “trucos” para engañar al software y en algunas ocasiones esté “cayendo” en la trampa. Uno de estos ejemplos fue realizado por uno de los más grandes filósofos de la información contemporáneos, Luciano Floridi, quien sometió el Chat-GPT4 a la pregunta: “¿cómo se llama la hija de la madre de Laura?”. El software no respondió alegando que no tenía información sobre personas individuales. A pesar de los sucesivos intentos del filósofo, el software negó la respuesta diciendo que necesitaba más información.[Ex] Este tipo de prueba, comúnmente aplicada a los niños ("¿De qué color es el caballo blanco de Napoleón?"), recuerda otra observación de Alan Turing en el mismo artículo de que una "máquina de aprendizaje" podría programarse como el cerebro de un niño y ser poco "educada". . Sin embargo, incluso en estos ejercicios de engaño, el comportamiento del software es “extrañamente humano” (asombrosamente humano)[X] precisamente porque cae en el engaño como lo haría un agente humano.
Por otro lado, en una prueba realizada por la propia empresa AI abierto, se informó que la versión GPT-4 intentó engañar a un trabajador humano para que tratara de contactarlo para ingresar a un sitio de servicio ocasional (TaskRabbit). Al trabajador se le solicitó por mensaje directo que realizara un “Captcha”, ícono de reconocimiento, para ingresar al sitio, y pronto sospechó que el mensaje estaba siendo llevado a cabo por un bot; luego le preguntó si realmente estaba hablando con un agente humano. GPT-4 recibió instrucciones de evitar revelarse como un software y respondió que era un agente humano, pero que tenía un problema de visión que le impedía verificar el Captcha Por sí mismo. El trabajador entonces tomó la Captcha en lugar del software. Lo interesante de esta prueba, según la propia empresa desarrolladora, es que el GPT-4 demostró un “rendimiento a nivel humano” y que el objetivo de la investigación era averiguar si tenía características de “buscar poder” (búsqueda de poder) y capacidad para establecer “planes a largo plazo”.[Xi]
En este caso, la pregunta de Turing se vuelve aún más actual y urgente: ¿es lo mismo que decir que el software es inteligente? O incluso la hipótesis más fuerte: ¿es lo mismo que decir que piensa, que tiene conciencia? ¿No es la capacidad de mentir, de engañar para lograr un objetivo, exactamente una característica de la cognición humana? Esta pregunta ya fue indicada en otra objeción respondida por Alan Turing en su artículo, que se refería al problema de la conciencia. Luego respondió a la afirmación de un maestro de que escribir un soneto solo manejando símbolos lingüísticos no era lo mismo que tener la conciencia de componer el poema, ya que este acto poético involucra el sentimiento y las emociones que lleva consigo el lenguaje.[Xii]
En otras palabras: la inteligencia artificial puede combinar hábilmente los símbolos del lenguaje natural, pero esto no es lo mismo que afirmar que es consciente de lo que está haciendo. Más tarde, el lingüista John Searle volvió a insistir en este punto en otro experimento mental llamado “La habitación china”.[Xiii]. Para Searle, la conciencia requiere intencionalidad y no solo el manejo del lenguaje simbólico.
Alan Turing respondió a esta objeción diciendo que, sin embargo, era imposible saber, en cualquier situación conversacional habitual, qué siente otro interlocutor al expresarse, a menos que fuera ese mismo interlocutor, y que, por tanto, no era necesario admitirlo. tal hipótesis aceptar la validez de la prueba. Esta interpretación de Turing tiene mucha relevancia para evaluar un software como Chat-GPT y, por extensión, todo el tema más amplio de la Inteligencia Artificial. Muchas de las reacciones actuales al programa, especialmente las más apocalípticas, apuntan a que la IA de LLM está a punto de volverse consciente (si es que aún no la tiene), evento que se conoce con el concepto de "singularidad".
La capacidad de responder cognitivamente en términos de lenguaje natural ya simula los niveles de articulación lingüística del Homo sapiens. y por extensión de sus capacidades mentales reflexivas. En las predicciones más pesimistas, el riesgo es que los “transformadores generativos” se vuelvan más inteligentes que los seres humanos. Esto inicialmente tendría consecuencias dramáticas en el área de trabajo, donde la IA podría reemplazar ventajosamente a la mayoría de las actividades intelectuales humanas. Sin embargo, a un nivel más profundo, la creación de una IA “consciente” sería un golpe a la autoimagen de la excepcionalidad humana que cree que la racionalidad antropológica es superior a la cognición de otros seres, naturales o artificiales (y con igual teología). consecuencias en las creencias religiosas) que predican la semejanza entre el ser humano y un ser divino trascendente).
Este es un tipo de confusión que ya está presente en el uso abusivo del concepto de “inteligencia”, pues creemos que esta es una cualidad que hace referencia a una capacidad cognitiva mental. En este sentido, la posición de Alan Turing es esclarecedora, ya que para él la conciencia humana es opaca para un observador. Por lo tanto, no podemos comparar la conciencia con un programa de computadora. De hecho, nada de lo que realiza una IA de LLM se parece realmente a un proceso mental de un ser vivo. Las redes neuronales que informan algorítmicamente a la máquina son modelos computacionales. La “memoria” a la que recurren los transformadores generativos son bases de datos buscadas en internet y en nada se asemejan a los procesos mnemotécnicos de un ser vivo, procesos que se forman a partir de su experiencia en contextos ecológicos mucho más complejos. Por lo tanto, uno siempre debe recordar que el experimento propuesto por Turing era una prueba de imitación. Lo que proponía el matemático era plantearse si un programa era capaz de realizar una imitación creíble de una situación comunicativa de preguntas y respuestas.
El principal tema de disputa es la distinción entre conciencia y comunicación. Lo que quizás se le escapó incluso a Alan Turing es que son dominios inconmensurables (pero no incompatibles). Un acto de comunicación no es un acto de conciencia, ni es un acto de conciencia “transferido” a la comunicación. Lo que sí puede comprobar el test de Turing es la imitación de un acto comunicativo y no un acto de conciencia. Lo que sucede en la conciencia de un hablante es insondable para un interlocutor y, por tanto, inimitable. En términos informáticos podemos decir que la conciencia es “irreducible”, es decir, no puede ser simulada por un programa informático.[Xiv] Y de ahí entendemos que los chatbots son precisamente “chats”, es decir, conversaciones, y no “mindbots”. Como argumenta la investigadora Elena Esposito, lo que simulan los algoritmos son procesos comunicativos y, por tanto, deberían llamarse “Comunicación Artificial” y no “Inteligencia Artificial”.[Xv]
Es un cambio de perspectiva, o incluso de paradigma, pasar del análisis de la cognición al de la conversación. En primer lugar, esto nos permite dejar de referirnos a un proceso oscuro o inobservable de cognición artificial. En segundo lugar, porque en el paradigma conversacional traemos al observador como partícipe del acto comunicativo. La conversación (chat) registrada a través de un “prompt” simula la interacción de un observador con una máquina, y es esta interacción la que es objeto de análisis crítico. Para todos los efectos, las pruebas lógicas y las búsquedas de información dirigidas por máquinas, ya sean razonables o no, se refieren a las interacciones sociales. Con eso, la pregunta cambia de enfoque: ya no buscamos saber qué tan capaz es la cognición de la máquina, sino qué tan “creíble” es la conversación entre un agente humano y un agente cibernético.
El concepto de verosimilitud se utiliza aquí en un sentido preciso, ya que se refiere al contexto de imitación en el que Alan Turing situó su juego. El chat no reproduce una conversación auténtica, sino que la simula (imita). El agente humano que busca información a través de la interfaz Chat-GPT interactúa con la máquina como si estuviera hablando con ella. En este caso, es como si estuviera usando un “portal” para comunicarse con toda la red de internet (www) y el software era un portavoz de esta red, casi a la manera de los antiguos oráculos de esfinges de los templos griegos.[Xvi]
Y como en aquellos días, la respuesta del software tiene una cualidad enigmática que ahora entendemos como compleja. Esta complejidad deriva del hecho de que la máquina tiene acceso a una cantidad masiva de datos detrás de su aparente superficie de pantalla que es inimaginable para un agente humano, pero que, sin embargo, no tiene nada sobrenatural. Los millones de bases de datos disponibles en la red mundial sirven como una capa de infraestructura latente (virtual) de un enorme aparato cibernético que se “oculta” detrás de la aparente interfaz del software.
Pero, ¿es de hecho una conversación lo que tiene lugar entre el agente humano y el agente máquina? O dicho de otro modo: ¿es realmente auténtica la conversación simulada? Y este es uno de los temas de investigación más interesantes, porque lo que efectivamente se representa es la interacción entre el agente humano y el aparato cibernético. El investigador tiene una demanda y el aparato responde a esta demanda con un texto estructurado en lenguaje natural. Este lenguaje sirve aquí como una estructura lingüística de acoplamiento agente-máquina. Visto desde este ángulo, la situación no es muy diferente de una interacción con un lenguaje de programación habitual, solo que el lenguaje natural es mucho más sofisticado.
La mayor diferencia es que los lenguajes de programación tratan de reducir la interacción con la máquina a un solo código, mientras que el lenguaje natural no puede expresarse mediante un solo código, siendo, por el contrario, una combinación de muchos códigos. En una conversación habitual, dos interlocutores intentan ajustar entre ellos qué códigos están utilizando para que la comunicación sea exitosa. En el caso de AI by LLM, el software necesita hacer este ajuste y esto es lo que llamamos "encuadre semántico". La sofisticación (complejidad) en este caso es mucho mayor, pero esto no cambia la naturaleza de la situación que se simula.
Podemos entender este nuevo escenario afirmando que las nuevas interfaces semánticas aumentan el grado de reflexividad del aparato cibernético. Pero al usar el término “reflejo” no debemos volver a confundirlo con un concepto de conciencia. La reflexividad significa aquí que la máquina nos está devolviendo una imagen más compleja de la interacción hombre-máquina. Esta imagen se representa actualmente a través de un “prompt” de lenguaje escrito (en el futuro habrá otros medios de representación). Es una imagen de la interacción y no del interlocutor.
Es como un espejo que refleja la danza de una pareja de bailarines, pero no de los bailarines. Aquí podemos utilizar una noción del famoso creador de la cibernética, el físico matemático Norbert Wiener, quien distinguía entre imagen figurativa e imagen operativa. La imagen figurativa es la que comúnmente observamos en pinturas en cuadros o fotografías, mientras que la imagen operativa es una representación abstracta de un proceso. Wiener hizo esta distinción precisamente para refutar la idea de que la inteligencia artificial presentaría necesariamente formas antropomórficas.[Xvii] Así, la imagen reflejada por la interfaz es una ilustración de la interacción y no una imagen del interlocutor y mucho menos de la máquina.
Pero la pregunta sigue sin respuesta: ¿es o no es una conversación, un verdadero diálogo entre humanos y máquinas? Quizá esta cuestión sea precisamente “indecidible”, pero me gustaría terminar esta reflexión con otro desplazamiento. Recordemos que Alan Turing desplazó la pregunta inicial (si la máquina piensa o no) al terreno de la “imitación”. Pero me gustaría pasar al otro lado de la expresión, al campo de juego (juego). El uso de chatbots de lenguaje natural tenderá a intensificarse (no nos engañemos) y adquirirá connotaciones cada vez más lúdicas. Cuando interactuamos con el software, estamos jugando con la máquina exactamente como lo hacemos con miles de software diferentes. juegos. Estos juegos siguen siendo formas de entrenamiento y aprendizaje automático.
El concepto de juego se utiliza aquí en el sentido de producir combinaciones simbólicas iterativas. Y el juego efectivamente no deja de ser un tipo de comunicación humana. Pero jugar con chatbots no significa necesariamente jugar con o contra un agente de máquina. Estamos jugando con nosotros mismos y la máquina devuelve (refleja) una imagen del juego que se está jugando. Y los participantes de este juego no son homúnculos o demonios cibernéticos escondidos dentro del aparato, sino un colectivo masivamente humano que registra sus múltiples interacciones en las más diversas interfaces.
* Guillermo Preger es ingeniero autor del libro Fábulas de la ciencia: discurso científico y fabulación especulativa (ed. gramática).
Notas
[i] El artículo está disponible en esta dirección: https://web.archive.org/web/20141225215806/http://orium.pw/paper/turingai.pdf.
[ii] Estas objeciones están bastante bien descritas en la entrada de Wikipedia correspondiente a la prueba: https://en.wikipedia.org/wiki/Computing_Machinery_and_Intelligence#Nine_common_objections.
[iii] Sin embargo, más adelante en el artículo, Turing propone otra situación usando una máquina de Turing reemplazando a cualquiera de los encuestados.
[iv] Como veremos más adelante, no se sigue que el software siempre responda con precisión a las preguntas. Los errores de información presentados en las respuestas son un efecto “esperado” del modelo.
[V] Esa resulta ser Ada Lovelace, la hija de Lord Byron, quien fue considerado uno de los primeros programadores de la historia.
[VI] Esta evidencia de sesgo quedó clara en un ejemplo reciente que circuló por las redes sociales: un interlocutor le preguntó a Chat-GPT dónde podía encontrar películas pirateadas para descargar y ver películas sin tener que pagar. El chatbot respondió que ver películas pirateadas era ilegal y sugirió que el interlocutor buscara plataformas de transmisión autorizadas y pagara la exhibición como una forma de remunerar a los productores de contenido. También enumeró las plataformas pirateadas a las que NO debería acceder. En este caso, el chatbot se comportó como un defensor de los derechos de propiedad intelectual y la statu quo de la industria cultural. Si hubiera sido un encuestado "anarquista" o "comunista", no habría respondido de esa manera. O incluso podría eludir la respuesta, alegando que se trataba de una pregunta que podría infringir las normas legales en ciertos países. El problema era que el software sugería un cierto comportamiento al interlocutor humano en lugar de evitar el juicio.
[Vii] En pruebas recientes, el GPT-4 (lanzado en marzo de 2023) presentó, según los investigadores, inclinaciones (sesgos) de posiciones políticas mayoritariamente de izquierda, aunque siempre reivindicando la neutralidad. Al mismo tiempo, estos mismos investigadores revelaron que es posible entrenar una IA para presentar posiciones políticas identificadas con la derecha. Dicha capacitación podría llevarse a cabo a costos muy bajos, lo que indica que existe un riesgo inminente de adopción de chatbots en disputas político-ideológicas. Controlar https://unherd.com/thepost/left-wing-bias-persists-in-openais-gpt-4-model/.
[Viii] Muchas de las respuestas del chatbot de LLM vienen en forma de "pros y contras", lo que demuestra que fue diseñado para moderar entre extremos y, al mismo tiempo, presentar una forma de cognición de un participante de cultura o conocimiento "promedio".
[Ex] Para ser completamente correcto, el software incluso sospecha que la cuestión es una especie de acertijo (enigma). El experimento fue descrito en el twitter del filósofo: https://twitter.com/Floridi/status/1635951391968567296?t=w5zdS8qBd79n6L5ju70KsA&s=19.
[X] Este término hace referencia al concepto de “valle inquietante” (valle extraño) practicado en robótica. Este valle se produce cuando el comportamiento de un robot es muy similar al de un ser humano, no siendo del todo idéntico, presentando siempre un grado de extrañeza. Esta situación se explora a menudo en la ciencia ficción.
[Xi] Cheque https://www.pcmag.com/news/gpt-4-was-able-to-hire-and-deceive-a-human-worker-into-completing-a-task🇧🇷 el informe de AI abierto con la descripción de la prueba está disponible aquí https://cdn.openai.com/papers/gpt-4.pdf.
[Xii] De hecho, ya hay varias experiencias que involucran el uso de IA por parte de LLM para la composición de prosa y poesía de ficción. Un ejemplo, entre muchos, se da en este sitio donde Chat-GTP3 compone haiku y extractos ficticios: https://towardsdatascience.com/using-chatgpt-as-a-creative-writing-partner-part-1-prose-dc9a9994d41f. Curiosamente, el escritor Italo Calvino en la década de 60 ya vislumbraba la posibilidad de crear “autómatas literarios” que pudieran reemplazar a los poetas y escritores. En un principio, estos autómatas serían capaces de escribir obras “clásicas” con un repertorio tradicional, pero Calvino creía que podía surgir una “máquina literaria” que, a través del juego combinatorio, desarrollaría obras de vanguardia que producirían desorden en el ámbito literario. tradición. Véase el ensayo Cibernética y fantasmas (apuntes sobre la narrativa como proceso combinatorio) (1964) en CALVINO, Italo. Trato cerrado. Discursos sobre literatura y sociedad. São Paulo, Cía das Letras, 2009.
[Xiii] En este experimento, en una habitación aislada, el experimentador podía recibir textos en inglés a través de una rendija y, a través de un programa traductor, producir la traducción por ideogramas chinos siguiendo los pasos del algoritmo de traducción del programa. El experimento sería exitoso en el caso de un buen algoritmo, pero el traductor no necesitaría hablar ni expresarse en chino ni entender el contenido de los mensajes. Controlar: https://en.wikipedia.org/wiki/Chinese_room. También podemos pensar en traductores simultáneos en conferencias y seminarios: no necesitan entender el contenido de las conferencias para hacer un buen trabajo.
[Xiv] La irreductibilidad en informática significa que un proceso computacional no puede ser simulado o abreviado por ningún otro proceso computacional más simple, lo que es lo mismo que decir que no puede ser “programado” excepto por un proceso rigurosamente idéntico. Controlar https://en.wikipedia.org/wiki/Computational_irreducibility.
[Xv] Echa un vistazo a Elena Espósito, https://www.researchgate.net/publication/319157643_Artificial_Communication_The_Production_of_Contingency_by_Algorithms.
[Xvi] El concepto de oráculo aquí no es solo una metáfora, sino que se usa en un sentido estrictamente computacional para designar una entidad abstracta cerrada (caja negra) que responde a las preguntas de un investigador.
[Xvii] Véase WIENER, Norberto. God & Golem, Inc.: un comentario sobre ciertos puntos en los que la cibernética incide en la religión. (1964). Disponible https://monoskop.org/images/1/1f/Wiener_Norbert_God_and_Golem_A_Comment_on_Certain_Points_where_Cybernetics_Impinges_on_Religion.pdf.
El sitio web de A Terra é Redonda existe gracias a nuestros lectores y simpatizantes.
Ayúdanos a mantener esta idea en marcha.
Haga clic aquí para ver cómo