por RAFAEL CARDOSO SAMPAIO*
Las empresas que controlan los datos y la infraestructura de IA se benefician de la vigilancia masiva y la automatización depredadora, mientras que los trabajadores pierden autonomía e ingresos.
En 2023, el economista y profesor del MIT Daron Acemoglu, ganador del Premio Nobel por el libro ¿Por qué fracasan las naciones?, trajo al debate global una crítica mordaz en otra obra, llamada Poder y progreso: una lucha de mil años entre la tecnología y la prosperidad. En él, Daron Acemoglu y Simon Johnson argumentan que la trayectoria actual de la inteligencia artificial –marcada por modelos cada vez más grandes, dependientes de datos masivos y orientada hacia una automatización indiscriminada– no es un destino inevitable. Es una elección tecnológica y, como bien sabemos, las elecciones pueden revisarse.
Daron Acemoglu y Simon Johnson parten de una premisa histórica: las tecnologías las moldean quienes detentan el poder. En el caso de la IA moderna, la narrativa dominante, impulsada por gigantes como OpenAI, Google, Microsoft y Meta, gira en torno a la búsqueda de una “inteligencia general artificial”: máquinas capaces de replicar (y reemplazar) la cognición humana. Esta visión, inspirada en las ideas de Alan Turing, alimenta un círculo vicioso de concentración de poder. Las empresas que controlan los datos y la infraestructura de inteligencia artificial (como los proveedores de la nube y las plataformas de las grandes tecnológicas) se benefician de la vigilancia masiva y la automatización depredadora, mientras que los trabajadores pierden autonomía e ingresos.
Como liderar el campo de las innovaciones en Inteligencia Artificial es el objetivo a cualquier costo, dichas empresas han estado gastando gigantescas sumas de recursos, tanto en recursos humanos como computacionales, lo que genera una serie de problemas relacionados. Modelos como el GPT-4 consumen cantidades gigantescas de energía y cuestan millones de litros de agua para enfriar sus servidores para tareas triviales, como reconocer gatos en fotografías o generar textos superficialmente coherentes, como citan los autores del libro. Mientras tanto, las aplicaciones socialmente relevantes –como el diagnóstico temprano de enfermedades raras o la adaptación de cultivos al cambio climático– pasan a un segundo plano para estas empresas.
El reciente lanzamiento del modelo de inteligencia artificial generativa de código abierto de la compañía china DeepSeek ha captado la atención mundial, atacando directamente al corazón del capital financiero y especulativo. que mantiene gran parte de la estructura de las Big Techs de Silicon Valley. El golpe se produjo precisamente porque desmontó las narrativas previas de ese sector.
Hasta el lanzamiento del modelo R1 En el caso de DeepSeek, la creencia predominante era que desarrollar modelos de inteligencia artificial de vanguardia requería inversiones astronómicas, inmensos volúmenes de datos y hardware Nvidia de última generación para un procesamiento computacional intensivo, lo que justificaría la naturaleza patentada y el secreto industrial de estas tecnologías.
A pesar de ser una empresa con un presupuesto y un equipo modestos, en comparación con los gigantes de Silicon Valley, DeepSeek logró entrenar su modelo de Inteligencia Artificial a un coste significativamente menor, innovando en técnicas de entrenamiento y en apenas unos meses. Incluso sin las mejores tarjetas de procesamiento, la compañía ha desarrollado un modelo que compite con los mejores productos de OpenAI, Google y Anthropic. Además, el laboratorio innovó al liberar el modelo abiertamente, permitiendo que sea utilizado y procesado por cualquier persona interesada en servidores más modestos.
El éxito de DeepSeek no es sólo técnico: es político. No es sólo una innovación técnica, es un manifiesto práctico contra la “ilusión de la inteligencia artificial”, un término acuñado por los autores Daron Acemoglu y Simon Johnson para describir la creencia ingenua de que las máquinas autónomas y superinteligentes traerán automáticamente beneficios a la sociedad.
En un artículo publicado en el periódico The GuardianKenan Malik sostiene de manera similar que el impacto de DeepSeek radica en haber desmitificado el aura que rodea a la inteligencia artificial. Silicon Valley, según el autor, ha cultivado la imagen de la inteligencia artificial como un logro precioso y milagroso, retratando a sus líderes como profetas y a la tecnología como poseedora de poderes casi mágicos, incluida la promesa de una “inteligencia general artificial” (AGI). Sin embargo, Kenan Malik señala que tales afirmaciones derivan menos de posibilidades tecnológicas y más de la necesidad política y económica, ya que el modelo de negocio de la IA se basa en la publicidad exagerada para impulsar la inversión e influir en las políticas.
DeepSeek demuestra que es posible resistir la narrativa y la propaganda de las grandes tecnologías y construir una Inteligencia Artificial que sirva a objetivos humanos, no corporativos. Acemoglu y Johnson nos recuerdan que la tecnología es un espejo de valores: si priorizamos la utilidad sobre la inteligencia artificial, la eficiencia sobre la vigilancia y la colaboración sobre la automatización, el futuro será radicalmente diferente. DeepSeek nos recuerda que todavía podemos cambiar el curso de la innovación y que hay otras opciones.
¿Y Brasil en esta historia?
Bueno, al principio quizás nos entristezcamos porque el gobierno federal no haya tomado en serio este nuevo panorama tecnológico. Si hubiera habido una iniciativa allí, ya en 2023, cuando ChatGPT ya impresionaba al mundo, seguramente sería el país el que exhibiría su propio DeepSeek.
Sin embargo, no tiene sentido derramar lágrimas bajo la lluvia. Este cambio también indica algunos caminos interesantes, así como algunas necesidades urgentes para Brasil. Dos cuestiones en particular llamaron la atención de DeepSeek, más allá de su innovación tecnológica.
En primer lugar, a pesar de ser gratuito, sus términos de servicio permiten que los datos de los usuarios, incluidas las interacciones, sean almacenado en china y reutilizado para entrenar modelos futuros. En segundo lugar, ha llamado la atención por tener un sesgo y, en cierta medida, una censura que le impide abordar temas que son sensibles para el gobierno chino.
Ahora bien, lo interesante de esta pregunta es que prácticamente todos los modelos de lenguaje principales, como ChatGPT, Claude y Gemini, ya lo hacen. Sus términos de servicio establecen claramente que las interacciones de los usuarios pueden utilizarse para entrenar sus modelos y que los datos se almacenan en servidores en los Estados Unidos. Como cualquier tecnología, estos modelos presentan varios sesgos desde la perspectiva de sus programadores, quienes generalmente son hombres blancos, con muy alto poder adquisitivo, que viven en Silicon Valley.
Por lo tanto, cualquier pregunta sobre conceptos en disputa, como la democracia, el feminismo, la igualdad económica y muchos otros, tenderá a estar sesgada por esta perspectiva, además, por supuesto, de los sesgos ya presentes en los datos de entrenamiento, que pueden generar nuevas formas de discriminación.
A pesar de esto, cuando se descarga y se ejecuta localmente, DeepSeek no aplica censura. Al parecer, existe un segundo sistema que aplica censura sólo a la versión online para cumplir con las leyes chinas. Por lo tanto, DeepSeek funcionará sin estas restricciones cuando se ejecute localmente.
Cuando reunimos toda esta información, hay algunas acciones a corto y largo plazo para Brasil. A muy corto plazo, es urgente que el gobierno brasileño lance una normativa sobre la preservación de datos estratégicos. Hay dos áreas de atención prioritaria: los datos gubernamentales y los datos científicos. Los datos gubernamentales representan uno de los mayores activos de cualquier gobierno y a menudo involucran decisiones estratégicas e incluso secretas del país.
De buena fe, en este mismo momento, hay cientos, si no miles, de servidores públicos que inadvertidamente cargan estos datos a ChatGPT y empresas similares y entregan este valor de forma gratuita a las grandes empresas tecnológicas estadounidenses (¡y ahora chinas!). En este momento no existen ordenanzas ni regulaciones claras por parte del gobierno federal en su conjunto que exijan un cuidado especial con dichos datos. Lo mismo ocurre con otros poderes.
De la misma manera, los académicos están repitiendo el mismo error con los descubrimientos científicos de vanguardia. Buscando aumentar la productividad, nuestros científicos están analizando datos, escribiendo y revisando textos en inteligencia artificial generativa, entregando gratuitamente estos datos, fruto de una gran inversión financiera e intelectual, sin compensación alguna. Actualmente no existe regulación por parte de los Ministerios de Educación o de Ciencia y Tecnología, ni de los órganos reguladores y de fomento a la investigación, como CAPES, CNPq y similares.
Precisamente por esta razón, en un guía propiaYo y otros colegas sugerimos que la ciencia adopte modelos abiertos de Inteligencia Artificial General y que guarde sus datos en nubes soberanas, lo que, en la práctica, también podrían hacer los servidores públicos. DeepSeek podría utilizarse para esto, pero ya hay más opciones en el mercado. El gobierno del estado de Piauí está a punto de liberar la Soberanía, un modelo de lenguaje desarrollado íntegramente por el Estado. Así, la ciencia brasileña y el Estado son plenamente capaces de crear sus propios modelos.
A medio y largo plazo, ya conocemos la receta. Inversiones. El esquema general del Plan Brasileño de Inteligencia Artificial (PBIA) parece ser Un buen comienzo y las noticias que surgieron de la reciente “Conferencia Nacional de Ciencia, Tecnología e Innovación” son igualmente emocionantes, hasta el punto de que podemos pensar en una Nuevo giro de la ciencia brasileña. Así que parece que vamos en la dirección correcta.
Sin embargo, debemos recordar la lección de DeepSeek. Hacer más por menos, trabajar con modelos abiertos y colaborativos, escapar del bombo publicitario de las grandes tecnológicas, desarrollar tecnologías que sean útiles para nuestras necesidades, como nos recuerdan Daron Acemoglu y Simon Johnson. Sólo entonces podremos hablar y pensar eficazmente sobre una soberanía digital efectiva.[ 1 ]
*Rafael Cardoso Sampaio es profesor del Departamento de Ciencia Política de la Universidad Federal de Paraná (UFPR).
Nota
[1] Este texto fue corregido y mejorado con la ayuda de DeepSeek R1 y luego debidamente revisado, mejorado y apropiado por su autor humano.
la tierra es redonda hay gracias a nuestros lectores y seguidores.
Ayúdanos a mantener esta idea en marcha.
CONTRIBUIR