La inteligencia artificial y el nuevo espíritu del capitalismo

septiembre 2025

La inteligencia artificial suele ser presentada como sinónimo de progreso y como una tecnología neutral y sofisticada. Sin embargo, en The AI Con [La estafa de la IA], la lingüista Emily M. Bender y la socióloga Alex Hanna revelan que detrás de estos modelos operan decisiones políticas, intereses corporativos y un discurso construido para desactivar la crítica.

Luke Munn

<p>La inteligencia artificial y el nuevo espíritu del capitalismo</p>

«Inteligencia artificial» (IA) es tanto un término de marketing como un conjunto diferenciado de arquitecturas y técnicas de computación. La IA se ha convertido en una fórmula mágica para que los emprendedores atraigan capital inicial para proyectos dudosos, un conjuro empleado por algunos gerentes con el fin de alcanzar instantáneamente el estatus de líderes visionarios.

Evoca, en tan solo dos letras, una imagen de fábricas automatizadas y jefes supremos robóticos, una utopía de ocio o una distopía de servidumbre, según el punto de vista. No se trata solo de tecnología, sino de una poderosa visión acerca de cómo debería funcionar la sociedad y cómo debería ser nuestro futuro.

En ese sentido, la IA no necesita funcionar para funcionar. La precisión de un modelo extenso de lenguaje puede ser dudosa, la productividad de un asistente administrativo hecho con IA puede ser más fácil de afirmar que de demostrar, pero este conjunto de tecnologías, empresas y afirmaciones aún puede alterar los ámbitos del periodismo, la educación, la atención médica, el sector de servicios y nuestro más amplio horizonte sociocultural.

¡Explota la burbuja!

Bender es profesora de Lingüística en la Universidad de Washington y se ha convertido en una destacada crítica de la tecnología. Hanna es socióloga, ex-empleada de Google y actual directora de investigación en el Instituto de Investigación de IA Distribuida (DAIR, por sus siglas en inglés). Después de haberse unido para mofarse de los adeptos a la IA en su popular podcast Mystery AI Hype Theater 3000, han condensado sus ideas en un libro escrito para el público general. Enfrentan la fuerza imparable de la ola publicitaria de la IA con un escepticismo inquebrantable.

El primer paso de este programa es comprender cómo funcionan los modelos de IA. Bender y Hanna hacen un excelente trabajo para decodificar términos técnicos y hacer accesible a los legos la «caja negra» del aprendizaje automático.

Colocar esta cuña entre la ola publicitaria y la realidad, entre las afirmaciones y las operaciones, es un gesto recurrente en las páginas de The AI Con [La estafa de la IA] que debería erosionar gradualmente la confianza de los lectores en la industria tecnológica. El libro describe los engaños estratégicos que emplean empresas poderosas para reducir la fricción y acumular capital. Si el bombardeo de ejemplos tiende a crear confusión, persiste la sensación de estar ante una estupidez tecnológica.

¿Qué es la inteligencia? Un artículo famoso y muy citado, entre cuyas autoras está Bender, afirma que los modelos extensos de lenguaje son simplemente «loros estocásticos» que se basan en datos de entrenamiento para predecir qué conjunto de tokens (es decir, palabras) tiene más probabilidades de seguir el prompt provisto por un usuario. Al cosechar millones de sitios web rastreados, el modelo puede regurgitar «y en la calle se cayó» después de «la farolera tropezó», aunque en variantes mucho más sofisticadas.

En lugar de comprender realmente un concepto en todos sus contextos sociales, culturales y políticos, los modelos extensos de lenguaje realizan una búsqueda de patrones: una ilusión de pensamiento.

Pero yo diría que, en muchos ámbitos, una simulación del pensamiento es suficiente, ya que quienes utilizan la IA la alcanzan a mitad de camino. Los usuarios proyectan su intervención sobre los modelos a través del conocido Efecto Eliza, suponiendo inteligencia en la simulación.

El management cifra sus esperanzas en esta simulación. Consideran la automatización como una forma de optimizar sus organizaciones y no «quedarse atrás». Esta potente imagen de adoptantes pioneros versus dinosaurios en extinción se ve una y otra vez con la llegada de las nuevas tecnologías, y beneficia a la industria tecnológica.

En este sentido, cuestionar la «inteligencia» de la IA es una estrategia fallida, que pierde de vista la inversión social y financiera que desea que esta tecnología funcione. «Comienza con IA para cada tarea. No importa lo pequeña que sea, intenta utilizar primero una herramienta de IA», ordenó el director de ingeniería de Duolingo en un reciente mensaje a todos los empleados. Duolingo se ha unido a FiverrShopifyIBM y una gran cantidad de otras empresas que proclaman su enfoque de «Primero, IA».

Tecnología que cambia de forma

Lo mejor de The AI Con aparece cuando apunta, más allá o alrededor de las tecnologías, al ecosistema que las rodea, una perspectiva que, como también he sostenido, es sumamente útil. Al entender las corporaciones, los actores, los modelos de negocio y las partes interesadas que participan en la producción de un modelo, podemos evaluar su origen, su propósito, sus fortalezas y debilidades, y qué implicaciones podría tener todo esto luego para sus posibles usos e implicaciones. «¿Quiénes se benefician de esta tecnología, quiénes se ven perjudicados y qué recursos tienen?» es un buen punto de partida, sugieren Bender y Hanna.

Estas preguntas básicas, pero importantes, nos alejan de la maleza del debate técnico –¿cómo funciona la IA?, ¿qué tan precisa o «buena» es realmente, cómo podemos comprender esta complejidad sin ser ingenieros?– y nos brindan una perspectiva crítica. Asignan a la industria, y no a los usuarios, la responsabilidad de explicar, de adaptarse o resignarse a ser descartados.

No necesitamos poder explicar conceptos técnicos como retropropagación o difusión para entender que las tecnologías de IA pueden poner en peligro el trabajo justo, perpetuar estereotipos raciales y de género, y exacerbar las crisis ambientales. La ola publicitaria en torno de la IA busca distraernos de estos efectos concretos, trivializarlos y, por lo tanto, alentarnos a ignorarlos.

Como explican Bender y Hanna, impulsores y detractores de la IA son, en realidad, dos caras de la misma moneda. En definitiva, da lo mismo imaginar escenarios pesadillescos en los que una IA que se autorreproduce acabe con la humanidad o afirmar que las máquinas sintientes nos conducirán a un paraíso posthumano. En ambos casos e deposita una fe casi religiosa en las capacidades de la tecnología, que domina el debate, lo que permite a las empresas tecnológicas mantener el control del desarrollo futuro de la IA.

El riesgo de la IA no es una catástrofe potencial en el futuro, al estilo de la amenaza nuclear durante la Guerra Fría, sino el daño, más silencioso y significativo, que sufren las personas reales en el presente. Las autoras explican que la IA se asemeja más a un panóptico «que permite a un único director penitenciario controlar a cientos de presos simultáneamente», o a las redes de vigilancia que rastrean a grupos marginales en Occidente», o a un «residuo tóxico peligroso que saliniza la tierra de un sitio Superfund»1, o a un «rompehuelgas que cruza la línea de un piquete por orden de un empleador que quiere mostrarles a los manifestantes que son desechables. El conjunto de los sistemas que se venden como IA son todo esto junto».

Hace una década, con otra tecnología «que cambiaba las reglas del juego», el autor Ian Bogost observó que «en lugar de utopía o distopía, solemos terminar con algo menos dramático, pero más decepcionante. Los robots no sirven a los amos humanos ni nos destruyen en un genocidio dramático, sino que desmantelan lentamente nuestros medios de vida, mientras nos dejan seguir vivos».

El patrón se repite. A medida que la IA madura (hasta cierto punto) y es adoptada por las organizaciones, pasa de la innovación a la infraestructura, de la magia al mecanismo. Las grandes promesas nunca se materializan. En cambio, la sociedad se enfrenta a un futuro más duro y desolador. Los trabajadores sienten más presión; la vigilancia se normaliza, la verdad es empañada por la posverdad, los marginados se vuelven más vulnerables y la temperatura del planeta aumenta.

La tecnología, en este sentido, es un ser cambiante: su apariencia varía constantemente, pero su lógica interna permanece inalterada. Explota el trabajo y la naturaleza, extrae valor, centraliza la riqueza y protege el poder y el estatus de quienes ya son poderosos.

Cooptar a la crítica

En El nuevo espíritu del capitalismo, los sociólogos Luc Boltanski y Eve Chiapello demuestran cómo el capitalismo ha mutado con el tiempo e integrado las críticas en su ADN.

Tras haber soportado una serie de golpes relacionados con la alienación y la automatización en la década de 1960, el capitalismo pasó de ser un modo de producción fordista jerárquico a una forma más flexible de autogestión durante las dos décadas siguientes. Comenzó a favorecer la producción just in time, realizada en equipos más reducidos, que (aparentemente) fomentaba la creatividad y el ingenio de cada individuo. El neoliberalismo ofrecía «libertad», pero a un precio. Las organizaciones se adaptaron; se hicieron concesiones; la crítica fue desactivada.

La IA continúa esta forma de cooptación. De hecho, el momento actual puede describirse como el fin de la primera ola de IA crítica. En los últimos cinco años, los gigantes tecnológicos han lanzado una serie de modelos más grandes y «mejores», mientras el público y la academia se enfocan principalmente en modelos generativos y «fundacionales»: ChatGPT, StableDiffusion, Midjourney, Gemini, DeepSeek, etc.

Los académicos han criticado duramente algunos aspectos de estos modelos; mi propio trabajo ha explorado afirmaciones de verdad2odio generativo3ethics washing (apropiación de discursos éticos) y otros temas. Gran parte del trabajo se centró en el sesgo: la forma en que los datos de entrenamiento reproducen estereotipos de género, desigualdad racial, intolerancia religiosa, epistemologías occidentales, etc.

Una buena porción de este trabajo es excelente y parece haberse filtrado a la conciencia pública, según las conversaciones que he tenido en talleres y eventos. Sin embargo, que se señalen estos problemas permite a las empresas tecnológicas poner en práctica su solución de problemas. Si la precisión de un sistema de reconocimiento facial es más baja con caras negras, se añaden más rostros negros al conjunto de entrenamiento. Si se acusa al modelo de tener predominio del idioma inglés, se pone algo de dinero en la producción de datos en lenguas «de bajos recursos».

Empresas como Anthropic realizan hoy regularmente ejercicios de «red teaming» [trabajo en equipo rojo] diseñados para identificar sesgos ocultos en los modelos. Las empresas luego «corrigen» o mitigan estos problemas. Sin embargo, debido al enorme tamaño de los conjuntos de datos, estos tienden a ser parches, modificaciones más superficiales que estructurales.

Por ejemplo, poco después de su lanzamiento, los generadores de imágenes de IA estuvieron bajo presión por no ser lo suficientemente «diversos». En respuesta, OpenAI inventó una técnica para «reflejar con mayor precisión la diversidad de la población mundial». Los investigadores descubrieron que esta técnica consistía simplemente en añadir prompts ocultos adicionales (por ejemplo, «asiático», «negro») a los prompts del usuario. El modelo Gemini de Google también parece haber adoptado esta solución, lo que resultó en una reacción negativa cuando las imágenes de vikingos o nazis aparecieron con rasgos del sur de Asia o de nativos americanos.

La cuestión aquí no es si los modelos de IA son racistas, históricamente inexactos o woke, sino que estos modelos son siempre políticos y nunca ajenos a ciertos intereses. Los interrogantes más difíciles sobre cómo la cultura se vuelve computacional, o qué tipo de verdades queremos como sociedad, nunca se abordan y, por lo tanto, nunca se trabajan sistemáticamente.

Estos interrogantes son ciertamente más vastos y menos «puntuales» que el sesgo, pero también menos susceptibles de ser traducidos a un problema que un programador pueda resolver.

¿Qué sigue?

¿Cómo deberían, entonces, responder a la IA quienes no pertenecen al ámbito académico? En los últimos años se ha visto una oleada de talleres, seminarios e iniciativas de desarrollo profesional. Estos abarcan desde recorridos celebratorios por las funciones de la IA para el trabajo, pasando por debates serios sobre riesgos y ética, hasta reuniones generales organizadas de apuro para debatir cómo responder ahora, el mes que viene y el siguiente.

Bender y Hanna cierran el libro con sus propias respuestas. Muchas de ellas, al igual que sus preguntas sobre cómo funcionan los modelos y quiénes se benefician con ellos, son sencillas pero fundamentales y ofrecen un sólido punto de partida para la participación organizacional.

Para este dúo tecnoescéptico, el rechazo también es claramente una opción, aunque obviamente cada individuo tendrá un grado de autonomía muy diferente a la hora de excluir modelos y estrategias de adopción. El rechazo a la IA, como ocurre con muchas tecnologías previas, a menudo depende en cierta medida del privilegio. El consultor o programador con una remuneración de seis cifras tendrá un poder de decisión que el trabajador temporal o de servicios no puede ejercer sin sanciones o castigos.

Si el rechazo es problemático en el nivel individual, parece más viable y sostenible en el nivel cultural. Bender y Hanna sugieren que se responda a la IA generativa con la burla: las empresas que la emplean deberían ser ridiculizadas por su vulgaridad o mal gusto.

La reacción cultural contra la IA ya está en marcha. Las bandas sonoras en YouTube llevan cada vez más la leyenda «Sin IA». Algunos artistas han lanzado campañas y hashtags donde destacan que sus creaciones son «100% hechas por humanos».

Estos movimientos buscan establecer un consenso cultural sobre la naturaleza poco original y explotadora del material generado por IA. Sin embargo, si bien ofrecen alguna esperanza, van a contracorriente de la veloz decadencia de las plataformasLa basura de IA (AI slop) implica una creación de contenidos más rápida y barata; la lógica técnica y financiera de las plataformas online (viralidad, participación, monetización) siempre creará una carrera hacia lo más bajo.

Quedan aún sin respuesta interrogantes tales como hasta qué punto se aceptará la visión de las grandes tecnológicas, cómo se integrarán o impondrán las tecnologías de IA, y hasta qué punto las rechazarán las personas y las comunidades. En muchos sentidos, Bender y Hanna demuestran con éxito que la IA es una estafa: falla en productividad e inteligencia, mientras que la ola publicitaria blanquea una serie de transformaciones que perjudican a los trabajadores, exacerban la desigualdad y dañan el medio ambiente.

Algunas tecnologías anteriores (combustibles fósiles, automóviles privados, automatización industrial) han tenido también estas consecuencias; sin embargo, estas no impidieron que fueran adoptadas ni que transformaran la sociedad. Así pues, si bien hay que elogiar a Bender y Hanna por un libro que muestra «cómo luchar contra la ola publicitaria de las grandes tecnológicas y crear el futuro que queremos», la cuestión de la IA evoca en mí la observación de Karl Marx de que las personas «hacen su propia historia, pero no la hacen a su libre arbitrio».

Nota: la versión original de este artículo en inglés se publicó en The Conversation el 23/6/2025 y está disponible aquí. Traducción: Carlos Díaz Rocca.

  • 1.Alude a lugares contaminados en Estados Unidos que requieren limpieza federal por su toxicidad. La metáfora describe a la IA como una contaminación social y cultural persistente, difícil de eliminar. Igual que un terreno envenenado, deja secuelas duraderas que impiden la recuperación del entorno [N. del E.].
  • 2.En modelos como InstructGPT o ChatGPT, una declaración de verdad es una construcción coherente y convincente que, al sintetizar datos y perspectivas incluso conflictivas, se presenta como incuestionable. Es una operacionalización de la verdad que convierte al modelo en árbitro de lo verdadero en su ámbito de uso  [N. del E.].
  • 3.Refiere a la producción y amplificación automatizada de contenido hostil o discriminatorio por parte de modelos de IA, ya sea produciendo imágenes, replicando sesgos presentes en los datos o generando nuevos patrones de discurso dañino. [N. del E.].

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *