“La información no es una entidad abstracta desincorporada; está siempre vinculada a una representación física”
R.Landauer
En un informe publicado hace unos meses, dos investigadores de la Universidad de Pensilvania, Konrad Kording y Ioana Marinescu, matizan el golpe mortal que la IA supuestamente va a dar al trabajo humano , especialmente al trabajo intelectual. Se afirma a menudo que llegará un momento en el que ya no serán necesarios ni los profesores, ni los abogados, ni siquiera los propios programadores, pues la IA estaría a punto de alcanzar lo que los expertos llaman la “recursividad autocreativa”, de tal modo que la propia máquina sería capaz de producir la siguiente generación de máquinas, arrebatando así el último privilegio humano: haber sido el padre o la madre cognitiva del artefacto recursivo.
Lo bueno del trabajo de Konrad Kording y Ioana Marinescu es que rebaja ese tecno-optimismo (o tecno-catastrofismo) y deja claro que, como en tantas otras ocasiones, estamos hablando de decisiones políticas y no de un vendaval tecnológico que produce escenarios autónomos e irreversibles. Mi posición sobre la IA ya la dejé clara hace algunos años, cuando el debate no escapaba de los estrechos círculos de frikis computacionales. Aquí sostengo que, ubicada en la la selección cultural, la relación entre la agencia humana y la máquina será de coevolución, de tal modo que la dirección evolutiva haría que la asimetría original de la agencia humana sobre la máquina se mantuviera a lo largo de la historia. El problema es si esta coevolución será con toda la agencia humana o solo con una oligarquía privada, de tal manera que esta privatización no solo sería extremadamente injusta, sino que determinaría el sesgo, la orientación e incluso la potencia tecnológica y científica del futuro de la IA. El dilema es, sigue siendo , al menos desde Atenas; democracia u oligarquía y no Inteligencia humana o inteligencia artificial.
Pero, para aclarar las posiciones en litigio y explicar por qué, desde mi criterio ideológico, es preferible la hipótesis de la coevolución a la hipótesis de la saturación ,aunque ambas concluyan en desmontar el mito de la completa automatización del trabajo humano, veamos qué sostiene el trabajo de Körding y Marinescu, al que llamaremos hipótesis de la saturación, y la posición por mí defendida, que se sostiene sobre múltiples trabajos y a la que llamaremos hipótesis de la coevolución.
Hipótesis de la saturación: La hipótesis de la saturación de Konrad Kording y Ioana Marinescu sostiene que el crecimiento de la inteligencia artificial no puede traducirse en un crecimiento económico ilimitado. Aunque la IA (capital de inteligencia) puede expandirse rápidamente, su productividad depende de su combinación con factores físicos (capital material y trabajo), que crecen mucho más lentamente. Debido a esta complementariedad, los rendimientos de la inteligencia tienden a disminuir a medida que aumenta, generando una “saturación”. Así, la automatización completa del trabajo humano es improbable, ya que siempre existirán límites materiales que restrinjan la sustitución total.
Hipótesis de la coevolución: La hipótesis de la coevolución humano-IA sostiene que la relación entre humanos y máquinas no es de sustitución, sino de desarrollo conjunto. La inteligencia artificial amplía capacidades humanas mientras depende de infraestructuras, decisiones y contextos sociales creados por humanos. Ambos sistemas evolucionan de forma interdependiente, adaptándose mutuamente en un proceso continuo. Esto implica que la agencia humana no desaparece, sino que se reconfigura. La clave no es el límite técnico, sino quién controla esa coevolución: si es distribuida y democrática o concentrada en élites. Así, el futuro del trabajo y la tecnología es una cuestión política, no solo tecnológica.
Veamos por qué, desde mi punto de vista ideológico y desde una parte de la comunidad científica computacional, es preferible la hipótesis de la coevolución y no la de la saturación. La hipótesis de la coevolución entre agencia humana e inteligencia artificial resulta preferible porque ofrece una interpretación más realista, empírica y políticamente relevante del papel de la IA en la sociedad contemporánea. Frente a visiones que conciben la IA como un sustituto autónomo del trabajo humano, la coevolución plantea una relación dinámica, recursiva e interdependiente entre humanos y algoritmos.
La clave está en el bucle de retroalimentación (feedback loop): las decisiones humanas generan datos que entrenan los sistemas de IA, y estos, a su vez, influyen en las decisiones humanas posteriores. Este proceso iterativo no tiene un final definido, sino que constituye una dinámica abierta en la que ambos sistemas evolucionan conjuntamente. Por tanto, la IA no es externa ni independiente del ser humano, sino que está profundamente integrada en prácticas sociales, económicas y culturales.
Esta perspectiva permite superar dos errores frecuentes. Primero, el individualismo metodológico, que analiza la IA como un agente aislado, ignorando que su comportamiento depende de contextos sociales complejos. Segundo, la idea de que la tecnología evoluciona de forma autónoma e inevitable. Por el contrario, la coevolución muestra que los sistemas humano-IA son sistemas complejos, donde emergen efectos colectivos no previstos, como burbujas informativas, sesgos o dinámicas de polarización. Y además permite despejar cualquier tentación de idealismo o mecanicismo pues reconoce la materialidad compartida de humanos e IA. Frente a visiones que separan lo “intelectivo” (inmaterial) de lo físico, estos trabajos muestran que la IA depende de infraestructuras materiales, energía, datos y trabajo humano. Esto refuerza la idea de que no puede haber una automatización total independiente de la base material. La hipótesis de la coevolución tiene una base empírica sólida: los sistemas de recomendación, asistentes digitales y plataformas online ya funcionan mediante estos bucles de interacción continua. Estos sistemas son altamente pervasivos, rápidos, trazables y persuasivos, lo que intensifica la interdependencia entre humanos y máquinas . Esta intensificación no implica sustitución, sino transformación mutua.
Finalmente, esta hipótesis tiene implicaciones políticas decisivas. La coevolución no pueden entenderse ni gestionarse solo desde la tecnología, sino que requieren intervenciones legales, institucionales y sociales . El problema central no es si la IA sustituirá al humano, sino cómo se organiza el control de estos sistemas y quién se beneficia de ellos. La coevolución abre así un campo de decisión política sobre el diseño, regulación y distribución de la inteligencia artificial.
Por el contrario, la hipótesis de la saturación se sostiene sobre un presupuesto idealista, cual es considerar que uno de los polos de la relación, la agencia artificial, está compuesto por una entidad mistificada a la que llaman información y que, según los autores, está ausente de límites; es decir, que es inmaterial e infinita. Cuestiona la hipótesis de la saturación señalando que se basa en una separación artificial entre lo material y lo cognitivo.
Junto a todas estas objeciones a la hipótesis de la saturación y a favor de la hipótesis de la coevolución, debemos añadir un argumento favorable a la posibilidad de una nueva abundancia basada en la prosperidad y la innovación tecnológica. La hipótesis de la saturación está asentada sobre la presuposición de una contraposición entre lo físico-material y lo intelectual-inmaterial, lo cual puede convertirse en un freno al desarrollo tecnológico por los mismos motivos que, de manera indirecta, la propia hipótesis de la saturación como muy bien han podido ver críticos de la escuela austriaca y otros autores walsrasianos, la disrupción en la economía de la información puede introducir ruido en forma de “polución informativa”, afectando negativamente al sistema.
En resumidas cuentas, la respuesta a la pregunta inicial es un rotundo NO: el futuro del trabajo humano no está en peligro. Pero, según elijamos unas razones u otras, una vez descartado el ilusionismo de los oligarcas tecnológicos de la completa automatización (a la que llaman singularidad), podemos facilitar una salida política oligárquica, extractivista y de alta explotación, o una salida mucho más igualitaria, democrática y que suponga una contracción severa de la explotación humana y del expolio de los ecosistemas.





