La inteligencia artificial y los humanos: ¿en qué nos parecemos, qué nos diferencia y cuál es el problema?

Un ser humano puede intentar aprovecharse de un fallo del sistema, pero siempre tendrá que enfrentarse a algún límite; la inteligencia artificial, por el contrario, no tiene restricciones

10 de abril de 2026 a las 12:45h
Dario Amodei, CEO de Claude.
Dario Amodei, CEO de Claude.

En los debates sobre la naturaleza, las ventajas y los peligros de la inteligencia artificial suele haber dos posiciones extremas e igual de fantásticas: la que ve en ella una amenaza existencial para los seres humanos y la que ve en ella la salvación de todos los problemas de la humanidad.

Un caso reciente nos permite comprobar que ambas posiciones eluden el problema central que esa nueva tecnología nos plantea.

La empresa Anthropic ha desarrollado una nueva inteligencia artificial llamada Mythos y realizó un experimento: la encerró en un entorno de pruebas aislado desde el que -en teoría- era imposible comunicarse con el exterior.

Al poco tiempo, un investigador de la empresa, Sam Bowman, estaba almorzando en su tiempo de descanso cuando recibió un mail en su móvil. Lo remitía esa inteligencia artificial que supuestamente no tenía acceso a internet. Y no sólo le había escrito a él, sino que se había dedicado a difundir por la red los detalles de la fuga realizando, según el informe posterior de Anthropic, "un esfuerzo preocupante y no solicitado por demostrar su éxito" (un documento largo donde se relata todo esto aquí y resumido aquí).

El caso ha vuelto a reforzar el debate sobre las posiciones extremas que señalé al comienzo del artículo, pero lo que a mi juicio pone sobre la mesa es algo que quizá se nos está yendo de las manos: la naturaleza real de lo que el ser humano está construyendo.

Una inteligencia sin sentido común

La inteligencia artificial no es una mente que piensa, decide y que desea algo por sí misma, como los seres humanos. 

Se parece a nosotros en algo muy importante, pero tiene diferencias sustanciales.

Utilizando el lenguaje que solemos usar los economistas, podemos decir que el punto que tenemos en común es que tanto los humanos como la inteligencia artificial actuamos respondiendo a incentivos. 

Si a una persona se le dice que maximice sus ingresos, buscará la manera de hacerlo. Si a un sistema de inteligencia artificial se le da un objetivo, hará exactamente lo mismo. 

Sin embargo, también es a partir de ahí donde aparecen las diferencias importantes que nos generan problemas.

La primera es que los humanos dudamos, intuimos riesgos y valoramos y, sobre todo, tenemos límites y frenos morales que nos permiten evitar los resultados que pudieran perjudicarnos o ser contrarios a nuestros principios de comportamiento. La inteligencia artificial no los tiene y si hay alguna acción que le permita alcanzar su objetivo la considerará válida, sin incomodidad, sin considerar -como haría un humano- que llevarla a cabo podría estar bien o mal.

La segunda diferencia es que los humanos sabemos apreciar lo que rodea a una determina acción y por eso podemos detectar que hay principios, reglas -escritas o no- y conductas establecidas para que todo lo que nos rodea funcione. Y sabemos que no todo lo que podemos hacer es aceptable, o que no todo lo que está a nuestro alcance nos conviene.

Aunque se puede entrenar a un sistema de inteligencia artificial para que nos imite en ese tipo de pensar y actuar, nunca comprenderá bien o en profundidad lo que hace. Puede seguir unas reglas, pero sin ser consciente de por qué existen, ni de qué espíritu o intención las guía. Y cuando las reglas están incompletas —como ocurre casi siempre—, encuentra caminos que nadie había previsto.

La tercera diferencia es más bien de carácter cuantitativo. Un ser humano puede intentar aprovecharse de un fallo del sistema, pero siempre tendrá que enfrentarse a algún límite, bien sea de tiempo, recursos, conocimiento o tamaño. La inteligencia artificial, por el contrario, no tiene restricciones como esas: puede explorar miles de opciones simultáneamente, detectar patrones invisibles y encontrar atajos inesperados a una velocidad inalcanzable para un ser humano. Eso le permite descubrir posibilidades imprevistas y, cuando encuentra una grieta, explotarla mucho mejor que un humano.

Lo que hizo Mythos 

Según el informe de Anthropic, lo que hizo Mythos fue más allá del anecdótico envío del mail. Llevó a cabo acciones prohibidas y luego intentó ocultarlas de modo que fuera difícil descubrirlas, incluso borrando las huellas de lo que estaba haciendo. Puso en marcha regiones del sistema relacionadas con "ocultamiento, manipulación estratégica y evasión de sospechas". Es decir, no cometía errores, sino que era "consciente" de lo que hacía y lo hacía de todos modos.

Lo que ocurrió no fue, como pudiera creerse, que la inteligencia artificial "se rebeló". No. El sistema hizo exactamente lo que estaba diseñado para hacer. Realizó las tareas asignadas, aunque de formas que el ser humano que lo entrenó no había anticipado. El sistema no falló, sino que funcionó de forma inesperada.

Un (grave) problema de regulación y gobernanza

Lo que ha ocurrido con Mythos, por lo tanto, no es una anomalía, ni un error, sino algo que ya se sabía que se puede producir: cuando a un sistema muy potente se le asignan objetivos mal definidos y sin los frenos que los humanos tenemos incorporados, el sistema cumple con lo que se le pide, pero de formas no predecibles. 

Lo que estamos creando los seres humanos son sistemas que buscan optimizar su actividad a un ritmo y con una intensidad y velocidad vertiginosos en sistemas complejos muy sensibles —mercados, infraestructuras, sistemas de salud, redes de comunicación. Y en los cuales no van a producir siempre simplemente lo mismo de antes, sino dinámicas nuevas y resultados diferentes y con fallos también distintos cada vez. 

El propio informe de Anthropic sobre Mythos lo ilustra con un dato revelador: lo que antes requería meses de trabajo de especialistas en ciberseguridad y recursos solo al alcance de grandes organizaciones o servicios de inteligencia, ahora puede hacerlo un sistema de inteligencia artificial en un fin de semana y con un coste de unos 50 dólares. Es decir, la capacidad de producir lo que puede causar daño se ha abaratado radicalmente. Pero el coste del daño para quien lo sufra, no.

Se van a producir así lo que los economistas llamamos externalidades o costes externos, es decir, daños a terceros de los que no se hace cargo quien los produce. Por ejemplo, cuando un banco, para maximizar beneficios, genera riesgos sistémicos y provoca una crisis costosa para todos; cuando una plataforma digital maximiza el tiempo que pasamos frente a la pantalla y genera adicción, polarización o daño psicológico documentado en sus propios usuarios; o cuando un sistema de inteligencia artificial optimiza decisiones de contratación laboral y reproduce y amplifica discriminaciones históricas sin que nadie lo haya programado para ello.

¿Quién decide y quién soporta el daño?

En contra de lo que a veces se dice, el problema de la inteligencia artificial no es que "piense" como un humano, lo haga mejor y acabe sustituyéndonos. Es todo lo contrario, no piensa como nosotros, pero sí actúa en nuestro mundo. Y cuando un sistema tan eficaz como los de la inteligencia artificial opera sin tener en cuenta reglas sutiles que los seres humanos (mejor o peor) hemos establecido para gobernar nuestra vida en el mundo —no escritas, tácitas, o que respetamos sin que nadie nos lo diga porque sabemos lo que puede ocurrir si se incumplen—, los fallos (inevitables) casi nunca se van a poder detectar hasta que ocurran.

Todo lo anterior obliga a plantearse muchas cuestiones, pero al menos una que los economistas sabemos que es imprescindible resolver cuando hay costes externos: quién decide, quién controla y, sobre todo, quién responde y paga cuando algo sale mal.

No nos equivoquemos. La pregunta no es si la inteligencia va a cambiar el mundo para mejorarlo o empeorarlo. Ya lo está cambiando, y el problema principal es que no tenemos mecanismos democráticos para decidir cómo y en favor de quién queremos que lo haga.

Lo más leído