Roedores de cultura

‘Ética para máquinas’, un libro para entender la IA

Lecturas de verano. La conversación entre Pablo Motos y Sophia en 'El Hormiguero 3.0' ha dejado boquiabierto a más de uno, sin saber a qué atenerse. Los sistemas de inteligencia artificial ya están entre nosotros: ¿hasta dónde pueden llegar las máquinas pensantes?

El robot Sophia ha sido creado por la empresa Hanson Robotic. “Fue conectada por primera vez en 2016, en Hong Kong”, nos cuentan en la página del programa de Antena 3 El Hormiguero 3.0. Si visitamos la página de Hanson Robotic podemos conocer los proyectos de la empresa y los robots que han construido en los últimos años: Han, Bina, Little Sophia, Jules, Alice… Sophia fue diseñada “para aprender y adaptarse al comportamiento humano, el objetivo es poder aplicar los avances en inteligencia artificial permitiendo desarrollar tecnologías que mejoren la interacción entre humanos y robots”.

Se parece a Audrey Hepburn y tiene nacionalidad saudí. Reconoce caras, imita expresiones faciales, interactúa respondiendo preguntas y aprende: “Su software de IA analiza conversaciones y extrae datos que le permiten mejorar sus respuestas con el tiempo. Es conceptualmente similar al programa de ordenador ELIZA, que fue uno de los primeros intentos en simular una conversación humana.”

La pregunta clave es si realmente hubo diálogo. Alan Turing propuso 1950 un test sencillo, el juego de imitación. Si Sophia estuviera tras un biombo y nos comunicásemos con ella a través de un teclado, ¿podríamos saber si hablamos con una persona o una máquina? El día que, tras una conversación sin restricciones, no podamos distinguir con quién hablamos habremos logrado la IA de verdad. A continuación, si admitimos que hay algún tipo de inteligencia en esos sistemas, surgen nuevas incógnitas. Porque si realmente hubo un diálogo con Sophia, ¿debemos considerarla un sujeto con derechos y obligaciones, con dignidad? Para que haya diálogo tiene existir lenguaje, con sintaxis y semántica. ¿Hubo algo más que sintaxis, que intercambio de estructuras formales? Por parte de Pablo Motos suponemos que sí, pero con el androide ya no está tan claro. Sophia no es consciente, ni maneja significados, ni emociones…

Para saber cómo hemos llegado hasta Sophia y hacia dónde nos encaminamos, conviene leer Ética para máquinas (Editorial Ariel, 2019). El autor es José Ignacio Latorre, catedrático de Física Teórica en la Universidad de Barcelona y director del Centro de Ciencias de Benasque Pedro Pascual. En la primera parte, Máquinas sin alma, habla de los primeros aparatos que nos permitieron extender nuestras limitadas capacidades. Los seres humanos hemos construido instrumentos para ahorrarnos trabajo, tanto físico como intelectual, para ser más eficientes y poder producir más y mejor: molinos, coches, aviones, calculadoras…

En la segunda parte, Máquinas que parecen inteligentes, nos explica en qué consiste la inteligencia artificial (IA). La aparición de los ordenadores, máquinas programables para cualquier tarea, supuso una revolución en la historia de la tecnología. En los años sesenta se diseñó el programa ELIZA, un sistema que dialogaba con humanos y utilizaba las respuestas del interlocutor para avanzar en la conversación, como hace Sophia con Pablo Motos. Desde entonces hemos creado sistemas expertos capaces de jugar al ajedrez, demostrar teoremas, realizar diagnósticos médicos, y lo más importante, algoritmos capaces de aprender y modificarse a sí mismos. Aunque sigue habiendo grandes escollos, como el lenguaje y la consciencia, ya tenemos coches autónomos circulando por ahí… Sea de forma consciente o no, toman decisiones, o algo parecido a lo que hacemos los humanos cuando elegimos entre varias opciones.

Esa toma de decisiones nos lleva de la ingeniería informática a la ética. La tercera parte, Ética para máquinas, aborda el reto de programar principios morales. Se trata de un asunto teórico y práctico muy complejo, ya que existen diferentes puntos de vista sobre cómo los humanos realizamos elecciones con implicaciones morales. No es lo mismo seguir a Kant y su imperativo categórico que a Mill y su utilitarismo…  Los investigadores buscan algoritmos que, partiendo de unos principios básicos, aprendan de la experiencia y mejoren su capacidad de elegir. “La propuesta aventurada de Eliezer Yudkowski para lograr una inteligencia artificial amigable lleva el nombre de volición coherente extrapolada. Debemos entrenar a las máquinas de forma que aprendan la parte de la voluntad colectiva que es coherente, no divergente.” Esos seres que deciden y aprenden quizás tengan derechos y deberes… Así, enlazamos con la justicia para máquinas, y con la relación entre humanos y robots.

Las dos últimas partes del libro están dedicadas a reflexionar sobre si nos superarán las máquinas, sobre si todo lo humano es programable y sobre el nuevo papel que va a representar la especie humana. “Si logramos crear máquinas que imiten nuestra emociones, nuestro sentido vital, que se comporten de acuerdo a códigos compartidos, hablaremos de ellas como almas que podremos amar.” En los apéndices encontramos las declaraciones de principios que han consensuado los investigadores y las instituciones. En el Parlamento Europeo se aprobó en 2017 un informe sobre roboética. Ahí se habla de proteger a los humanos del daño causado por robots, de respetar el rechazo a ser cuidado por una máquina, de proteger la libertad de los humanos, de evitar la disolución de los lazos sociales…

Etiquetas

Más artículos en esta categoría:

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *