Cursos de Verano 2022
Luis Echarte: “Si la legislación no lo impide, dentro de poco habrá robots que nos robarán el corazón”
Noticia publicada el
miércoles, 20 de julio de 2022
El Observatorio de Bioética de la Universidad Católica de Valencia (UCV) celebró recientemente el congreso Autonomía y libertad: Límites Bioéticos, enmarcado en los cursos de verano de la UCV. En este encuentro, expertos procedentes de diferentes universidades españolas realizaron un análisis de los conflictos bioéticos actuales derivados de la aplicación del principio de autonomía del paciente.
En una de las mesas redondas del congreso participó el filósofo y médico Luis Echarte, profesor de la Universidad de Navarra (UNAV) especializado en filosofía de la tecnología y psicología moral, además de miembro del Comité de Ética de la Investigación de la misma universidad. En su intervención, Echarte giró el foco que apuntaba en la mayoría de ponencias hacia la autonomía del paciente para ponérselo a los facultativos. En concreto, este experto hizo un análisis sobre cómo la inteligencia artificial puede cambiar la comprensión del concepto de autonomía en la toma de decisiones médicas.
Antes de hablar sobre su influencia en el área de la medicina, acerquémonos a ella de un modo más general: ¿cómo explicaría en términos simples qué es la IA?
Hay que empezar hablando de que existen muchas cosas que distinguen el pensamiento de las personas del de los animales, y una de ellas es nuestra capacidad de aprendizaje. Las abejas que describía Aristóteles se comportan ahora de una manera similar a la de hace más de dos milenios. Por su parte, el ser humano, conservando ciertas similitudes que caracterizan a la naturaleza humana, ha cambiado mucho porque aprende y transmite sus conocimientos, hace cultura; los hombres y las mujeres de hoy nos parecemos menos a los de hace ocho siglos que a los de hace dos.
La IA es un tipo de software que trata precisamente de imitar esa capacidad de aprendizaje, el pensamiento característico de los seres humanos. La simulación que se ha conseguido ya es realmente sorprendente. La IA no solo cumple con las órdenes que le daríamos a cualquier máquina, como una lavadora a la que ordenamos centrifugar, sino que, a medida que va ejerciendo sus funciones y cumpliendo con sus objetivos, es capaz de decir “esto se puede hacer mejor”. Y lo consigue.
Hace poco tiempo esto que relata era pura ciencia ficción y, pensándolo bien, las cosas no acabaron muy bien en 2001: Una odisea del espacio o en Matrix.
Que estas máquinas manifiesten un comportamiento similar al de los seres humanos supone dos problemas importantes. Uno de ellos es pensar que van a ser como las personas, por lo que no solamente habría que reconocerles derechos sino también deberes. Es algo que ya está pasando, como se ha visto en el caso de LaMDA, un software de inteligencia artificial desarrollado en los laboratorios de Google.
Hace unos meses, uno de los investigadores que trabajaba en el proyecto aseguró que LaMDA había adquirido conciencia humana y que, por tanto, debía ser tratado como una persona. Google lo suspendió enseguida de empleo y sueldo, pero lo más interesante del tema es que LaMDA, además de manifestar su miedo a la muerte, ha solicitado la asistencia jurídica de un abogado que le defienda ante quienes quieran apagarla o utilizarla con fines perversos. En menos de una hora había ya una legión de abogados dispuestos a defenderla.
Cuando lees las conversaciones que ha tenido LaMDA con los ingenieros designados por Google para descubrir si detrás de esta inteligencia artificial hay ya una psique, sus respuestas son sorprendentes. No habla como una máquina, como lo haría la expendedora de gasolina de una estación de servicio. Las conversaciones son, cuanto menos, perturbadoras. Como esta cuestión va a ir a más, la percepción que la IA irá generando en los usuarios puede llegar a hacernos pensar que son personas y deben ser protegidas.
Si deben ser protegidas legalmente también tendrán que ser juzgadas si incumplen la ley, ¿no?
Efectivamente, y este es un asunto que trae cola desde hace años. Todo esto comenzó con los coches autónomos, que utilizan programas de inteligencia artificial y que, como cualquier máquina, se pueden equivocar. ¿Quién asume la responsabilidad de los fallos de estos coches, que han causado ya accidentes mortales? ¿El programador? ¿El conductor?
Ante estos casos algunas empresas automovilísticas se han querido lavar las manos echándole la culpa a la IA; ellas no tenían nada que ver porque la decisión la tomó la máquina. La Unión Europea, sin embargo, emitió un primer comunicado en 2020 advirtiendo contra este tipo de elusión de responsabilidades, determinando que la culpabilidad es del fabricante o, si es el caso, del comprador. A las máquinas no se les concede titularidad para tener derechos.
Centrándonos ya en el ámbito médico, ¿qué puede suponer para esta área profesional la aplicación de la inteligencia artificial?
En el futuro, muchos médicos tendrán máquinas con IA que les asistan en su labor, lo que puede suponer dos problemas. Por un lado, el colectivo profesional pasará por la experiencia de tener al lado algo que les ayuda en su trabajo, que incluso puede sustituirles y que parece más listo que ellos. Las máquinas son capaces ya de hacer cosas que los seres humanos no pueden o tardarían mucho más tiempo en conseguirlo. En esa situación, el médico puede acabar adoptando actitudes pasivas, haciendo siempre «lo que diga la máquina», aunque en un determinado momento no entienda, por ejemplo, por qué esta le dice que hay que hacer una biopsia a un paciente.
Ya ha empezado a suceder en los hospitales, con pruebas que cada vez son más abstractas y complejas. El médico puede acostumbrarse a utilizar la máquina, mirar el resultado y decir ¡adelante! Pero eso es una merma en la calidad asistencial, porque pasaremos de tener especialistas, sabios que entienden lo que están haciendo, a puros técnicos que simplemente aplicarán algo que no saben para qué sirve. Los resultados pueden ser inicialmente buenos, pero ¿cuál es el futuro de la profesión? Te puedes convertir en un mero técnico, en un aplicador de herramientas, pero si no sabes utilizarlas no serás capaz de aplicarlas mejor.
Decía que había dos problemas…
Sí. El otro, realmente grave, es pensar que la máquina con inteligencia artificial que tengo frente a mí es como yo y, por tanto, puede asumir responsabilidades. Soy un gran defensor de la IA, creo que puede ayudarnos en muchísimas cosas, pero estando donde tiene que estar. No creo que una máquina pueda sustituir a un médico en el inicio y el fin de la acción.
El inicio es el acto de recibir a un paciente y entender que es un alguien, no un algo que haya que manipular; y el fin es la asunción de la responsabilidad: quiero hacerle el bien a este paciente y me preocupo por él. Las máquinas no se preocupan por nosotros, aunque lo parezca. Por eso la IA no puede estar ni al inicio ni al final de cualquier decisión terapéutica. Aunque puedan ejercer una gran asistencia las máquinas no pueden hacernos creer que prestan un servicio, eso lo hacemos las personas.
Entre LaMDA y eso de que “las máquinas no se preocupan por nosotros, aunque lo parezca” estoy empezando a pensar que acabaremos creando robots parecidos a los replicantes de Blade Runner. ¿Si la IA puede imitar nuestra manera de pensar, también puede hacerlo con nuestra manera de sentir?
Déjame decir primero que habría que establecer una regulación mucho más estricta justamente para los carerobots, los robots emocionales, otra de las nuevas tecnologías más peligrosas. Son máquinas que hacen compañía, que escuchan, que hacen pensar que nos entienden. Es un asunto de gravedad, especialmente en una sociedad en la que cada vez nos sentimos más solos. Estos robots están funcionando ya en Japón desde hace un año en las casas particulares de personas mayores. En Reino Unido, donde en 2018 se creó el Ministerio de la Soledad, están buscando otros métodos, gracias a Dios.
El problema de un robot que te entiende, que desprende cariño, es que ese «sentimiento» es falso. La inteligencia artificial no siente nada por ti, igual que el ordenador que te gana al ajedrez no siente alegría por ello. Estamos ante una simulación, no ante una replicación. Los seres humanos también simulamos, como cuando alguien se casa con otra persona por su dinero, pero la cuestión es que las máquinas solo pueden simular amor, no replicarlo. Los robots emocionales son un engaño; por ello, pensar que un software puede tener tu mismo corazón es muy grave. Las emociones son la última frontera antes de acabar reconociendo a las máquinas su «humanidad».
Un monologuista norteamericano planteaba en tono de broma una cuestión de muchísimo fondo, preguntándose si los robots sexuales acabarán no solo con las relaciones íntimas entre hombres y mujeres, sino también con las relaciones en general. Los harían tan perfectos físicamente y tan serviles que ninguna persona sería rival para ellos. Un horizonte muy inhumano, ¿no?
Es algo muy serio; y muy peligroso, porque como decía antes cada vez estamos más solos y más necesitados de alguien que nos escuche. Estos robots serán perfectos, pero desde un punto de vista emocional ¿en qué sentido lo serán? La máquina interactúa contigo y va aprendiendo qué te gusta, cómo quieres que te digan las cosas, cuándo quieres que te lleven la contraria; es decir, la IA aprende a complacerte. Estos robots parecerán maravillosos para sentirse a gusto y creer que «¡por fin tengo al lado a alguien que es como yo!». Pero será mentira, no es como tú; es una máquina esclava de tus emociones.
A las personas reales a veces no las entiendes, dicen cosas que no te esperas… porque un ser humano es un alguien mucho más rico que lo que tu cabeza es capaz de comprender. La vida es sorpresa, las personas crecen al interactuar unas con otras. Con una máquina, sin embargo, es imposible crecer porque está ahí para complacerte. Si buscas eso, bien; si lo que buscas es una vida real, una relación auténtica, aventura, tienes que mantenerte muy alejado de esos robots. Además, enganchan. Muchos tenemos una Alexa en casa y es muy divertida, ¿verdad? Pero debes ser consciente de que estás hablando con una máquina porque es fácil ponerte a conversar como si fuese un nuevo miembro de la familia.
¿Alguna lectura recomendable sobre esta cuestión?
Hay dos novelas muy interesantes. Una excepcional es Klara y el sol, del Premio Nobel Kazuo Ishiguro, que habla sobre IA y el problema de las máquinas con titularidad; y otra más compleja y dinámica, menos poética, que también pone el dedo en la llaga, es Máquinas como yo, gente como vosotros de Ian McEwan, uno de los mejores escritores de nuestro tiempo.
No sé si ha podido ver Her, una película de Spike Jonze. El protagonista, interpretado por Joaquin Phoenix, se compra un robot con inteligencia artificial que tiene voz femenina y se acaba enamorando de ella.
Sí la he visto, es muy interesante, y lo curioso de ella es que hay muy poca ciencia ficción en lo que cuenta. Dentro de poco, de hecho, si la legislación no lo impide, va a haber robots que nos robarán el corazón.
¿Qué podemos hacer para impedir que se produzcan estas y otras confusiones de tipo personal con la tecnología de IA?
Lo primero es distinguir entre máquinas y seres humanos. Para ello es fundamental que tengamos la noción de persona absolutamente clara. No podemos explicarla ahora al completo, pero entre todas las cosas que es una persona, una muy importante es su apertura a la belleza. El ser humano entiende qué es la belleza, del mismo modo que entiende qué es la verdad, el bien y la unidad, los cuatro trascendentales del ser.
Un niño de cinco años ya sabe lo que es la verdad, pero un robot es incapaz de entenderlo. Llega a verdades, a conocimientos objetivos, predicciones que a nosotros nos costarían mucho más tiempo –la IA puede acortar los tiempos de la investigación, en la producción de fármacos, vacunas…- pero en último término una máquina no entiende por qué es bueno un medicamento. Eso son principios, intuiciones, algo a lo que no se llega a través de una deducción o de una reflexión. Es algo que está al principio del conocimiento.
Explíquese…
El ser humano se sobrecoge ante la belleza. Todos sabemos lo que es una experiencia estética, como estar asombrados ante un paisaje maravilloso. ¿Qué es lo primero que hace alguien en esa situación? Celebrarlo, diciéndose «qué a gusto se está aquí»; y a continuación, surge el momento ético. «Esto hay que protegerlo», se dice a sí mismo. Una máquina es incapaz de realizar ese proceso.
De esto se dio ya cuenta el científico y divulgador Isaac Asimov, uno de los grandes escritores de ciencia ficción y para mí un filósofo encubierto. Con sus tres leyes de la robótica, que han dado pie a mucha literatura y mucho cine, intenta trazar el límite entre personas y máquinas. Como él señala, al ser incapaz del proceso que mencionábamos, la IA utiliza la mera deducción; y el problema está en que a través de la reflexión por sí sola se puede llegar a conclusiones completamente erradas. Este es el punto clave.
Es decir, que los robots no poseerán nunca las múltiples dimensiones de la persona y, por tanto, sus decisiones carecerán de humanidad, hablando en términos coloquiales.
Como indicabas en otra pregunta, son incontables las películas de ciencia ficción sobre la rebelión de máquinas a las que se les había fijado el objetivo de proteger a la humanidad. A través de la sola deducción, el robot puede acabar concluyendo que para proteger a la raza humana hay que acabar con la mitad de la población y esclavizar a la otra porque somos malísimos y perversos, nos matamos entre nosotros, y hay que poner orden.
Una máquina puede llegar a esa conclusión porque es incapaz de darse cuenta de que eso está mal. No puedes matar a alguien, aunque te salgan las cuentas y el resultado final sea bueno. Como decíamos antes, las personas podemos situarnos al principio y al final de la orden «protege al ser humano», dándonos cuenta de aquello que no debemos hacer porque, aunque sea lógico, es un mal. Los robots nunca podrán hacerlo porque la ética y la ciencia comienzan siempre con una experiencia, sea de bien en el caso de la primera, o de verdad en el de la segunda; al arte le sucede con la belleza.
Lo primero es la observación, que conlleva una experiencia. Las evidencias, aquello observable, son los ladrillos con los que trabaja un científico. A partir de esas evidencias comienza a establecer relaciones, causas, teorías que expliquen lo mostrado por aquellas. «Los resultados por sí mismos no bastan», suele decirse en el ámbito de la ciencia, pero también es cierto que sin evidencias no somos nada. Por eso, el científico que sube a su torre a elucubrar sin haberse asomado a la ventana está construyendo quimeras. Luego baja y se da cuenta de que tiene que quemar todos sus papeles.
¿Y en el caso del bien moral?
Ocurre algo parecido. Antes de ponerse a pensar qué es lo bueno, cómo puede comportarse mejor o cómo puede proteger no sé qué valle del Pirineo, uno debe tener la experiencia moral. Es decir, la experiencia de bien. Es algo que tiene mucho que ver con la verdad y con la belleza. Cuando alguien está frente a algo hermosísimo, como un hijo recién nacido, tiene deseos de cantar, de decir «aquí está la verdad, lo auténtico». Al mismo tiempo, ve que eso que observa es bueno y bello.
Esa es la experiencia que te lleva luego a querer conocer más a tu hijo, a acompañarle, corregirle, aconsejarle… Aristóteles decía que ningún libro de ética le ha hecho bien a nadie. Lo decía -él que había escrito la impresionante Ética a Nicómaco- refiriéndose a que leer algo sobre esta cuestión no es suficiente. La reflexión no basta para ser ético; lo primero es la experiencia, que comienza con la contemplación. Los científicos y los filósofos tienen que salir más a la calle y contemplar, porque la reflexión no se basta por sí misma.
Por supuesto, la percepción moral te puede engañar, como las evidencias, y entonces entra la reflexión. Ahí es donde puede ayudarte mucho la inteligencia artificial.