Apariencias (Enrique Estellés, Las Provincias)

Apariencias (Enrique Estellés, Las Provincias)

Noticia publicada el

A finales del siglo XIX, un profesor de matemáticas retirado sorprendió al mundo entero enseñando a un caballo a realizar cálculos matemáticos. Wilhem von Osten, que así se llamaba el profesor, sentía fascinación por la inteligencia animal por lo que decidió enseñar matemáticas a animales de diferentes especies. Tras varios intentos fallidos, y tras trabajar durante dos años con su caballo Hans, por fin tuvo éxito.

El caballo se comunicaba mediante el golpeteo de uno de sus cascos. Ante una suma determinada, golpeaba sus cascos un número de veces concreto que sorprendentemente se correspondía con el resultado de la operación planteada. 

Este hecho causó una gran sensación, publicándose en periódicos internacionales como el New York Times, y atrajo a personas de todos los rincones del mundo que se acercaban a verlo, en una serie de giras que realizaron para dar a conocer el extraordinario logro. Al fin y al cabo, era el primer caballo inteligente.

Ante un hecho tan sorprendente, era necesario comprobar que el profesor Wilhem y Hans no hacían ninguna trampa. En un primer momento, y tras minuciosos exámenes, un grupo de expertos no fue capaz de identificar ningún tipo de comunicación entre entrenador y animal que pudiera indicar algún tipo de engaño.

Sin embargo, dos de estos investigadores, cuestionados todavía por semejante logro, siguieron investigando y haciendo diferentes pruebas. De esta manera, se dieron cuenta de que, cuando el entrenador no conocía la respuesta a la pregunta que hacía o se encontraba lejos del animal, este no acertaba con el golpeteo de los cascos.

Lo que acabaron descubriendo es que el entrenador realizaba de manera inconsciente señales que indicaban al caballo que había realizado el último golpeteo necesario para dar una respuesta correcta. Por lo tanto, el caballo no sabía sumar, sino que era capaz de identificar cuándo debía detener el golpeteo de sus cascos.

A este conjunto de pistas involuntarias, que da un entrevistador a los participantes de un experimento, influyendo en sus respuestas, se le denomina sesgo de expectativa o efecto “Hans clever” (en honor al “inteligente” animal). 

La moraleja de esta historia es que, en ocasiones, algo no tiene por qué ser inteligente para que las personas creamos que lo es. Muchas veces solo es necesario que lo parezca. Y esto es lo que sucede actualmente con la Inteligencia Artificial.

Sin quitar ni un ápice de mérito a los sorprendentes resultados que se están obteniendo con, por ejemplo, los modelos de lenguaje como GPT o los generadores de imágenes como Dall-E, es muy importante tener claro que la IA no es inteligente.

¿Y por qué es importante ser conscientes de esta carencia de inteligencia? Porque hacerlo es fundamental para relacionarnos con la IA de manera adecuada. 

Un ejemplo. Los modelos de lenguaje que más de 100 millones de usuarios utilizan en el mundo (incluido yo), no dejan de ser sistemas que calculan la probabilidad de que una palabra aparezca en una frase junto con otra serie de palabras. El proceso completo es más complejo, pero aun así no implica un pensamiento, razonamiento o inteligencia. Implica cálculos matemáticos.

Eso no evita que estos modelos generen texto generalmente coherente y contextualmente relevante. Por este motivo, si no conocemos la temática de lo que hemos preguntado tenderemos a pensar que su respuesta es correcta… porque lo parece. Y cuando aporten datos falsos o den respuestas incorrectas (denominadas técnicamente “alucinaciones”), seguiremos creyendo que son respuestas correctas… porque lo parecen.

De esta manera, estableceremos de manera equivocada una relación de confianza con un sistema que, como dice OpenAI (la empresa que lo desarrolló), puede “producir información imprecisa sobre personas, lugares o hechos”. Y no es culpa de la IA. Estos modelos de lenguaje no están diseñados para buscar y decir la verdad, sino para imitar el lenguaje humano.  

Si se hubiera tenido esto último en cuenta, se habría podido evitar el caso de Tessa. Este era un chatbot creado por la Asociación Nacional de Trastornos de la Alimentación americana que se utilizó para gestionar una línea de ayuda, sustituyendo a un grupo de trabajadores. Lo que sucedió es que comenzó a dar consejos que fomentaban aquellos trastornos de alimentación que debía ayudar a evitar.

Y es que establecer esta relación adecuada con la IA es difícil. Y se hace más difícil aún tras escuchar declaraciones públicas, como la de los directivos de Microsoft, asegurando que habían visto “destellos de inteligencia” en GPT-4, o la de un ingeniero de Google, que afirmaba que una IA sobre la que estaba trabajando era capaz de sentir. 

Por lo tanto, si somos conscientes de esa falta de inteligencia y de las limitaciones propias de estos sistemas, seremos capaces de relacionarnos correctamente con la IA y, en palabras del filósofo Emmanuel Mounier, no exigirle virtudes que no tiene y no reprocharle no dar lo que no tiene que dar.

 

Documents to download

Noticia anterior_ No me llame Ternera (Carola Minguet, Religión Confidencial)
Noticia siguiente El sínodo más femenino (Carola Minguet, Religión Confidencial)

Buscador de noticias

Calendario

«diciembre de 2024»
lu.ma.mi.ju.vi.sá.do.
2526272829301
2345678
9101112131415
16171819202122
23242526272829
303112345

Últimas noticias publicadas