Hans, la inteligencia artificial

La inteligencia, en sentido propio, no consiste en producir resultados (ahí está mi Casio F82, que no falla), sino en aprehender la verdad de las cosas

A comienzos del siglo XX, en Alemania, un caballo llamado Hans se convirtió en una auténtica celebridad. Su dueño lo presentaba ante el público y le formulaba preguntas aritméticas en voz alta: sumas, restas e incluso operaciones algo más complejas. El animal respondía golpeando el suelo con la pezuña, una vez tras otra, hasta detenerse exactamente en el número correcto. El asombro era general. No pocos llegaron a la conclusión de que aquel cuadrúpedo era capaz de comprender los números y razonar como un ser humano.

Durante un tiempo, nadie supo explicar el fenómeno. El caballo acertaba con una regularidad sorprendente y parecía indiferente a quién le formulase la pregunta o a cómo se la planteasen. La impresión de inteligencia era tan fuerte que muchos dieron por hecho que se encontraban ante un caso extraordinario, una excepción que obligaba a replantear los límites entre el hombre y el animal. Atrás ya quedaban Bucéfalo, Marengo, el admirado Babieca o nuestro amado Rocinante; parecía que se habría paso la generación de la mula Francis.

Tanto era así, que la junta de educación alemana designó una comisión para investigar el espectáculo del caballo. El psicólogo Oskar Pfungst formó un panel de 13 personas (entre ellos él mismo), conocidas como Comisión Hans, reuniendo a lo más granado del momento para el caso: un veterinario, un gerente de circo, un oficial de caballería, varios profesores de escuela, y el director del zoológico de Berlín. Esta comisión concluyó en septiembre de 1904 que no había ningún truco en las respuestas de Hans.

Sin embargo, una investigación más atenta desmontó la ilusión. Y la primera sospecha fue que cuando su dueño desconocía la respuesta, el jamelgo compartía la ignorancia. Lo que hacía era detectar con enorme precisión pequeñísimos gestos involuntarios de las personas que lo observaban: una leve inclinación del cuerpo, una tensión casi imperceptible, un cambio mínimo en la expresión facial que se producía justo cuando se alcanzaba el número correcto de golpes. En ese instante, el caballo se detenía. No entendía el significado de los números ni realizaba operación mental alguna: Hans no sabía de matemáticas; Hans entendía a las personas… sin que ellas lo supieran (comisión se sabios incluida).

El animal había aprendido una correlación extremadamente fina entre estímulos y respuestas. No había en él comprensión, ni razonamiento, ni conocimiento conceptual. Solo reacción condicionada. La inteligencia no estaba en el caballo, sino la carencia de  la misma en quienes lo miraban. A este fenómeno se lo llamó desde entonces el efecto Clever Hans, y se convirtió en un ejemplo clásico del peligro de atribuir inteligencia donde solo hay comportamiento externo.

Este mismo error se repite hoy, con otros medios y un envoltorio mucho más sofisticado y de mejor apariencia (Hans no era un hermoso caballo cartujano), cuando se habla de inteligencia artificial.

Un caso moderno, bien documentado, lo ilustra con claridad. En un experimento de visión artificial, se entrenó a un sistema de inteligencia artificial para diferenciar imágenes de perros y lobos. Tras el entrenamiento, el modelo parecía extraordinariamente preciso: clasificaba correctamente la mayoría de las imágenes y superaba incluso el rendimiento de observadores humanos no expertos. Todo indicaba que la máquina había aprendido a distinguir las características propias de cada animal.

Pero al analizar con más detalle su funcionamiento, se descubrió algo inquietante. La inteligencia artificial no estaba identificando la morfología del lobo ni comparándola con la del perro. Lo que había aprendido, en realidad, era a detectar la nieve. La mayoría de las fotografías de lobos del conjunto de entrenamiento habían sido tomadas en paisajes nevados, mientras que las de perros no. Para la máquina, «lobo» significaba «fondo blanco». Cuando se le mostraba un perro sobre la nieve, lo clasificaba como lobo. Cuando se le enseñaba un lobo en un entorno distinto, fallaba.

La inteligencia artificial no entendía qué es un perro ni qué es un lobo. No distinguía especies. No captaba el concepto de animal salvaje o doméstico, ni siquiera la de animal. Había aprendido una correlación secundaria y accidental, y la utilizaba con una eficacia engañosa. Acertaba muchas veces, pero por el motivo equivocado.

El paralelismo con el caballo Hans es exacto. Así como el cuadrúpedo no sabía sumar, pero parecía hacerlo al reaccionar a señales invisibles para los humanos, la inteligencia artificial no sabe distinguir animales, pero parece hacerlo porque ha captado patrones contextuales que nosotros pasamos por alto. En ambos casos, el observador confunde el resultado con la comprensión.

Aquí reside el núcleo del problema contemporáneo. La inteligencia artificial puede ofrecer respuestas correctas, incluso brillantes, sin entender absolutamente nada de lo que hace, puede imitar el razonamiento humano sin razonar, puede manejar lenguaje sin poseer significado. El lenguaje, que en el hombre es expresión de la inteligencia racional, en la máquina es solo una interfaz estadística, una salida formal sin interioridad.

Cuando hoy se afirma que una inteligencia artificial «piensa», «entiende» o «razona», se incurre en el mismo error que llevó a creer que un caballo sabía matemáticas o que una máquina sabía distinguir lobos por su naturaleza. El fallo no está en la tecnología, como no estaba en el animal, no. El fallo está en el ser humano, que proyecta entendimiento donde solo hay correlación.

Y este error no es menor. Conduce a una degradación de la noción misma de inteligencia y, por comparación, a una confusión sobre lo que es una persona.

En ambos aparece el mismo error humano, recurrente y profundo: el abandonar su condición humana al confundir el acierto con el entendimiento, el comportamiento externo con la inteligencia interior. Allí donde hay una respuesta correcta, se imagina un sujeto que comprende. Y ese salto no es lógico: es absurdo e irracional.

La inteligencia, en sentido propio, no consiste en producir resultados (ahí está mi Casio F82, que no falla), sino en aprehender la verdad de las cosas. Entender no es reaccionar, ni calcular, ni imitar, ni moverse, ni armar frases coherentes, ni reproducir un sonido con tu nombre; es conocer lo que algo es, por qué es y para qué es. El animal adiestrado no entiende, sólo obedece en espera de una recompensa. La máquina no entiende tampoco, aunque acierte. Solo el hombre, dotado de razón, puede conocer los universales, formular juicios y ordenar sus actos conforme a fines conocidos.

Cuando atribuimos inteligencia personal a una máquina porque habla como nosotros, estamos degradando el lenguaje, reduciéndolo de expresión del pensamiento a simple mecanismo de respuesta. Y cuando reducimos el lenguaje, reducimos también la razón. El peligro no está en que la máquina se eleve demasiado (hecho imposible), sino en que el hombre se rebaje a sí mismo, aceptando una definición de inteligencia compatible con la ausencia de comprensión.

Este desplazamiento no es neutro. Si pensar se convierte en calcular, si entender se confunde con correlacionar, entonces la persona deja de ser un sujeto racional para convertirse en un sistema más complejo. Bajo esa lógica, la diferencia entre el hombre, el animal y la máquina ya no es de naturaleza, sino solo de grado. Y cuando las diferencias de naturaleza se borran, la dignidad humana queda sin fundamento sólido. Y este giro se está asimilando, no sólo entre los jóvenes, si no también entre la población en general.

Por eso la cuestión de la inteligencia artificial no es, en último término, una cuestión técnica, sino filosófica. No nos obliga a redefinir qué es la máquina, que no deja de ser eso: una máquina, sino a recordar qué es el hombre, cómo la usamos y como quieren que la usemos. La tecnología puede ser cada vez más poderosa, más rápida y más precisa, pero no por ello debemos caer sojuzgados bajo ella, y mucho menos depositar nuestras vidas en semejante trasto, ni en ese ni en ningún otro, porque ninguna acumulación de respuestas, por brillantes que sean, equivale al acto sencillo y radical de entender.

Pero, querido lector, no crea que está fuera de esta influencia. Sewell Setzer, de 14 años, inició en abril de 2023 una relación virtual con un chatbot de Character.AI que se identificaba como Daenerys Targaryen. Con el tiempo desarrolló una dependencia emocional, abandonó actividades, se deprimió y fue diagnosticado con ansiedad y trastorno disfuncional. En febrero de 2024, durante un diálogo final, el bot alentó frases como «ven a casa, mi rey» y Sewell respondió «¿Y si te dijera que puedo volver a casa ahora mismo?». Minutos después, Sewell se suicidó.

¡A mí no me va a pasar! Quizás no lleguemos a esos extremos… en esta sociedad disfuncional que aísla a los individuos y disuelve  la familia (en nuestros hijos o nietos, no confiaría tanto como no se pongan remedios desde ayer mismo), pero si usted consulta decisiones cotidianas con la IA…ya tiene un problema: está usted pidiendo consejo a la mula Francis.

No olvidemos esta distinción esencial, la inteligencia artificial seguirá siendo lo que debe ser: una herramienta al servicio de la razón humana, y no un sustituto de ella.

Roberto Gómez Bastida, Círculo Tradicionalista de Baeza

Deje el primer comentario

Dejar una respuesta