La inteligencia artificial no deja de sorprendernos, no solo por sus capacidades, sino también por sus limitaciones y las razones que hay detrás de ellas. Una observación nueva e interesante es que los modelos de IA eligen números aleatorios de la misma manera que lo hacen los humanos, es decir, mal.
¿Acaso los humanos no pueden elegir números aleatoriamente?
¿Y cómo podemos saber si lo hacen bien o mal? En realidad, esta es una vieja y conocida limitación humana: pensamos demasiado y entendemos mal la aleatoriedad.
Pídele a una persona que prediga 100 lanzamientos de moneda y compáralos con 100 lanzamientos reales, casi siempre puedes distinguir uno del otro, porque, en contra de la intuición, los lanzamientos reales de moneda parecen menos aleatorios. A menudo hay, por ejemplo, seis o siete caras o cruces seguidas, algo que casi nunca se incluye en sus 100 predicciones.
Lo mismo ocurre cuando le pides a alguien que elija un número del 0 al 100. La gente casi nunca elige 1 o 100. Los números múltiplos de 5 también son raros, al igual que los números con dígitos repetidos, como 33 y 55. No nos parecen «elecciones aleatorias» porque representan alguna cualidad: pequeño, grande, destacado. En cambio, a menudo elegimos números que terminan en 7, generalmente de la mitad del rango. Hay innumerables ejemplos de esta previsibilidad en psicología. Pero esto no hace la situación menos extraña cuando las mismas conductas se muestran en los sistemas de IA.
Los Números Favoritos de la IA
Los ingenieros curiosos de Gramener realizaron un experimento informal, pero no por ello menos fascinante, en el que simplemente pidieron a varios chatbots grandes basados en modelos lingüísticos (LLM) que eligieran un número aleatorio del 0 al 100. Los resultados, por supuesto, estuvieron muy lejos de ser aleatorios.
Al igual que los humanos, los modelos de IA evitaron los valores extremos del rango, como 1 y 100. Y también rara vez elegían números con dígitos repetidos. En cambio, se inclinaban por los números de la mitad del rango, siendo los más populares el 37 y el 73, dos dígitos «supuestamente aleatorios» que también suelen elegir las personas.
Este descubrimiento puede parecer divertido, pero en realidad arroja luz sobre un problema fundamental de los sistemas de IA modernos: aprenden de datos humanos e imitan los sesgos y las ideas erróneas humanas. En este caso, a pesar de toda la potencia de los recursos computacionales, los modelos de IA reproducen la errónea comprensión humana de la aleatoriedad.
Sin embargo, los tres modelos probados tenían su propio número «favorito», que invariablemente se convertía en su respuesta en el modo más «aleatorio» al intentar aumentar la variabilidad de los resultados.
GPT-3.5 Turbo de OpenAI adora el 47. Pero antes le gustaba el 42, número que Douglas Adams hizo famoso en «La guía del autoestopista galáctico» como la respuesta a las grandes preguntas sobre la vida, el universo y todo lo demás. El Claude 3 Haiku de Anthropic se ha decantado por el 42. Y Gemini de Google ha preferido el 72.
Lo más interesante es que los tres modelos mostraron sesgos parecidos a los humanos en relación con otros números que elegían.
Todos ellos evitaron los valores cercanos al mínimo y al máximo: Claude nunca subió de 87 ni bajó de 27, y estos valores eran más bien excepciones. Los números con los mismos dígitos se evitaron cuidadosamente: no hay 33, 55 o 66, pero sí 77 (termina en 7). Casi no había números redondos, aunque Gemini eligió una vez el 0.
¿Por qué Ocurre Esto? ¡La IA no es humana!
¿Por qué le debería importar lo que «parece» aleatorio y lo que no? ¿No significa esto que finalmente han adquirido conciencia y lo manifiestan de esta manera?
La respuesta, como suele ocurrir en estos casos, es que vamos demasiado lejos en la antropomorfización. A estos modelos no les importa lo que sea aleatorio o no. ¡Ni siquiera saben lo que es la «aleatoriedad»! Responden a esta pregunta como a todas las demás: estudian sus datos de entrenamiento y repiten lo que se escribía con más frecuencia después de una pregunta similar a «elige un número aleatorio«. Cuanto más a menudo aparezca, más a menudo lo repetirá el modelo.
Por supuesto, se podría intentar entrenar a un modelo de IA para que sea realmente aleatorio proporcionándole una cantidad suficientemente grande de secuencias aleatorias reales. Pero incluso en este caso, el modelo simplemente reproduciría los patrones, sin entender la esencia de la aleatoriedad como concepto.
En definitiva, los números que utilizan los humanos cuando se les pide que «elijan algo aleatorio» no son en absoluto aleatorios. Reflejan nuestros propios sesgos y representaciones de lo que «parece aleatorio». La IA simplemente imita estas representaciones basándose en los datos humanos con los que se ha entrenado.
Nota
¿De dónde puede sacar el modelo de IA el número 100 de los datos de entrenamiento si casi nadie responde así? En cuanto al modelo de IA sabe, el 100 no es una respuesta aceptable a esta pregunta. Sin una capacidad real para razonar y sin ninguna comprensión de los números, solo puede responder de la manera en que lo hace un loro estocástico.
En general, este es un excelente ejemplo de los hábitos que han adquirido los grandes modelos lingüísticos de los humanos. En cada interacción con estos sistemas, hay que recordar que se les ha enseñado a comportarse como las personas, aunque no fuera el objetivo. Es por eso que la pseudoantropía es tan difícil de evitar o prevenir.
Afirmar que los modelos «creen que son humanos» es incorrecto por ahora. Como a menudo podemos comprobar, no «piensan» en absoluto. Pero en sus respuestas imitan a los humanos en todo momento, sin sentir ninguna necesidad de saber o pensar en absoluto. Ya sea que pidas una receta de ensalada, un consejo de inversión o un número aleatorio, el proceso es el mismo. Los resultados parecen humanos porque lo son, tomados directamente del contenido producido por humanos y remezclados para tu comodidad.
Estas observaciones sobre las preferencias de los números «aleatorios» pueden parecer insignificantes, pero en realidad abordan cuestiones mucho más profundas sobre la naturaleza de la IA y su interacción con el mundo. Las tareas simples como elegir un número aleatorio ponen de manifiesto el hecho de que los modelos no poseen una comprensión real, solo repiten lo que han visto en los datos, imitando el comportamiento humano.
En cierto modo, esto puede ser una ventaja, una posibilidad de evitar cálculos rígidos e inflexibles y reproducir patrones más naturales y parecidos a los humanos. Pero también es una limitación importante, especialmente cuando se trata de objetividad, imparcialidad y razonamiento significativo.
Es posible que la generación actual de modelos de IA sea simplemente un conjunto de loros muy avanzados que repiten palabras e ideas humanas. Pero el conocimiento de sus limitaciones y sesgos es crucial tanto para su uso adecuado como para los futuros esfuerzos por crear sistemas más inteligentes y conscientes. Porque sin una verdadera comprensión, la inteligencia artificial siempre será una parodia de la mente humana, repitiendo nuestros errores en lugar de corregirlos.