Seguro que conocemos a personas muy inteligentes, resolutivas, eficaces y brillantes por las que, sin embargo, no sentimos una simpatía especial, no nos inspiran como referentes. Ahora imaginemos que esas personas cometen pequeños errores de forma puntual o se muestran vulnerables en algún momento: ¿cambiaría nuestra percepción sobre ellas?
El efecto pratfall (un resbalón un tanto patoso)
La percepción del atractivo de una persona cambia cuando comete algún fallo. El efecto pratfall se produce cuando aumenta nuestra empatía hacia una persona porque muestra algún error. Sin embargo, este fenómeno psicológico tiene matices: cuando las personas son muy competentes y cometen algún fallo, esto hace que su atractivo percibido aumente. Pero cuando son personas promedio o mediocres, los errores que cometen no juegan a su favor.
Es decir, si se es muy perfecta mostrar algunas vulnerabilidades genera más atracción. Pero si no se es tan maravillosa, hay que estar muy pendiente de los resbalones.
![](https://mujeresconciencia.com/app/uploads/2025/02/cafe.jpg)
Elliot Aronson formuló este efecto después de realizar un experimento en el que observó el impacto del error en la atracción percibida. Utilizó a estudiantes masculinos de la Universidad de Minnesota, que visualizaron entrevistas en las que se hacían preguntas complicadas a dos actores: uno que respondía el 92 % de las preguntas de forma correcta, el listo, y otro que contestaba sólo algunas preguntas, el mediocre. Al acabar la entrevista, en algunos vídeos (para tener grupo de prueba y control), los actores tiraban por descuido una taza de café y se manchaban. Los resultados mostraron que el actor listo que cometía un error tirando el café aumentaba su atractivo mientras que el actor mediocre que acertaba pocas preguntas perdía atractivo percibido después del incidente. Los listos que se manchaban la ropa por descuido, los «pratfall», eran mejor considerados que los listos perfectos, los impolutos; después estaban los mediocres y, por último, los mediocres patosos.
Todos los voluntarios para este experimento eran hombres. ¿Podemos imaginar los mismos resultados del experimento con mujeres voluntarias? ¿Serían igual los resultados para inteligencias artificiales? Parece que estas últimas nos caen mejor y las aceptamos en nuestras vidas si las humanizamos, si cometen algún fallo.
La aparición de errores en una inteligencia casi perfecta
Los conceptos de «alucinaciones» o incluso «mentiras», usados en el campo de la inteligencia artificial, IA, son intentos por humanizarla a partir de sus fallos. De esta forma no descartaremos esta tecnología por ineficaz e inexacta, sino que la aceptaremos como un recurso muy eficaz, pero con errores, como nos pasa a todos, incluso a los mejores. No hay conciencia por parte de la máquina de mentir o engañar, sólo es márquetin.
Pero los fallos existen, los errores aparecen en el discurso de DeepSeek o ChatGPT y las invenciones de las máquinas nos inquietan. Los motivos pueden estar en su forma de trabajar. La tecnología que utilizan las IA se llama modelo extenso de lenguaje o LLM, y aprende analizando enormes cantidades de texto digital, incluidos libros, artículos y conversaciones en chats online. Identifican patrones en todos esos datos y los utilizan para crear una respuesta coherente.
ChatGPT no reproduce información falsa, sino que mezcla datos de diferentes estudios para generar una respuesta plausible. El problema de la veracidad no es sencillo; los sistemas operan con probabilidades y están diseñados para ser persuasivos, no veraces.
En la actualidad, las «alucinaciones» frecuentes se consideran uno de los mayores escollos de los grandes modelos de lenguaje. «Nadie en este campo ha resuelto el problema de las “alucinaciones”», ha declarado Sundar Pichai, CEO de Google y Alphabet, «Las inteligencias artificiales generativas inventan en momentos de incertidumbre».
Los programadores y las programadoras utilizan un proceso llamado «aprendizaje no supervisado» que significa que los datos que se utilizan para entrenar al modelo no están etiquetados. Después de alimentar al modelo con un corpus enorme de textos, lo que éste hace es intentar predecir la siguiente palabra en cada secuencia de palabras. Si la predicción del modelo es cercana a la palabra correcta, la red neural actualiza sus parámetros para reforzar esos patrones que llevaron a esa predicción. Este proceso de ensayo y error hace que el modelo aprenda de sus incorrecciones y vaya mejorando sus resultados. Algunos modelos pueden ir más allá y construir una especie de «modelo de realidad interno», y predecir así con más aciertos. Esta idea sigue siendo polémica, y todavía no se conocen los detalles técnicos exactos sobre cómo una IA descubre cuál será la próxima palabra dentro de esas redes neuronales.
Por lo tanto, cuando una IA «alucina», es porque está buscando información que no existe realmente en ese corpus de datos con el que lo han alimentado y para rellenar esos espacios en blanco utiliza palabras que suenen bien, que tengan coherencia, aunque no se correspondan con la realidad.
Investigadores de la Universidad de Oxford y OpenAI identificaron en 2021 dos tipos de falsedades que los modelos de lenguaje como ChatGPT pueden producir. Los primeros vienen de material inexacto que se encuentra en el conjunto de datos con el que fueron entrenados (como los sesgos), y los segundos surgen de las inferencias que hacen los modelos de situaciones específicas que no se encuentran en el material con el que se le entrena: estas son las «alucinaciones».
El uso de este término sugiere características humanas en la IA, o capacidad de tener conciencia de sí misma y también de equivocarse, como si pudieran tomar sus propias decisiones. Esto no es más que una antropomorfización que fomenta la mitología que sobrevuela a este sector. Pero estos modelos lingüísticos se alimentan de una cantidad ingente de conocimiento humano acumulado en la red. Esto está relacionado con el efecto pratfall y hace que aceptemos los robots y las máquinas considerándolos muy eficaces, pero con pequeños errores.
Otras formas de aumentar el atractivo
Hay maneras más sutiles de apoyarse en el fenómeno pratfall que no implican ni tirarse el café encima ni resbalar como un pato. En el mundo de la comunicación hay un modo de transmitir en el que el lenguaje es dominante, poderoso, el corporal y no verbal también, las palabras son precisas y el contenido es asertivo y tajante; es la comunicación powerful. Por el contrario, otras comunicadoras y otros comunicadores expresan dudas, se hacen preguntas en su relato, proponen e incluso muestran varias posibilidades; es la powerless. Ésta se basa en el efecto pratfall y se ha mostrado que incrementa el atractivo del discurso, siempre que se perciba la eficacia y la competencia de la persona que lo transmite.
También es muy inspirador hablar de los beneficios de algo en negativo: Phil Agnew lanzó una campaña para su podcast (Nudge), con dos variantes: en una decía por qué deberías escucharlo, usando un estilo positivo y dominante. En la otra, la que llamó variante pratfall, daba los motivos por los que no se debería escuchar y lo hizo con palabras amables, menos poderosas. La proporción de clics fue casi cinco veces superior en la variante pratfall.
Este fenómeno psicológico que demuestra que el atractivo percibido aumenta con pequeños errores puede ser de ayuda ante un perfeccionismo patológico. No es necesario mantener un nivel de excelencia en cada tarea. Sin embargo, en las mujeres no está tan claro este efecto. Quizá el motivo para no permitirnos un resbalón sea el estereotipo que perpetúa la creencia de que las mujeres tienen que demostrar su valía constantemente, su eficacia y sus logros sin errores. Un tropiezo y una caída puede que no les den un mayor atractivo como a ellos, como a científicos geniales y despistados con un calcetín de cada color.
Esta autoexigencia tan alta es un lastre y va muy unida al síndrome de la impostora. En un día como hoy, el de las mujeres y las niñas en la ciencia, podemos tener en cuenta que las referentes de nuestras alumnas no tienen por qué ser científicas extraordinarias. Es bueno que las niñas y las adolescentes conozcan las vulnerabilidades y los tropiezos en las biografías de sus científicas inspiradoras, al mismo tiempo que la pasión por la ciencia de todas ellas.
Referencias
- Alejandro Alija (2024). SLM, LLM, RAG y Fine-tuning: Pilares de la IA Generativa Moderna, Ministerio para la transformación digital y de la función pública, 9 septiembre 2024
- Elliot Aronson, Willerman, B., Floyd, J. (1966). The effect of a pratfall on increasing interpersonal attractiveness. Psychonomic Science, 4(6), 227–228
- Cintia Refojo Seronero, Las referencias sí importan, Mujeres con ciencia, 26 marzo 2023
Sobre la autora
Marta Bueno Saz es licenciada en Física y Graduada en Pedagogía por la Universidad de Salamanca. Actualmente investiga en el ámbito de las neurociencias.