¿Es la Inteligencia Artificial (IA) una herramienta objetiva, eficaz y neutral? ¿Qué consecuencias tiene su uso para la comunicación de la ciencia? ¿Cómo desarrollar una comunicación científica verdaderamente inclusiva? Estas y otras reflexiones se dieron en la jornada Género y comunicación de la ciencia 2025, celebrada en la Torre Iberdrola de Bilbao ante una audiencia de más de 1650 personas: 209 in situ y 1450 vía streaming.

Cátedra de Cultura Científica-EHU. Licencia CC BY-NC 4.0.
La gran protagonista de esta tercera edición fue la IA, en especial la IA generativa. En la conferencia de apertura, la periodista y autora especializada en ciberseguridad e inteligencia artificial, Esther Paniagua, recordó que la Inteligencia Artificial, como tal, no es inteligente, sino más bien se comporta como un «loro probabilístico que regurgita y reproduce contenido».
«El problema —añadió— es que, en ese proceso, incurre en sesgos».
Entre otras cosas porque, tal y como explicó Ujué Agudo, doctora en Psicología por la Universidad de Deusto, «la IA no siempre es eficaz, objetiva, ni neutral», ya que «la manera que tiene de ver el mundo se basa en la que posee su dueño».
Y eso se refleja en los sesgos algorítmicos, «especialmente en los de género, aunque también en otros: por ejemplo, los de etnia o edad», recordó Esther Paniagua, quien subrayó que el problema original se agrava debido a que, «al usar la IA para comunicar, podemos incurrir en el riesgo de reproducir, exacerbar y perpetuar esos sesgos». Y no todas las personas que la usan son siempre conscientes de ello. Este riesgo es particularmente grave cuando se calcula que, en el plazo de un año y medio, «el 90 % del contenido que habrá online será generado por IA».
Esta no es más que una de las consecuencias del uso de la IA para la comunicación de la ciencia. Paniagua nombró algunas más: «Pérdida de credibilidad y de confianza al caer en los sesgos de la IA, reducción del alcance del contenido que emitimos y de las interacciones, porque una parte de la población no se siente representada; distorsión o subrepresentación de las contribuciones científicas, e impacto reputacional».
La forma de decir y presentar las cosas importa
Durante la jornada se expusieron una gran variedad de ejemplos de sesgos de género en los que incurre la IA, que no solo aparecen cuando genera textos, sino también imágenes, vídeos o propuestas creativas. «Es una cuestión de cognición, no solo de palabras», subrayó Iraide Ibarretxe-Antuñano, catedrática de Lingüística General en la Universidad de Zaragoza.
En relación con el lenguaje, Laura Vela-Plo, doctora en Lingüística por la Universidad del País Vasco, recordó que «la forma en la que hablamos importa» y que «el lenguaje inclusivo puede ser motor de cambio social». Alertó al público presente de que «en general, cuando las personas leen fórmulas en masculino, tienden a imaginar varones».
Poco antes, el director de la Cátedra de Cultura Científica de la EHU, Iker Badiola, había expresado del siguiente modo la importancia del lenguaje a la hora de moldear la realidad: «La forma de decir las cosas incide en los valores, en la ilusión de la gente y en las perspectivas de la sociedad».
Por su parte, Iker Merchán, doctor en Periodismo por la EHU y codirector del Observatorio del Periodismo Machista, mostró «casos flagrantes de discriminación» en una serie de titulares publicados en los medios de comunicación que reflejaban sesgos machistas a la hora de comunicar, lo que le llevó a concluir que «si logramos cambiar el periodismo quizás contribuyamos a cambiar la sociedad».
Merchán incidió especialmente en tres de las nueve categorías que el Observatorio utiliza para clasificar los tipos de machismo: «Son las que más se repiten, y aparecen también en comunicaciones científicas: diferencias por la nomenclatura en el espacio público; uso redundante de la palabra mujer; y la invisibilización de los logros femeninos».

Cátedra de Cultura Científica-EHU. Licencia CC BY-NC 4.0
Una IA plagada de sesgos
En sus intervenciones, tanto Esther Paniagua como Ujué Agudo presentaron otros ejemplos de sesgos en los que incurre la Inteligencia Artificial.
Paniagua utilizó un informe de la UNESCO para referirse a algunos estereotipos ocupacionales, es decir, a ideas preconcebidas que asignan distintos roles y capacidades a hombres y mujeres en el entorno laboral. Según este informe, aún hoy existen «pruebas alarmantes de estereotipos de género regresivos que se corresponden con la imagen de las mujeres en el pasado» y que se reflejan en las diferentes variantes de la inteligencia artificial generativa. En la misma línea, mostró otro tipo de sesgos prevalentes en relación con el género, como la discriminación descriptiva al caracterizar a las mujeres y a los hombres.
Agudo mencionó los sesgos de automatización, a través de los cuales se tiende a delegar decisiones en la IA, sean correctas o incorrectas. Aportó ejemplos demoledores de esa realidad como el uso de la IA para decidir qué bombardear en Gaza, algoritmos para resolver quién es merecedor –o no– de una ayuda social, para calcular las probabilidades de reincidencia de un preso y decidir así sobre su libertad; o para tomar decisiones sobre qué puestos de trabajos son esenciales y, por lo tanto, cuáles prescindibles.
Todos estos ejemplos dieron pie a Lucía Ortiz de Zárate, investigadora en Ética y Gobernanza de la Inteligencia Artificial en el Departamento de Filosofía de la Universidad Autónoma de Madrid, para poner sobre la mesa «la necesidad de crear una IA feminista» ante el «sonambulismo tecnológico» en el que nos encontramos. Al respecto, alertó de que «los discursos de inevitabilidad o supuesta neutralidad de la Inteligencia Artificial nos llevan a la inacción».
Ortiz de Zárate se refirió también al mito de la neutralidad de la tecnología y matizó que «ser neutral no es algo deseable, puesto que todas las personas hablamos desde algún lugar, y en el camino hacia la igualdad de género no se puede ser tibio».
Propuestas para una comunicación científica inclusiva
Entonces, una vez conocidos los distintos problemas, riesgos y consecuencias de los sesgos de género que tiene o en los que incurre la IA, ¿cómo desarrollar una comunicación científica verdaderamente inclusiva? ¿Cómo convertir la comunicación en motor de transformación social? ¿Qué estrategias y acciones concretas pueden incidir en las dinámicas imperantes aún hoy?
Rafael Orbegozo, asesor de Presidencia de Iberdrola, condensó estas preguntas en una necesidad: «Algoritmo es una palabra masculina, pero tenemos que hacer lo posible para que no lo sea en la realidad».
A continuación, se recogen algunas medidas propuestas durante la tercera edición de la jornada Género y comunicación de la ciencia 2025:
- Ujué Agudo: «Investigar sobre cómo debe ser el proceso de supervisión de la Inteligencia Artificial y abrir el debate en torno a la toma de decisiones a través de esta tecnología».
- Gisela Baños: «Educar a las inteligencias artificiales, o enseñar a las personas a superar los sesgos». «El futuro no es un lugar al que vamos, lo estamos construyendo».
- Esther Paniagua: «Apliquemos el pensamiento crítico, cuestionemos los resultados y estemos pendientes de si hay sesgos de género. No abusemos de estas herramientas, confiemos en nuestro juicio objetivo, exijamos transparencia y auditorías; y actuemos con rigor y profesionalidad. La respuesta es educar».
- Lucía Ortiz de Zárate: «Desarrollar un sentido crítico hacia la tecnología, garantizar que las bases de datos de las que se alimentan los algoritmos son representativas y que los equipos de programadores son diversos».
Educación, transparencia, evaluación, supervisión, pensamiento crítico, desarrollo de algoritmos representativos de la diversidad y rigor y profesionalidad fueron las pautas más citadas para avanzar hacia una comunicación científica inclusiva.
De la importancia de la comunicación
Gotzone Barandika, vicerrectora de Transferencia e Internacionalización de la EHU, destacó la importancia de estas jornadas «para superar inercias que conviene revisar y presentar a las mujeres investigadoras como protagonistas, así como para adquirir herramientas para una comunicación científica más justa e inclusiva». Una comunicación de la ciencia que es, tal y como la caracterizó Clare Wilkinson, investigadora de la Universidad de UWE Bristol, «una práctica solidaria», aunque no siempre abarque como debería a todo el espectro comunicativo.
Al respecto, Patricia Sánchez Holgado y Laura Rodríguez Contreras, investigadoras de la Universidad de Salamanca, señalaron que «falta relación entre periodistas y científicas. Falta acercamiento por parte de los periodistas. Y hay un desconocimiento elevado del trabajo de las científicas».
Trabajo que, como quedó patente, no es valorado en demasiadas ocasiones, con contribuciones femeninas «borradas en beneficio de sus colegas masculinos» y con patrones de citación a mejorar, tal y como apuntó Susana Torrado, doctora en Comunicación Audiovisual y profesora en la Universidad de Murcia.
Aumentar la audiencia
La jornada finalizó con un último panel de discusión y reflexión que tenía como objetivo principal esbozar una «guía para comunicar más allá del círculo propio».
La matemática Marta Macho, profesora de la Universidad del País Vasco y editora del blog Mujeres con ciencia, y María Pilar Rodríguez, profesora e investigadora de Comunicación en la Universidad de Deusto, dirigieron esta última mesa, que contó con las aportaciones de la escritora Luisa Etxenike, el astrofísico Javier Armentia, la periodista Victoria Toro, el biólogo Oihan Iturbide, y los sociólogos Capitolina Diaz y Jorge Sola.
Luisa Etxenike recalcó que estos eventos atraen siempre al mismo tipo de público, «más que mayoritariamente femenino, y también adulto o maduro», e invitó a reflexionar sobre las repercusiones que esta realidad puede acarrear.
Marta Macho reforzó el mensaje y lanzó el debate: «Hay pocas jóvenes. Es un melón que hay que abrir». Además de remarcar la necesidad de atraer nuevos públicos a estos eventos, la matemática se refirió también a «la importancia de fomentar la diversidad, de la empatía y de la lucha permanente por la transformación social desde la comunicación científica».
Una prioridad democrática
Este último panel puso sobre la mesa otra pregunta fundamental: ¿La desigualdad de género afecta solo a las mujeres?
Luisa Etxenike insistió en que «esto afecta a toda la sociedad. Es la prueba del algodón de la salud democrática de una sociedad. Las cuestiones de género son una prioridad democrática».
María Pilar Rodríguez tiró del hilo de esta última respuesta: «Si pensamos en términos de democracia nos acercamos más a lo que queremos». La investigadora de Comunicación manifestó que aún hoy es imprescindible insistir en la idea de que «la igualdad no se ha conseguido. Hay una persistencia de la desigualdad extraordinaria». Rodríguez instó a «hacer que el género sea indispensable en muchas situaciones o lugares donde parece que no lo es» y propuso también que «cuando se decida un concurso público se penalicen los proyectos si el género no está contemplado».
Iker Badiola, director de la Cátedra de Cultura Científica de la EHU, aportó otra reflexión ligada también al concepto de democracia y que sirvió precisamente para realzar el valor y la importancia de iniciativas como la jornada de Género y comunicación de la ciencia: «Una sociedad más robusta en conocimiento científico es más democrática, igualitaria y justa. De ahí que el mensaje tenga que llevar implícitamente esos mismos valores».
Género y comunicación de la ciencia es una actividad de divulgación científica organizada por la Cátedra de Cultura Científica de la Universidad del País Vasco junto a Explora Proyectos, con el apoyo del Departamento de Ciencia, Universidades e Innovación del Gobierno Vasco, Iberdrola y EITB.
Firma
Cátedra de Cultura Científica-EHU y Unidad de Cultura Científica e Innovación-Euskampus Fundazioa.