Los algoritmos también discriminan a los seres humanos: nosotros podemos impedirlo

Ciencia y más

Flickr/Mikemacmarketing.

Como seres humanos, deberíamos ser conscientes de que tenemos muchos sesgos que se ven reflejados en las decisiones que tomamos cada día. Este problema se extiende a nuestras creaciones, como sucede con la Inteligencia Artificial (IA). Los algoritmos pueden repetir prejuicios tan humanos como la tendencia a discriminar a partir del género y la raza.

Los algoritmos son fórmulas matemáticas supuestamente neutras y objetivas. Entonces, ¿cómo puede ocurrir esto?

El siguiente es solo un ejemplo. En 2018, una investigación demostró cómo los algoritmos también pueden ser racistas. Según el estudio, aquellas bases de datos compuestas por una mayoría de caras blancas (entre un 80 % y un 85 %) tienen un 34 % de riesgo de clasificar de forma errónea a las personas de color.

Este problema se vuelve dramático cuando afecta a la vida de las personas. Famoso es el caso del sistema COMPAS que determina si hay que conceder la libertad condicional a los detenidos en Estados Unidos. Aunque el algoritmo no use la raza como argumento de entrada, la precisión del sistema se ve afectada por las diferencias históricas entre blancos y negros y su relación con el crimen. Esto supone, al final, una injusticia para estos últimos por parte de un sistema que debería ser imparcial.

Estas consideraciones han abierto un debate sobre cómo programar algoritmos que respeten los criterios de equidad sin ser discriminatorios. El problema no es de fácil solución. Los programadores tienen que enfrentarse a cuestiones no solo técnicas, sino más bien legales. Durante su trabajo deben tener en cuenta las definiciones jurídicas y las leyes en vigor.

En Europa existe una preocupación por el tratamiento adecuado de los datos sensibles. El artículo 9 de Reglamento General de Protección de Datos (RGPD) establece que algunas categorías de datos personales merecen especial protección porque su tratamiento podría entrañar importantes riesgos para los derechos y las libertades fundamentales. Se consideran sensibles las opiniones políticas, las convicciones religiosas, la afiliación sindical y el tratamiento de datos genéticos, biométricos dirigidos a identificar de manera unívoca a una persona física, relativos a la salud y la orientación sexual de una persona.

¿Cómo deberíamos proceder a la hora de desarrollar sistemas de diagnóstico de enfermedades que usen de forma masiva datos sensibles?

Sin duda, habrá que contemplar la seguridad y privacidad de la información en la fase de diseño del sistema. Como demuestran los ejemplos anteriores, el tratamiento y el ciclo de vida del dato tienen un impacto directo sobre la precisión de cualquier algoritmo que se base en aprendizaje automático o en redes neuronales profundas. Por eso, muchos de los códigos éticos que se han desarrollado hasta ahora incluyen temas muy diversos entre los aspectos a tomar en cuenta.

La Alianza sobre Inteligencia Artificial para el Bienestar de la Sociedad y de las Personas identifica seis áreas de acción: la seguridad, la transparencia, el trabajo, la colaboración entre humanos y máquinas, la manipulación social y el bien común.

Receta para una IA responsable

El 22 de mayo de 2019 la OECD adoptó sus Principios sobre la IA en los que se destacan los siguientes puntos:

  • La IA debe beneficiar a las personas y al planeta al impulsar el crecimiento inclusivo, el desarrollo sostenible y el bienestar.
  • Los sistemas de IA deben diseñarse de manera que respeten el Estado de derecho, los derechos humanos, los valores democráticos y la diversidad. También deben incluir las salvaguardias adecuadas –por ejemplo, permitir la intervención humana cuando sea necesario– para garantizar una sociedad justa y equitativa.
  • Debe haber transparencia y divulgación responsable en torno a los sistemas de IA para asegurar que las personas entiendan los resultados y puedan cuestionarlos.
  • Los sistemas de IA deben funcionar de forma robusta, segura y protegida a lo largo de su ciclo de vida y los riesgos potenciales deben ser evaluados y gestionados continuamente.
  • Las organizaciones y las personas que desarrollan, despliegan u operan sistemas de IA deben ser responsables de su correcto funcionamiento de acuerdo con los principios antes mencionados.

Cuestión de ética

Como podemos constatar leyendo estos principios, hablar de ética de la IA va más allá de la filosofía moral. El debate abarca todas las áreas de ciencias sociales, desde las políticas públicas y la economía, pasando por los mecanismos de gobernanza y las instituciones que velen por el respeto de los derechos humanos.

Aquí cabe destacar el sondeo de opinión que la iniciativa Moral Machine ha realizado para pulsar la aceptación social de los niveles de toma de decisión en vehículos autónomos.

El estudio recomienda evitar la tentación de otorgarnos una superioridad moral que nos lleve a definir de modo unilateral los cimientos de una IA ética. Hará falta el encuentro de muchas áreas de conocimiento experto, diálogo y cruzar los confines de las disciplinas en pos de marcos estables de reflexión que ayuden a despejar las dudas sobre nuestra capacidad de desarrollar IA para el bienestar de la humanidad.The Conversation

Sobre la autora

Sara Degli-Esposti, Research fellow, Centro de Ciencias Humanas y Sociales (CCHS – CSIC)

Este artículo fue publicado originalmente en The Conversation. Ir al artículo original.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *.

Este sitio está protegido por reCaptcha y se aplican la Política de privacidad y los Términos de servicio de Google