Desde smartphones hasta electrodomésticos, pasando por buscadores o asistentes virtuales, son muchos los softwares y dispositivos que dependen de la inteligencia artificial (IA), una herramienta que tiene un gran potencial para las empresas y la sociedad pero que desde el punto de vista ético ha levantado un debate: ¿puede la inteligencia artificial replicar todos los aspectos de la mente humana, hasta sus sesgos inconscientes? La respuesta es sí.
Prácticamente desde la implantación de la IA en la vida cotidiana se han registrado casos de sistemas y dispositivos con actitudes y funcionamientos que podrían calificarse perfectamente de sesgados e incluso discriminatorios. Uno de los sucesos más reconocidos, que aparece en el documental de Netflix «Sesgo codificado», se dio cuando la investigadora afroamericana del MIT, Joy Boulamnwini, tuvo que ponerse una máscara blanca para que un sistema de reconocimiento facial reconociese su cara. Y es que los diseñadores de esa solución solo habían tenido en cuenta principalmente los rostros blancos a la hora de desarrollar la herramienta.
En este sentido, el sesgo algorítmico se ha convertido en uno de los principales desafíos para las empresas productoras de soluciones IA, y prueba de ello es que el 65% de los directivos afirma ser consciente de estas tendencias discriminatorias en la inteligencia artificial, según un estudio de Capgemini.
El reto principal de estas empresas a corto plazo es desarrollar algoritmos y sistemas que no hereden las visiones y pensamientos enjuiciados y sesgados de sus desarrolladores. Algo que se presenta como un objetivo difícil si no se trabaja en mostrarles que tienen sesgos que influyen de forma rápida y directa en su trabajo. Es decir, la IA no es neutral, sino que aprende de todos los datos y la información que se le proporcionan, y eso hoy genera una desconfianza entre la población ante la falta de transparencia que frecuentemente la envuelve.
Para hacer frente a esta situación, desde Aiwin, servicio en la nube de videojuegos corporativos, han analizado las claves que influyen en la adopción de comportamientos discriminatorios por parte de la IA, definiendo las 5 posibles soluciones para afrontar este problema:
Contar con equipos diversos. Una de las principales razones por las que la IA no reconoce rostros de personas no blancas, como sucede con el ejemplo de Joy Boulamnwini, es que la mayoría de los equipos que hacen algoritmos son mayoritariamente hombres blancos que inconscientemente crean los programas a partir de los parámetros que conocen sin darse cuenta de a quién dejan fuera. Para hacer algoritmos que no caigan en estos errores es necesario contar con un equipo diverso y multidisciplinar, que sepa manejar y programar la tecnología siendo consciente de incluir todo el entorno social. La clave, en este sentido, es que estos desarrolladores sean conscientes de que la tecnología que desarrollarán no solo la van a usar personas que se parezcan a ellos física e intelectualmente. Lo que parece una obviedad, no es siempre tan sencillo de tener en cuenta.
Uso de datos no sesgados para formar a la IA. Otro ejemplo muy sonado de discriminación por parte de la inteligencia artificial se dio con Amazon, que hace unos años tuvo que retirar un software de reclutamiento de trabajadores por discriminar de sus ofertas en puestos técnicos a las mujeres. La razón de este comportamiento se debía simplemente a que el sistema de IA aprendió de los perfiles de solicitantes de empleo en los últimos años, que eran predominantemente masculinos. También es fundamental contar con una base de datos actualizada, representativa de todos los perfiles y que no esté sesgada, pues de ella se alimentará y aprenderá la inteligencia artificial.
Revisión periódica de los algoritmos. Al igual que es clave tener una base de datos actualizada y sin sesgos, también es muy importante monitorizar y analizar con cierta frecuencia la actividad de la IA para revisar que no está cayendo en posibles sesgos contra personas y/o colectivos concretos. Es decir, es más beneficioso que las personas tengan un control sobre los algoritmos a que la tecnología se regule a sí misma.
Mayor entendimiento de lo que implica la inteligencia artificial. Los principales expertos en IA consideran que el público general no tiene la suficiente confianza en esta tecnología, no solo por el efecto que pueden tener los sesgos en ella sino por el desconocimiento. Y es que las propias empresas y sus empleados no son realmente conscientes de sus beneficios y de sus riesgos. Por ello es clave revertir esta situación, y con una mayor comprensión del funcionamiento de la inteligencia artificial entre los altos directivos se promoverá un mejor entendimiento de las ventajas, de cómo aplicarla más efectiva y productivamente en el día a día, y las implicaciones morales de esta tecnología y cómo aplicarla efectiva y productivamente en el día a día.
Formación en sesgos inconscientes. Los diseñadores, desarrolladores y programadores codifican la realidad que perciben para crear las soluciones de inteligencia artificial. Y si su perspectiva está fuertemente influenciada por sus propios sesgos inconscientes, la herramienta también estará sesgada. Esta situación hace que la formación y sensibilización en sesgos de estos trabajadores sea cada vez más necesaria. Solo podrán desarrollar una IA confiable que no discrimine a nadie si son capaces de identificar y dominar sus sesgos inconscientes.
En esta línea, Sergio Jiménez, CEO de Aiwin, argumenta que “el desarrollo de productos y servicios digitales libres de sesgos y prejuicios se ha convertido en una prioridad para las empresas tecnológicas y digitales, y la formación y sensibilización en este tema resulta urgente para evitar situaciones de discriminación a través de la tecnología. Para ayudar en ese camino, desde Aiwin hemos desarrollado SHE, una solución de concienciación y formación en sesgos inconscientes en formato videojuego, con la que los empleados que desarrollan esos productos y servicios digitales pueden tomar consciencia de sus propios sesgos inconscientes y cómo estos afectan en su día a día”.