Las numerosas aplicaciones de la inteligencia artificial están provocando cambios muy profundos en nuestra sociedad y en nuestra forma de trabajar. Tanto es así que el mercado laboral, las relaciones entre empleados y firmas y los negocios que apuestan por innovar con esta tecnología están afrontando grandes retos y cambios en sus estructuras.
Esta revolución tecnológica tiene que traer consigo obligatoriamente cambios en las leyes o en los sistemas de seguridad social pero ¿cómo podemos garantizar que al final del todo la inteligencia artificial suponga una ventaja en nuestra sociedad y no un elemento que acabe con nuestros derechos más fundamentales?
En este contexto, es importante afrontar los retos desde una perspectiva multidisciplinaria dispuesta a elaborar nuevos códigos éticos que rijan las nuevas relaciones y mercados laborales que surgen.
Urs Rohner, presidente del Consejo de Administración de Credit Suisse Group y presidente del Credit Suisse Research Institute, comentó: “Los grandes datos y los avances en el poder de la informática han provocado una revolución tecnológica que tiene una enorme influencia en el lugar de trabajo y en el mercado laboral. Las máquinas y los robots están mejorando sus capacidades rápidamente a través de inteligencia artificial e innovaciones en diseño y estructura. La manera en que las empresas naveguen con estos cambios, mientras se aseguran que los clientes estén conectados, habilitados y protegidos, serán el desafío y la oportunidad que tendrán por delante».
Las tecnologías aplicadas al mercado laboral pueden llegar a ser muy útiles, siempre que se utilicen bajo un código ético y legal adecuado. Algunos procesos como el e-recruiting, e- profiling pueden aligerar mucho los procesos de selección pero puede que dejar fuera de la ecuación al factor humano sea peligroso, tal y como indica el informe elaborado por Credit Suisse “AI and the futurte of work”. Es importante que se preserve la dignidad humana ante todo y que no dejemos que las máquinas modelen el futuro por nosotros.
Denifir el uso de la inteligencia artificial
La Unión Europea puso en vigor en mayo de 2018 su nueva ley de protección de datos (GDPR), ya que el contexto tecnológico en el que nos movemos ahora exigía una actualización lo antes posible. En esta nueva regulación se reconoce que las personas tienen que tener el derecho a aceptar o no a ser el sujeto de una decisión tomada exclusivamente por una máquina, al igual que reconoce el derecho a la autodeterminación en cuanto al tratamiento de datos personales.
Asimismo, la igualdad del tratamiento de la información también es un factor clave, ya que un mal uso puede desembocar en decisiones injustas a la hora de contratar a alguien. Los detectores faciales puede elaborar categorías de gente basados en su sexo o raza y decidir quién es más óptimo para ocupar un puesto de trabajo. Al eliminar el criterio humano, esas decisiones pueden provocar procesos de selección discriminatorios.
Consolidar las relaciones laborales y el bienestar social en el umbral de la revolución digital
La seguridad social, el bienestar social, las leyes de empleo están enfrentándose a numerosos retos motivados por la revolución digital. Si el mundo cambia, las normas han de hacerlo también. ¿Cómo se tiene que adaptar la sociedad a estos cambios?
Respecto a la inteligencia artificial, los trabajadores necesitan saber qué sucede cuando un ordenador hace algo que no debía hacer, es decir, presenta soluciones automatizadas para las que no se había programado. Por ejemplo ¿qué pasaría si el sistema de e-recruiting hace un lanzamiento que podría ser discriminatorio? ¿en quién recae la culpa?
De acuerdo con las leyes existentes, el culpable sería la persona que controla el sistema. Los trabajadores tienen que tener conocimiento de que las consecuencias legales que puede generar una máquina probablemente recaigan en la persona que hay detrás.
En este contexto, los autores del informe señalan que sería bastante acertado introducir en los marcos legales de los países las siguientes aclaraciones: “La persona que controla un sistema automatizado es responsable de los daños causados por el sistema, a menos que demuestre que tomó todas las precauciones necesarias para evitar daños o que se habrían producido daños incluso si se hubieran tomado todas las precauciones necesarias, además la responsabilidad también se extiende a las infracciones de los derechos de la personalidad”. La segunda norma que los expertos proponen es que las declaraciones de dichos sistemas sean vinculantes para la persona que controla el sistema.
Para concluir Bettina Hummer, profesora de derecho social y alemán legal de la Universidad de Lausana, defiende que «los legisladores deben ser conscientes de las complejidades que rodean a la tecnología de la información y la inteligencia artificial y tratar de evaluar su ‘naturaleza’ para definir los objetivos que debe perseguir la regulación».