Se ha celebrado en Madrid el Primer Foro de Inteligencia Artificial (IA) organizado por la revista Muy Interesante y patrocinado por Huawei, donde distintos expertos han hablado acerca de la relación entre inteligencia artificial y ética y moralidad, y han debatido sobre algunas de las preguntas que a la mayoría le vienen a la cabeza cuando se habla de IA.
Inteligencia artificial, ¿cuestión de ingeniería o de humanística?
Durante la jornada, Marcelo Soria, responsable de Estrategia de BBVA Data & Analytics, ha defendido que, a la vez que la IA se vaya acercando a la singularidad, tiene que dejar de ser una ciencia de la ingeniería para pasar a ser una ciencia humanista. “A la vez que vayan apareciendo máquinas que adquieran un comportamiento, tendremos que enseñarles unos valores que no están necesariamente dentro de la matemáticas o las ingenierías y que tienen más que ver con el humanismo. Tenemos que entendernos con la IA”, ha afirmado Soria.
En la misma línea, Nuria Oliver, doctora por el MIT y directora de Investigación en Ciencias de Datos de Vodafone, ha querido destacar el impacto transversal de la inteligencia artificial, que crea la necesidad de trabajar con equipos multidisciplinares donde no solamente estén implicados especialistas en informática y en IA, sino también expertos en ética, psicología, antropología, economía o derecho. Además, ha defendido la importancia de educar a la sociedad en materia de IA, ya que es una tecnología que en unos años estará presente en todos los ámbitos de nuestra vida.
El peligro de los robots asesinos
Con el desarrollo de la inteligencia artificial, la existencia de robots asesinos está cada vez más cerca, hasta tal punto que ya es un tema de interés para la ONU. En este sentido, Ramón López de Mántaras, director del Instituto de Inteligencia Artificial del Consejo Superior de Investigaciones Científicas (CSIC), se ha mostrado preocupado por las armas autónomas. “Hay principios, como el de descernimiento y el de proporcionalidad, que incluso para el ser humano son complicados, que no se pueden meter en una máquina y dejar que esta tome sus propias decisiones. Y, aunque eso se llevara a cabo, siempre quedaría la pregunta: ¿es digno delegar en una máquina la capacidad de matar?”.
Para Jesús Cardeñosa, doctor en Computación e IA por la UPM, “las máquinas no hacen nada que no se les diga que hagan, y por ello los aspectos éticos son fundamentales”. Cardeñosa ha defendido la idea de que la IA no es ni buena ni mala, sino que habría que ver “las intenciones de quien ideó un sistema para hacer un robot asesino”.
¿Puede la inteligencia artificial resolver el dilema del tranvía?
El clásico dilema ético del tranvía se ve actualizado en la era de la inteligencia artificial, sobre todo en los aspectos relacionados con el coche autónomo. José Manuel Nieves, periodista especializado en ciencias y nuevas tecnologías del diario ABC, no cree que la IA pueda resolver fácilmente este supuesto filosófico. Un estudio reciente realizado en cuarenta países mostró que las respuestas de los sujetos ante el dilema variaban dependiendo de su localización geográfica. Ante esta situación, Nieves se ha preguntado lo siguiente: “¿Cómo se programa una máquina para que actúe de una manera si los humanos cambiamos según el área geográfica?”
Nuria Oliver ha subrayado que ni siquiera los humanos hemos llegado a resolver este dilema, y además, “lo que digamos en frío no tiene validez, porque cuando estamos en la situación, no tomaremos una decisión racional y actuaremos de forma instintiva”. Para Oliver, va a ser muy difícil programar según qué cuestiones. “Yo creo que nadie sabe la respuesta. A veces los humanos tenemos dilemas éticos que no sabemos resolver, y suele haber una divergencia entre lo que pensaríamos que haríamos y lo que hacemos en realidad”, ha afirmado Oliver.