La inteligencia artificial (IA) se ha convertido en un tema ampliamente conocido en los últimos años, gracias al esfuerzo de las empresas por simplificar y transformar las avanzadas capacidades de los algoritmos de IA generativa en productos fáciles de usar, que los consumidores pueden disfrutar sin necesidad de contar con conocimientos técnicos especializados. En el plano de uso general, los expertos de la Unesco, Microsoft o Accenture abogan para que el gobierno y la democracia de la IA sea de los propios usuarios. La mayoría de las IA están bajo el poder de muy pocas empresas: ¿ha empezado la guerra por intentar acaparar la mayor capacidad de cálculo y también de suministro energético?
ChatGPT, cumplió dos años a finales de 2024, con el valor de democratizar el acceso a la IA. ¿Cómo de inteligente es la IA actual? Didier Mora Calderón, director de Estrategia de IA de Microsoft, considera que “éste es un nuevo momento de la IA y llegó para revolucionar todas las industrias, favoreciendo una mayor productividad, eficiencia y ahorro de costes para las empresas. No obstante, los riesgos de la tecnología son una carrera contra el tiempo”. En este sentido, ¿la IA debe ser regulada a nivel empresarial y gubernamental, proporcionando guías claras para su implementación? Microsoft basa su desarrollo de la IA en seis principios fundamentales: equidad, fiabilidad, privacidad, inclusión, transparencia y responsabilidad, dicen.
Durante más de una década hemos visto el trabajo de empresas de todos los sectores para incorporar el aprendizaje automático (Machine Learning) y la IA en sus servicios y productos, tanto a nivel interno como al cliente. Los beneficios potenciales pueden ser enormes en ambos frentes. No obstante, cuando las empresas intentan integrar la IA en su oferta hay que tener en cuenta tres desafíos principales. En primer lugar, en palabras de Leonardo Baldassini, al frente de la Factoría de IA del BBVA, está la madurez técnica. A pesar de la creciente comercialización de soluciones basadas en IA, las organizaciones que emprenden este camino pronto descubren que integrar la IA en sus productos, especialmente si buscan mantener la mayor «ownership» posible sobre ellos, requiere equipos de ingeniería maduros y bien rodados, sólidas capacidades de gestión de datos, estructuras equilibradas de gobernanza de datos y modelos, y el acceso a -y la capacidad de manejar- la infraestructura computacional adecuada.
El segundo desafío es la seguridad. Un fallo de seguridad en sus modelos o en la forma en que estos llegan al consumidor final puede causar suficientes daños reputacionales y financieros como para anular los beneficios prometidos por estas tecnologías. Por último, un tercer desafío es el talento: reclutar expertos técnicos en un mercado que, en los últimos 10 años, se ha vuelto cada vez más competitivo y que, con la creciente polarización, está operado por un grupo restringido de gigantes tecnológicos que avanzan en las tecnologías centrales de la IA. Las organizaciones también deben acompañar el grupo de talento técnico con equipos capacitados de gerentes, estrategas, diseñadores y especialistas en productos para que su visión en torno a la IA se materialice.
Nahum Sánchez de Lamadrid, director de Renta Variable en CBNK Gestion de Activos, explica que “es más que evidente que la IA supone una revolución tecnológica en toda regla, y además, el crecimiento de beneficios de las empresas tecnológicas sigue siendo de doble dígito y eso avala el re-rating en valoración, pero la clave a futuro es determinar la capacidad para monetizar esa oportunidad llamada IA, que suponga un paradigma en el avance económico mundial, aportando eficiencia en multitud de sectores e incremento de los beneficios empresariales, que se extienda mucho más allá de Nvidia o AMD”.
2027, el año cumbre de la IA general
Alberto Fernández, representante del ecosistema Qubic en Europa, considera que la IA es un arma poderosa con múltiples inteligencias unitarias que no tienen mucha relación entre sí. Se basan en capacidades específicas como matemáticas, lenguaje y razonamiento, pero no se integran de manera coherente como la inteligencia humana. Vaticina que “se espera que para 2027 se logre desarrollar una inteligencia artificial general (IAG) que combine todas estas habilidades”. Figuras influyentes como Elon Musk y ex empleados de OpenAI también predicen esta fecha para la llegada de la IAG, lo cual podría revolucionar la humanidad transformando sectores clave como el financiero, el educativo, el tecnológico o el empresarial, entre otros.
La IA avanza a pasos gigantes, pero los riesgos siguen latiendo debido a la centralización en manos de grandes empresas, lo que podría llevar a un control desproporcionado y uso indebido de los datos y del poder computacional, como por ejemplo en conflictos bélicos. “Es crucial establecer una gobernanza adecuada y asegurar que la IAG sea transparente y de código abierto, permitiendo la participación y mejora continua por parte de la comunidad global de investigadores y usuarios”, concluye Fernández.
Por su parte, Daniel Diez, profesor del Máster en Blockchain e inversión en Activos Digitales del IEB, advierte que, “aunque cierto es que la IA tiene el potencial de aumentar significativamente la eficiencia en la toma de decisiones, lo cual puede resultar en la automatización de diversas tareas tradicionalmente realizadas por trabajadores humanos, también implica riesgos inherentes que deben ser gestionados cuidadosamente. Uno de los mayores desafíos es la posibilidad de que la IA tome decisiones basadas en datos erróneos o sesgados”.
Para mitigar estos riesgos, es crucial implementar sistemas robustos de supervisión y auditoría que puedan identificar y corregir errores o sesgos en tiempo real. La neutralidad en la IA, asegurando que los algoritmos sean imparciales y accesibles, juega un papel fundamental. Además, es vital mantener un equilibrio entre la automatización y la supervisión humana, garantizando que las decisiones críticas siempre cuenten con un nivel de revisión adecuado. De esta manera, se puede aprovechar la eficiencia de la IA sin comprometer la calidad y la equidad en los procesos de toma de decisiones.
Desde la Unesco hacen un llamado a establecer un marco de gobernanza centrado en el ser humano. Su portavoz en esta materia, Giselle Burbano, resalta que la institución trabaja bajo el mandato de la Agenda 2030 de Desarrollo Sostenible, que pretende no dejar a nadie atrás en el uso de la tecnología y abordar las desigualdades y riesgos asociados con la IA, especialmente en regiones como América Latina, donde la desigualdad es alta.
En este sentido, la Unesco promueve la cooperación intergubernamental en América Latina para enfrentar los desafíos tecnológicos globales de manera unida. Se busca que los países latinoamericanos, a pesar de sus diferentes capacidades, adopten una posición común frente a los productores dominantes de tecnología, promoviendo la producción y desarrollo local de la inteligencia artificial. Este enfoque tiene como objetivo capacitar a las personas de la región y evitar que la tecnología sea impuesta desde otras partes del mundo, fomentando una voz fuerte y cohesiva en América Latina para defender sus intereses y desarrollar tecnologías éticas.
Tribuna de Cristina Murgas Aguilar, periodista y directora del Área de Comunicación Financiera e Institucional de QUUM