Estás leyendo
El control del sesgo y la transparencia, factores clave para una IA ética, inclusiva y confiable

El control del sesgo y la transparencia, factores clave para una IA ética, inclusiva y confiable

  • • El evento organizado por el Club CDO Spain & Latam en colaboración con SAS pone de manifiesto la importancia de conocer el impacto que los sistemas de IA tienen en la sociedad, así como sus avances en la regulación europea.
Inteligencia Artificial

La necesidad de implementar la IA en la nueva coyuntura socioeconómica española es cada vez mayor y esto ha propiciado que la  Estrategia Nacional de   cuente con una gran inversión pública de 600 millones para el periodo 2021-2023.

Sin embargo, el grado de impacto que la IA puede tener en las empresas y en la población es tan grande que la preocupación por su alcance o el efecto de las decisiones impulsadas por ella están cobrando cada vez más importancia.

Abordar el impacto que los sistemas de Inteligencia Artificial pueden tener en la sociedad, conocer los avances en la regulación europea y española sobre los requerimientos que deben de cumplir estos sistemas, y entender como la tecnología puede ayudar a minimizar estos riesgos, asegurando una Inteligencia Artificial más y confiable, ha sido el principal foco del evento organizado por y el Spain & Latam en colaboración con , compañía líder en analytics.

Impulsando el uso ético de la IA

Hacer un uso ético de la IA supone cumplir con diferentes aspectos y características, entre ellos promover y asegurar el bienestar humano y su autonomía, respetar la privacidad de los interesados, la calidad y la integridad de los datos, evitar y controlar sesgos injustos, incluir la accesibilidad y la participación de todas las partes interesadas sin discriminación alguna, y operar de manera confiable y segura.

Ya son varias las asociaciones públicas y privadas que establecen un conjunto cada vez más amplio de marcos para guiar el uso ético de la IA. La Unión Europea propuso el año pasado la primera legislación horizontal sobre la IA a nivel mundial, que establece normas para el desarrollo y el uso fiables de la IA de alto riesgo. En general, la legislación pretende avanzar en la transparencia, la responsabilidad y la protección del consumidor para todas las aplicaciones que requieran de esta tecnología.

La inteligencia artificial es uno de los motores principales de la innovación, la transformación digital y del crecimiento económico. Sin embargo, es necesario conocer si este tipo de inteligencia “no humana” y sus decisiones son justas, equitativas y respetan nuestros valores éticos y morales. Es difícil pensar en disponer de una inteligencia artificial confiable si no aseguramos que ésta se basa en unos principios que respeten nuestros valores éticos, nuestro bienestar social y medioambiental, que sea transparente y que asegure la diversidad y la no discriminación.Jesús Aguilera, responsable de preventa Analytics & IA y experto en AI Ethics en SAS Iberia.

En el ‘Libro Blanco sobre la Inteligencia Artificial' publicado en el año 2020, ya se marcaba como objetivo el promover su adopción, así como abordar los riesgos vinculados al uso de la misma. Junto a ello y por una serie de peticiones realizadas por el Parlamento Europeo y el Consejo, la propuesta de Reglamento tiene como objetivo primario el poder regular la gestión de los potenciales riesgos que pueden comportar los sistemas de IA, y conseguir de esta forma que sea una tecnología confiable.

Las empresas españolas, cada vez más concienciadas con los riesgos y los sesgos

Los sistemas de IA se han introducido en nuestro día a día de forma muy repentina, dejando sus implicaciones en el plano ético y moral a la vista de los directivos. Ya lo afirma el presidente del Club CDO Spain & Latam, Rafael Fernández “las empresas con comportamientos éticamente reprobables acabarán siendo expulsadas del mercado por la sociedad”.  Ahora, las compañías tienen una gran responsabilidad sobre el impacto que tiene la tecnología entre nosotros, y por ello deben comprometerse a desarrollar y utilizar la inteligencia artificial con transparencia e integridad pasa asumir tanto los beneficios como los posibles retos que puedan surgir de forma responsable”, concluye Fernández.

Te puede interesar
Europa

Por otro lado, el Intelligence Act de la Unión Europea sigue avanzando según lo previsto de cara a conseguir incorporar en los procesos de modelización los análisis necesarios para poder concluir que un modelo no incorpore sesgos que puedan perjudicar a clientes y ciudadanos. En este sentido, Ignacio Bocos García, director de Validación Interna y Riesgo de Modelos en CaixaBank comenta que “desde la óptica del análisis de sesgos, la clave del éxito es la disponibilidad de información suficiente para poder contrastar de manera robusta que los modelos arrojan resultados coherentes sin incorporar ningún sesgo”.

Por su parte, Joaquina Salado, Senior Manager CDO Telefónica – Responsible AI, afirma que “el uso responsable de la IA es parte del ADN de Telefónica. Nuestro objetivo es diseñar, desarrollar y aplicar una Inteligencia Artificial centrada en las personas. Por eso, aplicamos la ética durante todo el ciclo de vida del desarrollo de productos y servicios que incorporan la IA, usando un enfoque de Ethics by design, que incorpora valores, principios, medidas técnicas y organizativas. Nuestro modelo de gobernanza incluye unas figuras clave en la implementación de la IA Ética, los RAI Champions que promueven el uso responsable de la IA y un Comité de IA Ética formado por expertos en Inteligencia Artificial y otros aspectos como Privacidad, Seguridad y Responsabilidad Social Corporativa; cuya misión es evaluar posibles casos de riesgo”

Para concluir, Ubaldo González, CDO de Mapfre España, pone de manifiesto la importancia de la ética del dato para ir más allá de los requerimientos legales con el objetivo de garantizar siempre los máximos estándares de exigencia en la gestión del dato a lo largo de todo su ciclo de vida. “Dentro de cualquier iniciativa de ética del dato es fundamental trabajar el consentimiento, la transparencia, la privacidad, el análisis de sesgos y el desarrollo de iniciativas de “data for social good”.

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad