Estás leyendo
La Eurocámara, lista para negociar la primera ley sobre inteligencia artificial

La Eurocámara, lista para negociar la primera ley sobre inteligencia artificial

  • Prohibición total de la inteligencia artificial (IA) para la vigilancia biométrica, el reconocimiento de emociones y los sistemas policiales predictivos.
  • Obligación de precisar cuando el contenido ha sido creado por sistemas generativos como ChatGPT.
  • Los eurodiputados consideran de alto riesgo los sistemas de IA utilizados para influir sobre los votantes en las elecciones.
Inteligencia Artificial

El adoptó el jueves su posición negociadora sobre la  Ley de (IA)  por 499 votos a favor, 28 en contra y 93 abstenciones. Con ella irá a las conversaciones con los Estados miembros de las que saldrá el texto definitivo de la ley.

La normativa deberá garantizar que la IA desarrollada y utilizada en Europa se ajuste plenamente a nuestros derechos y valores, respetando requisitos como la supervisión humana, la seguridad, la privacidad, la transparencia, la no discriminación o el bienestar social y medioambiental.

Prácticas prohibidas

Las normas están enfocadas a prevenir riesgos, y fijan unas obligaciones para los proveedores y los que despliegan herramientas basadas en IA en función del nivel de riesgo que pueda presentar la inteligencia artificial.

Los sistemas de IA que presentan un nivel inaceptable para la seguridad de las personas, como los utilizados para sistemas de puntuación social (clasificar a las personas a partir de su comportamiento o características personales), quedarían totalmente prohibidos.

Los eurodiputados han ampliado la lista propuesta por la Comisión Europea, añadiendo prohibiciones que se refieren a los usos intrusivos y discriminatorios de la IA, como por ejemplo:

  • los sistemas de identificación biométrica remota, en tiempo real, en espacios públicos;
  • los sistemas de identificación biométrica remota, a posteriori, con la única excepción de usos policiales en investigaciones por delitos graves y con autorización judicial;
  • los sistemas de categorización biométrica que utilicen ciertas características identitarias (por ejemplo el género, la raza, la etnia, el estatus de ciudadanía, la religión o la orientación política);
  • los sistemas policiales predictivos (basados en la elaboración de perfiles, la ubicación o el historial delictivo);
  • los sistemas de reconocimiento de emociones por las fuerzas de seguridad, en la gestión de fronteras, los lugares de trabajo o las instituciones de enseñanza; y
  • el rastreo indiscriminado de imágenes faciales sacadas de Internet o de circuitos cerrados de televisión para crear bases de datos de reconocimiento facial (que violan los derechos humanos y el derecho a la intimidad).

Inteligencia artificial de alto riesgo

Los eurodiputados se han encargado de que la clasificación de las aplicaciones de alto riesgo incluya también los sistemas de IA que puedan afectar significativamente al medio ambiente o a la salud, la seguridad o los derechos fundamentales de las personas. Se han añadido a la lista los sistemas de IA utilizados para influir en los votantes y el resultado de las elecciones y en los sistemas de recomendación utilizados por las plataformas de redes sociales (con más de 45 millones de usuarios).

Todo el mundo nos mira hoy. Mientras que las grandes tecnológicas alertan sobre las consecuencias de sus propias creaciones, Europa ha tomado la iniciativa y propuesto una respuesta concreta a los riesgos que empieza a general la IA. Queremos que el potencial positivo de esta herramienta para la creatividad y la productividad esté bajo control. Defenderemos nuestra posición, en aras de la democracia y las libertades, durante las negociaciones con el Consejo.Brando Benifei (S&D, Italia)

Obligaciones para la IA de uso general

Los proveedores de modelos fundacionales —una innovación en el ámbito de la IA que avanza rápidamente— tendrán que evaluar y mitigar los posibles riesgos (para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de Derecho) y registrar sus modelos en la base de datos de la UE antes de comercializarlos en la UE.

Los sistemas de IA generativa basados en esos modelos, como ChatGPT, tendrán que cumplir unos requisitos adicionales de transparencia —identificar el contenido como generado por IA, para ayudar, entre otras cosas, a distinguir las falsificaciones de las imágenes auténticas— y estar diseñados de forma que no puedan generar contenido ilegal. Además, deberán publicarse resúmenes detallados de los datos protegidos por derechos de autor que han sido utilizados para su desarrollo.

Te puede interesar
¿Qué es un AI PC? - La Ecuación Digital

Apoyar la innovación y proteger los derechos individuales

Para impulsar la innovación en IA y apoyar a las pymes, los eurodiputados añadieron como excepciones los proyectos de investigación y los componentes de IA suministrados con licencias de código abierto. La nueva ley promueve los llamados «espacios controlados de pruebas», o entornos reales en los que las empresas pueden probar la inteligencia artificial bajo la supervisión de las autoridades públicas antes de salir al mercado.

Por último, la Eurocámara quiere facilitar a los ciudadanos la presentación de reclamaciones sobre estos sistemas y la obtención de explicaciones sobre decisiones generadas por sistemas de alto riesgo que menoscaben significativamente nuestros derechos fundamentales. Los eurodiputados también han reformado el papel de la Oficina Europea de Inteligencia Artificial, que se encargaría de supervisar la forma en que se aplica el código normativo sobre IA.

La Ley sobre inteligencia artificial marcará el rumbo a nivel mundial para el desarrollo y gobernanza de esta herramienta, garantizando que la tecnología que transformará nuestras sociedades de manera radical evoluciona y se utiliza de manera acorde con los valores europeos de democracia, derechos fundamentales y Estado de Derecho.Dragos Tudorache (Renew, Rumanía)

 

 

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad