Estás leyendo
Apoyo a la propuesta española en la regulación de la Inteligencia Artificial

Apoyo a la propuesta española en la regulación de la Inteligencia Artificial

  • Investigadores y think tanks respaldan la propuesta española en la Ley de IA de la UE, enfatizando la gestión de riesgos en modelos fundacionales. Esta postura, destacada en una carta abierta, contrasta con la autorregulación promovida por Francia, Alemania e Italia, marcando un punto crucial en el debate regulatorio.
Carta abierta para apoyar el enfoque de gestión de riesgos de los modelos de fundaciones españolas para la Ley de IA de la UE

En medio de un acalorado debate sobre la legislación de la (IA) en la Unión Europea, Francia, Alemania e Italia propusieron recientemente un “modelo de autorregulación obligatoria” para los modelos fundacionales de IA.

Esta estrategia ha provocado un intenso debate sobre la idoneidad y eficacia de la IA. La propuesta tiene como objetivo dar a las empresas de IA un mayor control sobre sus propios modelos y contrasta con otras opiniones dentro de la UE.

Ahora, en un giro inesperado, y probablemente impulsado por la reciente crisis de OpenAI, un grupo de destacados investigadores, grupos de expertos y organizaciones de la sociedad civil han expresado su apoyo a la propuesta de la Presidencia española de un enfoque más estructurado para la gestión de riesgos en el modelo básico de la de la UE.

Este apoyo pone de relieve un cambio en la percepción sobre cómo deberían regularse estas tecnologías avanzadas y complejas y marca un momento clave en el debate sobre la regulación de la IA en Europa.

Una carta abierta a los eurodiputados europeos destaca el enfoque multinivel promovido por España, que atribuye la responsabilidad a los desarrolladores de los modelos básicos. Esta posición contrasta con las recientes propuestas de autorregulación obligatoria promovidas por Francia, Alemania e Italia, que han sido objeto de debate político y académico.

Los firmantes, incluidos Yoshua Bengio y Gary Marcus, destacan el perfil de riesgo único de los modelos básicos de IA. Argumentan que estos modelos difieren significativamente de la IA tradicional en términos de generalidad, costo de desarrollo y capacidad de actuar como un único punto de falla para múltiples aplicaciones.

Esta caracterización sugiere un enfoque más integrado y completo para la gestión de riesgos que va más allá de los esfuerzos no regulatorios actuales, como el Código de Conducta del G7 y la Orden Ejecutiva de la Casa Blanca sobre IA.

La carta también enfatiza que las regulaciones aplicables al modelo de corporatización, lejos de ser gravosas para la industria, brindan una protección esencial tanto para la industria de la UE como para los ciudadanos europeos.

Los firmantes enfatizan que los riesgos sistémicos inherentes a estos modelos requieren una gestión basada en riesgos en manos de quienes tienen la capacidad y eficiencia para abordarlos.

Te puede interesar
Redes inalámbricas multigigabits

Este apoyo a la propuesta de España llega en un momento crítico para la legislación de la UE sobre IA. La necesidad de un marco regulatorio equilibrado que tenga en cuenta la presencia global del modelo de corporativización nunca ha sido más clara.

La propuesta española se centra en umbrales de TI y estándares medibles, ofreciendo soluciones prácticas que equilibren la innovación con una gestión eficaz del riesgo.

La carta abierta y el apoyo de estas organizaciones y figuras de alto perfil reafirman el liderazgo de Europa en el establecimiento de estándares de IA.
También enfatiza la importancia de resistir los intereses del lobby para proteger los procesos democráticos en la formulación de políticas.

El creciente apoyo a la propuesta de España refleja un consenso emergente en la comunidad científica y técnica sobre la necesidad de un enfoque regulatorio más estructurado y responsable para la gestión de modelos basados ​​en IA.

La evolución del debate regulatorio de la IA en la UE es un paso importante hacia el desarrollo y la implementación responsables de estas tecnologías, con implicaciones que se extienden más allá de las fronteras de Europa.

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad