Con la Ley de AI de la UE, la La inteligencia artificial y la gobernanza de la IA están más que nunca en el punto de mira de los responsables políticos y económicos de Europa. En abril de 2021, la Comisión de la UE, en el marco de la Estrategia de la UE para la IAun proyecto de Ley sobre Inteligencia Artificial (Ley de AI de la UE) y establecer así una primera propuesta de marco jurídico para el manejo ético de los sistemas de IA. Para los usuarios, el controvertido proyecto de reglamento encierra tanto oportunidades como riesgos. Con esta Publicar en nos gustaría ofrecer una visión concisa de las prioridades temáticas y los retos de la Ley de Inteligencia Artificial de la UE.
Ley de AI de la UE
La inteligencia artificial (IA) es una de las tecnologías que definen el presente y el futuro. Ya hoy, los procesos algorítmicos de toma de decisiones desempeñan un papel importante en la vida cotidiana de los ciudadanos europeos: al buscar en Google, al controlar los desplazamientos al trabajo, en el feed de Instagram o para conocer la solvencia de posibles clientes a golpe de ratón. Las instituciones públicas también están haciendo uso de los sistemas de IA. Recientemente, por ejemplo, el uso de los llamados Algoritmos de las oficinas de empleo, o un sistema sobre la predicción del abuso de prestaciones una gran indignación y la exigencia de fundamentos jurídicos.
Una cosa está clara: en la aplicación de los sistemas de IA, la línea entre lo (éticamente) correcto y lo incorrecto a menudo no está bien definida: el caso de uso específico es decisivo. Esto va de la mano de la creciente necesidad de muchos grupos de interés del mundo empresarial y científico de contar con un marco normativo y seguridad jurídica. Porque también está claro que el enorme potencial de los sistemas de IA quiere ser aprovechado.
Con el Estrategia de la UE para la IA incl. el Reglamento sobre IA, la UE está respondiendo al logro técnico de los modelos de datos complejos y la IA, así como a los retos socioeconómicos que están surgiendo con ella. Al mismo tiempo, el Reglamento sobre IA pretende marcar el rumbo del futuro de la digitalización en Europa y convertirse en un motor de innovación para una "IA made in Europe" activa a escala mundial.
Inhaltsverzeichnis
Ley de IA de la UE: la propuesta normativa en el punto de mira
¿Cuál es el objetivo del AIA?
La propuesta de reglamento sobre IA pretende garantizar que los europeos puedan confiar en lo que produce una IA y garantizar que los sistemas de IA puedan darnos seres humanos no hacer daño. Hay que preservar los derechos fundamentales existentes y los valores de la Unión y reforzar el cumplimiento efectivo de la legislación aplicable. Las personas y la seguridad jurídica son, por tanto, el centro de la propuesta normativa. Este Requisitos jurídicos y éticos se espera que tengan un impacto positivo, en particular en la promoción de la inversión en IA y el desarrollo del mercado interior de la UE.
¿Qué hay detrás?
Las Trusted AI Guidelines constituyen el núcleo de la propuesta de legislación de la UE sobre IA y fueron redactadas por un grupo de expertos designados por la Comisión Europea. Grupo de expertos en IA (HLEG) desarrollado. El marco se basa en los principios fundamentales de legalidad, normas éticas y sistemas sólidos de IA. Para vincular la legalidad y la ética, los principios éticos de las directrices se derivaron de los derechos fundamentales y se incorporaron en siete requisitos clave que deben cumplir los desarrolladores y usuarios de sistemas de IA.
- Acción humana y supervisión
- Diversidad, no discriminación y equidad
- Rendición de cuentas
- Transparencia
- Protección y gobernanza de datos
- Bienestar ecológico y social
- Solidez técnica y seguridad
En el mejor de los casos, estos requisitos deberían cumplirse ya en la fase de diseño de los sistemas de IA mediante preguntas específicas se tengan en cuenta y se pongan en práctica.
¿Cómo se define la IA?
La cuestión de qué es la IA no es nueva y dista mucho de estar universalmente aclarada. Sin embargo, este discurso en torno a la Ley de IA está experimentando una nueva explosividad. En particular, la insuficiente definición de los sistemas de IA fue un punto central de las críticas de las empresas y la ciencia. Esto se debe a que el término inteligencia artificial en el proyecto de ley de 2021 podría referirse a casi todas las formas de software.
La nueva propuesta de compromiso de la Presidencia checa de la UE intenta aclarar mejor la distinción entre sistemas de software clásicos. La propuesta actual establece que los sistemas desarrollados con la ayuda de enfoques de aprendizaje automático (ML), así como los enfoques basados en la lógica y el conocimiento, deben clasificarse como sistemas de IA.
En el texto completo dice lo siguiente:
sistema de inteligencia artificial" (sistema de IA): un sistema diseñado para funcionar con elementos de autonomía y que, basándose en datos y entradas proporcionados por una máquina o por un ser humano, deduce cómo alcanzar un determinado conjunto de objetivos utilizando el aprendizaje automático o enfoques basados en la lógica y el conocimiento, y produce resultados generados por el sistema, como contenidos (sistemas de IA generativa), predicciones, recomendaciones o decisiones, que influyen en los entornos con los que interactúa el sistema de IA.
En comparación con la propuesta anterior, se excluyeron los enfoques estadísticos, la estimación bayesiana y los métodos de búsqueda y optimización. Esto habría supuesto una definición muy amplia de la IA y difícilmente se habría podido aplicar en la realidad.
¿Cuál es la situación actual del proceso legislativo?
El 11 de noviembre de 2022, el Proyecto de Reglamento AI en su 5ª versión al Parlamento de la UE. El 6 de diciembre de 2022 se debatirá el procedimiento ulterior en el Consejo de Telecomunicaciones. El Consejo de la UE y el Parlamento de la UE deben llegar a un acuerdo para que el proyecto de ley entre en vigor. Se espera que estas negociaciones duren hasta principios de 2023.
Si no quiere perderse nada del actual proceso legislativo, puede unirse al Horario del tren legislativo seguir, de vez en cuando en nuestro datos.blog pásate o visita nuestro Boletín suscribirse. No cabe duda de que este tema nos acompañará durante algún tiempo.
¿A quién afecta?
Por regla general, si un sistema de IA puede dañar a un ser humano en la Unión Europea, entran en vigor los requisitos de la Ley de IA de la UE.
En concreto, desde el momento en que un sistema de IA se explota, distribuye o utiliza en el mercado de la UE (es decir, aunque el operador, proveedor o desarrollador estén establecidos fuera de la Unión), se aplican la Ley de IA y las posibles sanciones. Según la versión actual, el incumplimiento de los requisitos puede acarrear sanciones de hasta 30.000.000 de euros. € o 6% de facturación Ven.
¿Cómo debe aplicarse la Ley de IA?
En el proyecto de Reglamento sobre IA, el legislador define requisitos y obligaciones claros para desarrolladores, operadores y usuarios de sistemas de IA. En el centro de todo ello se encuentra un proceso de cumplimiento a lo largo del ciclo de vida de los casos de uso de la IA. Esto puede variar en función de las clases de riesgo definidas. R¿clases de riesgo? Exactamente, porque la Ley de IA de la UE sigue esencialmente un planteamiento basado en el riesgo. Esto significa que los casos de uso de la IA deben evaluarse en el marco de una autoevaluación y, a continuación, pueden asignarse a categorías de riesgo. La ley prevé una evaluación permanente de los casos de uso según el estado actual de la tecnología. A partir de ahí surgen requisitos concretos para los proveedores, operadores o usuarios del sistema de IA.
En consecuencia, las aplicaciones de IA pueden dividirse en cuatro categorías de riesgo diferentes:
- Sistemas de IA con un riesgo inaceptable
- Sistemas de IA de alto riesgo
- Sistemas de IA con riesgo limitado
- Sistemas de IA con riesgo mínimo o nulo
Sistemas de IA con un riesgo inaceptable
Según el artículo 5 de la Ley de IA de la UE, deben prohibirse las aplicaciones de IA que entrañen un riesgo inaceptable. Esta categoría incluye todos los sistemas que pueden contribuir a que las personas sufran daños psicológicos o físicos. Esto incluye, por ejemplo, las tecnologías que utilizan métodos de manipulación para influir en la conciencia humana. Del mismo modo, el uso de sistemas de IA por las autoridades para evaluar la fiabilidad de los ciudadanos, con el consiguiente empeoramiento o mejora de su situación, entra en esta categoría de riesgo. La Comisión de la UE pone así coto a la implantación de un sistema de crédito social basado en el modelo chino.
Sistemas de IA de alto riesgo
El ámbito de aplicación más significativo de la Ley de IA de la UE son los denominados sistemas de IA de alto riesgo. Los sistemas de IA de alto riesgo se definen como los utilizados en los siguientes ámbitos: identificación biométrica a distancia en tiempo real, componentes de seguridad de infraestructuras críticas (excepto en el ámbito de la ciberseguridad), servicios privados y públicos (por ejemplo, evaluación crediticia de personas), educación, fabricación de componentes de seguridad de productos (por ejemplo, en cirugía asistida por IA), aplicación de la ley y procesos democráticos, asilo y migración, y gestión de recursos humanos.
Todas estas aplicaciones pueden suponer un riesgo importante para la salud humana y la seguridad pública. Por ello, la Comisión de la UE insiste aquí en unos requisitos estrictos de gobernanza. Según la Ley de IA de la UE, entre los requisitos más importantes figura la implantación de un sistema de gestión de riesgos que evalúe de forma continua e iterativa la conformidad de los sistemas de IA. Para los proveedores, esto significa inicialmente que se requiere una auditoría inicial incluso antes del lanzamiento al mercado. Una vez que una nueva aplicación esté en el mercado, será objeto de un seguimiento continuo. Además, se implantará un sistema de notificación de incidentes y fallos de funcionamiento, que usuarios y proveedores deberán utilizar.
Además, la Ley de IA exige para los sistemas de alto riesgo: procedimientos de gobernanza de datos, documentación técnica permanente, registros de procesos de modelización de sistemas, obligaciones de transparencia e información para el usuario final, obligaciones de supervisión humana y garantía de exactitud, solidez y ciberseguridad. Todos los requisitos se describen en los artículos 8 a 15 del proyecto de ley sobre IA.
Yendo más allá, la nueva propuesta prevé que la IA de propósito general, es decir, modelos como GPT-3, DALL:E & Co. que pueden utilizarse para múltiples aplicaciones, se consideren sistemas de IA de alto riesgo. Esto supondría un esfuerzo considerable para un uso productivo y sería casi imposible para muchos casos de uso.
Sistemas de IA con riesgo limitado
Todos los sistemas de IA con obligaciones específicas de transparencia tienen un riesgo limitado según la Ley de Inteligencia Artificial. Por lo tanto, apenas están regulados por la Ley de IA. Un ejemplo de ello sería el uso de chatbots. Los usuarios deben ser conscientes de que se están comunicando con una máquina y no con un ser humano.
Sistemas de IA con riesgo mínimo o nulo
El uso de inteligencia artificial con un riesgo mínimo está permitido sin restricciones. Esto incluye, por ejemplo, filtros de spam o videojuegos con IA.
Críticas de la Asociación Federal de AI
La Ley de AI de la UE es el primer intento de regulación. Por ello, no es de extrañar que el borrador presente aún algunos puntos débiles. Numerosos grupos de interés ya han llamado la atención sobre las deficiencias existentes. En un amplio Declaración Por ejemplo, la Asociación Alemana de IA criticó grandes partes del proyecto de reglamento sobre IA. En general, ve la Ley de Inteligencia Artificial como una oportunidad para hacer una declaración progresista con la "IA made in Europe" y posicionar a Europa como un actor competitivo a nivel internacional. Sin embargo, cumplir los estrictos requisitos sería una carga enorme, especialmente para las PYME y las empresas de nueva creación. Una propuesta legislativa de este tipo podría incluso obstaculizar el desarrollo de la IA en estos ámbitos. Sin embargo, el principal punto de crítica de la Asociación Alemana de IA es la insuficiente claridad de la definición. Por ejemplo, el término inteligencia artificial en el texto de la ley podría referirse a casi todas las formas de software. Asimismo, las descripciones de las categorías de riesgo se han formulado de forma parcialmente engañosa.
La Asociación Alemana de Inteligencia Artificial también propone examinar más de cerca los factores de riesgo. Sin embargo, sería inadecuado poner a industrias y sectores enteros bajo sospecha general. Para facilitar el cumplimiento de los requisitos de los sistemas de IA de alto riesgo, se necesitaría, por ejemplo, una normativa específica para las PYME y las empresas de nueva creación. Normalmente, éstas no disponen de los medios financieros necesarios para garantizar una supervisión y documentación completas. Los ejemplos de buenas prácticas también serían útiles para hacer más comprensibles las directrices establecidas en la Ley de Inteligencia Artificial. De hecho, la Ley de Inteligencia Artificial de la UE no da ninguna idea de cómo los empresarios deben aplicar las directrices legales en la práctica.
Conclusión
La 5ª versión de la Ley de AI de la UE está siendo revisada y debatida por los eurodiputados. El 6 de diciembre, el Consejo de la Unión Europea decidirá el curso a seguir en el marco de la reunión sobre Telecomunicaciones. El proyecto de reglamento, basado en los riesgos, establece el marco jurídico necesario para un enfoque ético de la IA en una Europa digitalizada. Pero la Ley de Inteligencia Artificial está causando, con razón, malestar entre empresarios y grupos de defensa. El texto legal se centra principalmente en los sistemas de IA de alto riesgo, que no siempre están claramente definidos. Éstos están sujetos a numerosos requisitos legales, cuyo cumplimiento será probablemente una tarea difícil para las empresas jóvenes y más pequeñas. Así pues, en su forma actual, frenaría la innovación en el ámbito de la IA por parte de las PYME europeas y dificultaría a las grandes empresas la explotación de sistemas de IA productivos. Por lo tanto, es de esperar que se definan con mayor claridad las distintas áreas de riesgo de la IA y que la Ley de Inteligencia Artificial no se convierta en un freno a la innovación en comparación internacional.
0 comentarios