Entra en vigor la Ley Europea de IA: muchas penalizaciones se aplicarán el próximo año
Postado por Redacción Portal ERP España em 06/08/2024 em Portal TechLas prohibiciones de los sistemas de IA que se consideren un riesgo inaceptable ya se aplicarán después de seis meses, mientras que las normas para los llamados modelos de IA de uso general se aplicarán después los 12 meses.
Foto: Freepik. Portal ERP España.
Desde el primero de agosto ha entrado en vigor la Ley Europea de Inteligencia Artificial (AI Act), la primera regulación integral del mundo sobre inteligencia artificial. La Ley de IA está diseñada para garantizar que la IA desarrollada y utilizada en la UE sea confiable, con salvaguardias para proteger los derechos fundamentales de las personas. El reglamento tiene como objetivo establecer un mercado interior armonizado para la IA en la UE, fomentando la adopción de esta tecnología y creando un entorno propicio para la innovación y la inversión.
La Ley de IA introduce una definición prospectiva de IA, basada en un enfoque en la seguridad del producto y el riesgo en la UE:
Riesgo mínimo: la mayoría de los sistemas de inteligencia artificial, como los sistemas de recomendación habilitados para inteligencia artificial y los filtros de spam, entran en esta categoría. Estos sistemas no enfrentan obligaciones según la Ley de IA debido a su riesgo mínimo para los derechos y la seguridad de los ciudadanos. Las empresas pueden adoptar voluntariamente códigos de conducta adicionales.
Riesgo de transparencia específico: los sistemas de inteligencia artificial como los chatbots deben revelar claramente a los usuarios que están interactuando con una máquina. Ciertos contenidos generados por IA, incluidos los deep fakes, deben etiquetarse como tales, y los usuarios deben ser informados cuando se utilizan sistemas de categorización biométrica o de reconocimiento de emociones. Además, los proveedores tendrán que diseñar sistemas de manera que el contenido sintético de audio, vídeo, texto e imágenes esté marcado en un formato legible por máquina y detectable como generado o manipulado artificialmente.
Alto riesgo: Los sistemas de IA identificados como de alto riesgo deberán cumplir con requisitos estrictos, incluidos sistemas de mitigación de riesgos, alta calidad de conjuntos de datos, registro de actividad, documentación detallada, información clara para el usuario, supervisión humana y un alto nivel de robustez, precisión y ciberseguridad. Los entornos de pruebas regulatorios facilitarán la innovación responsable y el desarrollo de sistemas de IA compatibles. Estos sistemas de IA de alto riesgo incluyen, por ejemplo, sistemas de IA utilizados para la contratación, para evaluar si alguien tiene derecho a obtener un préstamo o para ejecutar robots autónomos.
Riesgo inaceptable: se prohibirán los sistemas de IA que se consideren una clara amenaza a los derechos fundamentales de las personas. Esto incluye sistemas o aplicaciones de inteligencia artificial que manipulan el comportamiento humano para eludir el libre albedrío de los usuarios, como juguetes que utilizan asistencia de voz para fomentar comportamientos peligrosos de menores, sistemas que permiten la "puntuación social" por parte de gobiernos o empresas, y ciertas aplicaciones de vigilancia policial predictiva. Además, se prohibirán algunos usos de los sistemas biométricos, por ejemplo, los sistemas de reconocimiento de emociones utilizados en el lugar de trabajo y algunos sistemas para categorizar personas o identificación biométrica remota en tiempo real con fines policiales en espacios de acceso público (con excepciones limitadas).
Para complementar este sistema, la Ley de IA también introduce reglas para los llamados modelos de IA de propósito general, que son modelos de IA de alta capacidad diseñados para realizar una amplia variedad de tareas, como generar texto similar a un humano. Los modelos de IA de propósito general se utilizan cada vez más como componentes de aplicaciones de IA. La Ley de IA garantizará la transparencia a lo largo de la cadena de valor y abordará los posibles riesgos sistémicos de los modelos más capaces.
Las empresas que no cumplan las normas serán multadas. Las multas podrían ascender hasta el 7% de la facturación anual mundial por violaciones de aplicaciones de IA prohibidas, hasta el 3% por violaciones de otras obligaciones y hasta el 1,5% por proporcionar información incorrecta.
La mayoría de las normas de la Ley de IA empezarán a aplicarse oficialmente el 2 de agosto de 2026. Sin embargo, las prohibiciones de los sistemas de IA que se consideren un riesgo inaceptable ya se aplicarán después de seis meses, mientras que las normas para los llamados modelos de IA de uso general se aplicarán después. 12 meses. las prohibiciones de los sistemas de IA que se consideren un riesgo inaceptable ya se aplicarán después de seis meses, mientras que las normas para los llamados modelos de IA de uso general se aplicarán después. 12 meses.
Para cerrar el período de transición antes de la implementación total, la Comisión ha lanzado el Pacto AI. Esta iniciativa invita a los desarrolladores de IA a adoptar voluntariamente obligaciones clave de la Ley de IA antes de los plazos legales.
La Comisión también está desarrollando directrices para definir y detallar cómo se debe implementar la Ley de IA y facilitar instrumentos de corregulación como normas y códigos de práctica.