Publicado el
La Unión Europea ha dado un paso histórico al desarrollar la primera legislación mundial sobre Inteligencia Artificial. La Ley Europea de Inteligencia Artificial (Ley de IA) busca armonizar el mercado interior de la UE, promover la adopción de esta tecnología y establecer un entorno propicio para la innovación. Con un enfoque basado en la seguridad y el riesgo, la ley establece diferentes niveles de regulación, desde riesgos mínimos hasta inaceptables, garantizando así la protección de los derechos fundamentales de los ciudadanos y fomentando una IA responsable y segura.
 La UE lanza la primera Ley Global de Inteligencia Artificial

Sin duda, la Inteligencia Artificial (IA) ha llegado para quedarse, y sus beneficios son numerosos. Sin embargo, también es crucial regularla adecuadamente. En este contexto, la Unión Europea ha desarrollado la primera legislación específica: la Ley Europea de Inteligencia Artificial (Ley de IA). Este reglamento, pionero a nivel mundial, busca crear un mercado interior armonizado para la IA en la UE, promoviendo la adopción de esta tecnología y estableciendo un entorno favorable para la innovación y la inversión. La Ley de IA establece una definición prospectiva de la IA y se basa en un enfoque de seguridad y riesgo:

  1. Riesgo mínimo: La mayoría de los sistemas de IA, como los sistemas de recomendación y los filtros de correo no deseado, se encuentran en esta categoría y no tienen obligaciones bajo la Ley de IA debido a su bajo riesgo para los derechos y la seguridad de los ciudadanos. Las empresas pueden optar por adoptar códigos de conducta adicionales de manera voluntaria.
  2. Riesgo específico de transparencia: Los sistemas de IA, como los chatbots, deben informar claramente a los usuarios que están interactuando con una máquina. Además, los contenidos generados por IA, incluidas las ultrafalsificaciones, deben etiquetarse como tales. Los proveedores deben diseñar sistemas que permitan identificar estos contenidos como generados o manipulados artificialmente.
  3. Riesgo alto: Los sistemas de IA considerados de alto riesgo deberán cumplir requisitos estrictos, como la reducción de riesgos, alta calidad de los datos, registro de actividad, documentación detallada, información clara para el usuario, supervisión humana y altos niveles de robustez, precisión y ciberseguridad. Estos sistemas incluyen aquellos utilizados en la contratación o para evaluar la elegibilidad para préstamos.
  4. Riesgo inaceptable: Se prohibirán los sistemas de IA que representen una amenaza clara para los derechos fundamentales. Esto incluye sistemas que manipulan el comportamiento humano para eludir la libre voluntad, como los juguetes que fomentan comportamientos peligrosos en los menores, y la "puntuación social" por parte de gobiernos o empresas.

Para complementar este marco, la Ley de IA también introduce normas para los modelos de IA de uso general, diseñados para llevar a cabo una amplia variedad de tareas, como la generación de textos similares a los humanos. Esta regulación garantizará la transparencia y abordará los riesgos sistémicos de los modelos más avanzados.

Los Estados miembros tienen hasta el 2 de agosto de 2025 para designar las autoridades nacionales competentes que supervisarán la aplicación de estas normas. La Oficina de IA de la Comisión Europea será el principal organismo de aplicación a nivel de la UE y se encargará de la supervisión de los modelos de IA de uso general.

Tres órganos consultivos apoyarán la implementación de la Ley de IA: el Comité Europeo de Inteligencia Artificial, un grupo científico de expertos independientes y un foro consultivo de partes interesadas diversas. Estos órganos asegurarán la aplicación uniforme de la ley, ofrecerán asesoramiento técnico y emitirán alertas sobre los riesgos de los modelos de IA de uso general. Las empresas que no cumplan con las normas enfrentarán multas que pueden llegar hasta el 7 % de su volumen de negocios anual mundial por infracciones de aplicaciones prohibidas de IA, hasta el 3 % por incumplimiento de otras obligaciones y hasta el 1,5 % por proporcionar información incorrecta.

Las principales disposiciones de la Ley de IA comenzarán a aplicarse el 2 de agosto de 2026. Sin embargo, las prohibiciones de los sistemas de IA con riesgo inaceptable entrarán en vigor seis meses después de la adopción de la ley, y las normas para los modelos de IA de uso general se aplicarán a partir de 12 meses. Durante el periodo transitorio, la Comisión ha lanzado el Pacto sobre la IA, invitando a los desarrolladores a adoptar voluntariamente las obligaciones clave de la Ley de IA antes de los plazos legales. La Comisión también está trabajando en directrices para definir y detallar la aplicación de la Ley de IA, y ha abierto una convocatoria para participar en la elaboración del primer Código de buenas prácticas para la IA de uso general, además de una consulta multilateral para recoger opiniones sobre este código.

¡Comparte este contenido en redes!

Este sitio utiliza cookies de terceros para medir y mejorar su experiencia.
Tu decides si las aceptas o rechazas:
Más información sobre Cookies