Diez respuestas sobre la ley europea de inteligencia artificial




Los sistemas y programas de inteligencia artificial (IA) son capaces de realizar tareas propias de la inteligencia humana, como razonar, aprender (machine learning), percibir, comprender el lenguaje natural y resolver problemas. Ya est presente en todos los mbitos de nuestra vida, desde las aplicaciones habituales de compras o visionado de pelculas hasta el desarrollo de nuevas frmulas farmacuticas o la organizacin de procesos de produccin. Permite automatizar tareas, tomar decisiones, mejorar la eficiencia y aportar soluciones en mbitos tan diversos como la medicina, la industria, la robtica o los servicios financieros. La ley europea de IA comienza desde ahora a aplicarse gradualmente con el objetivo de garantizar su desarrollo con unos criterios ticos y legales. Estas son 10 respuestas a las dudas que genera una iniciativa pionera en el mundo:Ms informacinPor qu Europa la regula?La inteligencia artificial aporta beneficios sociales, fomenta el crecimiento econmico y mejora la innovacin y competitividad. Estas aplicaciones, en general, plantean un riesgo bajo o nulo. Pero otras pueden generar situaciones contrarias a los derechos y libertades, como los usos de inteligencia artificial para generar imgenes pornogrficas no deseadas o la utilizacin de datos biomtricos para categorizar a las personas por rasgos de su aspecto o su aplicacin en procesos de contratacin, educacin, asistencia sanitaria o de actuacin policial predictiva.Cules son las categoras de riesgo?Riesgo mnimo: En esta categora estn la mayora de sistemas. Para estas aplicaciones, el proveedor, de forma voluntaria, puede adoptar los requisitos ticos y adherirse a cdigos de conducta. Se considera IA de uso general aquella entrenada con una potencia informtica de 10 operaciones de coma flotante por segundo (FLOPS, por sus siglas en ingls). FLOPS es la medida del rendimiento de una computadora y la Comisin considera la mencionada dimensin como el umbral de posibles riesgos sistmicos. La UE considera que ChatGPT-4, de OpenAI, y Gemini, de Google DeepMind, podran estar en este umbral, que podr revisarse mediante un acto delegado.Alto riesgo: Son los modelos que, potencialmente, pueden afectar a la seguridad de las personas o a sus derechos. La lista est abierta a revisin permanente, pero la norma prev ya mbitos de aplicacin incluidos en esta categora, como infraestructuras crticas de comunicacin y suministro, educacin, gestin del personal o acceso a servicios esenciales.Riesgo inadmisible: Los sistemas que se incluyan en esta categora estn prohibidos porque vulneran los derechos fundamentales. En esta lista estn aquellos de clasificacin o puntuacin social, los que aprovechan la vulnerabilidad de las personas y los de identificacin de raza, opinin, creencia, orientacin sexual o reaccin emocional. Se prevn excepciones para su uso policial con el fin de perseguir 16 delitos concretos relacionados con la desaparicin de personas, secuestros, trata y explotacin sexual, prevencin de amenazas para la vida o la seguridad o respuesta a la amenaza actual o previsible de un ataque terrorista. En caso de urgencia, se puede autorizar un uso excepcional, pero, si se deniega, todos los datos e informacin tienen que ser suprimidos. En circunstancias no urgentes, ha de ir precedida de una evaluacin previa de las repercusiones desde el punto de vista de los derechos fundamentales y debe notificarse a la autoridad de vigilancia del mercado pertinente y a la autoridad de proteccin de datos.Riesgo especfico para la transparencia: Se refiere a los peligros de manipulacin que se generan con bulos de apariencia real (deepfakes) o con aplicaciones conversacionales. La norma obliga a dejar patente de forma inequvoca que el usuario est ante una creacin artificial o que se interacta con una mquina.Riesgo sistmico: La norma tiene en cuenta que el uso generalizado de sistemas de gran capacidad puede ocasionar daos masivos o de amplio alcance, como el caso de ciberataques o de propagacin de un bulo financiero o un sesgo.Quines deben someterse a la ley?Todos los agentes, tanto pblicos como privados, que utilicen sistemas de inteligencia artificial dentro de la UE deben someterse a la ley, sean o no europeos. Afecta a los proveedores de programas, a los que los aplican y a quienes los compran. Todos deben velar por que su sistema sea seguro y conforme a la ley. En el caso de sistemas de alto riesgo, antes y despus de ser comercializados o puestos en servicio, los sistemas debern ser sometidos a una evaluacin de conformidad para garantizar la calidad de los datos, trazabilidad, transparencia, supervisin humana, exactitud, ciberseguridad y solidez. Esta evaluacin debe repetirse si el sistema o su finalidad se modifican sustancialmente. Los sistemas de inteligencia artificial de alto riesgo utilizados por las autoridades o entidades que acten en su nombre debern, adems, estar registrados en una base de datos pblica de la UE, a menos que tales sistemas se empleen a efectos policiales y de migracin. Los proveedores de modelos con riesgos sistmicos (potencia informtica de ms de 10 FLOPS) tienen la obligacin de evaluarlos y mitigarlos, notificar los incidentes graves, llevar a cabo pruebas y evaluaciones avanzadas, garantizar la ciberseguridad y facilitar informacin sobre el consumo de energa de sus modelos.Qu debe incluir una evaluacin de conformidad?Los procesos, el perodo y la frecuencia de uso, las categoras de personas fsicas y grupos afectados, los riesgos especficos, las medidas de vigilancia humana y el plan de actuacin en caso de materializacin de los riesgos.Cmo sabe un proveedor los efectos de su producto?Las grandes corporaciones ya cuentan con sistemas propios para adaptarse a la norma. Para las entidades menores y aquellas que usen sistemas de cdigo abierto, la ley crea espacios controlados de pruebas y ensayo en condiciones reales, que aportan un entorno controlado para probar tecnologas innovadoras durante seis meses prorrogables a otros tantos. Podrn ser objeto de inspecciones.Quines estn exentos?Los proveedores de modelos gratuitos y de cdigo abierto estn exentos de las obligaciones relacionadas con la comercializacin, pero no de la obligacin de evitar los riesgos. Tampoco afecta la norma a las actividades de investigacin, desarrollo y creacin de prototipos o a los desarrollos destinados a usos de defensa o de seguridad nacional. Los sistemas de IA de uso general s tendrn que cumplir los requisitos de transparencia, como la elaboracin de documentacin tcnica, el cumplimiento de la legislacin de la UE en materia de derechos de autor y la difusin de resmenes detallados sobre los contenidos utilizados para el entrenamiento del sistema.Quin vigila el cumplimiento?Se establece una Oficina Europea de Inteligencia Artificial, un panel de asesoramiento cientfico y autoridades de vigilancia nacionales para el seguimiento de los sistemas y autorizacin de aplicaciones. Las agencias y oficinas de IA debern tener acceso a la informacin necesaria para cumplir sus obligaciones.Cundo ser plenamente aplicable la Ley de IA?Tras su adopcin, la Ley de IA entra en vigor a los 20 das de su publicacin y ser plenamente aplicable en 24 meses, de forma gradual. En los primeros seis meses, los Estados miembros deben eliminar los sistemas prohibidos. En un ao, se impondrn las obligaciones de gobernanza para la IA de uso general. En dos aos, deben estar adecuados todos los sistemas alto riesgo.Cules son las sanciones por las infracciones?Cuando se comercialicen o utilicen sistemas de inteligencia artificial que no cumplan los requisitos del Reglamento, los Estados miembros debern establecer sanciones efectivas, proporcionadas y disuasorias por las infracciones y notificarlas a la Comisin. Se prevn multas de hasta 35 millones de euros o el 7% del volumen de negocios anual a escala mundial del ejercicio financiero anterior, hasta 15 millones de euros o el 3% del volumen de negocios y hasta 7,5 millones de euros o el 1,5% del volumen de negocios. En cada categora de infraccin, el umbral sera el menor de los dos importes para las pymes y el ms elevado para las dems empresas.Qu puede hacer la vctima de una infraccin?La Ley de IA prev el derecho a presentar una denuncia ante una autoridad nacional y facilita a las personas la reclamacin de una indemnizacin por los daos causados por sistemas de inteligencia artificial de alto riesgo.Puedes seguir a EL PAS Tecnologa en Facebook y X o apuntarte aqu para recibir nuestra newsletter semanal.Suscrbete para seguir leyendoLee sin lmites_