Europa quiere que las imgenes sexuales de nios hechas con IA sean perseguidas como pornografa infantil




La inteligencia artificial (IA) puede acelerar el negocio de las empresas y facilitar enormemente la vida del usuario. Sin embargo, en malas manos y con malos fines, también tiene capacidad para provocar daños difíciles de reparar. Especialmente para los niños. La Comisión Europea ha aprobado esta tarde una propuesta de regulación para que todas las imágenes y vídeos sexuales en los que aparezcan menores, y que hayan sido creados mediante el empleo de tecnología, pasen a ser considerados exactamente igual que la pornografía de menores convencional. Esto implica que su creación y tenencia será considerada como un delito que incluye penas de cárcel dentro de suelo comunitario.«Uno de cada cinco niños en la UE sufre alguna forma de abuso sexual y explotación. En 2020 hubo un millón de casos de abusos y en 2022 subieron medio millón», ha explicado durante la presentación de la propuesta Dubravka Suica, vicepresidenta de la Comisión Europea para asuntos de Democracia y Demografía.Noticias Relacionadas estandar No Ojo con la IA: así la han utilizado para robarle 24 millones de euros a una empresa ABC estandar No Desvelan el origen de las imágenes porno falsas de Taylor Swift que han inundado las redes sociales R. AlonsoEn concreto, la Comisión quiere reformar la Directiva de protección infantil del año 2011 con el fin de luchar contra las nuevas formas de abuso sexual que trae consigo internet y el auge de la IA. En la propuesta de regulación se recoge, efectivamente, la ampliación la definición de delitos penales relacionados con el abuso sexual infantil en todos los estados miembros de la UE. Y ahí pasarán a incluirse, desde el momento en que el Consejo y el Parlamento den su visto bueno, algo que debería ocurrir en los próximos meses, todas aquellas imágenes falsas generadas mediante el empleo de la inteligencia artificial.Con la actualización de la directiva, y el hecho de que la generación y posesión de imágenes de carácter sexual de menores pase a ser considerado delito; la persona que esté detrás de estas creaciones podrá enfrentarse a penas de cárcel que parten de los tres años. Asimismo, el hecho de tenerlas y compartirlas puede acarrear, como mínimo, condenas de dos años. Evidentemente, la generación de imágenes falsas en las que aparezcan menores no serán necesariamente perseguidas por la ley. La actualización de la ley solo afecta al material erótico. La generación de imágenes pornográficas falsas mediante el empleo de inteligencia artificial es una lacra antigua. Sin embargo, con la democratización de herramientas generativas capaces de crear contenido en cuestión de segundos a cualquiera, sin necesidad de que se tengan grandes conocimientos en informática, es esperable que el problema se agrave. Y, de hecho, ya lo está haciendo. Así lo demuestran casos como el que tuvo lugar en la localidad extremeña de Almendralejo el pasado septiembre, cuando varios menores recurrieron a una aplicación de IA para crear fotografías falsas de sus compañeras de clase en las que estas aparecían desnudas.Y este no es un caso aislado, ya se han conocido situaciones similares o parecidas en otros países, y varios estados de Estados Unidos han comenzado a realizar cambios en sus leyes con el fin de ponerle freno a la situación.Con la adecuación de la Directiva, la UE, además, ampliará el período de tiempo durante el cual las víctimas de abuso sexual pueden denunciar al agresor. Las nuevas reglas también otorgarán a las víctimas el derecho a una compensación financiera para abordar los daños a largo plazo que causa el abuso sexual infantil. Además, los estados miembro deben establecer un mecanismo de coordinación para aprovechar al máximo los programas disponibles en materia de prevención y asistencia a las víctimas. También deberán dedicar mayores esfuerzos a la concienciación social.