Google, Meta y OpenAI han anunciado en los ltimos das distintas medidas para que sea ms fcil identificar imgenes o archivos que han sido producidos o retocados con inteligencia artificial (IA). Estas iniciativas se enmarcan en el temor a que la difusin indiscriminada de mensajes falsos condicione los resultados de elecciones o tenga otras consecuencias inesperadas.Tras aos de invertir miles de millones de euros en mejorar la capacidad de la inteligencia artificial generativa, las tres plataformas se han unido a la Coalicin para la Procedencia y Autenticidad de Contenido (C2PA por las siglas en ingls), que propone un certificado estndar y rene a buena parte de la industria digital, a medios de comunicacin como la BBC o The New York Times a bancos y a fabricantes de cmaras. Las empresas admiten en sus comunicados que no hay por ahora una solucin nica, ni eficaz en todos los casos, para la identificacin de contenido generado con IA.Las iniciativas varan entre marcas visibles en las propias imgenes y mensajes disimulados en los metadatos del archivo o en los pxeles que han sido generados artificialmente. Con su herramienta an en fase beta, SynthID, Google tambin dice haber encontrado un modo de identificar audios.Ms informacinEl estndar C2PA para introducir informacin en los metadatos de la imagen tiene numerosas debilidades tcnicas, identificadas con detalle por desarrolladores. La propia OpenAI, que usar C2PA en Dall-3 (su generador de imgenes), advierte en su comunicado que no hay que fiarse excesivamente de sus posibilidades: Metadatos como C2PA no son una solucin milagrosa para abordar cuestiones de procedencia. Puede eliminarse fcilmente de forma accidental o intencionada. Una imagen que carece de estos metadatos puede haber sido generada o no con ChatGPT o con nuestra API, sealara la compaa creadora del chatbot que ha popularizado la inteligencia artificial generativa.Las compaas no dan plazos claros para la introduccin completa de sus medidas. Este 2024 es un ao lleno de citas electorales en pases importantes y la influencia de contenido generado por IA puede ser explosiva. La necesidad de protegerse preventivamente es vital. Estamos desarrollando esta capacidad y en los prximos meses empezaremos a aplicar etiquetas en todos los idiomas que admite cada aplicacin, dice Nick Clegg, presidente de Asuntos Pblicos de Meta, en su comunicado.Meta promete no solo etiquetar visualmente las imgenes que generen sus herramientas de IA, sino tambin detectar e identificar las que se cuelguen en sus redes: Instagram, Facebook y Threads, siempre que sea posible. Podemos etiquetar imgenes de Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock a medida que ponen en marcha sus planes para aadir metadatos a las imgenes creadas por sus herramientas, dice Clegg.Google aplicar sus mtodos a YouTube. Aunque estos enfoques dicen representar lo ltimo dentro de lo que es tcnicamente posible ahora mismo, la empresa cree que su mtodo creado con SynthID puede sobrevivir modificaciones voluntarias para ocultarlo, como agregar filtros, cambiar colores y guardar con varios esquemas de compresin con prdida, que son los ms utilizados para archivos JPEG.Puedes seguir a EL PAS Tecnologa en Facebook y X o apuntarte aqu para recibir nuestra newsletter semanal.