Meta, propietario de Facebook (META.O), abre una nueva pestañaanunció el viernes cambios importantes en sus políticas sobre medios creados y alterados digitalmente, antes de las elecciones estadounidenses preparadas para poner a prueba su capacidad para controlar el contenido engañoso generado por nuevas tecnologías de inteligencia artificial.
El gigante de las redes sociales comenzará a aplicar etiquetas «Hecho con IA» en mayo a los videos, imágenes y audio generados por IA publicados en sus plataformas, ampliando una política que anteriormente abordaba solo una pequeña porción de videos manipulados, dijo la vicepresidenta de Política de Contenidos, Monika Bickert. dijo en una publicación de blog.
Bickert dijo que Meta también aplicaría etiquetas separadas y más prominentes a los medios alterados digitalmente que plantean un «riesgo particularmente alto de engañar materialmente al público en un asunto de importancia», independientemente de si el contenido fue creado utilizando inteligencia artificial u otras herramientas.
El nuevo enfoque cambiará el tratamiento que la empresa da al contenido manipulado. Pasará de uno centrado en eliminar un conjunto limitado de publicaciones a uno que mantiene el contenido activo y al mismo tiempo proporciona a los espectadores información sobre cómo se creó.
Meta anunció previamente un plan para detectar imágenes creadas con herramientas de inteligencia artificial generativa de otras compañías utilizando marcadores invisibles integrados en los archivos, pero no dio una fecha de inicio en ese momento.
Un portavoz de la compañía dijo a Reuters que el nuevo enfoque de etiquetado se aplicaría al contenido publicado en los servicios Facebook, Instagram y Threads de Meta. Sus otros servicios, incluidos WhatsApp y los cascos de realidad virtual Quest, están cubiertos por reglas diferentes.
Meta comenzará a aplicar inmediatamente las etiquetas más destacadas de «alto riesgo», dijo el portavoz.
Los cambios se producen meses antes de las elecciones presidenciales de Estados Unidos en noviembre que, según advierten los investigadores tecnológicos, pueden verse transformadas por nuevas tecnologías de inteligencia artificial generativa. Las campañas políticas ya han comenzado a implementar herramientas de IA en lugares como Indonesia, ampliando los límites de las directrices emitidas por proveedores como Meta y el líder del mercado de IA generativa OpenAI.
En febrero, la junta de supervisión de Meta calificó de «incoherentes» las reglas existentes de la compañía sobre medios manipulados después de revisar un video del presidente estadounidense Joe Biden publicado en Facebook el año pasado que alteraba imágenes reales para sugerir erróneamente que se había comportado de manera inapropiada.
Se permitió que las imágenes permanecieran publicadas, ya que la política existente de «medios manipulados» de Meta prohíbe los videos alterados de manera engañosa solo si fueron producidos por inteligencia artificial o si hacen que las personas parezcan decir palabras que en realidad nunca dijeron.
La junta dijo que la política también debería aplicarse al contenido que no es de IA, que «no es necesariamente menos engañoso» que el contenido generado por IA, así como al contenido de solo audio y a los videos que muestran a personas haciendo cosas que en realidad nunca hicieron.