La nueva jugada de Meta AI deepfake: Más etiquetas, menos eliminaciones

Meta ha anunciado cambios en sus reglas sobre contenido generado por IA y medios manipulados tras críticas de su Junta de Supervisión. A partir del próximo mes, la compañía dijo que etiquetará una gama más amplia de este tipo de contenido, incluyendo la aplicación de un distintivo "Hecho con IA" a deepfakes. Se mostrará información contextual adicional cuando el contenido haya sido manipulado de otras maneras que representen un alto riesgo de engañar al público sobre un tema importante.

El cambio podría llevar a que el gigante de las redes sociales etiquete más piezas de contenido que tienen el potencial de ser engañosas, lo cual es importante en un año en el que se están celebrando muchas elecciones en todo el mundo. Sin embargo, para los deepfakes, Meta solo aplicará etiquetas cuando el contenido en cuestión tenga "indicadores de imágenes de IA estándar de la industria" o cuando el cargador haya revelado que es contenido generado por IA.

El contenido generado por IA que se encuentre fuera de esos límites escapará sin etiquetar, presumiblemente.

El cambio de política también probablemente lleve a que más contenido generado por IA y medios manipulados permanezcan en las plataformas de Meta, ya que se está inclinando hacia un enfoque centrado en "proporcionar transparencia y contexto adicional", como la "mejor forma de abordar este contenido" (en lugar de eliminar los medios manipulados, dados los riesgos asociados a la libertad de expresión).

Por lo tanto, para el contenido generado por IA o manipulado de otra manera en las plataformas de Meta como Facebook e Instagram, la estrategia parece ser: más etiquetas, menos eliminaciones.

Meta dijo que dejará de eliminar contenido únicamente sobre la base de su política actual de video manipulado en julio, agregando en una publicación de blog publicada el viernes que: "Este cronograma les da a las personas tiempo para comprender el proceso de autorrevelación antes de que dejemos de eliminar el subconjunto más pequeño de medios manipulados".

El cambio de enfoque puede tener la intención de responder a las crecientes demandas legales sobre la moderación de contenido y el riesgo sistémico que enfrenta Meta, como la Ley de Servicios Digitales de la Unión Europea. Desde agosto pasado, la ley de la UE ha aplicado un conjunto de reglas a sus dos principales redes sociales que requieren que Meta camine por una línea muy delgada entre purgar contenido ilegal, mitigar riesgos sistémicos y proteger la libertad de expresión. El bloque también está aplicando una presión adicional a las plataformas antes de las elecciones al Parlamento Europeo de este junio, incluido instar a los gigantes tecnológicos a marcar los deepfakes cuando sea técnicamente factible.

La próxima elección presidencial en Estados Unidos en noviembre también está probablemente en la mente de Meta.

Criticas de la Junta de Supervisión

La junta asesora de Meta, que financia el gigante tecnológico pero permite que funcione de forma independiente, revisa un pequeño porcentaje de sus decisiones de moderación de contenido pero también puede hacer recomendaciones de política. Meta no está obligada a aceptar las sugerencias de la junta, pero en este caso ha aceptado modificar su enfoque.

En una publicación de blog publicada el viernes, Monika Bickert, vicepresidenta de política de contenido de Meta, dijo que la compañía está modificando sus políticas sobre contenido generado por IA y medios manipulados basándose en los comentarios de la junta. "Estamos de acuerdo con el argumento de la Junta de Supervisión de que nuestro enfoque actual es demasiado estrecho, ya que solo cubre videos que son creados o alterados por IA para hacer que una persona parezca decir algo que no dijo", escribió.

En febrero, la Junta de Supervisión instó a Meta a repensar su enfoque sobre el contenido generado por IA después de tomar el caso de un video manipulado del presidente Biden que había sido editado para insinuar un motivo sexual en un beso platónico que le dio a su nieta.

Mientras la junta estuvo de acuerdo con la decisión de Meta de dejar el contenido específico en línea, criticó su política sobre medios manipulados como "incoherente", señalando, por ejemplo, que solo se aplica a videos creados a través de IA, dejando fuera de la ecuación otro contenido falso como videos o audios más básicamente manipulados.

Parece que Meta ha tenido en cuenta las críticas recibidas.

"En los últimos cuatro años, y particularmente en el último año, las personas han desarrollado otros tipos de contenido realista generado por IA como audio y fotos, y esta tecnología está evolucionando rápidamente", escribió Bickert. "Como señaló la Junta, es igualmente importante abordar la manipulación que muestra a una persona haciendo algo que no hizo."

"La Junta también argumentó que corremos el riesgo innecesario de restringir la libertad de expresión cuando eliminamos medios manipulados que de otra manera no violan nuestros Estándares de la Comunidad. Recomendó un enfoque 'menos restrictivo' hacia los medios manipulados como etiquetas con contexto".

A principios de este año, Meta anunció que estaba trabajando con otros de la industria en el desarrollo de normas técnicas comunes para identificar contenido generado por IA, incluido video y audio. Se apoya en ese esfuerzo para expandir la etiquetado de los medios sintéticos ahora.

"Nuestras etiquetas 'Hecho con IA' en video, audio e imágenes generadas por IA se basarán en nuestra detección de las señales compartidas por la industria de imágenes de IA o en las personas que se autoinforman de que están subiendo contenido generado por IA", dijo Bickert, señalando que la compañía ya aplica etiquetas de "Imaginado con IA" a imágenes fotorrealistas creadas con su propia función de IA de Meta.

La política ampliada cubrirá "una gama más amplia de contenido además del contenido manipulado que la Junta de Supervisión recomendó etiquetar", según Bickert.

"Si determinamos que las imágenes, videos o audio creados o alterados digitalmente crean un riesgo especialmente alto de engañar materialmente al público sobre un asunto importante, podemos añadir una etiqueta más prominente para que las personas tengan más información y contexto", escribió. "Este enfoque general proporciona a las personas más información sobre el contenido para que puedan evaluarlo mejor y así tendrán contexto si ven el mismo contenido en otro lugar".

Meta dijo que no eliminará contenido manipulado, ya sea basado en IA o manipulado de otra manera, a menos que viole otras políticas (como interferencia en las elecciones, acoso y hostigamiento, violencia e incitación u otros problemas de los Estándares de la Comunidad). En su lugar, como se mencionó anteriormente, puede agregar "etiquetas informativas y contexto" en ciertos escenarios de alto interés público.

La publicación del blog de Meta destaca una red de casi 100 verificadores de hechos independientes, con los que dice que ha colaborado para ayudar a identificar los riesgos relacionados con el contenido manipulado.

Estas entidades externas continuarán revisando contenido generado por IA falso y engañoso, según Meta. Cuando califiquen el contenido como "Falso o Alterado", Meta dijo que responderá aplicando cambios algoritmos que reducen el alcance del contenido, lo que significa que aparecerá más bajo en los feeds para que menos personas lo vean, además de que Meta colocará una etiqueta superpuesta con información adicional para aquellas miradas que caigan sobre él.

Estos verificadores de hechos de terceros parecen tener un aumento de trabajo a medida que el contenido sintético se multiplica, impulsado por el auge de herramientas de IA generativa. Y debido a que más de este contenido parece que permanecerá en las plataformas de Meta como resultado de este cambio de política.

Meta para expandir el etiquetado de imágenes generadas por IA en un año electoral cargado

La UE publica orientación de seguridad electoral para gigantes de las redes sociales y otros incluidos en la DSA