Muchos AI Sexual Ai Deepfake no pueden detener la propagación de una celebridad en Meta Facebook

Más de una docena de fraudes, femeninas femeninas y atletas han sido eliminadas después de la investigación de noticias de CBS. Fotos de defake de AI-Misipulated En la plataforma de Facebook de la empresa.

Docenas de fotografías falsas y altamente sexuales de los actores Maranda Casgroo, Jenett McCardi, Ariana Grande, Scarlett Johnson y la ex estrella de tenis Maria Sharapova han sido ampliamente compartidas por múltiples cuentas de Facebook, con cientos de miles en la plataforma y en la plataforma. investigación.

«Hemos eliminado estas imágenes para violar nuestras políticas y continuaremos monitoreando otras publicaciones», dijo el portavoz de Meta Erin Logan a CBS News. En una declaración enviada por correo electrónico el viernes.

En un análisis de más de una docena de fotos del Protector de la Realidad, una plataforma que funciona para detectar medios de comunicación de IA, muestra que muchas imágenes eran imágenes de FIC profunda. Fotos reales. Según el análisis de la guardia de la realidad, algunas imágenes se produjeron utilizando herramientas de costura de imágenes que no contienen IA.

«Casi toda la pornografía del departamento no es una cantidad profunda de un dinero profundo en toda la pornografía profunda», dijo el domingo Ben Coleman, cooundador y CEO de Reality Defnder, el domingo. «Dichos materiales están aumentando a una tasa de mareos, especialmente porque los pasos existentes para prevenir dichos materiales rara vez se implementan».

CBS News ha buscado comentarios de Miranda Casgroo, Janet McCardi, Ariana Grande y Maria Sharapova en la historia. Según el representante del actor, Johson se negó a emitir un comentario.


Experto muestra cómo encontrar una falsa profunda creada con AI

02:39

Bajo la política de acoso y acoso de Meta, la compañía prohíbe «Photoshop de sexo despectivo o dibujar» en sus plataformas. La compañía también ha prohibido la actividad sexual antigua, sexual y el abuso sexual adulto, y sus regulaciones tienen como objetivo evitar que los consumidores compartan o amenazen la intimidad unánime. Meta también ha implementado el uso de etiquetas de «información de IA» que marcan claramente el material marcado.

Pero las preguntas permanecen en el efecto de la vigilancia de dicho contenido de la compañía tecnológica. CBS News está disponible en Facebook, incluso después de compartir los términos de la compañía, incluso después de compartir dicho contenido, las docenas de fotografías de McCardi están disponibles en Facebook.

Una de las imágenes profundas de Cassago, que todavía se quedó el fin de semana, se compartió con 2.8 millones de seguidores.

Ambos actores, muestran las estrellas de ambos niños de Nicidone, propiedad de la compañía de padres de CBS News Paramount Global, basado en fotografías de figuras públicas, que es analizado por CBS News.

La Junta de Monitoreo de Meta, una organización libre de urdu que consta de expertos en el campo de los derechos humanos y la libertad del habla, y ofrece recomendaciones para la moderación del contenido en la plataforma Meta, CBS News An E The Mail Declare que FIC sexualmente profundo Los materiales alrededor de las reglas existentes de la empresa son insuficientes.

La junta de sobrepeso citó las recomendaciones hechas a Meta en el último año, incluido el énfasis en la compañía para actualizar su prohibición de «Photoshop de sexo despectivo» y aclarar sus reglas para que, en particular, se pueda agregar la palabra «unánime» y otros Se puede agregar la manipulación de fotos. Técnicas como AI.

La Junta también recomienda que Meta haya prohibido la «Photoshop de sexo despectivo» en las regulaciones de abuso sexual de adultos de la compañía, por lo que la moderación de dicho contenido se aplicará estrictamente.

Sobre las recomendaciones de la junta solicitadas el lunes a través de CBS News, Meta señaló Líderes en su sitio web de transparenciaQue muestra que la compañía está revisando la viabilidad de tres de las cuatro recomendaciones de la junta de sobrepeso y después de una sugerencia única, aunque Meta señaló en su declaración en su sitio que actualmente está «la humillante Photoshop sexual se niega para cambiar el idioma «. Meta también dice que actualmente es poco probable que su abuso sexual adulto transmita su política de «Photoshop de sexo despectivo».

Meta señaló en su declaración que todavía está considerando formas de indicar una falta de consentimiento en las imágenes generadas por IA. Meta también dijo que estaba considerando reformar sus políticas de abuso sexual de adultos para capturar el espíritu de la junta.

«La junta de sobrepeso ha dejado en claro que las imágenes íntimas unánimas profundas son una grave violación de la privacidad y la dignidad personal, dañando a las mujeres y las niñas en proporcional. Estas imágenes no son solo un mal uso de la tecnología, son abusivos. Hay un formato que puede Sea largo «, dijo a CBS News el viernes Michael McConnell, co -silla de la junta, el viernes.

«La junta está monitoreando activamente la reacción del meta y continuará avanzando para medidas de seguridad fuertes, implementación más rápida y responsabilidad máxima», dijo McConnell.

Metaa no es la única compañía de redes sociales que ha enfrentado un gran problema de contenido sexual sexual.

El año pasado, la Plataforma X de Elon Musk detuvo temporalmente las búsquedas de Taylor Swift cuando las imágenes porno falsas hechas por AI del cantante se distribuyeron ampliamente en la plataforma y millones de ideas y recibían comentarios.

El equipo de seguridad de la plataforma dijo: «Publicar las imágenes unánimes iraníes (NCN) está estrictamente prohibida a X y tenemos una política de tolerancia cero sobre dicho contenido». En una publicación Punto

En un estudio publicado por el Gobierno del Reino Unido a principios de este mes, el número de imágenes profundas en las plataformas de redes sociales se está extendiendo rápidamente, en la que el gobierno predijo que este año se compartirán 8 millones de este año. 500,000 en 2023.

Enlace de origen

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba