Facebook admitió haber marcado por error 400.000 publicaciones como relacionadas con el terrorismo y eliminarlas de su plataforma.
El gigante estadounidense de las redes sociales dijo el martes que el error se debió a una falla que provocó que sus algoritmos de moderación etiquetaran incorrectamente el contenido.
Meta, la empresa propietaria de Facebook, compartió el error en su Informe trimestral de aplicación de estándares comunitarios.
Se vio obligado a restaurar un total de 414.000 puestos que habían sido recortados indebidamente por violar políticas relacionadas con el terrorismo.
Otros 232.000 fueron abandonados porque se consideró erróneamente que estaban vinculados a grupos de odio organizados.
Aparentemente, las publicaciones fueron bloqueadas debido al mismo error. El problema ahora está resuelto.
En su informe, Meta dijo que casi duplicó la cantidad de contenido violento que elimina de Facebook.
Durante el primer trimestre de 2022, Meta eliminó 21,7 millones de publicaciones por violar sus reglas sobre contenido violento.
Eso es más que los 12,4 millones del trimestre anterior.
También ha habido un aumento en la cantidad de spam y contenido relacionado con drogas eliminado de Facebook e Instagram, respectivamente.
Pero Meta dijo que la prevalencia de contenido dañino ha disminuido ligeramente en algunas áreas, incluido el contenido de intimidación y acoso.
Esto se debe a mejoras y mejoras en la tecnología de detección proactiva de la empresa.
«A lo largo de los años, hemos invertido en desarrollar tecnología para mejorar la forma en que podemos detectar contenido infractor», dijo Guy Rosen, vicepresidente de integridad de Meta.
«Con este progreso, sabemos que cometeremos errores, por lo que ha sido igualmente importante en el camino invertir también en refinar nuestras políticas, nuestra aplicación y las herramientas que brindamos a los usuarios».
Rosen también dijo que la compañía está lista para refinar las políticas según sea necesario cuando se introduzcan nuevas regulaciones de contenido para el sector tecnológico.
El proyecto de ley de seguridad en línea del Reino Unido se encuentra actualmente en el Parlamento e introduciría nuevas y estrictas reglas de contenido sobre daños en línea para plataformas como Facebook e Instagram.
La UE también está trabajando en sus propias regulaciones, con un enfoque similar que se espera también en los EE. UU. en el futuro.
“A medida que continúan desarrollándose nuevas regulaciones en todo el mundo, nos enfocamos en las obligaciones que crean para nosotros”, dijo el Sr. Rosen.
“Así que estamos agregando y refinando procesos y supervisión en muchas áreas de nuestro trabajo.
«Esto nos permitirá continuar progresando en temas sociales mientras cumplimos de manera más efectiva con nuestras obligaciones regulatorias».
¡Pagamos por tus historias! ¿Tiene una historia para el equipo de tecnología y ciencia de Sun Online? Envíenos un correo electrónico a [email protected]