Facebook prohibió 400.000 publicaciones marcadas erróneamente como TERRORISMO


Facebook admitió haber marcado por error 400.000 publicaciones como relacionadas con el terrorismo y eliminarlas de su plataforma.

El gigante estadounidense de las redes sociales dijo el martes que el error se debió a una falla que provocó que sus algoritmos de moderación etiquetaran incorrectamente el contenido.

Facebook etiquetó por error más de 400.000 publicaciones como relacionadas con el terrorismo

1

Facebook etiquetó por error más de 400.000 publicaciones como relacionadas con el terrorismoCrédito: Getty

Meta, la empresa propietaria de Facebook, compartió el error en su Informe trimestral de aplicación de estándares comunitarios.

Se vio obligado a restaurar un total de 414.000 puestos que habían sido recortados indebidamente por violar políticas relacionadas con el terrorismo.

Otros 232.000 fueron abandonados porque se consideró erróneamente que estaban vinculados a grupos de odio organizados.

Aparentemente, las publicaciones fueron bloqueadas debido al mismo error. El problema ahora está resuelto.

Soy un experto cibernético y estos son los hábitos de contraseña más PELIGROSOS revelados
Facebook se burla de la controvertida actualización BILLIONS en una advertencia oficial

En su informe, Meta dijo que casi duplicó la cantidad de contenido violento que elimina de Facebook.

Durante el primer trimestre de 2022, Meta eliminó 21,7 millones de publicaciones por violar sus reglas sobre contenido violento.

Eso es más que los 12,4 millones del trimestre anterior.

También ha habido un aumento en la cantidad de spam y contenido relacionado con drogas eliminado de Facebook e Instagram, respectivamente.

Pero Meta dijo que la prevalencia de contenido dañino ha disminuido ligeramente en algunas áreas, incluido el contenido de intimidación y acoso.

Esto se debe a mejoras y mejoras en la tecnología de detección proactiva de la empresa.

«A lo largo de los años, hemos invertido en desarrollar tecnología para mejorar la forma en que podemos detectar contenido infractor», dijo Guy Rosen, vicepresidente de integridad de Meta.

«Con este progreso, sabemos que cometeremos errores, por lo que ha sido igualmente importante en el camino invertir también en refinar nuestras políticas, nuestra aplicación y las herramientas que brindamos a los usuarios».

Rosen también dijo que la compañía está lista para refinar las políticas según sea necesario cuando se introduzcan nuevas regulaciones de contenido para el sector tecnológico.

El proyecto de ley de seguridad en línea del Reino Unido se encuentra actualmente en el Parlamento e introduciría nuevas y estrictas reglas de contenido sobre daños en línea para plataformas como Facebook e Instagram.

La UE también está trabajando en sus propias regulaciones, con un enfoque similar que se espera también en los EE. UU. en el futuro.

“A medida que continúan desarrollándose nuevas regulaciones en todo el mundo, nos enfocamos en las obligaciones que crean para nosotros”, dijo el Sr. Rosen.

A mi hermana le cobraron £ 32 solo por llorar frente al médico de la clínica.
El pasajero de Ryanair divide la opinión después de negarse a mover los asientos de mamá y bebé

“Así que estamos agregando y refinando procesos y supervisión en muchas áreas de nuestro trabajo.

«Esto nos permitirá continuar progresando en temas sociales mientras cumplimos de manera más efectiva con nuestras obligaciones regulatorias».


¡Pagamos por tus historias! ¿Tiene una historia para el equipo de tecnología y ciencia de Sun Online? Envíenos un correo electrónico a [email protected]




Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *