Dentro de un error de terror en Facebook que llevó a mostrar MÁS mensajes peligrosos a los usuarios durante 6 MESES


Un error de FACEBOOK llevó a la plataforma a mostrar por error más contenido dañino a los usuarios durante seis meses.

Según The Verge, el contenido identificado como engañoso o problemático se priorizó en los feeds de los usuarios cuando debería haber estado oculto.

Un error de Facebook hizo que la plataforma mostrara por error a los usuarios más contenido dañino

1

Un error de Facebook hizo que la plataforma mostrara por error a los usuarios más contenido dañinoCrédito: AFP

Los documentos internos muestran que los ingenieros identificaron el error de software y tardaron seis meses en solucionarlo.

Facebook cuestionó el informe, que se publicó el jueves, diciendo que «exageró enormemente la naturaleza de este error».

El problema finalmente «no tuvo un impacto significativo a largo plazo en el contenido problemático», según Joe Osborne, portavoz de la empresa matriz Meta.

Pero fue lo suficientemente grave como para que un grupo de empleados de Facebook escribiera un informe interno refiriéndose a una «falla masiva en la clasificación» del contenido.

Mark Zuckerberg promete planes de metaverso que incluyen VR Grand Theft Auto
Mark Zuckerberg dice que Meta inventó el dispositivo que reemplazará al iPhone

En octubre, los empleados notaron que algunos contenidos que habían sido marcados como cuestionables, sin embargo, eran favorecidos por el algoritmo para ser ampliamente distribuidos en las noticias de los usuarios.

El contenido fue informado por medios externos: miembros del programa de verificación de hechos de terceros de Facebook.

«Incapaces de encontrar la causa raíz, los ingenieros observaron cómo el aumento reducía unas semanas más tarde y luego se encendía repetidamente hasta que el problema de la presentación se resolvió el 11 de marzo», informó The Verge.

Pero según Osborne, el error solo afectó a «una cantidad muy pequeña de vistas» del contenido.

De hecho, «la abrumadora mayoría de las publicaciones en Feed no son elegibles para ser degradadas en primer lugar», explicó Osborne.

Agregó que se mantuvieron otros mecanismos diseñados para limitar las vistas de contenido «dañino», «incluidas nuevas degradaciones, etiquetas de verificación de hechos y eliminación de contenido infractor».

El programa de verificación de hechos de Facebook se lanzó en 2018 y tiene como objetivo identificar contenido dañino y engañoso.

Según el programa, Facebook paga para usar verificaciones de hechos de alrededor de 80 organizaciones, incluidos medios de comunicación especializados y verificadores de hechos, en su plataforma, WhatsApp e Instagram.

El contenido categorizado como «falso» se degrada en las fuentes de noticias para que menos personas lo vean.

Si alguien intenta compartir esta publicación, se le presenta un artículo que explica por qué es engañoso.

El DOBLE de muertes de perros mutilados como 'compra impulsiva durante el encierro' provoca crisis en el Reino Unido
Los temores de retiro de Lewis Hamilton después del emotivo mensaje de la estrella de F1 Mercedes

Aquellos que eligen compartir la publicación de todos modos reciben una notificación con un enlace al artículo. No se elimina ningún mensaje.

Los verificadores de hechos son libres de elegir cómo y qué desean investigar.

Los mejores consejos y trucos para teléfonos y dispositivos.

¿Buscas consejos y trucos para tu teléfono? ¿Quiere encontrar estas características secretas en las aplicaciones de redes sociales? Tenemos lo que necesitas…


¡Pagamos por tus historias! ¿Tiene una historia para el equipo de tecnología y ciencia de Sun Online? Envíenos un correo electrónico a [email protected]




Deja una respuesta

Tu dirección de correo electrónico no será publicada.