Feria de Arte Digital de Asia
Tiempo de lectura: 5 minutos

Bloomberg Opinión — Facebook Inc. está planeando cambiar su nombre por algo relacionado con el metaverso, una nueva red digital para comunicarse a través de realidad aumentada y virtual, según un informe de The Verge, que cita una fuente con conocimiento directo del asunto. Durante el fin de semana, la empresa también dijo que, como parte de sus esfuerzos de construcción del metaverso, añadiría 10.000 puestos de trabajo altamente cualificados en Europa.¹

Dejando de lado las perspectivas de éxito financiero con esta gran plataforma nueva, que no se ven bien, el foco absoluto de Facebook en el metaverso en este momento refleja un mal juicio por parte de su administración y de Mark Zuckerberg en particular.

La evidencia de que Facebook empuja hacia las personas mayores teorías conspirativas y a los adolescentes a sentir problemas con sus cuerpos está amontonándose. En cambio, Zuckerberg debería centrarse en llevar a cabo la madre de todos los trabajos de limpieza: contratar a miles de empleados más, especialmente moderadores de contenido, para ayudar a identificar el contenido dañino en su sitio antes de construir uno nuevo que genere los mismos problemas de siempre.

Los moderadores de contenido son contratistas que recorren Facebook e Instagram en busca de contenido potencialmente dañino, y son mucho más baratos que los ingenieros. Un ingeniero de nivel inicial en Facebook en el Reino Unido gana alrededor de US$125,000 al año, de acuerdo con levels.fyi, que rastrea los salarios de los ingenieros de las grandes tecnológicas. Mientras tanto, los moderadores de contenido que trabajan para Accenture Plc, una de las agencias más grandes que realiza el trabajo de limpieza de Facebook, ganan alrededor de $US37,000 al año, según Glassdoor.

Facebook depende de aproximadamente 15,000 moderadores de contenido para mantener limpio su sitio, y con el presupuesto de contratación que anunció para el metaverso, podría duplicar ese número. Esto es exactamente lo que dijo un reciente estudio de la Universidad de Nueva York debe hacer Facebook para eliminar los contenidos nocivos.

En una una publicación de blog el domingo, la compañía dijo que sus “sistemas de inteligencia artificial mejorados y expandidos” habían llevado a una caída en los discursos de odio, que ahora representaban solo el 0,05% del contenido visto en el sitio. (Facebook obtuvo ese número al seleccionar una muestra de contenido y luego etiquetar cuánto de ello violó sus políticas de incitación al odio). La compañía parece estar insinuando que no necesita muchos más moderadores porque su tecnología está mejorando a la hora de limpiar las cosas.

Pero estas estadísticas sobre contenido dañino, que Facebook comparte en publicaciones trimestrales conocidas como informes de transparencia, tienen un problema. Los investigadores han sido escépticos durante mucho tiempo con respecto a estos informes de las tecnológicas según Ben Wagner, profesor asistente de la Universidad Tecnológica de Delft en los Países Bajos, quien fue el coautor de un estudio en febrero sobre sus limitaciones.

Señaló que el gobierno alemán demandó a Facebook en 2019 por engañar a los reguladores, entre otras cosas, al registrar solo ciertas categorías de quejas de los usuarios en los datos que estaba obligado a compartir con ellos. Facebook, a la que el gobierno ordenó pagar una multa de 2 millones de euros (US$2,3 millones), dijo que había cumplido con la ley de transparencia de Alemania y que algunos aspectos de la ley “carecían de claridad”. Se reservó el derecho a apelar.

Facebook enfrenta otras acusaciones de manipular las cifras de su informe de transparencia. Según un artículo del Wall Street Journal el domingo, que citó documentos internos filtrados por la denunciante de Facebook Frances Haugen, Facebook cambió su proceso de quejas en 2019, dificultando que las personas marquen el contenido. Facebook le dijo al Journal que esta “fricción” tenía la intención de hacer que sus sistemas fueran más eficientes y que desde entonces había retrotraído parte de esa fricción.

Sin estándares comunes para medir el daño, los informes de transparencia de las redes sociales terminan siendo confusos y poco claros. Por ejemplo, el informe de transparencia de Facebook de 2018 citó 1.048 quejas de usuarios, mientras que Twitter Inc. y YouTube de Alphabet Inc. informaron cada uno de más de 250.000, según la demanda alemana contra Facebook. Esa es una gran discrepancia en el seguimiento.

Y esos informes no están debidamente auditados. Facebook ha establecido un panel asesor de transparencia de datos de siete académicos para hacer una evaluación “independiente” de sus informes de transparencia, dijo el domingo. El panel, al igual que otros consejos científicos asesores, recibe un honorario fijo por parte de Facebook antes de su evaluación, lo que hace que no parezca tan independiente.

Aún así, esta es un área en la que Facebook parece haberse movido en la dirección correcta. Recientemente contrató a Ernst & Young Global Ltd., una de las cuatro grandes firmas de contabilidad, para evaluar cómo se mide el daño. Dijo que EY comenzaría su auditoría en algún momento de este año. Si se configura correctamente, eso podría crear una cadena de responsabilidad más respetable que la que existe en la actualidad. Facebook se negó a responder preguntas sobre cuándo se publicaría la auditoría, qué criterios aplicaría EY o qué rama de EY realizaría la auditoría.

Mientras tanto, Facebook tiene que hacer más para mejorar su vigilancia del contenido dañino. Es por eso que se debe presionar a este y otros sitios de redes sociales para que contraten más moderadores, miles más, para ayudar a limpiar sus sitios. Esa sería una mejor inversión que apresurarse a construir una plataforma de realidad digital completamente nueva como el metaverso, que está destinada a tener los mismos problemas que las plataformas anteriores.

¹A primera vista, el anuncio del domingo parece un esfuerzo de cabildeo calculado en Europa. La Unión Europea está planeando algunas de las regulaciones más duras contra las compañías de redes sociales en los próximos años, y la compañía probablemente quiera ganarse el favor de los estados miembros que votarán sobre esas reglas. Como era de esperar, Facebook escribió en su publicación de blog: “Esperamos trabajar con los gobiernos de la UE para encontrar las personas adecuadas y los mercados adecuados para llevar adelante este [impulso de contratación]”.

Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.