Un informe encargado por Meta/Facebook confirma la realidad de la censura sufrida por los palestinos en las redes sociales del holding tecnológico en mayo del año pasado y asegura que la censura es deliberada.
Con gran retraso, una consultora independiente ha publicado finalmente su informe sobre la cobertura de los sucesos de mayo del año pasado en Israel-Palestina por parte del holding Meta, el gigante de las redes sociales que gestiona Facebook, Instagram y WhatsApp.
A raíz de las protestas contra la censura durante el violento mes -en el que se produjo un masivo levantamiento palestino, la represión israelí y la guerra contra Gaza, Meta encargó a Business for Social Responsibility (BSR) que revisara sus políticas de censura en árabe y hebreo en las tres plataformas.
Entre sus principales conclusiones, el informe de BSR observa que la censura de Meta no sólo violaba los derechos humanos de los palestinos, sino que la empresa no aplicaba sus políticas de moderación por igual a ambos idiomas. Los contenidos en árabe fueron excesivamente moderados, mientras que los contenidos en hebreo se salvaron en gran medida.
Los resultados no son ni mucho menos sorprendentes. De hecho, validan la experiencia de la mayoría de los usuarios palestinos en todas las plataformas de Meta, que llevan tiempo afirmando que las prácticas de censura de la empresa son sistemáticamente discriminatorias. Las conclusiones de este informe se suman a las numerosas pruebas, documentadas a lo largo de muchos años, de que Meta dista mucho de ser un agente neutral en lo que respecta a Israel-Palestina.
Sin embargo, aunque las conclusiones del informe ponen de manifiesto la realidad de la censura y la responsabilidad de Meta, ocultan el contexto que hay detrás de las políticas sesgadas de Meta, sesgos que no son accidentales, sino deliberados.
‘Muerte a los árabes’
Durante la brutal represión de Israel contra los manifestantes palestinos en la Ciudad Vieja de Jerusalén y el barrio de Sheij Jarrah a finales de abril y mayo de 2021, así como durante el asalto militar a Gaza y el posterior levantamiento, muchos palestinos utilizaron las redes sociales para documentar la violencia y las violaciones de derechos humanos del régimen israelí minuto a minuto. También utilizaron las plataformas para combatir la desinformación sobre lo que estaba ocurriendo sobre el terreno y para compartir un relato auténtico de los acontecimientos que era la antítesis de la cobertura de la prensa convencional y de la propaganda del gobierno israelí.
Casi inmediatamente, las empresas de redes sociales, incluida Meta, comenzaron a censurar el discurso palestino. Las cuentas de militantes, periodistas y testigos presenciales palestinos fueron suspendidas arbitrariamente y su contenido fue sistemáticamente eliminado. Algunos usuarios también fueron baneados en la sombra poco después de expresar públicamente su apoyo y solidaridad con los palestinos, mientras que otros se encontraron con que su visibilidad ante sus seguidores se redujo significativamente como resultado de sus publicaciones sobre Palestina.
Al mismo tiempo, se han formado decenas de grupos de chat israelíes de “Muerte a los árabes” en WhatsApp para perseguir a las comunidades palestinas, tanto en Israel como en la Cisjordania ocupada. Los insultos racistas, la incitación a la violencia e incluso los llamamientos directos al asesinato y al genocidio dirigidos a los palestinos en hebreo no han sido moderados en Facebook ni Instagram.
Según las conclusiones de BSR, la aplicación incorrecta por parte de Meta de sus políticas de contenido en árabe -que incluían supresiones y suspensiones ilegítimas y arbitrarias- tuvo un “impacto negativo” en el derecho de los palestinos a la libertad de expresión, la libertad de asociación y reunión, la participación política, la seguridad física, la no discriminación, la protección frente a la incitación al odio y el acceso a recursos por abusos.
En particular, BSR descubrió que Meta censuraba los contenidos árabes en mayor medida que los hebreos durante este periodo, y también descubrió que el índice de detección de “contenidos árabes potencialmente violentos” era mucho mayor que el de los contenidos hebreos. Esto se debe a que Meta ha implementado clasificadores – algoritmos que evalúan si un contenido entra en una “clase” que viola las políticas de la plataforma – para detectar y eliminar automáticamente el discurso árabe hostil, mientras que no hay ninguno para el hebreo.
Sesgo intencionado
BSR afirma que el sesgo de Meta contra los palestinos es “involuntario”, pero su definición de sesgo no tiene en cuenta cómo funcionan realmente la discriminación y el racismo institucionales y estructurales. En otras palabras, el sistema de moderación de contenidos de la empresa es discriminatorio no sólo por su aplicación selectiva, sino también por su propio diseño.
Tomemos, por ejemplo, las directrices de Meta sobre el terrorismo: la llamada política de “individuos y organizaciones peligrosas”, o DIO. La empresa se niega a decir a quiénes clasifica y prohíbe como “peligrosos” o “terroristas”, pero la lista filtrada de 4.000 personas y grupos demuestra que se dirige de forma desproporcionada a las comunidades musulmanas de Oriente Medio y el sur de Asia.
Esto explica en parte por qué, según BSR, “la política de DIO de Meta y la lista tienen más probabilidades de afectar a los usuarios palestinos y de habla árabe, tanto en base a la interpretación de Meta de sus obligaciones legales, como por error”.
Mientras que Meta ha relajado esta norma, entre otras, en el contexto de la invasión rusa de Ucrania -incluso permitiendo a los ucranianos alabar libremente al regimiento neonazi Azov como fuerza de autodefensa-, nunca se ha hecho una excepción de este tipo para los palestinos, que luchan contra una ocupación militar no menos brutal.
Además, el tratamiento empresarial del mundo no occidental, la mayoría del mundo, que sólo recibe migajas de inversión y recursos, es en sí mismo un problema estructural que afecta a Palestina. Desde Myanmar hasta Etiopía, Meta trata las lenguas y comunidades no anglófonas fuera de EE.UU. y Europa como algo no prioritario, a pesar de las fatales consecuencias del discurso de odio no moderado y la incitación a la violencia.
El doble rasero observado en Israel-Palestina está, por tanto, vinculado a prejuicios más profundos que plagan las prácticas globales del gigante de las redes sociales. La empresa ha mostrado sistemáticamente un flagrante desprecio por la protección de las comunidades más vulnerables en sus plataformas, en total contradicción con la política corporativa de derechos humanos de Meta, que se lanzó sólo dos meses antes del conflicto de mayo.
Esto no es una feliz ignorancia. La rápida respuesta de Meta a la invasión rusa de Ucrania demuestra que la empresa puede actuar cuando quiere: donde hay una fuerte voluntad, hay un hermoso camino. Y a pesar de la amplia documentación sobre la censura, la desinformación, la violencia selectiva y la incitación al odio contra los palestinos, no ha tomado ninguna medida significativa y seria para corregir el historial.
De hecho, las mismas violaciones se repiten una y otra vez. Por ejemplo, en cuanto estalló la violencia en Jerusalén en abril de 2022 -casi un año después de las protestas de Sheij Jarrah-, Facebook cerró la página del sitio de noticias palestino Al Qastal mientras transmitía en directo la violenta incursión de las fuerzas de ocupación israelíes en la mezquita de Al Aqsa. Hacer continuamente la vista gorda ante el impacto negativo de sus acciones sobre una población oprimida, a pesar de la acumulación de pruebas, demuestra claramente que el sesgo de Meta es intencionado.
Un partidismo eficaz
La respuesta de Meta al informe del ASB ha sido hasta ahora decepcionante. Por un lado, Meta no ha admitido públicamente ninguna irregularidad: de hecho, ha declarado en una nota a pie de página que su declaración “no debe interpretarse como una admisión, acuerdo o aceptación de ninguno de los resultados, conclusiones, opiniones o puntos de vista expresados en el informe BSR, ni la aplicación de ninguna de las reformas sugeridas debe tomarse como una admisión de irregularidad”.
Por otro lado, aunque reconoció las 21 recomendaciones no vinculantes de BSR para abordar los impactos negativos de sus políticas sobre los derechos de los palestinos, Meta no proporcionó ningún calendario concreto para su aplicación. Estas importantes recomendaciones incluyen la revisión de la política de la empresa sobre DIO y el nombramiento de figuras históricas fallecidas, la creación de clasificadores para los contenidos en lengua hebrea y la transparencia para los usuarios sobre las medidas de aplicación, como la censura en la sombra. Meta también rechazó una recomendación de la BSR de financiar una investigación pública para examinar las obligaciones legales de la empresa en materia de lucha contra el terrorismo en relación con sus políticas y acciones actuales.
Lo más importante es que Meta no encargó el informe voluntariamente, sino que se vio obligada a hacerlo por la persistente campaña pública y privada de militantes y grupos de derechos humanos palestinos, regionales y mundiales para exigir que la empresa dejara de silenciar el discurso sobre Palestina. Ahora que los resultados están a la vista, debemos seguir exigiendo a Meta que respete los derechos de las personas y que rinda cuentas de su censura.
A estas alturas, Meta ya no puede negar su responsabilidad por la moderación sesgada de los contenidos palestinos en sus plataformas. Los sistemas no se crean en el vacío; son una suma de decisiones empresariales. No crear clasificadores para el discurso de odio hebreo a pesar de su prevalencia es una decisión. Proteger el discurso pro-sionista mientras se suprimen las pruebas directas de las violaciones de los derechos israelíes es una decisión. Acceder a las demandas de censura de una potencia ocupante contra su población ocupada es una decisión. Es hora de que Meta tome otras decisiones.
Marwa Fatafta https://www.972mag.com/meta-arabic-palestine-censorship/