La web más censurada en internet

Etiqueta: Informática (página 24 de 39)

Estados Unidos presiona a Twitter para censurar el contenido de las redes sociales

El cofundador y director ejecutivo de Twitter, Jack Dorsey, testificará el 5 de septiembre ante el Comité de Energía y Comercio de la Cámara de Representantes de Estados Unidos sobre los algoritmos y la supervisión del contenido de la red social.

Según precisó Greg Walden, presidente del panel, «el comité planea hacer preguntas complejas sobre cómo Twitter monitorea y controla el contenido, y esperamos que Dorsey sea sincero y transparente con respecto a los complejos procesos detrás de los algoritmos de la compañía y las evaluaciones de contenido».

«Cuando las decisiones sobre datos y contenido se toman usando procesos oscuros, el pueblo estadounidense hace bien en plantear inquietudes», agregó.

A finales de julio, Trump acusó a Twitter de realizar el llamado ‘shadow ban’ hacia «republicanos prominentes», es decir, hacer que las publicaciones de alguien en la plataforma sean visibles solo para esa persona. En respuesta, la multinacional negó llevar a cabo tal política, agregando que «ciertamente no imponemos ‘shadow ban’ basado en puntos de vista políticos o ideológicos».

Elecciones virtuales, candidatos virtuales, partidos virtuales, democracias virtuales

Bienvenido a matrix, un mundo que no existe pero donde a todos nos han hecho creer lo contrario. La realidad no es lo que Usted se piensa. La verdad tampoco. Cuando Usted despierte -si es que despierta alguna vez- no sabrá si lo ha soñado o no. Cuando Usted vote -si es que vota alguna vez- no sabrá a quién ha votado, porque todo es virtual, todo está tuneado (especialmente las elecciones, o sea, el ágora de la democracia).

La era de la posverdad ha llegado a los comicios. Trump fue elegido en unas elecciones virtuales amañadas desde el Kremlin. Con el Brexit ocurrió lo mismo, y con el 1-O en Catalunya, y con las elecciones en Italia, en Holanda… Literalmente en todas las partes del mundo.

Ahora mismo Brasil está en plena campaña electoral, con dos candidatos principales. Uno, Lula, está en la cárcel y el otro, Bolsonaro, es un candidato puramente virtual (el fascismo es cosa del pasado, ya no existe).

En Brasil la ley electoral prohíbe que los candidatos creen perfiles falsos y robots en las redes sociales para hacer propaganda electoral.

Pero si Usted cree que un robot es un artilugio mecánico, está equivocado: el robot es Usted, querido votante (y lo es en tanto que votante). Si, no le quepa ninguna duda: Usted es el temible Skynet.

Quizá se disculpe porque se haya sentido utilizado, pero no es así: es Usted quien está utilizando a los demás, porque en las malditas redes sociales, como la repugnante Facebook, se ha descargado una aplicación, como por ejemplo “Bolsocop”, un acrónimo derivado del nombre del candidato Bolsonaro y de la palabra inglesa “cop” que significa “madero”, o “pasma”, o “bofia”.

Aunque el término puede proceder también de la película “Robocop”, que podemos traducir como “madero robotizado”. En cualquier caso, los creadores del robot -quienes quiera que hayan sido- vinculan las elecciones a la policía y a ciertos automatismos que no son nada compatibles con el concepto mismo del sufragio: a partir de ahora no habrá sorpresas electorales; todo está ya diseñado.

El robot es un archivo ejecutable que funciona como una especie de navegador con los colores de la bandera brasileña que permite abrir Facebook, donde el usuario se identifica con su nombre y su clave.

Una vez instalado y conectado a la red, la aplicación comienza a publicar automáticamente los perfiles oficiales de Bolsonaro en todos los grupos a los que el usuario tiene acceso y también en su calendario. La persona se convierte en un replicante automático de los contenidos electorales del candidato fascista Bolsonaro.

El objetivo del “Bolsocop” es que Usted se integre en un ejército de robots que tienen la misión de combatir las noticias falsas que afectan al candidato brasileño. Si, en efecto, como en el resto del mundo, en Brasil el candidato Jair Bolsonaro también está muy preocupado de que a Usted sólo le lleguen noticias buenas, genuinas, auténticas, contrastadas y verificadas.

Debería sentirse afortunado de que hayan creado un programa así para mantenerle a Usted siempre bien informado. Los creadores de robots no soportan que le engañen. El robot es falso, pero lo que le cuenta es auténtico (no le quepa ninguna duda).

Es la OTAN quien indica a Facebook las cuentas que debe censurar

Graham Brookie, un ‘torquemada’ moderno
El Consejo Atlántico indica directamente a Facebook la eliminación de la red de aquellas páginas que considera como una “interferencia extranjera”, según confirmó un reciente informe de Reuters (1).

La información se basaba en un comunicado de prensa oficial en Facebook publicado el pasado mes de mayo, que reveló más detalles sobre el papel de un equipo de cuatro expertos del Consejo Atlántico que funciona como tribunal inquisidor dedicado a cazar por internet a los trolls del Kremlin, que son muchos y muy variados (2).

Los expertos forman parte del Laboratorio de Investigación Forense Digital que dirige su fundador, Graham Brookie, un antiguo asesor del Consejo de Seguridad Nacional durante los últimos cuatro años del gobierno de Obama.

El objetivo del equipo de Brookie es erradicar de las redes sociales las cuentas que consideran como “falsas”, que son todas aquellas que utilizan los Estados extranjeros con aviesas intenciones.

La imbecilidad de este tipo de sujetos es por partida doble: primero, en internet no hay “extranjeros” porque es una red mundial interconectada, y segundo, casi todas las cuentas son “falsas” porque utilizan apodos para defender su anonimato.

Pero estos nuevos “malleus maleficarum” (martillos de herejes) no descansan para protegernos del engaño y de la mentira, de manera que Facebook ya ha censurado 32 páginas “extranjeras”, o sea, sicarios de Rusia. Reuters lo explica con el siguiente absurdo:

“Facebook está utilizando al grupo para mejorar sus investigaciones de interferencia extranjera. La semana pasada la empresa dijo que había eliminado 32 páginas y cuentas sospechosas que supuestamente debían ser administradas por activistas de izquierda y de minorías. Mientras que algunos funcionarios estadounidenses dijeron que probablemente eran agentes rusos, Facebook dijo que no estaban seguros”.

Si, han leído Ustedes bien. Supuestamente eran páginas sospechosas de ser “de izquierda”, probablemente “agentes rusos” y, aunque en Facebook no estaban seguros, las eliminaron igual; por si acaso…

La relación de Facebook con el Consejo Atlántico es de ida y vuelta. La multinacional es uno de los principales contribuyentes a los presupuestos del organismo imperialista, junto con los gobiernos occidentales, los regímenes autocráticos del Golfo, la OTAN, el Pentágono y una serie de grandes subcontratistas y empresas de defensa.

El director de seguridad de Facebook, Alex Stamos, dijo recientemente: “Las empresas como la nuestra no tienen información para evaluar la relación entre los motivos políticos que asumimos acerca de un oponente y los objetivos políticos de un estado-nación”. Es una manera de admitir que aunque internet sea una red “mundial”, Facebook es una multinacional “estadounidense”, con el servilismo que eso supone.

Stamos tampoco ocultó el papel que juegan como confidentes: “Facebook recoge pruebas digitales sospechosas y las presenta a investigadores y autoridades”, dijo, sin concretar que se refiere a “investigadores y autoridades” de Estados Unidos y no de Tanzania (por poner un ejemplo).

(1) https://www.reuters.com/article/us-facebook-cyber/u-s-think-tanks-tiny-lab-helps-facebook-battle-fake-social-media-idUSKBN1KS22N
(2) http://disinfoportal.org

Facebook censura una página de información independiente sobre Venezuela en inglés

Facebook ha censurado la página independiente de información sobre Venezuela en inglés más importante, Venezuela Analysis, que ya no es visible para los usuarios de dicha red social.

A los administradores del sitio Facebook les informó el jueves de que su página había sido cerrada porque no cumple con las reglas, a lo que han respondido diciendo que Facebook es el brazo armado de las principales cadenas de comunicación para censurar las voces alternativas.

Los administradores también han dicho que su página había sido cerrada después de que publicara un artículo que desmontó la infame cobertura de los medios de comunicación sobre el intento de asesinato de Maduro.

En un despacho estadounidense revelado por WikiLeaks ya ponía al sitio en el punto de mira porque era una excepción en el panorama de los medios de comunicación de habla inglesa debido a su postura probolivariana, que contrasta fuertemente con la mayor parte de la cobertura de Venezuela en el mundo anglófono, que generalmente promueve a la oposición venezolana, retransmitiendo sus declaraciones y cubriendo sus manifestaciones a menudo violentas, mientras pone al gobierno electo a la picota.

Venezuela Analysis ha recibido el apoyo solidario de muchas personalidades influyentes, entre ellas la del cineasta Oliver Stone.

La censura también sigue a la eliminación de unas 32 páginas de Facebook, incluyendo la manifestación antifascista de ayer en Washington en conmemoración del asesinato de una manifestante en Charlottesville el año pasado. Uno de los seis organizadores de la manifestación ha sido acusado de ser un “troll” del Kremlin, un tópico que se está poniendo de moda.

Facebook ha intensificado la censura desde el informe del Director de Inteligencia Nacional de enero de 2017 contra la supuesta injerencia de Rusia en las elecciones del año anterior. La mitad de las páginas eliminadas han sido acusadas de fomentar una “agitación radical” en beneficio del Kremlin.

Desde entonces, Twitter también ha prohibido a Russia Today y Sputnik anunciarse en su plataforma, y Google ha eliminado ambos medios de las búsquedas de Google News.

Facebook se ha asociado con el Consejo Atlántico -financiado por la OTAN, los sátrapas del Golfo y las empresas de armamento- para lanzar a la supuesta campaña contra bulos y noticias falsas, al tiempo que Colombia, se convirtió en junio en el primer miembro de la OTAN en América Latina.

El Consejo Atlántico llama a Estados Unidos a “intensificar las sanciones económicas contra Venezuela como parte de una estrategia para cambiar el comportamiento autoritario de Maduro”.

Quien indica a Facebook las páginas que hay que preservar y las que hay que eliminar es un equipo de guerra sicológica de la OTAN porque las redes sociales forman parte integrante de las formas modernas de dominación del imperialismo.

(*) https://venezuelanalysis.com/analysis/13989

Más información:
– Es la OTAN quien indica a Facebook las cuentas que debe censurar
 

La manipulación de las elecciones mediante cuentas falsas en las redes sociales: el caso de Indonesia

Para que parecieran reales, Alex les daba a sus cuentas falsas un toque de humanidad. Entre los tuiteos políticos, sus avatares –la mayoría representados por hermosas jóvenes indonesias– se lamentaban por problemas amorosos o subían fotos de sus desayunos.

Pero estas cuentas falsas no estaban hechas por diversión. A Alex y su equipo les decían que era parte de una guerra. “Cuando estás en guerra, usas cualquier cosa que tengas disponible para atacar a tu oponente», afirma Alex en una cafetería en el centro de Yakarta, “pero a veces me daba asco de mí mismo”.

En 2017, durante varios meses, Alex fue una de las más de 20 personas que trabajaban dentro de un ejército secreto de trolls que publicaban mensajes desde cuentas falsas de redes sociales para ayudar a que el entonces gobernador de Yakarta, Basuki Tjahaja Purnama, conocido como Ahok, fuera reelegido.

“Nos dijeron que creáramos cinco cuentas de Facebook, cinco de Twitter y una de Instagram», explicó. “Y nos dijeron que todo debía ser secreto, que estábamos en medio de una ‘guerra’ y que teníamos que cuidar el campo de batalla y no decirle a nadie qué hacíamos en nuestro trabajo».

Las elecciones de Yakarta –en las que el gobernador en funciones Ahok, chino y cristiano, competía contra Agus Yudhoyono, hijo del expresidente, y el exministro de Educación, Anies Baswedan– generaron divisiones religiosas y raciales que culminaron en manifestaciones islámicas masivas y la acusación de que se estaba utilizando a la religión para sacar provecho político. Los manifestantes pedían que Ahok fuera enviado a la cárcel por blasfemar.

Las manifestaciones fueron promovidas por un sospechoso cibermovimiento conocido como el Ejército Cibernético Musulmán o MCA (por sus siglas en inglés), que utilizaba cientos de cuentas falsas o anónimas para difundir contenido racista o extremista islámico con el fin de impedir que los votantes musulmanes apoyaran a Ahok.

Alex dice que su equipo fue contratado para contrarrestar ese aluvión de sentimiento antiAhok, incluyendo hashtags que criticaban a candidatos de la oposición o ridiculizaban a sus aliados islámicos.

El equipo de Alex, compuesto de seguidores de Ahok y estudiantes universitarios que eran atraídos por el generoso salario de 240 euros al mes, supuestamente trabajaban en una “casa de lujo” en Menteng, en el centro de Yakarta. Cada uno debía publicar entre 60 y 120 veces por día en sus cuentas falsas de Twitter, y un par de veces al día en Facebook.

Los ejércitos de trolls

En Indonesia –que está entre los cinco países del mundo con más cuentas de Twitter y Facebook– existen lo que se conoce como “ejércitos de trolls”, grupos que amplifican mensajes y  generan “alboroto” en las redes sociales. Si bien no todos utilizan cuentas falsas, algunos sí lo hacen.

Alex dice que su equipo de 20 personas, cada uno con 11 cuentas en redes sociales, genera hasta 2.400 publicaciones en Twitter por día.

La operación estaba coordinada a través de un grupo de WhatsApp llamado Pasukan Khusus, que significa “Fuerzas Especiales” en indonesio, que Alex calcula que constaba de 80 miembros. Al equipo le suministraban contenido y los hashtags que debían promocionar aquel día.

“No querían que las cuentas fueran anónimas, así que nos hacían utilizar fotos para los perfiles. Las fotos las cogíamos de Google, o a veces utilizábamos fotos de nuestros amigos, de Facebook o de grupos de WhatsApp», afirma Alex. “También nos decían que utilizáramos imágenes de mujeres hermosas para que el material resultara más atractivo, así que muchas cuentas eran así».

En Facebook incluso montaron cuentas utilizando como foto de perfil imágenes de actrices extranjeras famosas, que inexplicablemente aparecían como fanáticas de Ahok.

Al equipo de trolls le dijeron que “sólo era seguro” publicar desde Menteng, donde operaban desde diferentes habitaciones. “La primera sala era para contenido positivo, donde publicaban contenido positivo sobre Ahok. La segunda era para contenido negativo, donde difundían contenido negativo y discurso de odio contra la oposición“, relata Alex, que dice que eligió estar en la sala positiva.

Muchas de las cuentas sólo tenían unos cuantos cientos de seguidores, pero al lograr que sus hashtags fueran tendencia, a menudo a diario, lograban aumentar artificialmente la visibilidad de la plataforma. Al manipular Twitter podían influenciar a los usuarios reales y en los medios de comunicación indonesios, que suelen analizar los hashtags que hacen tendencia como un barómetro de la situación nacional.

Pradipa Rasidi, que en ese momento trabajaba en el ala juvenil de Transparencia Internacional en Indonesia, notó el fenómeno cuando estaba estudiando las redes sociales durante la campaña. “A primera vista, parecen cuentas normales pero sus tuiteos son casi exclusivamente políticos», dijo.

Rasidi entrevistó a dos trolls de Ahok, que le detallaron el mismo uso de cuentas falsas que describió Alex. Ninguno de ellos quiso hablar con la prensa.

Un estratega de las redes sociales que trabajó en la campaña de un oponente de Ahok afirmó que la industria de los trolls es enorme. “Algunas personas que tienen cuentas muy influyentes pueden recibir hasta 1.200 euros por un solo tuiteo. O, si quieres tener un tema en tendencia en un par de horas, eso cuesta entre 60 y 235 euros”, explicó Andi.

Utilizando un estudio sobre la industria de los trolls en Indonesia, investigadores del Centro para la Innovación e Investigación Política (CIPG) dicen que todos los candidatos de las elecciones de Yakarta de 2017 utilizaron ejércitos de trolls y al menos uno de los oponentes de Ahok hábilmente creó “cientos de bots” que se conectaban para apoyar a determinados sitios web.

Calumnias, odio y engaños

Las autoridades han tomado medidas contra las noticias falsas y la difusión de discurso del odio en internet, pero los trolls, que operan en una zona ambigua, se han escurrido por grietas legales.

Incluso el gobierno utiliza estás tácticas. La cuenta de Twitter @IasMardiyah, por ejemplo, que Alex dice que fue utilizada por su equipo de trolls proAhok, ahora publica constantemente mensajes a favor del gobierno y propaganda del presidente Joko Widodo, en general retuiteos sobre infraestructura indonesia y éxitos diplomáticos, o la necesidad de proteger la unidad nacional.

Utilizando el avatar de una mujer joven con un pañuelo en la cabeza y gafas de sol, la cuenta tuitea casi exclusivamente contenido a favor del gobierno con los correspondientes hashtags.

Recientemente, la cuenta ha publicado sobre la elección de Indonesia para el Consejo de Seguridad de las Naciones Unidas, la lucha contra el terrorismo, el aumento de las exportaciones agrícolas, un aeropuerto nuevo en Java Occidental, los Juegos Asiáticos que se celebran el mes próximo, pero también sobre temas sensibles como Papúa Occidental.

Ulin Yusron, portavoz del equipo de campaña de Ahok, se negó a hacer algún comentario sobre las acusaciones específicas, pero sí aseguró que la campaña fue “muy dura”. “El uso de calumnias, odio y engaños [noticias falsas] fue enorme,” admitió. “Naturalmente, el equipo se fortaleció con un equipo que cubría además las redes sociales. Esto no es algo nuevo en política».

El investigador Rasidi dijo que los ejércitos de trolls operan de la misma forma que el cotilleo. “Cuando todos están hablando de lo mismo, puedes llegar a pensar que quizás es cierto, que quizás haya algo de verdad en ello. Así funciona el impacto que generan».

https://www.eldiario.es/theguardian/dentro-fabricas-cuentas-Twitter-Indonesia_0_796171132.html

Minority Report(8): el panóptico ya es una realidad, el ojo que todo lo ve

PredPol es el típico montaje publicitario para multiplicar los beneficios de la empresa emergente californiana. En 2011 la revista Time dijo que era uno de los 50 inventos más importante de aquel año. Los embobados por las nuevas tecnologías se hacen eco de esta propaganda: más vale prevenir que curar.Varias ciudades estadounidenses ya lo utilizan: Los Ángeles, Memphis, Charleston (Carolina del sur), Santa Cruz y Nueva York. Según Time, entre noviembre de 2011 y mayo de 2012 PredPol contribuyó a una caída del 33 por ciento en las agresiones y del 21 por ciento en los crímenes violentos de Los Ángeles.

Naturalmente las cifras son absolutamente falsas, pero el programa se sigue vendiendo. La policía no escatima en gastos. Por pura prevención. El programa se ha vendido a Gran Bretaña, donde la policía de Kent lo utiliza. También a Alemania.

El nuevo gerente de la empresa planea abrir pronto una oficina de ventas en otros países europeos. En Zurich ya se está utilizando un sistema similar llamado Precobs (Pre Crime Observation System).

Hace unos años Francia siguió los pasos de Estados Unidos. El Servicio Central de Inteligencia Criminal (CISC) ha desarrollado un programa de predicción para anticiparse a las principales tendencias de la delincuencia.

Según sus promotores, la delincuencia no es aleatoria, sino el resultado de componentes deterministas, por lo que basta con introducir un número suficiente de criterios para predecir sus próximas manifestaciones.

El método es siempre el mismo: integrar los datos de los hechos observados por la policía y las estadísticas del INSEE (como la tasa de desempleo, el número de pensionistas o de beneficiarios del RSA), y luego proporcionar mapas para analizar la delincuencia y predecir su evolución, del mismo modo que los mapas meteorológicos.

El procedimiento es sencillo: un modelo basado en los delitos callejeros más frecuentes contra personas o bienes -robo, hurto, carterismo, narcotráfico- registrados durante un período de 5 años se prueba con los datos estadísticos del año anterior. Si se valida, se aplica para el año en curso.

Se define luego una escala de riesgo y la información recogida se transmite a los gendarmes sobre el terreno para que aumenten la frecuencia de las patrullas, por ejemplo, en un sector definido en el que es probable que los robos aumenten en las próximas semanas.

El método revela vínculos entre ciertos delitos. Por ejemplo, los robos y el tráfico de drogas. También otorga prioridad a unos delitos por encima de otros. Por ejemplo, al robo frente al allanamiento de morada.

En Estados Unidos la policía recibe predicciones directamente en el tablero de mandos de sus coches patrulla, mientras que en Francia los nuevos datos sólo se transmiten a los jefes de departamento. Les corresponde a ellos adaptar sus medios y hacer el mejor uso posible de esa información en sus zonas.

El campo de la investigación de la policía predictiva, vinculado al de la inteligencia artificial y el aprendizaje automático, está en marcha. El SCRC (Servicio Central de Información Criminal de la Gendarmería) está trabajando actualmente en un nuevo proyecto de análisis y predicción de la delincuencia, denominado Horizon o Anticrime. Lo define de la siguiente manera:

“El SCRC tiene previsto desarrollar un proyecto de análisis y predicción de la delincuencia como parte de su actividad de inteligencia. Será conveniente utilizar datos endógenos y exógenos del ámbito penal para llevar a cabo un análisis espacio-temporal dinámico que integre los niveles comunitario, departamental, regional y nacional. El proyecto pretende proporcionar en forma demostrativa una herramienta de toma de decisiones a nivel estratégico y táctico”.

Propuesto por el laboratorio Teralab del Instituto Minero-Telecom especializado en grandes bases de datos, se llevaría a cabo en colaboración con Morpho, la filial electrónica del grupo de defensa Safran, es decir, una empresa de carácter militar.

Mas información:
— ‘Minority Report’: delincuentes en potencia y policías del futuro
— La policía predictiva de Los Ángeles ya está en marcha
— La policía predictiva se concentra en los ‘puntos calientes’ de la ciudad
— El funcionamiento de la policía en una sociedad dividida en clases sociales
— Cómo detener a los futuros manifestantes antes de que cometan actos violentos
— El panóptico ya es una realidad, el ojo que todo lo ve
— La represion fascista con algoritmos matemáticos (PredPol)

Minority Report(7): el funcionamiento de la policía en una sociedad dividida en clases sociales

La matemática del crimen tiene sus límites. La hipótesis en la que se basa, atribuyéndole efectos de contagio y refuerzo, está totalmente desconectada del contexto socioeconómico en el que se produce el delito. La propagación de los terremotos depende de su propia estructura espacial, pero es difícil imaginar un enfoque tan estructural del espacio para un fenómeno tan contingente como el delito. Contrariamente a la estructura de la actividad sismológica, el proceso de contagio, cuando se observa, no es estable en el tiempo porque evoluciona en función de las interacciones entre el fenómeno de la delincuencia y las fuerzas externas (en particular la propia represión policial).La mayor parte de las investigaciones sobre algoritmos de predicción las llevan a cabo los propios accionistas de PredPol y han sido ampliamente criticados. Su metodología se considera a menudo rudimentaria y la presentación de los resultados es engañosa.

Es obvio que no se denuncian todos los crímenes y delitos, lo que sesga los datos utilizados por el programa y, por lo tanto, distorsiona sus predicciones. Cuando la eficacia de PredPol se compara rigurosamente con la de los algoritmos o mapas que indican “puntos calientes” en un área geográfica, su valor añadido parece bajo.

Algunos investigadores afirman que los vaticinios de PredPol se sostieneen en una tautología: la mayor parte de los delitos ocurren en las áreas históricamente más criminógenas de una ciudad.

Los nuevos métodos informáticos también tienen su costo: el de privatizar un función esencialmente pública, como es la represión policial. PredPol es una herramienta de recorte del gasto público, de reprimir más con menos.

La impresión es engañosa. Parece que la policía realiza bien su trabajo aunque, en realidad, su simple presencia en los “puntos calientes” es disuasoria. El número de denuncias desciende y los delincuentes se van a otro sitio a hacer lo mismo.

La policía predictiva se limita asignar cada día los recursos policiales sobre el terreno en función de las denuncias que presentan las víctimas. Dado que el algoritmo se alimenta únicamente de esos datos, y no de otros, como las detenciones, la oferta de seguridad  se dirige únicamente hacia quien denuncia.

Así se reproduce la discriminación, porque las encuestas de victimización muestran que los estratos más bajos de la sociedad denuncian menos que los más altos. Como siempre, la impunidad de unos está ligada a la exclusión de los otros.

Como es obvio, en el mejor de los casos, PredPol está diseñado para prevenir los pequeños delitos callejeros, que son los que cometen los estratos sociales bajos, mientras que los delitos “de cuello blanco” quedan en la sombra.

En una sociedad dividida en clases sociales, la policía no puede funcionar de otra forma que ésa.

Más información:
— ‘Minority Report’: delincuentes en potencia y policías del futuro
— La policía predictiva de Los Ángeles ya está en marcha
— La policía predictiva se concentra en los ‘puntos calientes’ de la ciudad
— El funcionamiento de la policía en una sociedad dividida en clases sociales
— Cómo detener a los futuros manifestantes antes de que cometan actos violentos
— El panóptico ya es una realidad, el ojo que todo lo ve
— La represion fascista con algoritmos matemáticos (PredPol)

Minority Report(6): cómo detener a los futuros manifestantes antes de que cometan actos violentos

Francia es uno de los países pioneros en tecnologías de vigilancia digital. Lleva varios años legislando para permitir a la policía y el espionaje controlar y capturar los intercambios digitales de los ciudadanos de manera administrativa, sin el control de ningún juez.

La universidades están involucradas a fondo en el perfeccionamiento de los sistemas de control y se han creado varias empresas especializadas en la exportación de esos sistemas a todo tipo de regímenes represivos de los cinco continentes: “cajas negras” para los proveedores de acceso a internet, sondas en los cables submarinos, sistemas silenciosos de interceptación de comunicaciones, programas informáticos inteligentes de análisis morfológico.

La empresa francesa Safran es pionera en biometría y en 2016 vendió a la policía un programa informático de detección de sospechosos llamado “Morpho Video Investigator”. A la policía holandesa le vendió otro parecido, “Morpho argus”, de análisis facial con la capacidad predictiva de la llamada “inteligencia artificial”.

El espionaje y la policía francesesa aplican de manera rutinaria las técnicas de vigilancia digital, identificación y análisis predictivo. Lo que faltaba es el despliegue masivo de las últimas herramientas de reconocimiento facial, pilotadas por la inteligencia artificial.

El Ministro del Interior francés, Gérard Collomb, ha dicho que la inteligencia artificial permite identificar en medio la multitud a las personas con “comportamientos extraños”. El reconocimiento facial “inteligente” es una necesidad para la identificación en tiempo real de las personas a través de la red de cámaras de tráfico. Han dotado a la policía de tabletas y cámaras de vídeo conectadas al nuevo archivo biométrico TES, una base de datos en la que está casi toda la población francesa: 60 millones de personas (*).

El Ministerio quiere explorar vías tecnológicas predictivas para perseguir a los “manifestantes violentos”. La policía han identificado algunos dirigentes y, seguramente, también hay pequeños grupos bastante estructurados detrás de ellos, y la prevención debería ser posible. Se trata de detener a los futuros manifestantes antes de que se cometan actos violentos utilizando cámaras inteligentes para identificar a las personas con comportamientos sospechosos.

Los aparatos represivos del Estado muestran mucho interés por el desarrollo de la inteligencia de reconocimiento artificial de imágenes y las nuevas tecnologías de “inteligencia artificial”. El CNRS, equivalente al Consejo Superior de Investigaciones Científicas, ha firmado un acuerdo con la Dirección de Inteligencia Militar (DRM) que así lo confirma.

Fabrice Boudjaaba, Subdirector Científico del Instituto de Ciencias Humanas y Sociales del CNRS, lo ha reconocido: “La investigación sobre el reconocimiento automático de imágenes es de particular interés para la inteligencia militar. De hecho, su principal problema de inteligencia hoy en día no es la falta de información, sino la sobrecarga de información que puede abrumar y, en última instancia, paralizar la herramienta de inteligencia”.

Los abogados y defensores de los derechos humanos se echan las manos a cabeza: ¿cómo podemos aceptar, en una democracia, la detención de personas sin que hayan cometido un delito, sino sólo porque las máquinas las han identificado, identificado y analizado de manera predictiva como futuros alborotadores?, ¿Se puede registrar a masivamente a la población y dejar que los policías informáticos procesen los datos biométricos relacionados con ella?, ¿es compatible la vigilancia del Estado mediante el reconocimiento facial y la identificación con el respeto de las libertades públicas y el derecho fundamental a la intimidad?, ¿qué garantías tiene la población de que los datos biométricos específicos de cada uno de ellos no se utilizarán para prevenir o reprimir la expresión política o la protesta social?

Deberían empezar a pensar que todo este tipo de “nuevas técnicas informáticas” no son tales sino uno de los varios rostros del fascismo puro y duro de nuevo cuño.

(*) https://information.tv5monde.com/info/le-gouvernement-officialise-la-constitution-d-un-fichierbiometrique-de-60-millions-de-francais

Mas información:
— ‘Minority Report’: delincuentes en potencia y policías del futuro
— La policía predictiva de Los Ángeles ya está en marcha
— La policía predictiva se concentra en los ‘puntos calientes’ de la ciudad
— El funcionamiento de la policía en una sociedad dividida en clases sociales
— El panóptico ya es una realidad, el ojo que todo lo ve
— La represion fascista con algoritmos matemáticos (PredPol)

Minority Report(5): la policía predictiva se concentra en los ‘puntos calientes’ de la ciudad

Miércoles 15 de abril, son 16.05 horas. Sentado en la sala de reuniones con unos 15 de sus colegas, el policía Murder escucha al sargento que informa sobre los incidentes de la mañana. Y está muy repleto: dos asaltos con armas de fuego, un intento de violación, tres robos y cinco robos de coches. Con el mando a distancia, el sargento gira sobre una pantalla de ordenador cuya imagen se proyecta sobre la pared y luego aparece un mapa detallado de la ciudad, sobre el que se distinguen diez pequeñas cuadrículas rojas: un cruce, una plaza, un centro comercial, una terraza deportiva… Son los “puntos calientes” que hay que patrullar primero.

Según el ordenador conectado al sistema PredPol, los delitos tienen una fuerte probabilidad de concentrarse, durante las próximas doce horas, en estas cuadrículas de 150 metros cuadrados que representan una pequeña fracción de la superficie de la ciudad.

El sargento amplía el mapa para indicar a las distintas patrullas los distritos bajo su competencia. El ordenador afina sus predicciones y muestra cinco cuadrículas PredPol por sector, clasificadas por orden de prioridad. Samantha pregunta a quién corresponden cada una de las cuadrículas en el centro de su área. Con sólo pulsar un botón, aparece con toda precisión una foto panorámica del cruce. No hay nada sorprendente en ello: PredPol está conectado a Google Street View.

Al igual que sus colegas, Murder recibe por correo electrónico cinco pequeños mapas actualizados continuamente, cada uno de los cuales representa una parte de su sector. Cuando esté patrullando, puede consultarlos en su móvil o en el ordenador de a bordo de su coche conectándose a la intranet, la red interna de la policía.

Antes de liberar a sus tropas, el sargento les recuerda que entre dos emergencias tienen que vigilar las cuadrículas de PredPol como prioridad. En febrero casi 150 delitos cometidos en estos puntos calientes quedaron impunes. Han perdido muchas detenciones. En unas horas la escena se repetirá para el equipo de la mañana, pero algunos puntos calientes habrán cambiado a medida que el ordenador cambia sus predicciones en tiempo real.

Con la llegada de la primavera, los delitos tienden a multiplicarse en las plazas o jardines públicos: hostigamiento, robo de móviles o bolsos. PredPol señala los lugares donde los riesgos son más altos, puntos calientes en los que el policía Murder podría no haber reparado. En la pantalla del ordenador todo es suave, pero sobre el terreno la realidad es menos predecible: durante su viaje, las llamadas de emergencia llegan y él debe contestarlas primero. Una mujer borracha apuñaló a su pareja. Con las sirenas aullando, corre a la escena del drama. Luego, un poco más tarde por la mañana, tiene que detener a un exhibicionista. Finalmente patrullará la “zona de riesgo” durante su tiempo libre, un barrio donde ya se han producido varios robos.

En el otro extremo de la ciudad, Samantha se detiene en la acera para consultar el mapa en el ordenador de a bordo y elige una plaza PredPol cercana. Es donde se concentran los fugitivos buscados por la policía: acusados en libertad bajo fianza que no comparecieron en el juicio, personas puestas en libertad anticipada que no se someten a los controles obligatorios, detenidos en condicional que no han regresado a la cárcel… Según el ordenador, tienen una alta probabilidad de cometer nuevos crímenes.

Nada más llegar, ve a un hombre en chándal que se salta una señal de “stop” con una botella de alcohol en la mano. Doble peligro, captura, esposas, registro y verificación de identidad. Al consultar su ordenador, descubre que el hombre está buscado por abuso de drogas y pequeños robos. Luego dispara la minicámara fijada en su pecho, que graba la detención en audio y vídeo, antes de llamar a un colega como respaldo. En su informe señala cuidadosamente que la detención tuvo lugar en una plaza PredPol.

Por su parte, la agente Scully, de 24 años y sólo un año de antigüedad, opta por trabajar de noche. Dice que PredPol le resulta útil, ya que le proporciona puntos de referencia. Gracias a él, nunca se pierde. Después de 22 horas, cuando el bullicio urbano ha disminuido, puede tomarse un tiempo para vigilar sus cuadrículas. Esta noche PredPol ha seleccionado una calle mal iluminada que incluye un establecimiento de comida rápida y una tienda de comestibles que vende alcohol. Espera que al patrullar en el mismo lugar, el “punto caliente” desaparezca del mapa.

PredPol no falla nunca. Es como la pescadilla que se muerde la cola.

Más información:
— ‘Minority Report’: delincuentes en potencia y policías del futuro
— La policía predictiva de Los Ángeles ya está en marcha
— La policía predictiva se concentra en los ‘puntos calientes’ de la ciudad
— El funcionamiento de la policía en una sociedad dividida en clases sociales
— Cómo detener a los futuros manifestantes antes de que cometan actos violentos
— El panóptico ya es una realidad, el ojo que todo lo ve
— La represion fascista con algoritmos matemáticos (PredPol)

‘Minority Report’(3): la policía predictiva de Los Ángeles ya está en marcha

La policía de Los Ángeles se centra principalmente en una pequeña porción de la población, y utiliza una técnica de predicción de objetivos que podría agravar esa vigilancia concentrada. Así lo indica un informe publicado por la organización de investigación Stop LAPD Spying Coalition (1), un grupo contra el espionaje policial que se basa en los testimonios de los residentes de la ciudad y en documentos policiales publicados recientemente para describir una “cadena de reactivación del racismo” en la que “una cantidad desproporcionada de recursos policiales se asigna a comunidades que ya han estado históricamente hiperpobladas”.

En Los Ángeles muy pocas personas soportan la carga de la mayoría de las investigaciones policiales: el 2 por ciento de los que participaron en la encuesta dijeron que habían sido detenidos por la policía entre 11 y 30 veces a la semana o más, mientras que el 76 por ciento de los encuestados dijeron que no habían sido detenidos en absoluto. Los 300 participantes de la encuesta se distribuyeron por geografía, raza, edad y género. En los grupos focales, aquellos que vivían en áreas fuertemente atacadas por la policía describieron un estado de vigilancia continua. Preguntarme “cuán a menudo veo a la policía en mi área es como preguntarme cuán a menudo veo un pájaro durante el día”, dijo un residente.

La policía de Los Ángeles utiliza tecnología de la empresa de minería de datos Palantir que puede amplificar este enfoque. Forma parte de un programa de policía predictiva que apunta y rastrea a individuos específicos en vecindarios seleccionados en base a su historial reciente con el sistema de represión penal.

Los funcionarios y analistas que trabajan en la Operación Laser, o Extracción y Restauración Estratégica de Los Ángeles, actualizan una lista de vecinos a vigilar, creando “registros de reincidentes” para las llamadas “personas de interés”. Cada una de las 16 divisiones que actualmente utilizan el programa está obligada a procesar un mínimo de una docena de estos boletines, que están diseñados para ayudar a los policías a “identificar a los delincuentes violentos crónicos más activos” en un área geográfica determinada.

Este proceso de identificación tiene dos etapas: una fase inicial de selección, durante la cual un “analista de inteligencia criminal” decide subjetivamente si las expedientes policiales, tales como informes de detención y los informes de entrevistas in situ, asociados con una persona son lo suficientemente relevantes para proceder a una fase de selección. El procesamiento utiliza un programa proporcionado por Palantir que extrae los antecedentes penales y los datos de afiliación, así como lectores de matrículas y redes sociales, para crear un “pronóstico de reincidencia” para cada individuo.

Una vez que a una persona se la cataloga una amenaza fundada basada en su índice, los policías les envían cartas y llaman a su puerta para hacerles saber que están bajo vigilancia. Los funcionarios también son responsables de aprovechar cada oportunidad de interpelarlos o detenerlos (si tienen una orden de detención). En octubre de 2017 se divulgó una lista de control que instruye a los analistas y policías sobre la manera de tratar a los reincidentes (2).

“Si no han sido detenidos, están fuera de la lista”, dijo Dennis Kato, subjefe de la policía de Los Ángeles, en una entrevista. En otras palabras, la única manera de que alguien se salga de una lista de reincidentes en un barrio es dejar de tratar con la policía – una especie de Catch-22 [novela de Joseph Heller]- ya que lo que atrae la atención de la policía es el programa. Y si alguien es eliminado de la lista, no se le informa. “No creo que sea un sistema ideal”, dijo Kato. “A principios de 2019”, añade, “toda la ciudad de Los Ángeles utilizará el programa Laser”.

El informe también destaca otro programa de análisis predictivo de la policía actualmente utilizado por la policía de Los Ángeles, llamado PredPol. La Operación Laser y PredPol están patrocinadas por la iniciativa “Policía Inteligencia” de la Oficina Federal de Asistencia Judicial, cuyo objetivo es utilizar estrategias policiales “basadas en la evidencia” para tratar de anticipar y prevenir la delincuencia (3).

El programa PredPol, comercializado por una empresa privada, utiliza un algoritmo de aprendizaje basado en ordenador similar a los utilizados por gigantes como Facebook y Amazon con fines publicitarios. Es un modelo matemático que introduce tres variables: dónde se cometió un delito, cuándo se cometió y qué tipo de delito se cometió. El modelo se utiliza para calcular los “puntos calientes” en un área metropolitana determinada, 150 metros cuadrados donde, teóricamente, es más probable que se cometan ciertos tipos de delitos en un día determinado. Las patrullas de la policía lo utilizan para planificar sus rutas diarias. Los estudios ya han demostrado que la tecnología de PredPol refuerza los patrones y prácticas policiales racistas, a pesar de lo cual la policía sigue utilizando la técnica, junto con otros 50 departamentos de policía por lo menos en todo el país, según un portavoz de PredPol.

En octubre de 2017, después de presentar una demanda contra la policía, el grupo contra el espionaje policial recibió documentos sobre la Operación Laser, pero todavía está esperando otros documentos relacionados con el programa, incluyendo sus fondos y fuentes de datos.

Ambos programas se basan en disciplinas “científicas”: PredPol está adaptado a partir de modelos que predicen réplicas sísmicas, mientras que los documentos obtenidos por el grupo contra el espionaje policial indican que la policía de Los Ángeles utiliza una serie de analogías médicas para describir las funciones y objetivos de la Operación Laser, desde el propio título del programa, hasta describir la cantidad de presencia policial visible en un área como una “dosis”, para describir a los reincidentes como “crónicos”. La BJA, la oficina federal que patrocina el programa local, también admite que la Operación Laser “es similar a la cirugía láser, en la que un médico cualificado utiliza tecnología moderna para eliminar tumores o mejorar la visión”, según un informe de la BJA.

El grupo contra el espionaje policial critica los supuestos “científicos” que subyacen en la policía predictiva para “patologizar” a personas y vecindarios enteros, y afirma que los programas “permiten la continuación de décadas de policía discriminatoria y racista bajo la aparente neutralidad de datos objetivos”.

A diferencia de los puntos calientes de PredPol, las áreas de Laser se basan en datos geográficos y se determinan en parte a partir de observaciones que los analistas hacen de un barrio y sus habitantes. Según un documento de la policía de Los Ángeles, los analistas hacen preguntas como “¿Qué estaban haciendo?” o, “¿venden drogas a la vuelta de la esquina o pasan el rato?”(4).

Aunque no siempre están al tanto de los detalles de la vigilancia policial en su vecindario, los residentes sienten lo que está ocurriendo. “Tengo la impresión de que ya saben quién es usted cuando lo arrestan o le dan una citación”, dijo uno de ellos. “Ya saben tu nombre y con quién sales”.

(1) https://stoplapdspying.org/before-the-bullet-hits-the-body-dismantling-predictive-policing-in-los-angeles/
(2) https://stoplapdspying.org/wp-content/uploads/2018/05/FINAL-Chronic-Offender-Purpose-and-Check-List_100417-003.pdf
(3) https://www.bja.gov/Publications/SmartPolicingFS.pdf
(4) https://stoplapdspying.org/wp-content/uploads/2018/05/Attachment-2-Program-Narrative.pdf

Mas información:
— ‘Minority Report’: delincuentes en potencia y policías del futuro
— La policía predictiva de Los Ángeles ya está en marcha
— La policía predictiva se concentra en los ‘puntos calientes’ de la ciudad
— El funcionamiento de la policía en una sociedad dividida en clases sociales
— Cómo detener a los futuros manifestantes antes de que cometan actos violentos
— El panóptico ya es una realidad, el ojo que todo lo ve
— La represion fascista con algoritmos matemáticos (PredPol)

« Entradas anteriores Entradas siguientes »

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies