Imagine um futuro distópico onde todos os cidadãos são fichados e monitorados. O estado militarizado hi-tech controla tudo e todos, pronto para prender ou assassinar quem julgar necessário. As máquinas calculam quantas mortes são aceitáveis. Então: isso está acontecendo.
No Intercept Brasil, publicamos muitas reportagens sobre como tecnologias e equipamentos de vigilância têm sido comprados e utilizados sem muito controle público por polícias e autoridades de investigação. Fazer esse tipo de reportagem é difícil por dois motivos.
O primeiro é que não há transparência; as compras, em geral, são feitas em sigilo e sem licitação. O segundo é que, em uma sociedade punitivista e calcada em valores de bandido bom é bandido morto, é difícil mostrar às pessoas porque esse tipo de investimento em tecnologia pode ser usado para violar seus próprios direitos.
Mas uma reportagem bombástica publicada nesta semana sobre como ferramentas de inteligência artificial são usadas para massacrar palestinos em Gaza nos ajuda a estressar as possibilidades e a entender o tamanho desse estrago.
Israel é um pólo de desenvolvimento de tecnologias de defesa, e vende muito para vários países do mundo. O First Mile, que rastreia a localização de alvos, foi usado no escândalo de espionagem da Abin.
Além disso, o Cellebrite, que extrai dados de aparelhos, e o Pegasus, que invade dispositivos, são exemplos de tecnologias israelenses de espionagem e vigilância. São exportadas para vários países que fetichizam esse tipo de sociedade (não por acaso, as vendas de muitos deles por aqui explodiram sob Bolsonaro).
Desde 7 de outubro, sabe-se que Israel tem utilizado inteligência artificial na ofensiva em Gaza. São ferramentas desenvolvidas pelo próprio exército israelense e empresas dirigidas por ex-soldados que, com base nos dados coletados em anos de espionagem, orientam os militares a definirem alvos de acordo com a possibilidade de eles serem do Hamas. Por alvos, entenda-se seres humanos ou prédios (onde estão seres humanos).
Nesta semana, a reportagem chocante do +972 Magazine, que tem jornalistas palestinos e israelenses, revelou detalhes de como funciona esse sistema, com declarações enojantes de militares.
Israel usa a expertise de monitoramento em massa, reconhecimento facial e vigilância para juntar um enorme volume de dados sobre os palestinos e, com ajuda de algoritmos, usa esses padrões para tentar definir os alvos em potencial.
“Os humanos muitas vezes serviam apenas como um ‘carimbo’ para as decisões da máquina”, conta uma fonte citada na reportagem.
O Intercept não vai desviar o olhar enquanto Israel comete genocídio em Gaza, apoiada pelos EUA, pela grande mídia e pela extrema direita. Precisamos de seu apoio.
É como o uso de inteligência artificial que usa informações coletadas para entender quem tem menos chance de quitar uma dívida, ou corresponde aos critérios para conseguir um emprego. Só que, neste caso, os sistemas decidem quem vai morrer bombardeado.
Segundo o jornal britânico The Guardian, 37 mil alvos foram identificados em Gaza pelas supermáquinas de Israel por um sistema batizado candidamente de Lavender (lavanda).
Os oficiais ouvidos pela reportagem afirmam confiar mais nas máquinas do que em um soldado sob emoção. "A máquina fez aquilo friamente, e tornou muito mais fácil", declarou um deles. "Economizou muito tempo".
Segundo os militares ouvidos, o exército israelense tinha, para alguns tipos de alvos, uma pré-autorização: 15 ou 20 civis podiam morrer por cada militante de baixa patente do Hamas atingido. Já um comandante valeria mais de cem inocentes.
Esses ataques aos militantes mais desimportantes eram feitos com bombas "bobas", não guiadas, mais baratas e que geram mais mortes colaterais, destruindo casas inteiras e seus ocupantes. "Você não quer gastar bombas caras em pessoas desimportantes", disse um dos militares ouvidos.
Os ataques não aconteciam apenas quando os supostos terroristas estavam em atividade – mas também em suas casas. "É muito mais fácil bombardear uma casa de família. O sistema é feito para procurá-los nestas situações", disse um dos oficiais ao Guardian. Segundo as fontes, havia pressão dos superiores para bombardear mais e mais.
Assim que um alvo era atingido, havia uma fila de 36 mil outros esperando – graças ao sistema de inteligência artificial, que mapeou supostos inimigos automaticamente em escala industrial. Especialistas em conflitos ouvidos pelo Guardian dizem que a técnica pode explicar o absurdo número de civis mortos em Gaza, que já chega a 33 mil.
O exército israelense, o IDF, na sigla em inglês, diz que as operações aconteceram de acordo com os princípios de proporcionalidade e respeitam as leis internacionais.
Segundo o IDF, o Lavender é uma base de dados que cruza diferentes fontes de inteligência para criar camadas de informações atualizadas sobre a operação de organizações terroristas. "São meramente ferramentas para analistas no processo de identificação de alvos".
Sabe-se que o Lavender criava uma base de dados de indivíduos que julgava ter as características de um militante do Hamas, predominantemente os de menor patente.
As fontes dizem que a precisão é de 90%. O sistema era usado com outro, chamado Gospel, também turbinado por IA, que identificava prédios e edificações. Uma "fábrica de alvos", como definiu o próprio IDF.
Não se sabe exatamente como esses sistemas foram treinados – ou seja, que critérios tinham para identificar um potencial militante terrorista. Já está fartamente documentado que sistemas erram (seja o reconhecimento ou a base de dados que os alimentam) e reproduzem vieses. Não é difícil imaginar como essa máquina de matar palestinos foi treinada.
O IDF garante que há revisão humana – mas os oficiais afirmam que a decisão sobre jogar uma bomba ou não é tomada em poucos segundos após um alvo ser identificado automaticamente.
A reportagem que descreve o sistema é chocante. Ela dá um vislumbre da frieza e de como os senhores da guerra de hoje se fiam na tecnologia, inclusive, para se eximir da própria responsabilidade.
A decisão de cometer o genocídio foi tomada por humanos, mas a escolha de quais vítimas morrerão hoje é feita pelos robôs. O que importa para seus mestres se os robôs cometerem um erro? Eles já decidiram que não há problema em matar crianças de forma arbitrária.
Israel está vários passos à frente em relação ao futuro distópico militarizado e assassino, mas não está tão longe de nós assim. Mapear toda uma sociedade para pinçar os indivíduos potencialmente problemáticos foi o que Israel fez em Gaza, e é o que governos tecnoautoritários têm feito aqui e lá fora.
Se você importar a lógica de massacres da nossa polícia, seja no Jacarezinho ou no Guarujá, mortes são aceitáveis, meros efeitos colaterais de uma guerra justificável.
Olhar para Gaza, hoje, é saber o que pode acontecer em qualquer lugar que adotou esse tipo de tecnologia sem garantir direitos humanos básicos antes. É o estado com uma máquina de matar em larga escala, movida por cálculos.
Talvez olhar para esse futuro horrível ajude a sensibilizar quem ainda acha aceitável ferramentas de policiamento preditivo ou reconhecimento facial utilizadas sem critério.
O Brasil adotar essas novidades é só uma questão de tempo – se a farra da indústria de vigilância seguir como vem acontecendo. Os alvos, por aqui, já podemos imaginar quem serão.
A guerra contra Gaza é o campo de testes para a guerra contra todos nós. No Intercept Brasil, temos o compromisso de revelar os abusos cometidos por Israel, Big Tech e seus aliados no Brasil. Ajude a continuar esse importante trabalho. Torne-se um membro hoje mesmo.
INTERCEPT.COM.BR
Governo dos EUA está frustrado que o TikTok não é uma ameaça
nacional
Temor que China estaria controlando usuários pelo TikTok foi classificado como 'hipotético' pelo órgãos de inteligência dos EUA.