Inteligência artificial: redes sociais apagam provas de crimes de guerra, aponta investigação
Uma investigação da BBC revelou que provas de possíveis abusos de direitos humanos podem estar sendo apagadas para sempre após serem excluídas por empresas de tecnologia. Inteligência artificial: redes sociais apagam provas de crimes de guerra, aponta investigação
BBC
Uma investigação da BBC revelou que provas de possíveis abusos de direitos humanos podem estar sendo apagadas para sempre após serem excluídas por empresas de tecnologia.
As plataformas removem vídeos com violência muito gráfica — muitas vezes usando inteligência artificial —, mas essas filmagens que são retiradas sem serem arquivadas poderiam ajudar a processar criminosos de guerra.
As gigantes de tecnologia Meta e YouTube dizem que tentam equilibrar suas obrigações de manter provas contra criminosos e de proteger usuários de conteúdo nocivo.
Mas Alan Rusbridger, que faz parte do Conselho de Supervisão da Meta, diz que a indústria tem sido “excessivamente cautelosa” em sua moderação.
As plataformas dizem que podem manter no ar material gráfico quando ele é de interesse público — mas quando a BBC tentou publicar imagens documentando ataques a civis na Ucrânia, elas foram rapidamente excluídas.
A inteligência artificial (IA) consegue remover conteúdo nocivo e ilegal em grande escala. Mas quando se trata de moderar imagens violentas de guerras, as máquinas não percebem nuances que identificam violações de direitos humanos.
Grupos de direitos humanos dizem que há uma necessidade urgente de empresas de mídia social impedirem que essas informações desapareçam.
“Você consegue entender porque elas desenvolveram suas máquinas para derrubar algo que parece difícil ou traumático”, disse Rusbridger à BBC.
O Conselho de Supervisão da Meta do qual ele faz parte foi criado por Mark Zuckerberg e é conhecido como uma espécie de “tribunal supremo” independente para a empresa, proprietária do Facebook e do Instagram.
“Eu acho que a próxima pergunta a se fazer para eles é como devemos desenvolver as máquinas, sejam elas humanas ou de inteligência artificial, para que tomem decisões mais razoáveis”, diz Rusbridger, ex-editor-chefe do jornal britânico Guardian.
Ninguém negaria o direito das empresas de tecnologia de monitorar seu conteúdo, diz a Embaixadora dos EUA para Justiça Criminal Global, Beth Van Schaak: “Acho que a preocupação acontece quando essa informação desaparece repentinamente”.
Ihor Zakharenko, um ex-jornalista de viagens, detectou esse problema na Ucrânia. Desde a invasão russa, ele documenta ataques a civis.
A BBC conversou com ele em um subúrbio de Kiev, onde há um ano homens, mulheres e crianças foram mortos a tiros por tropas russas enquanto tentavam fugir da ocupação.
Ele filmou carros queimados e os corpos atingidos — pelo menos 17.
Os vídeos de Ihor Zakharenko documentando ataques russos a civis foram removidos das plataformas de mídia social
BBC
Ele queria postar os vídeos para que o mundo pudesse ver o que aconteceu, contrariando a narrativa do Kremlin. Mas quando ele os publicou no Facebook e no Instagram, os vídeos foram rapidamente retirados.
“Os próprios russos diziam que eram falsos, [que] eles nunca tocavam em civis, lutavam apenas com o exército ucraniano”, disse Ihor.
Tentamos publicar as filmagens de Ihor no Instagram e no YouTube usando contas fictícias.
O Instagram derrubou três dos quatro vídeos em um minuto.
A princípio, o YouTube aplicou restrições de idade a três vídeos, mas 10 minutos depois removeu todos.
Tentamos novamente — mas não conseguimos fazer o upload. Fizemos um apelo para restaurar os vídeos, afirmando que eles incluíam evidências de crimes de guerra, mas nosso pedido foi rejeitado.
O YouTube e a Meta dizem que, de acordo com suas exceções para imagens gráficas de guerra de interesse público, o conteúdo que normalmente seria removido por causa da violência gráfica pode ser mantido online com visualização restrita a adultos caso haja interesse público. Mas nossa experiência com os vídeos de Ihor sugere que essa exceção não está sendo aplicada.
A Meta diz que responde “a solicitações legais válidas de agências de aplicação da lei em todo o mundo” e afirmou: “Continuamos a explorar meios adicionais para apoiar processos internacionais de responsabilidade… consistentes com nossas obrigações legais e de privacidade”.
O YouTube diz que, embora tenha regras para conteúdo gráfico de interesse público, “o YouTube não é um arquivo. Organizações de direitos humanos; ativistas, defensores dos direitos humanos, pesquisadores, jornalistas cidadãos e outros que documentam abusos dos direitos humanos (ou outros crimes em potencial) devem observar as melhores práticas para proteger e preservar seu conteúdo.”
A BBC também conversou com Imad, que era dono de uma farmácia em Aleppo, na Síria, até que uma bomba do governo sírio caiu nas proximidades em 2013.
Ele lembra como a explosão encheu a sala de poeira e fumaça. Ao ouvir gritos de socorro, ele foi ao mercado do lado e viu mãos, pernas e cadáveres cobertos de sangue.
Equipes de TV locais capturaram essas cenas. A filmagem foi postada no YouTube e no Facebook, mas posteriormente foi retirada.
No caos do conflito, jornalistas sírios disseram à BBC que suas próprias gravações da filmagem original também foram destruídas em bombardeios.
Anos depois, quando Imad estava solicitando asilo na União Europeia, ele foi solicitado a fornecer documentos que comprovassem sua presença no local.
“Eu tinha certeza de que minha farmácia havia sido filmada pela câmera. Mas quando entrei na Internet, o link me levava a um vídeo excluído.”
Em resposta a esse tipo de incidente, organizações como a Mnemonic, uma organização de direitos humanos com sede em Berlim, interveio para arquivar imagens antes que elas desapareçam.
A Mnemonic desenvolveu uma ferramenta para baixar e salvar automaticamente evidências de violações de direitos humanos — primeiro na Síria e agora no Iêmen, Sudão e Ucrânia.
Eles salvaram mais de 700 mil imagens de zonas de guerra antes de serem removidas da mídia social, incluindo três vídeos mostrando o ataque perto da farmácia de Imad.
Cada imagem pode conter pistas para se descobrir o que realmente aconteceu no campo de batalha — o local, a data ou o agressor.
Mas organizações como a Mnemonic não podem cobrir todas as áreas de conflito ao redor do mundo.
Provar que crimes de guerra foram cometidos é incrivelmente difícil — portanto, obter o máximo de fontes é vital.
Rahwa diz que é seu “dever” arquivar material de código aberto do conflito na região de Tigray, na Etiópia
BBC
“A verificação é como resolver um quebra-cabeça — você junta informações aparentemente não relacionadas para construir uma imagem mais ampla do que aconteceu”, diz Olga Robinson, da BBC Verify.
A tarefa de arquivar material de código aberto — disponível para praticamente qualquer pessoa nas mídias sociais — geralmente recai sobre pessoas com a missão de ajudar seus parentes envolvidos em conflitos violentos.
Rahwa mora nos Estados Unidos e tem família na região de Tigray, na Etiópia, que foi assolada pela violência nos últimos anos e onde as autoridades da Etiópia controlam rigidamente o fluxo de informações.
No entanto, com rede social, há um registro visual de um conflito que, de outra forma, poderia permanecer oculto do mundo exterior.
“Era nosso dever”, diz Rahwa. “Passei horas pesquisando e, quando você vê todo esse conteúdo online você tenta verificar usando todas as ferramentas de inteligência de código aberto disponíveis. Mas você não sabe se a sua própria família está bem.”
Ativistas de direitos humanos dizem que há uma necessidade urgente de um sistema formal para coletar e armazenar com segurança o conteúdo excluído. Isso incluiria a preservação de metadados para ajudar a verificar a autenticidade do conteúdo e provar que ele não foi adulterado.
Van Schaak, Embaixadora dos Estados Unidos para Justiça Criminal Global, diz: “Precisamos criar um mecanismo pelo qual essas informações possam ser preservadas para possíveis futuros exercícios de responsabilização. As plataformas de mídia social devem estar dispostas a fazer acordos com mecanismos de responsabilização em todo o mundo”.
ChatGPT: como usar o robô no dia a dia