Em Minority Report, livro de Philip K. Dick adaptado para o cinema por Steven Spielberg em 2002, o personagem de Tom Cruise, John Anderton, é um policial que usa um sistema capaz de prever crimes com precisão. E tudo começa a desandar quando o sistema que antevê ações ilegais projeta um assassinato que o próprio Anderton vai cometer.
O avanço da inteligência artificial (IA) nos últimos anos nos permite reconhecer padrões de forma tão vasta e minuciosa que autoridades no Reino Unido, entre outras no mundo todo, quis usá-la para criar algo parecido com o que vimos em Minority Report. E, assim como na Sétima Arte, o experimento não deu certo na vida real, devido a questões éticas.
Matéria do Yahoo Finanças destaca o Most Serious Violence (MSV) — algo como “Violência Mais Grave”. O sistema faz parte do projeto National Data Analytics Solution (NDAS) do Reino Unido, financiado pelo governo com um investimento em torno de US$ 13 milhões nos últimos dois anos.
O MSV foi criado para prever se as pessoas cometeriam seu primeiro crime violento com uma arma ou faca nesse período, a partir de uma “pontuação criminal”.
Para chegar a esse escore, foram coletados dados históricos sobre 2,4 milhões de pessoas do banco de dados de West Midlands e de 1,1 milhão de West Yorkshire, ambos municípios da Inglaterra — entre os registros estavam crimes, custódia, relatórios de inteligência e outras informações da rede federal Police National Computer. Quanto maior a pontuação, maior seria a probabilidade dos indivíduos cometerem novas atividades ilegais.
O MSV identificou “mais de 20” indicadores que se acreditava serem úteis para avaliar o quão arriscado poderia ser o comportamento futuro de uma pessoa. Isso inclui idade, dias desde o primeiro crime, conexões com outras pessoas nos dados usados, a gravidade desses delitos e o número máximo de menções de “faca” em relatórios de inteligência vinculados — dados de localização e etnia não foram incluídos. Muitos desses fatores, diz a apresentação, foram ponderados para dar mais prevalência aos dados mais recentes.
Bonito na teoria, mas, na prática…
Embora não hajam detalhes completos sobre como essa “pontuação criminal” era exatamente rotulada em cada indivíduo, as simulações iniciais do NDAS mostraram resultados promissores. De cada 100 pessoas com escore alto, 54 delas cometeriam crimes com armas e facas em West Midland. A taxa foi ainda maior em West Yorkshire, de 74%. Mas, quando o MSV começou a operar na vida real, no começo deste ano, a equipe encontrou um grande erro, que derrubou esses números.
Não há explicações minuciosas sobre os critérios desse escore, mas o MSV foi reprovado pelo Comitê de Ética Policial de West Midlands, responsável por examinar o trabalho do NDAS, bem como os próprios desenvolvimentos técnicos da força policial.
“Foi encontrado um erro de codificação na definição do conjunto de dados de treinamento, o que tornou a declaração do problema atual do MSV inviável”, diz um resumo do NDAS publicado em março. Um porta-voz do projeto afirmou que o erro foi um problema de ingestão de dados descoberto durante o processo de desenvolvimento. Nenhuma outra informação mais específica foi divulgada.