Categoria
🤖
TecnologiaTranscrição
00:00E na ficção, a tecnologia já foi usada até para prever crimes.
00:06E agora, autoridades querendo replicar o cinema na vida real.
00:12Vamos entender melhor essa história agora.
00:18Uma tecnologia polêmica deu o que falar no Reino Unido.
00:22O grupo de jornalismo investigativo Statewatch descobriu documentos que revelam que o governo britânico
00:27estaria criando um algoritmo para prever assassinatos.
00:30Parece ficção científica, né?
00:32Se você já assistiu ao filme Minority Report, estrelado por Tom Cruise, deve até ter reconhecido essa ideia.
00:39É claro que no caso do Reino Unido, não tem nada de ficção científica.
00:42Os documentos encontrados através da Lei de Liberdade de Informação
00:45indicam que as autoridades analisaram dados de 100 mil a 500 mil pessoas
00:50para tentar identificar indivíduos com maior risco de cometer crimes violentos como assassinatos.
00:55No começo, a iniciativa foi batizada de Projeto de Previsão de Homicídios,
00:59mas depois mudou de nome para Compartilhamento de Dados para aprimorar a avaliação de risco.
01:03Uma das questões que mais chamou a atenção no projeto foi o uso de dados.
01:07E isso porque o governo não estaria usando somente informações de pessoas que já têm histórico criminal,
01:11mas também de cidadãos sem nenhuma condenação.
01:13E piora, as informações incluem histórico de saúde mental, vícios, deficiências
01:18e até de vítimas de violência doméstica e com distinção por etnias.
01:22As autoridades envolvidas negaram, dizendo que foram usadas apenas informações
01:26de pessoas com pelo menos uma condenação.
01:29Para o Ministério da Justiça, que é um dos envolvidos nesse projeto,
01:31o sistema pode fornecer evidências para melhorar a avaliação de risco de crimes graves
01:35e, em última análise, contribuir para proteger a população.
01:38Mas será que isso é uma boa ideia?
01:40O Olhar Digital conversou com especialistas para entender.
01:43Antes de tudo, Luiz Flávio Sapor, especialista em segurança pública e professor da PUC Minas,
01:48lembrou que usar uma tecnologia para determinar o potencial criminoso de um indivíduo
01:52parte do princípio de que esse tipo de comportamento é previsível, mas não é.
01:56Já Alan Tomás de Andrade, pesquisador e doutorando em mídia e tecnologia pela Unesp,
02:01explicou que os dados que alimentam as máquinas são produções humanas e, consequentemente, têm vieses.
02:06O resultado é que a tecnologia pode replicar esses preconceitos e gerar o racismo algorítmico,
02:11reforçando a discriminação da própria sociedade.
02:13Se hoje a gente tem um ambiente midiático e tecnológico que é abastecido com dados que reproduzem
02:22vieses discriminatórios e preconceituosos, a chance dessas máquinas e dessas tecnologias
02:28agirem dessa forma também, no momento, por exemplo, de uma identificação para uma prisão
02:34ou até mesmo de gerar o status de suspeito, essas questões sociais que estão vinculadas
02:40com a estrutura da sociedade, elas também vão ser reproduzidas nessas tecnologias.
02:46Então, eu acredito que essa seja a grande preocupação.
02:49Para os especialistas, antes de aplicarmos qualquer tipo de tecnologia preditiva na segurança
02:53pública, é preciso estar ciente desses riscos e trabalhar para corrigi-los.
02:57Isso envolve tanto discutir os preconceitos da sociedade como um todo, até envolver humanos
03:01no processo de decisão. É isso que defende André Carlos Ponce, diretor do Instituto
03:06de Ciências Matemáticas e de Computação da USP em São Carlos, especialista em inteligência
03:10artificial.
03:10Mas o que se fala muito, que também eu defendo, é que a última decisão deve ser sempre
03:15de um ser humano. Então, a IA é como uma calculadora, como uma régua, só que mais
03:21sofisticada. É uma ferramenta de apoio para tomar decisão por um ser humano. Então, ela
03:25tem benefícios, tem vários benefícios, mas para que a gente consiga utilizar bem os benefícios,
03:31a gente tem que conhecer e reduzir e gerenciar os riscos que ela traz também.
03:35Mas calma, nem tudo é ruim. A tecnologia tem vantagens e as ferramentas podem ser sim
03:40utilizadas em outras áreas da segurança, como análise de fenômenos criminais. Luiz
03:44Flávio Sapore, da PUC Minas, deu exemplos. Dá para usar a inteligência artificial para
03:48monitorar áreas onde roubos são mais comuns em determinados horários do dia e intensificar
03:53o policiamento na região. Não é sobre prever um comportamento, mas se precaver e melhorar
03:57a análise do que já existe.
03:59Então, a inteligência artificial tem um potencial enorme de dar previsibilidade ao policiamento
04:06ostensivo. Aumenta o potencial preventivo do policiamento ostensivo. Então, de novo,
04:13é o conhecimento da inteligência artificial gerado para prever e se antecipar ao cometimento
04:20do crime. E não propriamente para identificar quem é potencialmente criminoso. Quem é potencialmente
04:27pode se tornar um assaltante.
04:29Algumas aplicações embrionárias já existem, mas ainda precisam ser estudadas com muita
04:33calma e atenção. Como você viu, são muitos riscos e, apesar de a tecnologia ser deslembrante,
04:38ainda exige muito cuidado. No caso do Reino Unido, o Ministério de Justiça declarou que,
04:42por ora, o projeto está sendo conduzido apenas para fins de pesquisa e que um relatório sobre
04:47o assunto será publicado oportunamente. Ou seja, essa ideia futurista, aparentemente, será
04:52deixada para depois.
04:57Tchau, tchau.