Depois de vídeos promocionais na China, cresce o debate sobre o uso de 5G com reconhecimento de imagens e como isso afeta a privacidade.
Começaram a circular neste ano vídeos demonstrando o que a tecnologia de reconhecimento de imagens pode fazer quando utilizada em conjunto com o 5G. Os mais comentados são os que envolvem seu uso pelas forças de segurança, em especial na China.
Os vídeos mostram o 5G e o reconhecimento de imagens (ou reconhecimento facial), sendo utilizados por policiais chineses em diversas situações, através de óculos equipado com câmeras e acoplado a dispositivos usando a rede 5G.
China Mobile divulgando o 5G:
Será que teremos essa precisão no reconhecimento facial?
Um possível futuro?
Em uma das cenas o policial examina a multidão com um par de óculos equipado com reconhecimento facial. Logo ele identifica um criminoso. Seu disfarce poderia ter enganado humanos, mas não a tecnologia. Em outro momento, ele pede a identidade de um cidadão e usa o reconhecimento facial para confirmar se a pessoa é a mesma da identidade.
Tem mais: o policial recebe um alerta e usa a tecnologia de reconhecimento para identificar um carro suspeito. O sistema de policiamento inteligente usando 5G transforma o policial chinês num tipo de “robocop” moderno. No final do vídeo vemos ainda que tudo o que esse “robocop” vê pode ser acompanhado por uma central.
Esse tipo de tecnologia está gerando controvérsia. Enquanto uns apoiam a proibição para manter a privacidade, outros apoiam a liberação para garantir a segurança e prevenção ao crime.
Uma realidade muito próxima
Mas o que o vídeo mostra é que na China isso é questão de tempo. Enquanto no ocidente isso virou um debate, na China as pessoas, em sua grande maioria, parecem estar felizes com a segurança física prometida pela tecnologia e acreditam que o resto do mundo é perigoso sem ela.
“Muitas pessoas na China parecem estar felizes com a segurança física prometida pela rede de vigilância. A nossa mentalidade, há muito tempo, estava ligada à segurança e à liberdade como uma opção ou outra. Os chineses acreditam que somente os criminosos precisam ter medo”, Jianan Qian, escritora chinesa, New York Times.
VIU ISSO?
– Reconhecimento facial no Rio de Janeiro utiliza software da Oi
– Reconhecimento facial da Oi é utilizado no Maracanã
– Vivo está cadastrando rostos de clientes
E no Brasil?
Nesta terça-feira (09) em Copacabana, no Rio de Janeiro, o sistema de câmeras de segurança com reconhecimento de imagens que usa inteligência artificial causou uma confusão. Ele indicou que uma mulher criminosa, condenada por espancar um homem até a morte, tinha sido localizada.
Em 5 minutos, uma viatura da Polícia Militar do Rio de janeiro localizou a mulher e a levou para a delegacia. Lá ela foi identificada corretamente como inocente e liberada.
A polícia procurava Maria Lêda Félix da Silva, condenada em julho deste ano a sete anos de prisão por homicídio e ocultação de cadáver.
“As câmeras trabalham com uma estatística de reconhecimento, assim que o sistema aponta 70% de possibilidade da pessoa ser a procurada, uma viatura é direcionada ao local. A abordagem é feita com respeito aos Direitos Humanos e com cautela do agente. Os policiais militares tentam checar a identificação da pessoa abordada no local. Porém, em casos de dúvida ou de homônimos, elas são levadas para a delegacia”, informou o porta-voz da PM, coronel Mauro Fliess.
Consequências do erro
O sistema, que conta com 25 câmeras, já cometeu erros antes no Carnaval. Sistemas com baixo índice de compatibilidade, abaixo de 90%, ficam sujeitos a maior chance de erro.
Pesquisadores já apontaram que algumas etnias têm mais chances de caírem em falsos positivos, especialmente mulheres negras.
“Qualquer pessoa honesta sofrerá constrangimentos e danos psicológicos ao ser detida pela polícia, confundida com uma meliante. Cabe ação de indenização por danos morais”, segundo o advogado criminalista Carlos Maggiolo.