Skip links

Irakli Beridze (UNICRI/ONU): “A I.A. e a blockchain podem redefinir o futuro da cibersegurança”

Irakli Beridze é diretor do Centro de Inteligência Artificial e Robótica do UNICRI (United Nations Interregional Crime and Justice Research Institute). Nesta entrevista, partilha conhecimentos únicos sobre a abordagem da ONU à I.A., a potencial influência na sociedade e na economia, e os problemas que devem ser abordados para permitir o desenvolvimento e uma implementação responsáveis da I.A..

Irakli Beridze vai ser um dos oradores do evento NFT Show Europe, dedicado à Web3, que se vai realizar nos dias 14 e 15 de julho em Valência.

A sua paixão pela tecnologia e segurança é evidente no seu trabalho no UNICRI. O que é que o levou a juntar-se ao UNICRI?

Nos últimos 23 anos, tenho estado a trabalhar na “dualidade” do risco e dos benefícios da tecnologia e os seus efeitos na segurança. No início da minha carreira, estava focado nas questões relacionadas com o desarmamento das armas químicas, no sentido de assegurar que os benefícios da utilização pacífica da química fossem bem compreendidos e amplamente disponíveis em todos os cantos do mundo. Do mesmo modo, trabalhei na mitigação dos riscos das armas químicas, biológicas, radiológicas e nucleares e no reforço das capacidades dos Estados membros da ONU, apoiando o desenvolvimento do conhecimento e da perícia no mundo em geral. Nos últimos 8 anos, sou responsável pelos programas destinados a assegurar que as tecnologias em crescimento exponencial, como a Inteligência Artificial, sejam utilizadas para resolver problemas relacionados com o crime, mas fazendo-o de forma responsável, de acordo com os direitos humanos! O equilíbrio entre os riscos e os benefícios é crucial para o desenvolvimento tecnológico e a governação em segurança em geral.

Com as crescentes ameaças à cibersegurança, quais é que considera mais alarmantes, e que abordagens inovadoras podemos adoptar para as contrariar eficazmente?

Em primeiro lugar, existem diferentes tipos de ameaças cibernéticas, e diferentes tipos de ciberataques. Um dos tipos mais comuns de ataques cibernéticos são os ataques de ransomware, que é um tipo de malware que codifica os ficheiros de uma vítima e exige o pagamento em troca da chave de descodificação. É uma grande ameaça para organizações de todas as dimensões e pode causar perturbações e perdas financeiras significativas. Uma abordagem inovadora para contrariar este tipo de ataque é implementar backups eficazes e estratégias de recuperação de desastres, que podem ajudar as organizações a recuperar rapidamente de um ataque sem pagar o resgate.

O phishing é outro ciberataque proeminente, onde os cibercriminosos enganam os indivíduos para que divulguem informações sensíveis, muitas vezes através de e-mails ostensivamente legítimos. Este ataque depende de uma ameaça cibernética não resolvida; nomeadamente, a engenharia social.

O combate às ameaças cibernéticas requer uma abordagem abrangente. Isto inclui a implementação de tecnologias “secure-by-design”, que dão prioridade à segurança desde o início, e abordagens inovadoras, como a utilização de I.A. para detetar e responder a ameaças em tempo real. 

A engenharia social é uma técnica utilizada pelos cibercriminosos para explorar o erro humano, em vez de explorar as fraquezas cibernéticas de segurança. Pode envolver imitação, engano, ou a exploração da confiança. Uma abordagem inovadora para contrariar a engenharia social é proporcionar formação e programas de sensibilização aos colaboradores, que podem ajudar a educá-los sobre os riscos e como identificar e responder aos ataques da engenharia social.

No entanto, outras ameaças cibernéticas com que lido são vários crimes cibernéticos que estão a aumentar online, particularmente a exploração e abuso sexual de crianças. Este crime é uma grande ameaça crescente que tem aumentado exponencialmente devido ao desenvolvimento da tecnologia, tais como os meios de comunicação social e as salas de chat online. Um dos nossos principais projetos que temos no Centro de Inteligência Artificial e Robótica é facilitar a utilização de tecnologias inovadoras para combater este tipo de crime, tais como a utilização de algoritmos de machine learning para identificar e localizar vítimas ou perpetradores.

Globalmente, é importante reconhecer que estas ameaças de cibersegurança requerem uma abordagem abrangente para as enfrentar eficazmente. Isto inclui a implementação de tecnologias “secure-by-design” que dão prioridade à segurança desde o início, abordagens inovadoras como a utilização de IA para detetar e responder a ameaças em tempo real, proporcionando formação e programas de sensibilização, e o envolvimento em parcerias público-privadas com as forças da lei e outras partes interessadas para partilhar informações e recursos sobre ameaças, a fim de investigar e processar os cibercriminosos.

As tecnologias emergentes, como a I.A. e a blockchain, têm desempenhado um papel importante no combate ao cibercrime? Como poderiam estas tecnologias redefinir o futuro da cibersegurança?

Sim, a I.A. e a blockchain têm desempenhado um papel significativo no combate ao cibercrime. Por exemplo, a I.A. pode ser utilizada para analisar grandes volumes de dados e identificar padrões e anomalias que possam indicar ameaças cibernéticas. Também a blockchain pode permitir um registo à prova de adulterações e descentralizado que pode ajudar a assegurar dados e transacções. Em todo o mundo, temos exemplos que demonstram que a I.A. já está a contribuir e a fazer a diferença em muitas áreas. O truque é encontrar a área e aplicação certa para maximizar o potencial de uma ferramenta específica de I.A.

O tempo despendido na análise de imagens e vídeos de abuso de crianças costuma demorar 1 a 2 semanas e agora é feito em um dia. As ferramentas de I.A. também têm ajudado a reduzir os atrasos forenses, de mais de 1,5 anos para 4 a 6 meses.

No nosso trabalho na iniciativa AI for Safer Children, vimos em primeira mão que a I.A. já está a contribuir para a luta contra a exploração e abuso sexual de crianças. Por exemplo, acelerando a investigação – ferramentas de reconhecimento facial e deteção de objectos podem ajudar a relacionar ficheiros com a mesma vítima ou a analisar uma enorme quantidade de dados para construir um caso numa investigação. De acordo com membros da nossa rede que utilizam estas ferramentas diariamente, o tempo despendido na análise de imagens e vídeos de abuso de crianças, que costuma demorar 1 a 2 semanas, pode agora ser feito em um dia. As ferramentas de I.A. também têm ajudado com os atrasos, reduzindo significativamente os atrasos forenses de mais de 1,5 anos para 4 a 6 meses. Este tempo pode fazer uma grande diferença para as vítimas.

Estas ferramentas, contudo, não podem ser utilizadas por si só, simplesmente ajudam os investigadores humanos na definição de prioridades e na gestão do tempo. Este é um exemplo da razão pela qual o caminho a seguir para a I.A. em cibersegurança tem em conta princípios de responsabilidade e ética, a fim de ser mais amplamente aceite e assim adoptado. Isto exige novos regulamentos e modelos de governação para assegurar que estas tecnologias sejam utilizadas de forma ética e responsável.

Se os princípios de responsabilidade forem respeitados, estas tecnologias têm de facto o potencial de redefinir o futuro da cibersegurança, permitindo-nos detectar e responder às ameaças de forma mais rápida e eficaz.

Equilibrar as necessidades de segurança com os direitos de privacidade individuais é um desafio complexo no mundo digital. Quais foram os principais obstáculos que encontrou nesta área, e como é que os governos e as organizações os podem responder a este desafio?

Essa é uma questão muito importante. Através da implementação de um projeto com a INTERPOL e com o apoio da Comissão Europeia, aprendemos imenso sobre as armadilhas associadas à utilização da I.A. e os principais desafios na sua abordagem.

As empresas tecnológicas devem implementar a privacidade e a ética desde o início do desenvolvimento, criando sistemas de I.A. que sejam transparentes, explicáveis e responsáveis.


Juntos, estamos a desenvolver o Toolkit for Responsible AI Innovation in Law Enforcement. Trata-se de um guia prático e operacional destinado a apoiar o desenvolvimento e a implementação da I.A de forma responsável, respeitando os direitos humanos e os princípios éticos. Se quisermos explorar o verdadeiro potencial da I.A., a confiança pública na utilização segura e ética da I.A. é um pré-requisito essencial para uma implementação eficaz e só pode ser alcançada através de medidas tomadas por várias partes interessadas.

Em primeiro lugar, as empresas tecnológicas devem implementar a privacidade e a ética desde o início do desenvolvimento, criando sistemas de I.A. que sejam transparentes, explicáveis e responsáveis. Por exemplo, assegurando que os sistemas de I.A. são treinados utilizando dados imparciais. Em segundo lugar, os utilizadores finais devem incorporar a supervisão humana no processo de tomada de decisão e estar conscientes do seu potencial de parcialidade e deficiências, bem como ser tão transparentes quanto possível para o público sobre como e quando estão a utilizar a I.A. É igualmente importante envolver-se com as comunidades e partes interessadas para assegurar que as suas preocupações sobre privacidade e preconceitos sejam abordadas e para estabelecer confiança na utilização de I.A. na aplicação da lei.

Os governos devem estabelecer quadros legais e regulamentares claros que regulem o uso de I.A. na aplicação da lei.

A chave para a defesa da privacidade e outros direitos humanos é a responsabilização e a supervisão humana, conseguida pela transparência na forma como estes sistemas são desenvolvidos e utilizados. Não estou a dizer que publicamos toda e qualquer informação sensível para o público ver, mas sim que instauramos avaliações fiáveis em cada fase de desenvolvimento de tecnologia inovadora, bem como revisões regulares após a sua implementação.

Em última análise, é importante reconhecer que a privacidade e a segurança não são mutuamente exclusivas e que é necessária uma abordagem equilibrada tanto para desenvolver soluções inovadoras privacy-by-design, para proteger o público da utilização indevida da I.A.

Que papel podem desempenhar organizações internacionais como a ONU no reforço da segurança cibernética e na repressão da cibercriminalidade? Como podem estas organizações promover colaborações mais eficientes com vários intervenientes para alcançar os seus objectivos?

Organizações internacionais como a ONU podem desempenhar um papel significativo no reforço da cibersegurança e na repressão do crime cibernético, fornecendo uma plataforma de partilha de informação e colaboração entre várias partes interessadas, incluindo governos, organizações do setor privado, grupos da sociedade civil, e peritos técnicos. Outro exemplo é o fornecimento de assistência técnica a países que não dispõem de recursos ou conhecimentos especializados para combater eficazmente as ameaças cibernéticas.

Uma forma de a ONU poder alcançar estes objetivos é através do estabelecimento de iniciativas conjuntas de investigação, programas de capacitação e outros projetos de colaboração que promovam as melhores práticas e inovações em cibersegurança. A ONU pode fornecer uma plataforma para os Estados membros partilharem informações e melhores práticas, desenvolver normas e padrões comuns, e coordenar respostas às ameaças cibernéticas. Por exemplo, o UNICRI é especializado em prevenção do crime e justiça criminal e, desde 2017, tem operado o seu Centro de Inteligência Artificial e Robótica em Haia. Este centro é especializado na área de tecnologias em crescimento exponencial, como a I.A., tanto através da investigação dos riscos de abusos destas tecnologias por agentes criminosos como através da exploração do vasto potencial da I.A. e outros instrumentos para combater crimes.

O princípio do desenvolvimento sustentável orienta-nos para uma visão a longo prazo, mais do que para soluções temporárias, para apoiar os governos e a comunidade internacional em geral.

Os auspícios da ONU não só dão a cobertura global necessária nos crimes cibernéticos, mas também ajudam a assegurar que os princípios e valores da ONU sejam incutidos inerentemente ao longo de todo o seu trabalho. Os seus esforços para fazer avançar princípios como a diversidade e a inclusão, os direitos humanos e o Estado de direito, e a igualdade fazem da ONU um facilitador verdadeiramente digno de confiança e global, através do qual podemos unir os esforços de diversas partes interessadas. O princípio do desenvolvimento sustentável orienta-nos para uma visão a longo prazo, mais do que soluções temporárias, para apoiar os governos e a comunidade internacional em geral.

Para esse fim, é importante que organizações internacionais como a ONU se envolvam com as comunidades locais e partes interessadas para assegurar que perspetivas e preocupações verdadeiramente inclusivas são tidas em conta no desenvolvimento de políticas e programas de cibersegurança. Em última análise, ao promover a colaboração e coordenação em questões de cibersegurança, organizações internacionais como a ONU podem ajudar a promover um mundo digital mais seguro e seguro para todos.

Em que projetos/iniciativas é que o UNICRI se envolveu recentemente no domínio da tecnologia e da segurança?

Estamos envolvidos numa série de iniciativas e projetos destinados a enfrentar os desafios complexos e evolutivos na interseção da tecnologia e da segurança.

A iniciativa AI for Safer Children e o Global Hub, por exemplo. O Global Hub é uma plataforma exclusivamente disponível para law enforcement que fornece numerosos serviços, incluindo um catálogo de ferramentas de software existentes, aplicáveis em várias fases do processo de investigação, um Centro de Aprendizagem e estudo de caso para orientação sobre como implementar estas ferramentas e como fazê-lo de forma responsável. A plataforma também oferece uma seção de comunicação onde investigadores de todo o mundo podem partilhar entre si as suas experiências na utilização da I.A. no seu trabalho. Para reforçar ainda mais as capacidades, a iniciativa AI for Safer Children oferecere também formações especializadas gratuitas, adaptadas às necessidades e contextos específicos dos membros do Global Hub.

Como referi, desenvolvemos também o Toolkit for Responsible AI Innovation in Law Enforcement, que é um guia prático para as agências de law enforcement sobre o desenvolvimento e implementação da I.A. de forma ética e compatível com os direitos humanos. O Toolkit vai ser lançado para testes este ano de 2023.

Outra iniciativa é o uso responsável do reconhecimento facial nas investigações de aplicação da lei. A utilização de tecnologia de reconhecimento facial para investigações policiais em todo o mundo está indiscutivelmente entre os casos de utilização mais sensível da tecnologia de reconhecimento facial, devido aos efeitos potencialmente desastrosos de erros de sistema ou utilizações incorretas. No início de 2021, fizermos uma parceria com a INTERPOL, com o Fórum Económico Mundial e com a polícia dos Países Baixos para lançar esta iniciativa, estabelecendo limites responsáveis na utilização da tecnologia de reconhecimento facial nas investigações de aplicação da lei. Isto resultou no lançamento da proposta de enquadramento político Quadro de Políticas de Limites Responsáveis no Reconhecimento Facial.

Estes são apenas alguns exemplos do trabalho entusiasmante e impactante que o nosso centro está a realizar no domínio da tecnologia e da segurança. O nosso objetivo é continuar a inovar e a colaborar com parceiros em todo o mundo.