A IA está trazendo mais força para a defesa cibernética ou mais força para as atividades de hackers maliciosos? Os rápidos desenvolvimentos na inteligência artificial podem ajudar a fortalecer as defesas contra ameaças à segurança no ciberespaço, de acordo com o CEO do Google, Sundar Pichai.
Em meio a preocupações crescentes sobre os usos potencialmente nefastos da IA, Pichai disse que as ferramentas de inteligência poderiam ajudar governos e empresas a acelerar a detecção – e a resposta a – ameaças de atores hostis.
“Temos razão em estar preocupados com o impacto na cibersegurança. Mas penso que a IA, na verdade, de forma contraintuitiva, fortalece a nossa defesa em matéria de segurança cibernética”, disse Pichai aos delegados na Conferência de Segurança de Munique no mês passado.
Os ataques cibernéticos custaram à economia global cerca de 8 trilhões de dólares em 2023 – uma soma que deverá aumentar para 10,5 trilhões de dólares até 2025, de acordo com a empresa de investigação cibernética Cybersecurity Ventures.
Um relatório de janeiro do Centro Nacional de Segurança Cibernética da Grã-Bretanha – parte do GCHQ, a agência de inteligência do país – disse que a IA apenas aumentaria essas ameaças, reduzindo as barreiras à entrada de hackers cibernéticos e permitindo mais atividades cibernéticas maliciosas, incluindo ataques de ransomware.
No entanto, Pichai disse que a IA também está reduzindo o tempo necessário para os defensores detectarem ataques e reagirem contra eles. Ele disse que isso reduziria o que é conhecido como o dilema dos defensores, segundo o qual os hackers cibernéticos precisam ter sucesso apenas uma vez para atacar um sistema, enquanto um defensor precisa ter sucesso todas as vezes para protegê-lo.
“A IA ajuda desproporcionalmente as pessoas que defendem porque você está obtendo uma ferramenta que pode impactar em grande escala em comparação com as pessoas que estão tentando explorar”, disse ele.
“Portanto, de certa forma, estamos vencendo a corrida”, acrescentou.
O Google anunciou no mês passado uma nova iniciativa que oferece ferramentas de IA e investimentos em infraestrutura projetados para aumentar a segurança online. Uma ferramenta gratuita e de código aberto chamada Magika visa ajudar os usuários a detectar malware – software malicioso – disse a empresa em um comunicado, enquanto um white paper propõe medidas e pesquisas e cria barreiras de proteção em torno da IA.
Pichai disse que as ferramentas já estão sendo utilizadas nos produtos da empresa, como Google Chrome e Gmail, bem como em seus sistemas internos.
“A IA está numa encruzilhada definitiva – onde os decisores políticos, os profissionais de segurança e a sociedade civil têm a oportunidade de finalmente inclinar o equilíbrio da cibersegurança de atacantes para defensores cibernéticos”.
O lançamento coincidiu com a assinatura de um pacto entre grandes empresas para tomar “precauções razoáveis” para evitar que ferramentas de IA sejam usadas para perturbar os votos democráticos no ano eleitoral abundante de 2024 e além.
Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI, TikTok e X estavam entre os signatários do novo acordo, que inclui uma estrutura sobre como as empresas devem responder aos “deepfakes” gerados por IA e concebidos para enganar os eleitores.
Isso ocorre no momento em que a Internet se torna uma esfera de influência cada vez mais importante, tanto para indivíduos quanto para atores maliciosos apoiados pelo Estado.
A ex-secretária de Estado dos EUA, Hillary Clinton, descreveu no mês passado o ciberespaço como “um novo campo de batalha”.
“A corrida armamentista tecnológica acaba de subir mais um nível com a IA generativa”, disse ela em Munique.
Um relatório publicado no mês passado pela Microsoft descobriu que hackers apoiados pelo Estado da Rússia, China e Irã têm usado seu modelo largo de linguagem OpenAI (em inglês: Large language model ou LLM) para aprimorar seus esforços para enganar os alvos.
A inteligência militar russa, a Guarda Revolucionária do Irã e os governos chinês e norte-coreano teriam confiado nas ferramentas.
Os malfeitores dependiam cada vez mais de uma ferramenta de hacking inspirada no ChatGPT chamada WormGPT para realizar tarefas como código de engenharia reversa.
No entanto, Markswell Coelho, coordenador da IBSEC – Instituto Brasileiro de Cibersegurança, disse que também está vendo “ganhos significativos” com ferramentas semelhantes que ajudam os engenheiros a detectar e evitar ataques com rapidez.
“A inteligência artificial nos capacita a acelerar. No mundo cibernético, estamos constantemente correndo contra o tempo, enquanto os invasores têm a vantagem. Isso reflete muitas situações de conflito. Se conseguirmos nos movimentar um pouco mais rápido que nossos adversários, estaremos em melhores condições. Defensivamente, é isso que a IA nos proporciona neste momento”, disse Markswell.
Mais informações: IBSEC
Website: https://ibsec.com.br/