Microsoft e OpenAI alertam: existem grupos a usar IA para melhorar ciberataques
A Inteligência Artificial encontra-se a evoluir a passos largos, sendo que praticamente todos os meses são realizados avanços nesta área. No entanto, se existem usos benéficos da tecnologia, ao mesmo tempo a facilidade com que se pode aceder à mesma também permite que existem usos “menos bons”.
Não é de agora que existem relatos de cada vez mais grupos de cibercriminosos estarem a usar Inteligência Artificial para melhorar os seus ataques. No entanto, agora tanto a Microsoft como a OpenAI parecem ter confirmado igualmente essa ideia.
Num recente comunicado, tanto a Microsoft como a OpenAI confirmaram que os modelos de IA estão a ser usados para otimizar as estratégias de ataque para grupos do cibercrime. Isto inclui também as próprias ferramentas da OpenAI, como o ChatGPT.
As duas empresas afirmam que existem grupos do cibercrime, em países como a Rússia, Coreia do Norte e China, que usam a IA e as suas potencialidades para otimizarem estratégias para realizarem ataques, bem como desenvolverem scripts que podem levar a ataques bem sucedidos.
Um dos exemplos encontra-se no grupo “Strontium”, que possui ligações com grupos militares russos. Este grupo foi identificado como estando a usar IA para melhorar os seus ataques, de forma a compreender mais profundamente os protocolos de comunicação via satélite, de forma a poder explorar falhas e realizar ataques aos mesmos.
Também o grupo “Thallium”, com raízes na Coreia do Norte, encontra-se a usar IA para melhoras as suas práticas de phishing e campanhas para explorar falhas em diversos softwares, sobretudo com foco em espionagem.
As duas empresas afirmam que existem cada vez mais grupos a usar modelos de IA para realizarem este género de ataques ou melhorarem os mesmos. No entanto, ambas as empresas garantem também estar a implementar mais medidas para combater este uso da tecnologia, o que inclui o encerramento de contas associadas aos grupos, bem como regras mais rigorosas sobre conteúdos que a IA pode criar ou aceder.
No caso da Microsoft, a empresa afirma estar a trabalhar numa ferramenta conhecida como “Security Copilot”, que será focada para especialistas de segurança, com o objetivo de identificar ataques e compreender melhor como a tecnologia está a ser usada para melhorar os mesmos.