Cibercrime e IA Generativa: Como a tecnologia sofistica os ataques?
[ad_1]
Em nova pesquisa publicada pela Cisco Talos, os especialistas da companhia lançaram luz sobre os impactos da Inteligência Artificial Generativa e das Large Language Models (LLMs) no fortalecimento dos ataques cibernéticos. De acordo com a análise, o cibercrime está em um franco processo de migração para sistemas de IA complementados por ferramentas capazes de aprimorar ainda mais suas operações de ataque.
O estudo reforça que, embora a IA não crie ataques inéditos, ela elimina grande parte do trabalho necessário para conduzir um ataque e aprimora as ações existentes, tornando-os mais difíceis de serem detectados pelos defensores. Com isso, o cenário cibernético atual lida com um esforço concentrado para formar soluções completas de ataques. Isso inclui sistemas de verificação de cartão de crédito, sistemas de e-mail de saída, ferramentas de varredura de vulnerabilidades, utilitários para quebra de senhas, entre outros.
“Também descobrimos que, além de utilizar a tecnologia de IA para aprimorar seus próprios ataques, os próprios LLMs apresentam uma nova e ampla superfície de ataque, que permite aos cibercriminosos atingirem os próprios usuários desses modelos. Por exemplo, sistemas que utilizam a Geração Aumentada de Recuperação são vulneráveis à manipulação do conteúdo do banco de dados RAG por invasores”, explicou o Líder Técnico da Cisco Talos, Jaeson Schultz, em entrevista para a Security Report.
Na visão de Jackeline Almeida, Supervisora em Segurança da Informação na Embratur, incidentes fortalecidos pelo uso da IA podem gerar diversos tipos de impacto ao negócio, desde perda massiva de dados críticos até a exposição de sistemas interdependentes e vulneráveis, expondo as relações de confiança de empresas parceiras a revisões e monitoramentos mais profundos, sobrecarregando os times de SI.
Apesar desse alto risco, a coerção completa dessas ferramentas maliciosas é bastante complexa. No entanto, a executiva aponta meios de mitigação do uso nocivo delas. Um primeiro passo seria ampliar regulamentações internacionais coordenadas para criminalizar o desenvolvimento de Ias voltadas para fins maliciosos ou sem o devido cuidado ético.
“Há também medidas importantes a serem tomadas pelos Líderes de Segurança. A primeira delas é igualar o jogo, combatendo IA com IA a partir da integração IA defensiva nas soluções de monitoramento e resposta a incidentes, incluindo a detecção de comportamentos automáticos e anômalos, característicos de ataques usando IA”, comenta Jackeline.
IA corporativa na mira
O especialista ainda reforçou que, devido a esses processos mais sofisticados, mesmo as tecnologias de IA aplicadas nas atividades corporativas ficaram expostas às ameaças cibernéticas. Isso porque há um impacto para a organização que hospeda modelos de IA comprometidos, em termos de sua própria reputação e na confidencialidade dos dados usados para proteger e treinar o modelo, que poderiam ser vazados externamente.
“O impacto de sistemas de IA comprometidos afeta principalmente os usuários finais. Os resultados de modelos comprometidos não seriam confiáveis. Os usuários desses sistemas podem receber informações falsas ou desinformação, podem receber links ou arquivos maliciosos para clicar e executar, consolidando ainda mais o acesso dos invasores”, acrescenta Schultz.
Nesse aspecto, Jackeline também reforça o papel da conscientização dos colaboradores da empresa no uso da tecnologia, além de políticas e ferramentas homologadas internamente. “O fator humano é decisório nesse processo. A IA facilita a imitação de linguagem humana, o que amplifica o poder da engenharia social. Portanto, as campanhas de conscientização precisam evoluir para avaliar a maturidade da empresa em relação a SI”, conclui ela.
[ad_2]
Fonte
Publicar comentário
Você precisa fazer o login para publicar um comentário.