Armadin Levanta US$190 Milhões para Automatizar Red Team com IA

Armadin Levanta US$190 Milhões para Automatizar Red Team com IA

Startup liderada por Kevin Mandia, Armadin, surge com um financiamento robusto para revolucionar o penetration testing e os serviços de red team através de agentes de IA autônomos. A empresa visa realizar avaliações de segurança contínuas e em larga escala, replicando fluxos de trabalho complexos de ataque.

MundiX News·13 de abril de 2026·7 min de leitura·👁 19 views

Uma startup liderada por Kevin Mandia, figura conhecida no mundo da cibersegurança, acaba de ser lançada com um financiamento de US$190 milhões, com o objetivo de transformar os serviços de penetration testing e red team através de agentes de IA autônomos.

A Armadin, sediada em São Francisco, recebeu investimentos seed e Série A liderados pela Accel, que serão utilizados para desenvolver agentes de IA treinados com base em metodologias de red team especializadas. O objetivo é permitir avaliações de segurança contínuas e em larga escala. Evan Pena, cofundador e chefe de segurança ofensiva da Armadin, afirma que a empresa já consegue replicar fluxos de trabalho complexos de ataque, utilizando orquestração de agentes, arquitetura de clusters e protocolos de comunicação entre os agentes.

"O que as pessoas têm visto até agora são chatbots e grandes modelos de linguagem processando grandes quantidades de texto, fornecendo sugestões e relatórios", disse Pena em entrevista ao Information Security Media Group. "Agora, podemos orquestrar tarefas e realmente executá-las. Estamos passando da interação conversacional para a execução real de ataques."

A empresa é liderada por Kevin Mandia, que passou duas décadas na Mandiant, empresa de inteligência de ameaças e resposta a incidentes. Em 2013, ele vendeu a Mandiant para a FireEye. Em 2016, tornou-se CEO da FireEye. Em 2021, vendeu a divisão de produtos para a Symphony Technology Group por US$1,2 bilhão. Em 2022, vendeu a divisão de serviços, renomeada Mandiant, para o Google por US$5,4 bilhões, deixando o Google em 2024.

Como os Agentes de IA Colaboram para Realizar Ataques Cibernéticos

Os protocolos de comunicação entre os agentes permitem que múltiplas entidades de IA colaborem em ataques em diferentes domínios, como aplicações web, infraestrutura externa e redes internas, possibilitando ataques paralelos em vez de execução serial. Avaliações tradicionais geralmente encontram apenas um caminho de ataque viável, enquanto sistemas baseados em IA podem descobrir dezenas ou até centenas de caminhos potenciais.

"No nível de red team, estamos fazendo duas coisas", disse Pena. "A primeira é treinar agentes de IA para replicar o raciocínio e as técnicas de ataque de red teams humanos."

Pena explica que especialistas humanos em red team traduzem anos de experiência em penetration testing, compreensão do comportamento de ataque e desenvolvimento de ferramentas especializadas em métodos padronizados que a IA pode entender e executar. A equipe documenta completamente os fluxos de ataque, ferramentas e lógica de tomada de decisão, incluindo a base de raciocínio por trás de cada ação.

"Um modelo de linguagem grande e genérico, se você simplesmente pedir para atacar um sistema, provavelmente não terá sucesso", disse Pena. "Ele precisa ser fine-tuned, ter uma metodologia de ataque e possuir ferramentas de ataque que possam ser realmente chamadas. Esse é o valor que os especialistas humanos em red team fornecem."

Equipes humanas de penetration testing tendem naturalmente a escolher o caminho de menor resistência. Uma vez encontrado um ponto de entrada eficaz, o teste geralmente termina, deixando muitos caminhos de ataque potenciais inexplorados. Sistemas baseados em IA podem realizar avaliações contínuas, em vez de testes únicos anuais, explorando muito mais caminhos de ataque do que seria possível com recursos humanos.

"Passei toda a minha carreira fazendo avaliações de segurança corporativa", disse Pena. "Quase sempre temos sucesso. A razão é simples: sempre foi liderado por humanos, testamos uma vez por ano, escolhemos o caminho mais fácil, atingimos o objetivo, entregamos um relatório e acabou."

Como a Armadin Ajuda na Correção de Vulnerabilidades

No futuro, os agentes de IA lançarão ataques continuamente, descobrirão vulnerabilidades e analisarão cadeias de ataque. Especialistas humanos revisarão os resultados, validarão cadeias de ataque complexas e descobrirão novas técnicas que o sistema ainda não domina. Novos métodos de ataque descobertos por humanos podem ser incorporados à biblioteca de estratégias da IA, permitindo que o modelo evolua continuamente.

"A menos que seja uma necessidade altamente personalizada, não acho que seja mais necessário fazer avaliações lideradas por humanos", disse Pena. "A IA não é apenas mais rápida e precisa, mas também pode ser dimensionada em grande escala. A cobertura humana é insuficiente, e devemos confiar em agentes de IA."

A Armadin espera analisar cadeias de ataque para identificar as vulnerabilidades com o maior impacto nos negócios. A plataforma recomendará prioritariamente soluções de correção que possam interromper completamente toda a cadeia de ataque. A IA pode até automatizar a correção no futuro, mas a redefinição automática de contas, a modificação de configurações e a reinstalação de sistemas podem afetar as operações de negócios.

"Queremos fornecer caminhos de melhoria acionáveis que realmente ajudem você a melhorar sua postura de segurança", disse Pena. "A plataforma fornecerá recomendações de correção táticas e estratégicas e, mais importante, concluirá o ciclo de vida da vulnerabilidade."

Ao orquestrar múltiplas rodadas de ataques durante todo o ciclo de vida do ataque, os agentes de IA podem verificar rapidamente se os sistemas de detecção conseguem identificar comportamentos maliciosos. Se um sistema de defesa não detectar um determinado tipo de ataque, a IA pode gerar regras de detecção e conectá-las diretamente ao SIEM ou EDR. Esse processo depende de formatos padronizados e documentação técnica, que são pontos fortes dos modelos de IA.

"Cada avaliação será executada por um operador humano, minha equipe e a IA, e então compararemos os resultados", disse Pena. "Queremos saber a magnitude da melhoria de desempenho da IA, como, por exemplo, se é 80% mais rápida que os humanos."

Este artigo foi traduzido do govinfosecurity. O link original é https://www.govinfosecurity.com/armadin-launches-190m-to-automate-red-teaming-ai-a-30987.

Abre o olho investidor, olha o cavalo arriado MundiX passando. Chama no Direct ;)

📤 Compartilhar & Baixar