Entusiastas Desconhecidos Acessam Modelo Claude Mythos, a IA 'Mais Perigosa' da Anthropic
Um grupo de entusiastas conseguiu acesso não autorizado ao Claude Mythos Preview, uma poderosa e restrita IA da Anthropic, através de uma falha de segurança. A Anthropic, que considera o Mythos capaz de encontrar e explorar vulnerabilidades em sistemas, está investigando o incidente e limitando o acesso.
MundiX News·10 de maio de 2026·3 min de leitura·👁 1 views
De acordo com relatos da mídia, um pequeno grupo de indivíduos de um canal temático no Discord obteve acesso ao Claude Mythos Preview, o modelo de IA mais poderoso e potencialmente perigoso da Anthropic, que a empresa intencionalmente não disponibiliza ao público.
A Bloomberg foi a primeira a relatar o incidente, citando uma fonte do grupo e documentação que comprova o acesso ao Mythos. Como já foi mencionado, a Anthropic posiciona o Mythos como um modelo capaz de identificar e explorar vulnerabilidades em todos os principais sistemas operacionais e navegadores. A empresa afirma que o modelo é tão eficiente na descoberta de vulnerabilidades e na criação de exploits que sua liberação pública causaria um caos generalizado. Por essa razão, o acesso ao modelo é estritamente limitado à iniciativa Project Glasswing, sendo restrito a parceiros aprovados, como Apple, Google, Amazon Web Services, Microsoft, Nvidia, Cisco e outras organizações.
No entanto, no mesmo dia em que a Anthropic anunciou o início dos testes limitados do Mythos (7 de abril), membros do canal privado do Discord conseguiram obter acesso. Segundo a fonte da Bloomberg, o grupo de entusiastas é especializado em encontrar informações sobre modelos de IA não anunciados, inclusive usando bots que monitoram recursos abertos, como o GitHub. Para descobrir o Mythos, o grupo utilizou dados de um vazamento recente da startup de IA Mercor, que trabalha com os maiores desenvolvedores de IA. Os dados vazados da Mercor revelaram os formatos de URL que a Anthropic usa para seus modelos, o que permitiu que o endereço fosse adivinhado. Além disso, um dos membros do grupo trabalhava como contratado para uma empresa que avalia modelos da Anthropic e tinha acesso legítimo a parte da infraestrutura da empresa.
Desde que obteve acesso, o grupo usou regularmente o Mythos por cerca de duas semanas (a fonte confirmou isso com capturas de tela e conduziu uma demonstração ao vivo do modelo para jornalistas). Os membros do grupo evitaram intencionalmente prompts relacionados à segurança cibernética e usaram o modelo para tarefas inofensivas, como criar sites simples, para não atrair atenção. Segundo a fonte, os motivos do grupo estão no estudo de novos modelos, e não na intenção de causar danos. Também foi relatado que, além do Mythos, o grupo também obteve acesso a outros modelos não anunciados da Anthropic.
"Estamos investigando o relato de acesso não autorizado ao Claude Mythos Preview por meio de um de nossos ambientes de terceiros", disseram representantes da Anthropic à publicação. A empresa enfatizou que ainda não encontrou sinais de comprometimento de seus próprios sistemas e que o incidente, pelos dados disponíveis, foi limitado ao ambiente do contratado.
De acordo com relatos da mídia, um pequeno grupo de indivíduos de um canal temático no Discord obteve acesso ao Claude Mythos Preview, o modelo de IA mais poderoso e potencialmente perigoso da Anthropic, que a empresa intencionalmente não disponibiliza ao público.
A Bloomberg foi a primeira a relatar o incidente, citando uma fonte do grupo e documentação que comprova o acesso ao Mythos. Como já foi mencionado, a Anthropic posiciona o Mythos como um modelo capaz de identificar e explorar vulnerabilidades em todos os principais sistemas operacionais e navegadores. A empresa afirma que o modelo é tão eficiente na descoberta de vulnerabilidades e na criação de exploits que sua liberação pública causaria um caos generalizado. Por essa razão, o acesso ao modelo é estritamente limitado à iniciativa Project Glasswing, sendo restrito a parceiros aprovados, como Apple, Google, Amazon Web Services, Microsoft, Nvidia, Cisco e outras organizações.
No entanto, no mesmo dia em que a Anthropic anunciou o início dos testes limitados do Mythos (7 de abril), membros do canal privado do Discord conseguiram obter acesso. Segundo a fonte da Bloomberg, o grupo de entusiastas é especializado em encontrar informações sobre modelos de IA não anunciados, inclusive usando bots que monitoram recursos abertos, como o GitHub. Para descobrir o Mythos, o grupo utilizou dados de um vazamento recente da startup de IA Mercor, que trabalha com os maiores desenvolvedores de IA. Os dados vazados da Mercor revelaram os formatos de URL que a Anthropic usa para seus modelos, o que permitiu que o endereço fosse adivinhado. Além disso, um dos membros do grupo trabalhava como contratado para uma empresa que avalia modelos da Anthropic e tinha acesso legítimo a parte da infraestrutura da empresa.
Desde que obteve acesso, o grupo usou regularmente o Mythos por cerca de duas semanas (a fonte confirmou isso com capturas de tela e conduziu uma demonstração ao vivo do modelo para jornalistas). Os membros do grupo evitaram intencionalmente prompts relacionados à segurança cibernética e usaram o modelo para tarefas inofensivas, como criar sites simples, para não atrair atenção. Segundo a fonte, os motivos do grupo estão no estudo de novos modelos, e não na intenção de causar danos. Também foi relatado que, além do Mythos, o grupo também obteve acesso a outros modelos não anunciados da Anthropic.
"Estamos investigando o relato de acesso não autorizado ao Claude Mythos Preview por meio de um de nossos ambientes de terceiros", disseram representantes da Anthropic à publicação. A empresa enfatizou que ainda não encontrou sinais de comprometimento de seus próprios sistemas e que o incidente, pelos dados disponíveis, foi limitado ao ambiente do contratado.