Até criminosos reclamam da enxurrada de conteúdo gerado por IA
A comunidade de cibercriminosos está expressando frustração com a crescente quantidade de conteúdo de baixa qualidade gerado por inteligência artificial em fóruns e plataformas clandestinas. Relatos indicam que a proliferação de "lixo de IA" está prejudicando discussões, guias e posts técnicos, afetando a dinâmica das comunidades online. Pesquisas revelam uma mudança na percepção da IA, com críticas crescentes sobre a utilidade e o impacto do conteúdo gerado por modelos de linguagem.
MundiX News·15 de maio de 2026·3 min de leitura·👁 3 views
Até criminosos reclamam da enxurrada de conteúdo gerado por IA
O mundo da cibersegurança e, surpreendentemente, até mesmo o submundo do cibercrime, estão começando a sentir os efeitos colaterais da proliferação de conteúdo gerado por inteligência artificial. A publicação Wired relata que fóruns clandestinos e plataformas de hackers estão cada vez mais cheios de reclamações sobre o que é descrito como "lixo de IA". Este "lixo" se manifesta em discussões, guias e posts técnicos, prejudicando a qualidade e a utilidade das informações compartilhadas.
A frustração dos usuários foi exacerbada pelos planos de uma plataforma de hackers não identificada de integrar ativamente a IA generativa. Um membro do fórum expressou a opinião de que a administração deveria se concentrar em melhorar o site em vez de adicionar mais conteúdo gerado por IA. Essa reação reflete uma crescente preocupação com a qualidade e a relevância das informações disponíveis, mesmo em ambientes onde a informação é um ativo valioso.
De acordo com o pesquisador Ben Collier, da Universidade de Edimburgo, essa reação é cada vez mais comum. Em um novo estudo, especialistas analisaram o uso de IA por cibercriminosos e descobriram um crescente descontentamento com modelos generativos na dark web. O estudo, conduzido em colaboração com pesquisadores da Universidade de Cambridge e da Universidade de Strathclyde, analisou quase 98.000 discussões relacionadas à IA em fóruns de hackers, desde o lançamento do ChatGPT em 2022 até o final de 2025. A pesquisa revelou uma mudança notável na atitude em relação à IA no cibercrime. Enquanto anteriormente muitos discutiam como as redes neurais poderiam auxiliar na escrita de código malicioso ou na busca de vulnerabilidades, agora os usuários reclamam cada vez mais do fluxo de posts inúteis de IA e guias simplistas sobre tópicos básicos. Além disso, alguns membros dos fóruns estão insatisfeitos com o fato de que as respostas de IA nos resultados de pesquisa do Google estão diminuindo o tráfego para os próprios sites.
Collier observa que, para muitos fóruns de hackers, a componente social é tão importante quanto a componente criminosa. Reputações são construídas, concursos são realizados e membros regulares constroem relacionamentos ao longo dos anos. Nesse contexto, o conteúdo de IA é visto como uma ameaça ao próprio formato da comunidade. No entanto, o interesse em usar IA no cibercrime não desapareceu. Segundo Ian Gray, vice-presidente da Flashpoint, criminosos mais experientes já sabem como contornar as restrições de segurança dos modelos comerciais e conhecem métodos de jailbreak. Os pesquisadores da Flashpoint também notaram que um novo modelo, Claude Mythos Preview, da Anthropic, está sendo ativamente discutido na dark web. No geral, os pesquisadores não veem um impacto significativo da IA nas atividades de cibercriminosos menos experientes. Os modelos generativos ainda não reduziram a barreira de entrada para iniciantes e não levaram a mudanças radicais nesse ecossistema. O efeito mais notável do uso de IA até agora só foi observado em esquemas já automatizados: golpes de SEO, bots de mídia social e alguns tipos de golpes "românticos".
Até criminosos reclamam da enxurrada de conteúdo gerado por IA
O mundo da cibersegurança e, surpreendentemente, até mesmo o submundo do cibercrime, estão começando a sentir os efeitos colaterais da proliferação de conteúdo gerado por inteligência artificial. A publicação Wired relata que fóruns clandestinos e plataformas de hackers estão cada vez mais cheios de reclamações sobre o que é descrito como "lixo de IA". Este "lixo" se manifesta em discussões, guias e posts técnicos, prejudicando a qualidade e a utilidade das informações compartilhadas.
A frustração dos usuários foi exacerbada pelos planos de uma plataforma de hackers não identificada de integrar ativamente a IA generativa. Um membro do fórum expressou a opinião de que a administração deveria se concentrar em melhorar o site em vez de adicionar mais conteúdo gerado por IA. Essa reação reflete uma crescente preocupação com a qualidade e a relevância das informações disponíveis, mesmo em ambientes onde a informação é um ativo valioso.
De acordo com o pesquisador Ben Collier, da Universidade de Edimburgo, essa reação é cada vez mais comum. Em um novo estudo, especialistas analisaram o uso de IA por cibercriminosos e descobriram um crescente descontentamento com modelos generativos na dark web. O estudo, conduzido em colaboração com pesquisadores da Universidade de Cambridge e da Universidade de Strathclyde, analisou quase 98.000 discussões relacionadas à IA em fóruns de hackers, desde o lançamento do ChatGPT em 2022 até o final de 2025. A pesquisa revelou uma mudança notável na atitude em relação à IA no cibercrime. Enquanto anteriormente muitos discutiam como as redes neurais poderiam auxiliar na escrita de código malicioso ou na busca de vulnerabilidades, agora os usuários reclamam cada vez mais do fluxo de posts inúteis de IA e guias simplistas sobre tópicos básicos. Além disso, alguns membros dos fóruns estão insatisfeitos com o fato de que as respostas de IA nos resultados de pesquisa do Google estão diminuindo o tráfego para os próprios sites.
Collier observa que, para muitos fóruns de hackers, a componente social é tão importante quanto a componente criminosa. Reputações são construídas, concursos são realizados e membros regulares constroem relacionamentos ao longo dos anos. Nesse contexto, o conteúdo de IA é visto como uma ameaça ao próprio formato da comunidade. No entanto, o interesse em usar IA no cibercrime não desapareceu. Segundo Ian Gray, vice-presidente da Flashpoint, criminosos mais experientes já sabem como contornar as restrições de segurança dos modelos comerciais e conhecem métodos de jailbreak. Os pesquisadores da Flashpoint também notaram que um novo modelo, Claude Mythos Preview, da Anthropic, está sendo ativamente discutido na dark web. No geral, os pesquisadores não veem um impacto significativo da IA nas atividades de cibercriminosos menos experientes. Os modelos generativos ainda não reduziram a barreira de entrada para iniciantes e não levaram a mudanças radicais nesse ecossistema. O efeito mais notável do uso de IA até agora só foi observado em esquemas já automatizados: golpes de SEO, bots de mídia social e alguns tipos de golpes "românticos".