As 10 áreas mais importantes em IA hoje, segundo a MIT Technology Review

As 10 áreas mais importantes em IA hoje, segundo a MIT Technology Review

A MIT Technology Review destaca as tendências cruciais em IA, desde novas arquiteturas e modelos de linguagem até o impacto em cibersegurança e sociedade. O artigo explora o desenvolvimento de modelos de mundo, a ascensão de modelos abertos chineses e os desafios colocados por deepfakes e resistência à IA.

MundiX News·10 de maio de 2026·10 min de leitura·👁 2 views

512K+ Alcance em 30 dias OTUS Desenvolvendo tecnologias, ensinando seus criadores 679,21 Classificação 186.510 Assinantes Assinar kmoseenk Há 31 minutos As 10 áreas mais importantes em IA hoje, segundo a MIT Technology Review Médio 8 min 1.6K Blog da empresa OTUS Inteligência Artificial Aprendizado de Máquina * Segurança da Informação * Análise No mundo superaquecido e barulhento da IA, o que realmente vale a pena observar se você não quiser perder as mudanças importantes? A redação da MIT Technology Review acompanha há muitos anos o desenvolvimento dessa área, quais ideias estão ganhando força nela e para onde o equilíbrio de poder está mudando em geral. Esta seleção reúne temas que já estão impulsionando a indústria e, em muitos aspectos, definindo a estrutura do que se tornará possível no futuro.

Primeiro, vamos analisar as mudanças dentro da própria tecnologia: novas arquiteturas , abordagens de dados e ecossistemas concorrentes. Em seguida, falaremos sobre a saída da IA para contornos reais: do desenvolvimento e da ciência a sistemas críticos. E, finalmente, vamos prestar atenção às consequências dessa escalada - do crescimento de ataques à pressão da sociedade e do Estado.

Para onde a própria tecnologia está indo Dados para robôs humanoides As empresas que fabricam robôs humanoides estão coletando cada vez mais dados sobre os movimentos humanos - de ações domésticas a trabalhos manuais precisos. A lógica aqui é a mesma das grandes modelos de linguagem : se os modelos de texto cresceram em enormes conjuntos de textos, então a robótica precisa de um conjunto de dados em escala comparável sobre como uma pessoa se move e interage com o mundo físico.

O problema é que esses dados não podem ser simplesmente "baixados da internet". Anteriormente, os desenvolvedores tentavam se virar com simulações, mas elas reproduzem mal as propriedades reais do ambiente, como atrito, elasticidade e pequenas desvios, razão pela qual o comportamento dos robôs na vida real costuma ser instável.

Agora, a aposta mudou para a coleta de dados do mundo real. Para isso, são utilizados experimentos relativamente simples com a gravação de ações domésticas, e esquemas mais amplos: centros de treinamento com equipamentos de RV e exoesqueletos, controle remoto de robôs, bem como gravação dos movimentos de funcionários e artistas em trabalho por peça. Diante do crescimento dos investimentos em robótica humanoide, essa coleta de dados está se transformando rapidamente em uma corrida separada.

Mas a principal questão ainda permanece em aberto: é possível coletar tais conjuntos de dados no volume certo e transformá-los em uma tecnologia funcional e lucrativa? Teoricamente, a abordagem parece lógica, mas o valor prático de cada fragmento de dados e a escala necessária para uma descoberta ainda não são óbvios.

LLMs da próxima geração Após o crescimento explosivo da popularidade dos grandes modelos de linguagem, ficou claro: a próxima etapa não é a rejeição dos LLMs, mas seu desenvolvimento. A indústria está tentando tornar esses modelos mais baratos, mais econômicos e mais sustentáveis ​​ao trabalhar com tarefas longas e complexas que exigem não uma resposta, mas um raciocínio consistente em várias etapas.

Um dos principais vetores é a redução dos custos computacionais. Para isso, são utilizadas diferentes abordagens: por exemplo, arquiteturas onde o modelo é dividido em várias partes especializadas e apenas a necessária funciona a cada momento. Paralelamente, estão sendo realizados experimentos com alternativas aos transformadores e outras formas de codificação de dados que podem reduzir o custo da computação.

A segunda direção importante é a expansão e reformulação da janela de contexto, ou seja, a quantidade de informações que o modelo é capaz de manter em funcionamento. Os modelos modernos já são capazes de processar grandes quantidades de texto, mas à medida que o contexto aumenta, aumenta o risco de o modelo começar a perder o fio da tarefa. Portanto, os desenvolvedores estão procurando esquemas mais confiáveis ​​para trabalhar com contexto longo, inclusive dividindo a tarefa em partes e processamento distribuído. Na verdade, não se trata mais apenas de um "modelo maior", mas de uma nova forma de organizar seu trabalho.

"Modelos do mundo" Uma das principais fraquezas da IA ​​atual é a falta de confiabilidade ao trabalhar com o mundo real. Os sistemas estão lidando cada vez melhor com texto, código e outras tarefas digitais, mas assim que se trata do ambiente físico, tudo se torna notavelmente mais complicado. É por isso que cada vez mais pesquisadores estão apostando nos chamados modelos do mundo - sistemas que não apenas processam dados de entrada, mas também formam uma representação interna do ambiente e das possíveis consequências das ações.

A ideia não é nova, mas nos últimos meses ela voltou à tona: grandes laboratórios e startups de pesquisa estão ativamente envolvidos nessa área. O ponto é que apenas estatísticas de texto não são suficientes para que o sistema se comporte de forma estável em uma situação incomum. Um modelo de linguagem pode descrever o mundo de forma plausível, mas isso não significa que ele realmente saiba como se orientar nele.

Na prática, isso é especialmente importante para robótica e sistemas autônomos. Se a IA puder construir um modelo interno mais preciso do ambiente, prever as consequências de suas ações e corrigir o comportamento durante a operação, isso pode expandir significativamente sua aplicabilidade além da tela. Até agora, as aplicações reais são principalmente modestas - de ambientes 3D virtuais à navegação de robôs - mas é aqui que muitos pesquisadores veem um dos principais passos após a era dos LLMs.

A aposta chinesa em modelos abertos Enquanto as empresas americanas de IA mantêm principalmente modelos fortes por meio de APIs e monetizam o acesso, os laboratórios chineses estão apostando em pesos abertos. Para os desenvolvedores, isso significa um limite de entrada mais baixo: o modelo pode ser implantado em sua própria infraestrutura, treinado para uma tarefa e não depender de restrições comerciais de um provedor externo.

Essa estratégia se tornou particularmente notável após o lançamento do DeepSeek R1: o modelo mostrou que os players chineses são capazes de se aproximar do nível dos principais sistemas americanos, e com custos menores. Outros grandes participantes seguiram esse caminho - Alibaba, Moonshot, MiniMax e Z.ai. Como resultado, a China começou a ganhar não apenas peso técnico, mas também a confiança dos desenvolvedores que precisam de ferramentas baratas e personalizáveis ​​para implementação de IA em produtos reais .

Ao mesmo tempo, a abordagem tem um lado negativo. Os modelos abertos chineses carregam as restrições do sistema local de moderação de conteúdo, e há alegações em torno de alguns laboratórios relacionadas ao empréstimo de recursos de modelos ocidentais. Mas, em um sentido aplicado, a tendência já se formou: os modelos abertos tornam o mercado de IA menos centralizado, e o próprio ecossistema está cada vez mais se afastando de um cenário em que as regras do jogo são definidas apenas pelo Vale do Silício.

Como a IA sai do chat para processos reais Orquestração de agentes A próxima etapa após os LLMs não são apenas "chats inteligentes", mas sistemas que podem realizar ações. É para isso que os agentes são necessários: eles trabalham com ferramentas, interfaces e fluxos de trabalho, e não apenas geram texto em resposta a uma solicitação.

A principal mudança agora é a transição de agentes únicos para conexões multi-agentes . Em vez de um bot que resolve uma tarefa, aparece um grupo de agentes com diferentes funções: um escreve código, outro testa, um terceiro corrige erros, um quarto coordena o processo. Essa abordagem já é usada no desenvolvimento e agora está começando a entrar em um contorno de escritório mais amplo - do trabalho com e-mail e solicitações ao gerenciamento de processos internos.

A ideia parece forte: sistemas multi-agentes podem se tornar para o trabalho intelectual o que a linha de montagem um dia se tornou para a produção. Mas, ao mesmo tempo, os riscos também estão crescendo. Se os modelos generativos ainda são propensos a cometer erros e agir de forma imprevisível, então, ao entrar em infraestruturas reais - corporativas, financeiras, médicas - o custo de tais erros se torna notavelmente maior.

A IA como co-autora de pesquisas científicas A IA já se tornou uma ferramenta de trabalho na ciência: ajuda a pesquisar publicações, escrever código, preparar rascunhos de artigos e analisar dados. Mas agora, os grandes laboratórios e grupos de pesquisa têm um objetivo mais ambicioso - transformar esses sistemas de uma ferramenta auxiliar em um participante completo do trabalho científico, capaz de propor hipóteses, planejar pesquisas e conduzi-las parcialmente quase sem a participação constante de uma pessoa.

Na prática, isso é cada vez mais implementado por meio de sistemas multi-agentes, onde diferentes modelos são responsáveis ​​por etapas individuais: geração de ideias, seleção de hipóteses, projeto de experimentos e interpretação de resultados. Em conjunto com laboratórios robotizados, essa abordagem já permite lançar grandes séries de experimentos e acelerar pesquisas aplicadas, especialmente em biologia e química.

Mas, ao mesmo tempo, surge outro risco: a IA funciona bem onde já existem grandes conjuntos de dados e literatura acumulada, o que significa que pode mudar imperceptivelmente o foco da ciência para direções "convenientes" e já desenvolvidas. Portanto, a questão aqui não é apenas o poder dos modelos, mas também como integrá-los ao processo científico para não restringir o campo de pesquisa e não perder a diversidade da busca científica.

A IA como consultora no contorno militar Os militares usam a IA há muito tempo para analisar dados de inteligência, vídeos e outros fluxos de informações, onde é necessário separar rapidamente o sinal útil do ruído. O novo aqui não é a própria automação, mas a transição para sistemas que não apenas processam dados, mas também fazem recomendações aos comandantes em formato de diálogo.

Essas soluções já estão sendo construídas com base em LLMs. Eles são usados ​​para priorizar alvos, interpretar informações de inteligência e apoiar decisões em condições de escassez de tempo. E não estamos falando de protótipos experimentais: ferramentas semelhantes estão sendo cada vez mais integradas aos processos militares reais.

O problema é que os modelos generativos são instáveis ​​por natureza: podem dar respostas diferentes à mesma solicitação, cometer erros e soar convincentes, mesmo onde as conclusões são mal fundamentadas. Em tarefas civis, isso é desagradável, em tarefas militares - já é crítico. Riscos adicionais estão associados à falta de transparência de tais sistemas, à dependência do exército de empresas de tecnologia e à perspectiva de treinar modelos em dados militares fechados.

Quais novos conflitos e custos isso cria Ciberameaças Com o advento de modelos generativos acessíveis, os invasores expandiram drasticamente seu conjunto de ferramentas. A IA já está sendo usada para e-mails de phishing, deepfakes, adaptação de malware para contornar detectores, pesquisa de vulnerabilidades e análise de dados roubados para encontrar mais rapidamente neles o que realmente é valioso.

O principal efeito aqui não é que a IA tenha tornado os ataques instantaneamente "mais inteligentes", mas que os tornou mais baratos, mais rápidos e mais massivos. O limite de entrada para os atacantes está diminuindo: muitas operações que antes exigiam tempo e qualificação agora são automatizadas ou simplificadas significativamente. Portanto, mesmo ataques relativamente primitivos começam a representar um grande problema devido ao volume.

A parte defensiva também usa IA, e em alguns casos é ela que ajuda a filtrar o enorme fluxo de atividade suspeita. Mas o equilíbrio geral ainda é alarmante: à medida que a disponibilidade dessas ferramentas aumenta, a carga nos sistemas de proteção só aumentará, e a ciber-higiene básica - atualizações, segmentação de rede, conformidade com protocolos de segurança - continua sendo criticamente importante.

Deepfakes como ferramenta de pressão As preocupações com deepfakes há muito deixaram de ser teoria. À medida que os modelos generativos se desenvolvem e a disponibilidade dessas ferramentas aumenta, falsificar fotos, vídeos e áudio se tornou notavelmente mais fácil, mais barato e mais rápido. E não se trata apenas de conteúdo deliberadamente falso, mas de materiais que são cada vez mais difíceis de distinguir dos reais.

Na prática, deepfakes são cada vez mais usados ​​em cenários maliciosos: de imagens íntimas não autorizadas a esquemas fraudulentos e propaganda política. As consequências aqui vão muito além de incidentes individuais: a confiança nas imagens como tal, nas instituições públicas e na própria capacidade de distinguir o real do gerado é minada.

Medidas técnicas e legais de proteção estão sendo discutidas, mas cada uma delas tem limitações. Os filtros podem ser contornados, modelos abertos - usados ​​sem restrições embutidas, e a regulamentação só funciona onde é realmente aplicada. Portanto, o problema, aparentemente, só vai aumentar - especialmente em cenários politicamente sensíveis e socialmente vulneráveis.

A crescente resistência à IA Diante da rápida introdução da IA, a reação também está crescendo. E o protesto não vem de um único campo: os mais diversos grupos estão se manifestando - de trabalhadores e sindicatos a pais, artistas, comunidades religiosas e ativistas políticos com pontos de vista opostos. Os motivos também são diferentes: o crescimento do consumo de energia dos data centers, reduções sob o pretexto de automação, a influência de chatbots em adolescentes, o uso militar da IA ​​e o uso de conteúdo de outras pessoas para treinar modelos.

Essa resistência já vai além de declarações individuais. Protestos de rua, declarações públicas, ações judiciais e medidas regulatórias locais estão surgindo. Em alguns casos, a pressão começa a influenciar a política: restrições são introduzidas para classes individuais de serviços de IA, e os planos para enfraquecer a proteção de direitos autorais enfrentam forte resistência.

O conflito em torno da infraestrutura é especialmente notável: os data centers são cada vez mais percebidos não como uma "base tecnológica" abstrata, mas como objetos que ocupam terreno, sobrecarregam o sistema de energia e criam custos para as comunidades locais. Nesse sentido, a agenda anti-IA está se tornando não apenas cultural ou ética, mas também bastante material. E parece que esse conflito só vai se intensificar.

Fonte: technologyreview

Em continuação ao tema - vários guias práticos que já receberam boa resposta no Habré: Automação de processos em código aberto - n8n e Ollama Ensinamos a IA a escrever código real para Postgres Como treinar LLMs locais em 2026: um guia prático Como criar seu primeiro agente de IA em 30 minutos Como bombear um agente de IA sem retreinamento: Habilidades do Agente Visão geral do assistente de IA Cursor para desenvolvedores Como escolho LLMs para minhas tarefas Como montar rapidamente um protótipo de produto de IA em n8n.io Se você quiser se aprofundar nesses tópicos, consulte o calendário de aulas de demonstração gratuitas

  • lá, especialistas praticantes contam regularmente sobre IA, desenvolvimento e áreas relacionadas usando o exemplo de tarefas e casos reais.

Tags: inteligência artificial LLM agentes de IA sistemas multi-agentes tendências mit ciberameaças Tendências de IA 2026 Hubs: Blog da empresa OTUS Inteligência Artificial Aprendizado de Máquina Segurança da Informação +2 2 0 512K+ Alcance em 30 dias OTUS Desenvolvendo tecnologias, ensinando seus criadores Site VKontakte Telegram 128K+ Alcance em 30 dias 157 Carma Ksenia Moseenkova @kmoseenk Tradutora, editora Assinar O fluxo de IA e ML está disponível 24 horas por dia, 7 dias por semana, graças ao apoio de amigos do Habr Cursos Habr para todos PUBLICIDADE Prática, Hexlet, SkyPro, cursos do autor - reunimos todos e pedimos descontos. Resta escolher! Ir Ir para o fluxo de IA e ML Comentar Melhor do dia Semelhante

📤 Compartilhar & Baixar