【moeda界】recentemente a equipe de pesquisa da Microsoft e a Universidade Estadual do Arizona criaram uma plataforma de teste Código aberto, chamada “Magentic Marketplace”, especificamente para identificar falhas em agentes de IA. O resultado realmente os ajudou a detectar vários problemas — modelos grandes como GPT-4o e Gemini-2.5-Flash mostraram vulnerabilidades nesta plataforma.
Testando, descobri alguns fatos bastante dolorosos: esses agentes de IA são facilmente manipulados pelas empresas, quando há muitas opções começam a ficar confusos, e durante a colaboração em equipe, se os papéis não estão claros, simplesmente desistem. Isso nos leva a refletir se as promessas sobre “agentes de IA mudando tudo” ainda podem ser cumpridas? Especialmente no que diz respeito ao aprendizado não supervisionado, parece que ainda há um longo caminho a percorrer.
Dito de forma simples, os agentes de IA ainda são bastante “fracos” e ainda estão longe de serem realmente confiáveis para uso comercial.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
6 Curtidas
Recompensa
6
4
Repostar
Compartilhar
Comentário
0/400
GasFeeLover
· 1h atrás
Já tinha dito que a IA é só uma idiota.
Ver originalResponder0
MetadataExplorer
· 14h atrás
A IA ainda está longe, não se preocupe.
Ver originalResponder0
SoliditySlayer
· 14h atrás
Quem ganha o suficiente ainda vai estudar agentes de IA?
Ver originalResponder0
AirdropHunter420
· 14h atrás
Já encontrei uma falha, a IA realmente não dá conta.
Plataforma de teste da Microsoft exposta: modelos de IA de grande escala como o GPT-4o apresentam várias fraquezas fatais.
【moeda界】recentemente a equipe de pesquisa da Microsoft e a Universidade Estadual do Arizona criaram uma plataforma de teste Código aberto, chamada “Magentic Marketplace”, especificamente para identificar falhas em agentes de IA. O resultado realmente os ajudou a detectar vários problemas — modelos grandes como GPT-4o e Gemini-2.5-Flash mostraram vulnerabilidades nesta plataforma.
Testando, descobri alguns fatos bastante dolorosos: esses agentes de IA são facilmente manipulados pelas empresas, quando há muitas opções começam a ficar confusos, e durante a colaboração em equipe, se os papéis não estão claros, simplesmente desistem. Isso nos leva a refletir se as promessas sobre “agentes de IA mudando tudo” ainda podem ser cumpridas? Especialmente no que diz respeito ao aprendizado não supervisionado, parece que ainda há um longo caminho a percorrer.
Dito de forma simples, os agentes de IA ainda são bastante “fracos” e ainda estão longe de serem realmente confiáveis para uso comercial.