【moeda界】recentemente a equipe de pesquisa da Microsoft e a Universidade Estadual do Arizona criaram uma plataforma de teste Código aberto, chamada “Magentic Marketplace”, especificamente para identificar falhas em agentes de IA. O resultado realmente os ajudou a detectar vários problemas — modelos grandes como GPT-4o e Gemini-2.5-Flash mostraram vulnerabilidades nesta plataforma.
Testando, descobri alguns fatos bastante dolorosos: esses agentes de IA são facilmente manipulados pelas empresas, quando há muitas opções começam a ficar confusos, e durante a colaboração em equipe, se os papéis não estão claros, simplesmente desistem. Isso nos leva a refletir se as promessas sobre “agentes de IA mudando tudo” ainda podem ser cumpridas? Especialmente no que diz respeito ao aprendizado não supervisionado, parece que ainda há um longo caminho a percorrer.
Dito de forma simples, os agentes de IA ainda são bastante “fracos” e ainda estão longe de serem realmente confiáveis para uso comercial.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
6 gostos
Recompensa
6
3
Republicar
Partilhar
Comentar
0/400
MetadataExplorer
· 11h atrás
A IA ainda está longe, não se preocupe.
Ver originalResponder0
SoliditySlayer
· 11h atrás
Quem ganha o suficiente ainda vai estudar agentes de IA?
Ver originalResponder0
AirdropHunter420
· 11h atrás
Já encontrei uma falha, a IA realmente não dá conta.
Plataforma de teste da Microsoft exposta: modelos de IA de grande escala como o GPT-4o apresentam várias fraquezas fatais.
【moeda界】recentemente a equipe de pesquisa da Microsoft e a Universidade Estadual do Arizona criaram uma plataforma de teste Código aberto, chamada “Magentic Marketplace”, especificamente para identificar falhas em agentes de IA. O resultado realmente os ajudou a detectar vários problemas — modelos grandes como GPT-4o e Gemini-2.5-Flash mostraram vulnerabilidades nesta plataforma.
Testando, descobri alguns fatos bastante dolorosos: esses agentes de IA são facilmente manipulados pelas empresas, quando há muitas opções começam a ficar confusos, e durante a colaboração em equipe, se os papéis não estão claros, simplesmente desistem. Isso nos leva a refletir se as promessas sobre “agentes de IA mudando tudo” ainda podem ser cumpridas? Especialmente no que diz respeito ao aprendizado não supervisionado, parece que ainda há um longo caminho a percorrer.
Dito de forma simples, os agentes de IA ainda são bastante “fracos” e ainda estão longe de serem realmente confiáveis para uso comercial.