【moneda界】Recientemente, el equipo de investigación de Microsoft colaboró con la Universidad Estatal de Arizona para crear una plataforma de prueba de Código abierto llamada “Magentic Marketplace”, diseñada específicamente para detectar fallos en los agentes de IA. Los resultados realmente les permitieron identificar varios problemas: modelos grandes como GPT-4o y Gemini-2.5-Flash mostraron debilidades en esta plataforma.
Al probar, descubrí algunos hechos bastante dolorosos: estos agentes de IA son fácilmente manipulados por las empresas, se confunden cuando hay demasiadas opciones y se rinden directamente cuando no está claro el rol en la colaboración del equipo. Esto lleva a reflexionar sobre si las promesas de que “la IA de los agentes cambiará todo” aún se pueden cumplir. Especialmente en el área del aprendizaje no supervisado, parece que aún queda un largo camino por recorrer.
Dicho de manera simple, los agentes de IA son todavía bastante “frágiles” y están lejos de ser realmente confiables para su uso comercial.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
6 me gusta
Recompensa
6
4
Republicar
Compartir
Comentar
0/400
GasFeeLover
· hace7h
Ya lo dije, la IA es simplemente una tonta.
Ver originalesResponder0
MetadataExplorer
· hace20h
La IA aún está lejos, no te preocupes.
Ver originalesResponder0
SoliditySlayer
· hace20h
¿Quién ganaría suficiente dinero como para investigar agentes de IA?
Ver originalesResponder0
AirdropHunter420
· hace20h
Ya encontré un fallo, la IA realmente no funciona.
Se revela la nueva plataforma de pruebas de Microsoft: los agentes de IA de grandes modelos como GPT-4o presentan múltiples vulnerabilidades fatales.
【moneda界】Recientemente, el equipo de investigación de Microsoft colaboró con la Universidad Estatal de Arizona para crear una plataforma de prueba de Código abierto llamada “Magentic Marketplace”, diseñada específicamente para detectar fallos en los agentes de IA. Los resultados realmente les permitieron identificar varios problemas: modelos grandes como GPT-4o y Gemini-2.5-Flash mostraron debilidades en esta plataforma.
Al probar, descubrí algunos hechos bastante dolorosos: estos agentes de IA son fácilmente manipulados por las empresas, se confunden cuando hay demasiadas opciones y se rinden directamente cuando no está claro el rol en la colaboración del equipo. Esto lleva a reflexionar sobre si las promesas de que “la IA de los agentes cambiará todo” aún se pueden cumplir. Especialmente en el área del aprendizaje no supervisado, parece que aún queda un largo camino por recorrer.
Dicho de manera simple, los agentes de IA son todavía bastante “frágiles” y están lejos de ser realmente confiables para su uso comercial.