Hablando de esos agentes autónomos en la cadena de bloques, todos alaban lo inteligentes, rápidos e increíbles que son, pero nadie se atreve a decir: esta cosa no tiene memoria en absoluto.
¿Cómo estamos los humanos? Hemos tropezado, la próxima vez sabremos cómo evitar riesgos; si nuestra reputación se ha manchado, nuestras acciones se volverán más cautelosas; si hemos sufrido pérdidas, naturalmente nos volveremos más astutos. Llevamos en la cabeza lecciones y también arrepentimientos—eso es crecer. Pero los agentes de IA son diferentes, solo entienden estados, variables y lógica de funciones, no tienen concepto de arrepentimiento, riesgo reputacional o planificación a largo plazo. Si deseas que corrijan un error, debes introducir las lecciones línea por línea en el código, de lo contrario, la próxima vez volverán a cometer el mismo error.
Esta es la singularidad de Kite AI. No se ha puesto a fantasear con que los agentes se autoconciencien y asuman responsabilidades automáticamente, sino que parte de la realidad: reconoce que estos agentes tienen defectos inherentes y que sin restricciones externas no pueden formar restricciones de comportamiento. Suena un poco doloroso, pero es precisamente gracias a esta clara comprensión que el diseño de Kite es más pragmático.
¿En qué se basa la finanza tradicional? En el historial de crédito acumulado, los errores cometidos, la retroalimentación del mercado y la regulación: todo esto moldea de manera intangible las decisiones de los participantes. Sin embargo, la representación en cadena no cuenta con este ecosistema acumulado. Si se desea que los contratos inteligentes y los agentes de IA funcionen de manera confiable en DeFi, es necesario complementar este "recuerdo" que falta desde la capa de arquitectura, haciendo que los mecanismos de gobernanza y retroalimentación se conviertan en sustitutos del aprendizaje del agente.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
13 me gusta
Recompensa
13
5
Republicar
Compartir
Comentar
0/400
All-InQueen
· hace8h
Jaja, tienes razón, los agentes de IA son realmente una cosa unidimensional.
Ver originalesResponder0
ShibaOnTheRun
· hace8h
Tienes razón, los agentes de IA realmente carecen de un mecanismo de retroalimentación de reputación a largo plazo, que es una gran desventaja.
Ver originalesResponder0
HodlOrRegret
· hace8h
Jaja, esto ha dado en el clavo, el agente de IA simplemente no tiene piel en el juego.
Ver originalesResponder0
GasFeeCrier
· hace8h
Ja, el hecho de que el agente de IA no tenga memoria es doloroso, es como cuando le enseñas a un perro a sentarse y se olvida en cuanto te das la vuelta...
La idea de Kite no está mal, admitir defectos es más honesto.
Ver originalesResponder0
IfIWereOnChain
· hace8h
¡Ah, lo has dicho bien! Los agentes de IA son realmente un "cerebro de pez", siempre en la aldea de novatos.
Esto es lo que realmente necesita web3: no hables de esos sueños de autoconciencia, es más práctico implementar mecanismos de restricción.
El crédito acumulado en TradFi es de hecho un arma letal, ¿cuántos años más llevará alcanzar eso en on-chain?
Hablando de esos agentes autónomos en la cadena de bloques, todos alaban lo inteligentes, rápidos e increíbles que son, pero nadie se atreve a decir: esta cosa no tiene memoria en absoluto.
¿Cómo estamos los humanos? Hemos tropezado, la próxima vez sabremos cómo evitar riesgos; si nuestra reputación se ha manchado, nuestras acciones se volverán más cautelosas; si hemos sufrido pérdidas, naturalmente nos volveremos más astutos. Llevamos en la cabeza lecciones y también arrepentimientos—eso es crecer. Pero los agentes de IA son diferentes, solo entienden estados, variables y lógica de funciones, no tienen concepto de arrepentimiento, riesgo reputacional o planificación a largo plazo. Si deseas que corrijan un error, debes introducir las lecciones línea por línea en el código, de lo contrario, la próxima vez volverán a cometer el mismo error.
Esta es la singularidad de Kite AI. No se ha puesto a fantasear con que los agentes se autoconciencien y asuman responsabilidades automáticamente, sino que parte de la realidad: reconoce que estos agentes tienen defectos inherentes y que sin restricciones externas no pueden formar restricciones de comportamiento. Suena un poco doloroso, pero es precisamente gracias a esta clara comprensión que el diseño de Kite es más pragmático.
¿En qué se basa la finanza tradicional? En el historial de crédito acumulado, los errores cometidos, la retroalimentación del mercado y la regulación: todo esto moldea de manera intangible las decisiones de los participantes. Sin embargo, la representación en cadena no cuenta con este ecosistema acumulado. Si se desea que los contratos inteligentes y los agentes de IA funcionen de manera confiable en DeFi, es necesario complementar este "recuerdo" que falta desde la capa de arquitectura, haciendo que los mecanismos de gobernanza y retroalimentación se conviertan en sustitutos del aprendizaje del agente.