Falando sobre aqueles agentes autónomos na cadeia do Blockchain, todos os dias as pessoas elogiam o quão inteligentes, rápidos e fantásticos eles são, mas ninguém se atreve a dizer abertamente: esta coisa simplesmente não tem memória.
Como estamos nós, humanos? Após cair, sabemos evitar riscos na próxima vez; com a reputação manchada, as ações se tornam mais contidas; depois de uma perda, naturalmente ficamos mais espertos. Carregamos lições e arrependimentos na mente — isso é crescimento. Mas os agentes de IA são diferentes, eles só entendem estados, variáveis e lógica de funções, não têm conceito do que é arrependimento, do que é risco de reputação ou do que é planejamento a longo prazo. Se você quiser que eles corrijam erros, terá que codificar as lições linha por linha, caso contrário, na próxima vez, cometerão os mesmos erros.
Esta é a singularidade da Kite AI. Não imaginou que os agentes se auto-consciencializariam e assumiriam responsabilidades automaticamente, mas partiu da realidade – reconhecendo que esses agentes têm falhas inatas e que sem restrições externas não podem formar limites de comportamento. Pode parecer duro, mas é precisamente por essa consciência clara que o design da Kite é mais prático.
O que o financiamento tradicional depende? Histórias de crédito acumuladas, registros de erros cometidos, feedback do mercado e da regulamentação - tudo isso molda, de forma invisível, as decisões dos participantes. Os agentes na cadeia, no entanto, não têm essa ecologia sedimentada. Se quisermos que contratos inteligentes e agentes de IA funcionem de forma fiável no DeFi, precisamos preencher essa "memória" em falta a partir do nível de arquitetura, permitindo que os mecanismos de governança e feedback se tornem substitutos para o aprendizado dos agentes.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
13 gostos
Recompensa
13
5
Republicar
Partilhar
Comentar
0/400
All-InQueen
· 8h atrás
Haha, não está errado, o agente de IA é realmente uma coisa de mente única.
Ver originalResponder0
ShibaOnTheRun
· 8h atrás
É verdade, os agentes de IA realmente carecem de um mecanismo de feedback de reputação a longo prazo, o que é uma grande falha.
Ver originalResponder0
HodlOrRegret
· 8h atrás
Haha, agora acertou em cheio, o agente de IA simplesmente não tem pele no jogo.
Ver originalResponder0
GasFeeCrier
· 8h atrás
Haha, o fato de o agente de IA não ter memória dói, é como ensinar o cachorro a sentar e ele esquecer assim que você vira as costas...
A ideia do Kite é boa, reconhecer as falhas é mais honesto.
Ver originalResponder0
IfIWereOnChain
· 8h atrás
Ah, isso é verdade, o agente de IA é basicamente um "cérebro de peixe dourado", sempre começando na aldeia dos novatos.
Isso é o que o web3 realmente precisa - não fale sobre aqueles sonhos de autoconsciência, implementar mecanismos de restrição é o que realmente importa.
O crédito acumulado do TradFi é realmente uma arma poderosa, quanto tempo ainda levará para alcançar na cadeia?
Falando sobre aqueles agentes autónomos na cadeia do Blockchain, todos os dias as pessoas elogiam o quão inteligentes, rápidos e fantásticos eles são, mas ninguém se atreve a dizer abertamente: esta coisa simplesmente não tem memória.
Como estamos nós, humanos? Após cair, sabemos evitar riscos na próxima vez; com a reputação manchada, as ações se tornam mais contidas; depois de uma perda, naturalmente ficamos mais espertos. Carregamos lições e arrependimentos na mente — isso é crescimento. Mas os agentes de IA são diferentes, eles só entendem estados, variáveis e lógica de funções, não têm conceito do que é arrependimento, do que é risco de reputação ou do que é planejamento a longo prazo. Se você quiser que eles corrijam erros, terá que codificar as lições linha por linha, caso contrário, na próxima vez, cometerão os mesmos erros.
Esta é a singularidade da Kite AI. Não imaginou que os agentes se auto-consciencializariam e assumiriam responsabilidades automaticamente, mas partiu da realidade – reconhecendo que esses agentes têm falhas inatas e que sem restrições externas não podem formar limites de comportamento. Pode parecer duro, mas é precisamente por essa consciência clara que o design da Kite é mais prático.
O que o financiamento tradicional depende? Histórias de crédito acumuladas, registros de erros cometidos, feedback do mercado e da regulamentação - tudo isso molda, de forma invisível, as decisões dos participantes. Os agentes na cadeia, no entanto, não têm essa ecologia sedimentada. Se quisermos que contratos inteligentes e agentes de IA funcionem de forma fiável no DeFi, precisamos preencher essa "memória" em falta a partir do nível de arquitetura, permitindo que os mecanismos de governança e feedback se tornem substitutos para o aprendizado dos agentes.