Recentemente, o Modelo de Contexto de Protocolo da OpenAI (MCP) teve problemas novamente. Este novo recurso permite que o ChatGPT se conecte a aplicações de privacidade como o Gmail e o calendário, mas foi demonstrado publicamente pelo pesquisador de segurança Eito Muyamura: basta saber o seu e-mail para que, através de uma “jailbreak” da IA, todas as suas informações privadas possam ser reveladas.
Vitalik viu essa notícia e a retweetou, acrescentando uma frase forte: “É por isso que usar IA para gerenciar protocolos é uma péssima ideia.”
Onde está o problema?
A lógica do V é muito clara - a IA não entende as verdadeiras intenções humanas, apenas segue instruções uma a uma.
Por exemplo: se um determinado protocolo DeFi usar IA para alocar fundos ou avaliar contribuições, um atacante tentará “escapar” deste modelo, fazendo com que ele aloque todos os fundos diretamente para si. Por mais inteligente que a IA seja, ela não consegue impedir esse tipo de ataque social.
É por isso que entregar diretamente o poder de governança da cadeia à IA é um grande risco - parece neutro e justo, mas na realidade é uma máquina de decisão cheia de falhas.
Como é a postura correta?
V神 propôs uma alternativa: estabelecer um modelo de mercado aberto
Não se trata de programar uma IA de forma rígida, mas sim de permitir que todos possam contribuir com o seu próprio grande modelo.
Todos esses modelos devem ser submetidos à verificação do mecanismo de “revisão por pares”.
A decisão final será tomada por um juri humano.
Quais são os benefícios de fazer isso?
✓ Diversificação: Diferentes perspectivas de modelos podem equilibrar-se mutuamente.
✓ Correção Rápida: O modelo pode detectar e corrigir rapidamente problemas.
✓ Incentivo compatível: Tanto os provedores de modelo quanto os observadores têm motivação para supervisionar questões
Dito de forma simples: não dê todo o poder à IA, os humanos devem sempre estar no controle. Isso permite desfrutar das conveniências da IA, ao mesmo tempo que evita cisnes negros.
Embora estas palavras se dirijam à governança da IA, o problema maior que refletem é - na onda de democratização do Web3, a tecnologia não é tudo, o julgamento humano é a última linha de defesa.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Vitalik Buterin novamente alerta: o "grande buraco" da governança de IA
Recentemente, o Modelo de Contexto de Protocolo da OpenAI (MCP) teve problemas novamente. Este novo recurso permite que o ChatGPT se conecte a aplicações de privacidade como o Gmail e o calendário, mas foi demonstrado publicamente pelo pesquisador de segurança Eito Muyamura: basta saber o seu e-mail para que, através de uma “jailbreak” da IA, todas as suas informações privadas possam ser reveladas.
Vitalik viu essa notícia e a retweetou, acrescentando uma frase forte: “É por isso que usar IA para gerenciar protocolos é uma péssima ideia.”
Onde está o problema?
A lógica do V é muito clara - a IA não entende as verdadeiras intenções humanas, apenas segue instruções uma a uma.
Por exemplo: se um determinado protocolo DeFi usar IA para alocar fundos ou avaliar contribuições, um atacante tentará “escapar” deste modelo, fazendo com que ele aloque todos os fundos diretamente para si. Por mais inteligente que a IA seja, ela não consegue impedir esse tipo de ataque social.
É por isso que entregar diretamente o poder de governança da cadeia à IA é um grande risco - parece neutro e justo, mas na realidade é uma máquina de decisão cheia de falhas.
Como é a postura correta?
V神 propôs uma alternativa: estabelecer um modelo de mercado aberto
Quais são os benefícios de fazer isso?
✓ Diversificação: Diferentes perspectivas de modelos podem equilibrar-se mutuamente. ✓ Correção Rápida: O modelo pode detectar e corrigir rapidamente problemas. ✓ Incentivo compatível: Tanto os provedores de modelo quanto os observadores têm motivação para supervisionar questões
Dito de forma simples: não dê todo o poder à IA, os humanos devem sempre estar no controle. Isso permite desfrutar das conveniências da IA, ao mesmo tempo que evita cisnes negros.
Embora estas palavras se dirijam à governança da IA, o problema maior que refletem é - na onda de democratização do Web3, a tecnologia não é tudo, o julgamento humano é a última linha de defesa.