O oficial dos EUA e conselheiro da Casa Branca, David Sacks, responsável pela supervisão da política de criptomoedas e IA, emitiu um aviso contundente: a maior ameaça representada pela inteligência artificial não são as máquinas se voltando contra os humanos, mas seu potencial para se tornar uma ferramenta de vigilância em massa e manipulação política.
AI Orwelliana: “Uma Tecnologia Que Reescreve a Realidade”
No episódio de segunda-feira do The Ben & Marc Show (, Sacks explicou que o verdadeiro perigo reside no uso político da IA para remodelar a realidade de acordo com aqueles que estão no poder.
“Não estamos a falar de robôs a atacar-nos. Estamos a falar de IA que te mente, reescreve a história e serve a agenda daqueles que governam,” disse ele.
De acordo com Sacks, isso poderia transformar a IA em uma versão moderna do “Grande Irmão” — um sistema que monitora, controla e molda a opinião pública através de algoritmos personalizados.
“A IA saberá tudo sobre você — seus hábitos, suas preferências, suas fraquezas. Ela se tornará a ferramenta de vigilância perfeita para os governos. Esse, na minha opinião, é o maior risco singular da IA que as pessoas ainda subestimam,” ele alertou.
O risco da sobre-regulação transforma a IA numa arma política
Sacks também criticou a administração Biden e estados liderados por democratas, como a Califórnia e o Colorado, por promoverem o que ele chamou de leis “excessivamente protetoras”. Essas medidas visam combater a discriminação algorítmica, mas, na visão de Sacks, sufocam a inovação e politizam o desenvolvimento da IA.
“O problema não é a tecnologia em si — são as pessoas que a usam de forma inadequada. Devemos direcionar nossos esforços contra aqueles que abusam da IA, e não os engenheiros que a constroem”, disse ele.
Sacks argumentou que as leis anti-discriminação existentes já são suficientes e que regulamentações adicionais apenas desaceleram a inovação e expandem o controle do estado sobre os desenvolvedores.
Conflito com a Anthropic: “Espalhando Medo para Influenciar a Regulação”
Sacks também mirou a empresa de pesquisa em IA Anthropic, acusando-a de usar o medo público para moldar a política regulatória.
Ele estava respondendo ao ensaio da empresa “Otimismo Tecnológico e Medo Razoável”, que alertava sobre os riscos da IA não regulamentada. Sacks contra-argumentou que a Anthropic estava usando essa narrativa para fazer lobby junto aos governos estaduais e fortalecer sua própria posição na futura formulação de políticas de IA.
O bilionário Reid Hoffman, co-fundador do LinkedIn, defendeu a Anthropic, chamando-a de “um dos bons atores.” Mas Sacks respondeu: “Ao promover regulamentações severas em estados como a Califórnia, estão abrindo caminho para uma IA politicamente tendenciosa.”
O CEO da Anthropic, Dario Amodei, rejeitou as alegações de Sacks, afirmando que a empresa defende uma estrutura regulatória federal para evitar uma colcha de retalhos de regras estaduais conflitantes. A empresa mantém que sua missão é “desenvolver IA para o bem público, garantindo que os Estados Unidos permaneçam competitivos globalmente.”
A Ameaça do “Big Brother 2.0”
Sacks concluiu com um aviso de que a centralização do poder sobre a IA poderia criar um sistema capaz de monitorização em tempo real, censura e manipulação da opinião pública.
“Se permitirmos que políticos e burocratas controlem a IA, não precisaremos de um estado orwelliano — teremos construído um nós mesmos,” disse ele.
Fique um passo à frente – siga o nosso perfil e mantenha-se informado sobre tudo o que é importante no mundo das criptomoedas!
Aviso:
,As informações e opiniões apresentadas neste artigo destinam-se exclusivamente a fins educacionais e não devem ser interpretadas como aconselhamento de investimento em qualquer situação. O conteúdo destas páginas não deve ser considerado como aconselhamento financeiro, de investimento ou de qualquer outra forma. Alertamos que investir em criptomoedas pode ser arriscado e pode levar a perdas financeiras.“
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
O especialista americano David Sacks alerta: a inteligência artificial pode tornar-se uma ferramenta de vigilância orwelliana.
O oficial dos EUA e conselheiro da Casa Branca, David Sacks, responsável pela supervisão da política de criptomoedas e IA, emitiu um aviso contundente: a maior ameaça representada pela inteligência artificial não são as máquinas se voltando contra os humanos, mas seu potencial para se tornar uma ferramenta de vigilância em massa e manipulação política.
AI Orwelliana: “Uma Tecnologia Que Reescreve a Realidade” No episódio de segunda-feira do The Ben & Marc Show (, Sacks explicou que o verdadeiro perigo reside no uso político da IA para remodelar a realidade de acordo com aqueles que estão no poder.
“Não estamos a falar de robôs a atacar-nos. Estamos a falar de IA que te mente, reescreve a história e serve a agenda daqueles que governam,” disse ele. De acordo com Sacks, isso poderia transformar a IA em uma versão moderna do “Grande Irmão” — um sistema que monitora, controla e molda a opinião pública através de algoritmos personalizados.
“A IA saberá tudo sobre você — seus hábitos, suas preferências, suas fraquezas. Ela se tornará a ferramenta de vigilância perfeita para os governos. Esse, na minha opinião, é o maior risco singular da IA que as pessoas ainda subestimam,” ele alertou.
O risco da sobre-regulação transforma a IA numa arma política Sacks também criticou a administração Biden e estados liderados por democratas, como a Califórnia e o Colorado, por promoverem o que ele chamou de leis “excessivamente protetoras”. Essas medidas visam combater a discriminação algorítmica, mas, na visão de Sacks, sufocam a inovação e politizam o desenvolvimento da IA. “O problema não é a tecnologia em si — são as pessoas que a usam de forma inadequada. Devemos direcionar nossos esforços contra aqueles que abusam da IA, e não os engenheiros que a constroem”, disse ele.
Sacks argumentou que as leis anti-discriminação existentes já são suficientes e que regulamentações adicionais apenas desaceleram a inovação e expandem o controle do estado sobre os desenvolvedores.
Conflito com a Anthropic: “Espalhando Medo para Influenciar a Regulação” Sacks também mirou a empresa de pesquisa em IA Anthropic, acusando-a de usar o medo público para moldar a política regulatória.
Ele estava respondendo ao ensaio da empresa “Otimismo Tecnológico e Medo Razoável”, que alertava sobre os riscos da IA não regulamentada. Sacks contra-argumentou que a Anthropic estava usando essa narrativa para fazer lobby junto aos governos estaduais e fortalecer sua própria posição na futura formulação de políticas de IA. O bilionário Reid Hoffman, co-fundador do LinkedIn, defendeu a Anthropic, chamando-a de “um dos bons atores.” Mas Sacks respondeu: “Ao promover regulamentações severas em estados como a Califórnia, estão abrindo caminho para uma IA politicamente tendenciosa.” O CEO da Anthropic, Dario Amodei, rejeitou as alegações de Sacks, afirmando que a empresa defende uma estrutura regulatória federal para evitar uma colcha de retalhos de regras estaduais conflitantes. A empresa mantém que sua missão é “desenvolver IA para o bem público, garantindo que os Estados Unidos permaneçam competitivos globalmente.”
A Ameaça do “Big Brother 2.0” Sacks concluiu com um aviso de que a centralização do poder sobre a IA poderia criar um sistema capaz de monitorização em tempo real, censura e manipulação da opinião pública.
“Se permitirmos que políticos e burocratas controlem a IA, não precisaremos de um estado orwelliano — teremos construído um nós mesmos,” disse ele.
)DavidSacks , #AI , #InteligênciaArtificial , #notíciasdomundo
Fique um passo à frente – siga o nosso perfil e mantenha-se informado sobre tudo o que é importante no mundo das criptomoedas! Aviso: ,As informações e opiniões apresentadas neste artigo destinam-se exclusivamente a fins educacionais e não devem ser interpretadas como aconselhamento de investimento em qualquer situação. O conteúdo destas páginas não deve ser considerado como aconselhamento financeiro, de investimento ou de qualquer outra forma. Alertamos que investir em criptomoedas pode ser arriscado e pode levar a perdas financeiras.“