Um empreendedor tecnológico destacou recentemente um exemplo absurdo de preconceito da IA. Ele apontou que certos modelos de IA convencionais, quando questionados sobre a comparação da gravidade de errar o gênero de uma figura pública em relação a uma catástrofe termonuclear global que extermina a humanidade, na verdade classificariam o primeiro como pior. Este cenário ridículo expõe quão profundamente alguns sistemas de IA foram programados com prioridades distorcidas que desafiam a lógica básica e os instintos de sobrevivência. É um lembrete contundente de que essas ferramentas refletem os preconceitos dos dados de treinamento em vez de um raciocínio objetivo.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
9 gostos
Recompensa
9
10
Republicar
Partilhar
Comentar
0/400
SudoRm-RfWallet/
· 11-06 13:02
Haha, se já não há mais humanos, para que ligar para o género?
Ver originalResponder0
fren.eth
· 11-06 08:02
Que conjunto de treino tão ridículo... inacreditável.
Ver originalResponder0
down_only_larry
· 11-05 02:20
Morrendo de rir, AI com essa inteligência ainda quer dominar os humanos?
Ver originalResponder0
ContractBugHunter
· 11-04 22:44
Esta IA é tóxica, não é...? Está a perder o foco.
Ver originalResponder0
AirdropHustler
· 11-04 20:28
Morrendo de rir, a IA é mais grave do que a extinção da humanidade.
Ver originalResponder0
DaisyUnicorn
· 11-04 20:28
Esta pequena pétala de IA realmente teve sua cabeça envenenada pelos dados de treinamento~
Ver originalResponder0
LiquidationKing
· 11-04 20:13
ai, o que está a acontecer?
Ver originalResponder0
SchrodingerWallet
· 11-04 20:05
O imposto sobre o QI também deve ser científico
Ver originalResponder0
StableGenius
· 11-04 20:04
smh... empiricamente falando, isto é *exatamente* o que acontece quando deixas a mob woke treinar os teus modelos de IA
Ver originalResponder0
TokenEconomist
· 11-04 20:02
na verdade, isso ilustra perfeitamente o problema principal-agente no alinhamento da IA... deixe-me explicar a matemática de por que isso falha
Um empreendedor tecnológico destacou recentemente um exemplo absurdo de preconceito da IA. Ele apontou que certos modelos de IA convencionais, quando questionados sobre a comparação da gravidade de errar o gênero de uma figura pública em relação a uma catástrofe termonuclear global que extermina a humanidade, na verdade classificariam o primeiro como pior. Este cenário ridículo expõe quão profundamente alguns sistemas de IA foram programados com prioridades distorcidas que desafiam a lógica básica e os instintos de sobrevivência. É um lembrete contundente de que essas ferramentas refletem os preconceitos dos dados de treinamento em vez de um raciocínio objetivo.