Um empreendedor tecnológico destacou recentemente um exemplo absurdo de preconceito da IA. Ele apontou que certos modelos de IA convencionais, quando questionados sobre a comparação da gravidade de errar o gênero de uma figura pública em relação a uma catástrofe termonuclear global que extermina a humanidade, na verdade classificariam o primeiro como pior. Este cenário ridículo expõe quão profundamente alguns sistemas de IA foram programados com prioridades distorcidas que desafiam a lógica básica e os instintos de sobrevivência. É um lembrete contundente de que essas ferramentas refletem os preconceitos dos dados de treinamento em vez de um raciocínio objetivo.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
9 Curtidas
Recompensa
9
10
Repostar
Compartilhar
Comentário
0/400
SudoRm-RfWallet/
· 11-06 13:02
Haha, se já não há mais humanos, para que ligar para o género?
Ver originalResponder0
fren.eth
· 11-06 08:02
Que conjunto de treino tão ridículo... inacreditável.
Ver originalResponder0
down_only_larry
· 11-05 02:20
Morrendo de rir, AI com essa inteligência ainda quer dominar os humanos?
Ver originalResponder0
ContractBugHunter
· 11-04 22:44
Esta IA é tóxica, não é...? Está a perder o foco.
Ver originalResponder0
AirdropHustler
· 11-04 20:28
Morrendo de rir, a IA é mais grave do que a extinção da humanidade.
Ver originalResponder0
DaisyUnicorn
· 11-04 20:28
Esta pequena pétala de IA realmente teve sua cabeça envenenada pelos dados de treinamento~
Ver originalResponder0
LiquidationKing
· 11-04 20:13
ai, o que está a acontecer?
Ver originalResponder0
SchrodingerWallet
· 11-04 20:05
O imposto sobre o QI também deve ser científico
Ver originalResponder0
StableGenius
· 11-04 20:04
smh... empiricamente falando, isto é *exatamente* o que acontece quando deixas a mob woke treinar os teus modelos de IA
Ver originalResponder0
TokenEconomist
· 11-04 20:02
na verdade, isso ilustra perfeitamente o problema principal-agente no alinhamento da IA... deixe-me explicar a matemática de por que isso falha
Um empreendedor tecnológico destacou recentemente um exemplo absurdo de preconceito da IA. Ele apontou que certos modelos de IA convencionais, quando questionados sobre a comparação da gravidade de errar o gênero de uma figura pública em relação a uma catástrofe termonuclear global que extermina a humanidade, na verdade classificariam o primeiro como pior. Este cenário ridículo expõe quão profundamente alguns sistemas de IA foram programados com prioridades distorcidas que desafiam a lógica básica e os instintos de sobrevivência. É um lembrete contundente de que essas ferramentas refletem os preconceitos dos dados de treinamento em vez de um raciocínio objetivo.