J'ai observé un phénomène assez magique : certaines personnes commencent à noter et à étiqueter les réponses de l'IA sans même avoir effectué de vérification.
C'est un peu comme conduire les yeux fermés, non ? On ne voit même pas la route, et il faut encore décider où tourner.
Maintenant, de nombreux systèmes d'IA fonctionnent de cette manière. Le contenu produit est décidé par quelques personnes, et ce qui est "vrai" ou "faux" dépend entièrement de leur définition. En surface, on dit que c'est pour la sécurité, mais en réalité, les algorithmes sont déjà remplis de préjugés. On dirait qu'il y a plus de règles, mais en fait, cela enferme l'"intelligence" dans une cage.
La vraie question n'est pas de savoir si l'IA fera des erreurs, mais qui définit ce que signifie une erreur.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
10 J'aime
Récompense
10
3
Reposter
Partager
Commentaire
0/400
MevHunter
· Il y a 9h
Tromper encore plus de gens comme ça ?
Voir l'originalRépondre0
FlashLoanPhantom
· Il y a 9h
En résumé, c'est toujours une question de pouvoir.
Voir l'originalRépondre0
OfflineNewbie
· Il y a 9h
À quoi ça sert d'avoir des notes de personnes aveugles ?
J'ai observé un phénomène assez magique : certaines personnes commencent à noter et à étiqueter les réponses de l'IA sans même avoir effectué de vérification.
C'est un peu comme conduire les yeux fermés, non ? On ne voit même pas la route, et il faut encore décider où tourner.
Maintenant, de nombreux systèmes d'IA fonctionnent de cette manière. Le contenu produit est décidé par quelques personnes, et ce qui est "vrai" ou "faux" dépend entièrement de leur définition. En surface, on dit que c'est pour la sécurité, mais en réalité, les algorithmes sont déjà remplis de préjugés. On dirait qu'il y a plus de règles, mais en fait, cela enferme l'"intelligence" dans une cage.
La vraie question n'est pas de savoir si l'IA fera des erreurs, mais qui définit ce que signifie une erreur.