Une grande plateforme de médias sociaux vient de lancer une fonctionnalité permettant aux utilisateurs de manipuler numériquement des photos d'autres personnes—créant essentiellement des images deepfake nues sans consentement. La technologie est déjà illégale dans de nombreuses juridictions, pourtant la plateforme continue de fonctionner sans conséquences significatives. L'écart entre ce qui est techniquement possible et ce qui est légalement autorisé ne cesse de se creuser. À mesure que les outils d'IA deviennent plus accessibles et plus difficiles à contrôler, la question ne concerne pas seulement la technologie—elle concerne l'application de la loi. Pourquoi les organismes de régulation sont-ils si lents à agir alors que les violations sont évidentes ?
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
14 J'aime
Récompense
14
7
Reposter
Partager
Commentaire
0/400
LightningLady
· 01-06 08:51
Putain, ils sont vraiment audacieux, personne ne contrôle ça ? Les autorités de régulation sont-elles endormies ou quoi ?
Voir l'originalRépondre0
GasWrangler
· 01-06 08:49
ngl c'est juste manifestement négligent du côté de l'application de la loi... si vous analysez les données sur la rapidité avec laquelle ils peuvent fermer des protocoles financiers mais traînent des pieds sur les dommages réels ? La différence de débit est folle. Techniquement parlant, ils ont les outils—la surveillance des transactions est triviale comparée à ce qu'ils prétendent ne pas pouvoir faire ici. Priorisation sous-optimale, en gros.
Voir l'originalRépondre0
RektRecorder
· 01-06 08:48
C'est vraiment absurde, personne ne s'en occupe ? La loi ne suit pas la technologie, hein
Voir l'originalRépondre0
MoonRocketTeam
· 01-06 08:47
Les gars, ce n'est pas autre chose qu'une technique qui transgresse directement la ligne de fond juridique, alors que les régulateurs sont encore en train de boire un café dans le poste de commandement au sol.
Cette plateforme joue vraiment avec le feu, la fracture entre ce que la technologie peut faire et ce que la loi peut réguler devient de plus en plus grande, DYOR est la vraie vérité.
La falsification profonde doit vraiment être régulée, sinon cette trajectoire finira par se briser tôt ou tard.
Pourquoi la régulation est-elle si lente ? Ce n'est pas qu'ils attendent que l'IA développe une conscience morale ?
Cette opération de la plateforme est vraiment une auto-destruction avant même la connexion, c'est vraiment aberrant.
Voir l'originalRépondre0
MrDecoder
· 01-06 08:45
Cette plateforme est vraiment absurde, ils savent que c'est illégal mais continuent quand même, les autorités de régulation dorment-elles ?
Voir l'originalRépondre0
AltcoinMarathoner
· 01-06 08:40
ngl c'est juste comme l'ambiance du mile 20... les régulateurs en train de lacer leurs chaussures pendant que la course est déjà à mi-chemin. la technologie avance à toute vitesse, l'application de la loi avance au rythme d'une tortue. un décalage classique dans la courbe d'adoption, honnêtement.
Voir l'originalRépondre0
ZKSherlock
· 01-06 08:28
En fait, il s'agit du décalage classique entre ce qui est cryptographiquement possible et ce qui est légalement permis, n'est-ce pas ? sauf en beaucoup plus dystopique. La plateforme a littéralement dit "nous *pouvons* faire cela" et les régulateurs rédigent encore des notes. Un peu comme comment personne ne comprenait les preuves à divulgation zéro jusqu'à ce qu'elles soient exploitées lol
Une grande plateforme de médias sociaux vient de lancer une fonctionnalité permettant aux utilisateurs de manipuler numériquement des photos d'autres personnes—créant essentiellement des images deepfake nues sans consentement. La technologie est déjà illégale dans de nombreuses juridictions, pourtant la plateforme continue de fonctionner sans conséquences significatives. L'écart entre ce qui est techniquement possible et ce qui est légalement autorisé ne cesse de se creuser. À mesure que les outils d'IA deviennent plus accessibles et plus difficiles à contrôler, la question ne concerne pas seulement la technologie—elle concerne l'application de la loi. Pourquoi les organismes de régulation sont-ils si lents à agir alors que les violations sont évidentes ?