Les vidéos Deepfake pourraient ” déclencher ” de violents troubles sociaux

La technologie Deepfake pourrait déclencher des “flambées violentes”, prévient un expert.

L’avertissement a été lancé lors d’une audition à la Chambre des représentants des États-Unis sur la technologie de la contrefaçon profonde qui permet de créer des vidéos convaincantes de personnalités publiques.

La sécurité publique pourrait être mise en danger si elle était adoptée par ceux qui poussent à de ” fausses conspirations “, a déclaré Clint Watts, du Foreign Policy Research Institute,

La menace pourrait être contrée en rendant les services de médias sociaux responsables des fausses vidéos que les utilisateurs partagent, a déclaré un témoin.

Appel à l’action

Le House Intelligence Committee de la Chambre des représentants des États-Unis a convoqué des témoins pour témoigner au sujet du péril et de la promesse de la technologie de la contrefaçon profonde.

La vidéo a été créée à l’aide d’un logiciel deepfake qui permet de générer facilement de fausses vidéos en utilisant des images fixes d’une personne.

Au cours de son témoignage, M. Watts a déclaré que les logiciels de contrefaçon profonde basés sur l’IA pourraient devenir des outils clés pour les propagandistes.

“Les pays dotés des capacités les plus avancées en matière d’intelligence artificielle et d’un accès illimité à de grandes quantités de données bénéficieront d’énormes avantages dans la guerre de l’information “, a-t-il déclaré.

“La circulation de contrefaçons profondes peut inciter à des mobilisations physiques sous de faux prétextes, déclenchant des crises de sécurité publique et déclenchant des flambées de violence “, a déclaré M. Watts.

Il a cité l’avalanche de fausses conspirations proliférant via WhatsApp en Inde comme un exemple de la façon dont les faux messages et les médias alimentaient déjà la violence.

“L’extension des capacités de fabrication de faux en profondeur ne fera qu’augmenter la fréquence et l’intensité de ces flambées de violence “, a-t-il dit.

D’autres avertissements sur le danger potentiel des contrefaçons profondes sont venus de l’experte juridique Prof Danielle Citron, de l’Université du Maryland.

Le professeur Citron a déclaré que les deepfakes étaient déjà utilisés comme un outil politique et a cité le cas de la journaliste d’investigation Rana Ayyub, qui, en avril 2018, a fait l’objet d’un harcèlement prolongé après que ses opposants aient créé des vidéos sexuelles truquées sur elle.

Les Deepfakes étaient “particulièrement troublants lorsqu’ils étaient provocateurs et destructeurs”, a déclaré le professeur Citron, ajoutant que c’était le type de contenu que les gens étaient les plus susceptibles de partager car ils étaient souvent conçus pour jouer sur les préjugés et les préjugés.

Il est difficile de contrer la propagation des fausses vidéos, a-t-elle dit, mais il est peut-être temps de revoir la législation américaine qui accorde l’immunité contre les poursuites aux plateformes de médias sociaux, peu importe ce que les utilisateurs publient.

“Nous devrions conditionner l’immunité légale à des pratiques raisonnables en matière de contenu “, a déclaré le professeur Citron. “Ça ne devrait pas être un laissez-passer.”

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *