Afin d’éviter les scandales et autres procès, OpenAI empêchera désormais les utilisateurs d’utiliser Sora pour générer des vidéos utilisant l’image des personnalités publiques.
C’est une approche légale mais elle ne règle pas le fond du problème. On ne pourra pas faire de fausse vidéos de stars car ce serait trop onéreux en procès, par contre je pourrais très bien le faire avec ma voisine.
pourquoi se limiter a uniquement des persqonnalités publiques ? les deep fake, à part faire desz vidéos marrantes ou humiliantes, pour le commun des mortels ça n’est pas très utile…
Internet étant le lieu des anonymes, il va être difficile de vous poursuivre sauf si vous laissez sur la video le titre que c’est « ma voisine »
Les procès ne se feront jamais contre les « créateurs », car ils sauront rester anonymes
Rien n’empêchera quelqu’un d’installer une IA en local pour faire des deepfakes avec un objectif malveillant (exemple : faux revenge porn), ce qu’il faudrait c’est aussi des lois qui donnent aux victimes des possibilités légales de se défendre face à ce fléau malheureusement et ce n’est pas du tout facile. Cela peut détruire l’image de quelqu’un et même sa vie…
Un article racontant l’histoire de quelqu’un à qui c’est arrivé : « Ce n’était pas consenti » : Julia a découvert un « deepnude » d’elle, une photo détournée grâce à l’IA | RTL Info