Smile Vector est un bot sur Twitter qui modifie l’expression de personnes sur des photos récupérées en ligne pour les faire sourire. Ses résultats ne sont pas encore parfaits, mais ils sont créés d’une manière totalement automatisée.

L’intelligence artificielle ouvre un Nouveau Monde pour l’image, la vidéo et l’audio, explique James Vincent pour The Verge. Pour Tom White (@dribnet), l’inventeur de Smile Vector et spécialiste de l’apprentissage automatisé, demain, nous pourrons avoir des filtres à notre disposition, pareille à des filtres Instagram, permettant d’améliorer l’expression d’une personne en photo ou vidéo.

On voit passer dans l’actualité beaucoup d’innovation dans le domaine de la manipulation multimédia de l’image et de la vidéo grâce à l’IA. Que ce soit la création de modèles de visages en 3D à partir d’une image en 2D (vidéo) ; de systèmes permettant de changer les expressions faciales d’une personne en vidéo en temps réel comme Face2Face (vidéo) ; de modifier les sources de lumières ou d’ombres (vidéo)… Pris individuellement, ils suscitent toujours la curiosité, mais collectivement, ils dessinent un avenir qui pose question.

Jeff Clune du laboratoire d’intelligence artificielle évolutive de l’université du Wyoming utilise les techniques de l’IA pour produire des images sur commande d’oiseaux, de volcans ou de n’importe quoi, à partir d’images similaires. La qualité et la résolution ne sont pas parfaites, mais, selon lui, c’est surtout lié au fait qu’ils ne disposent pas d’images d’entraînement de suffisante qualité. Ces techniques de « transfert de style » ont par exemple donné naissance à l’application Prisma ou DeepArt.io (une technique que Facebook se propose d’appliquer à la vidéo), qui permet d’appliquer des modèles artistiques à n’importe quelle image. La génération d’images via l’IA va permettre de développer des algorithmes génétiques permettant de trouver de nouveaux modèles de conception comme l’évoquait le designer Che-Wei Wang. Le programme Face2Face (vidéo) permet quant à lui de transformer en temps les expressions de personnes en vidéo en temps réel, comme on le ferait avec une marionnette.

Il ne reste plus qu’à ajouter le son : Adobe a récemment dévoilé un prototype permettant d’éditer la parole humaine.

Ces exemples montrent que demain tout a chacun pourra créer de fausses vidéos de n’importe qui… sans qu’il soit possible, à terme, de les repérer. Comment alors ferons-nous la différence entre le vrai et le faux (pour autant que nous soyons toujours capable de la faire ou de le croire) ? A l’aube de la diffusion des technologies de l’artefact, l’ère post-factuelle ne fait visiblement que commencer…

MAJ : beaucoup moins sophistiqué, je découvre Galau.me qui permet de créer des fakes comme faux statuts FB ou Twitter… La réalité d’une simple capture d’image ou d’un tweet effacé est très sujette à caution ;)

MAJ : Le Monde revient sur Candy Voice, une startup française qui permet de créer une voix de synthèse depuis sa propre voix ou de prendre la voix d’un autre.

MAJ : Le New Scientist revient également sur le phénomène.

MAJ : Sur son blog, Olivier Ertzscheid, analyse la trahison des technologies, où la réalité n’est pas la réalité… Les technologies de l’artefact sont une spéculation sur le réel visant à produire des « faits alternatifs au service de réalités fantasmées ». La preuve n’en est plus une : l’illusion de vérité est au service de la production d’interactions, seule métrique de notre nouveau monde.

À lire aussi sur internetactu.net