Aujourd’hui, nous le faisons. Uyrr… Transférez tout le mouvement du corps de quelqu’un dans la vidéo à quelqu’un dans une image fixe. Et cela ne dépassera pas 10 minutes. Colab : Papier : nous n’avons pas utilisé la science, mais nous avons directement utilisé Google Colab pour en créer un pour nous-mêmes. Avant de vous salir les mains, serrez votre cheval et remerciez les auteurs et contributeurs de Liquid GAN pour leur travail. Obtenez le premier lien dans la description, qui vous dirigera vers ce script colab, qui a été considérablement simplifié pour plus de commodité. Vous pouvez d’abord copier le script sur votre lecteur. Exécutez la première unité qui configurera l’environnement, installera les dépendances et téléchargera le modèle pré-entraîné. Il faut un certain temps pour se préparer une tasse de café, par exemple 5 minutes. La deuxième cellule acceptera toutes les entrées. Avant de fournir une entrée, exécutez la cellule. Il y a 2 entrées principales, l’image source, l’image source à laquelle le mouvement est transmis, et la vidéo de référence à partir de laquelle on extrait le mouvement. Vous pouvez fournir des images source de différentes manières et elles sont répertoriées dans différents onglets. Vous pouvez choisir l’un des exemples d’images fournis pour la démonstration, ou vous pouvez télécharger votre propre image ou citer l’image directement à partir du Web. Pour l’instant, je vais utiliser l’un des exemples d’images. De la même manière, vous pouvez vous référer à vos vidéos de référence à partir des exemples fournis, les obtenir à partir de vidéos YouTube, télécharger vos propres vidéos ou vous référer à des vidéos sur le Web. Tous les exemples de vidéos fournis font danser des gens. Je vais choisir l’un des exemples de vidéos fournis. L’heure de début et l’heure de fin sont utilisées pour couper la vidéo au cas où elles seraient très longues. Les définir sur -1 conservera la vidéo telle qu’elle est. D’autres entrées telles que pose_fc et cam_fc peuvent rester inchangées. Enfin, la dernière cellule est exécutée. Cela prendra un certain temps, selon la longueur de la vidéo de référence. Eh bien, vous pouvez continuer à regarder des vidéos de chats sur youtube jusqu’à ce que vous ayez terminé. Le mien a pris environ 10 minutes. Une fois terminé, votre sortie sera affichée. C’est facile. Supposons maintenant que vous ayez une image source de la personne cible. Il peut s’agir de votre ami ou simplement de la victime de votre mème. Il est préférable qu’une seule personne soit debout dans l’image source, et il est préférable d’avoir une position en T et d’avoir des caractéristiques évidentes des jambes et des bras. Revenez à la deuxième cellule et passez à l’onglet “Télécharger depuis l’ordinateur”. Ici, sur les 3 options de téléchargement, seule la première est indispensable pour l’image de face. Les images de dos et d’arrière-plan sont facultatives pour supprimer les artefacts. Parfois, lorsque la personne dans la vidéo de référence se retourne, le liquide réutilise la texture, ce qui donne deux visages à l’avant et à l’arrière de la tête. L’ajout d’une image arrière résoudra ce problème. Pour éliminer davantage les artefacts dus aux sujets en mouvement, vous pouvez ajouter une image d’arrière-plan nette sans personne. Lorsque vous avez terminé, assurez-vous de ne plus changer d’onglet. Pour la vidéo de référence, vous pouvez à nouveau utiliser l’exemple de vidéo fourni, mais regardons la vidéo youtube. Les vidéos Youtube peuvent être très longues, et il se peut que nous ne soyons intéressés que par une petite partie de la vidéo. Par conséquent, faites simplement attention à l’heure de début et de fin de la vidéo que vous souhaitez rogner. Semblable à l’image source, vous voulez que la vidéo découpée n’ait qu’une seule personne avec des caractéristiques évidentes des jambes et des bras et une caméra stable pour obtenir les meilleurs résultats. Si vous avez plusieurs personnes, vous souhaitez recadrer la vidéo et la télécharger. Collez simplement le lien URL youtube et l’heure de début et de fin indiquée (en secondes). Vous pouvez ignorer le reste et exécuter la dernière cellule. Après un bon repos, vos résultats seront au rendez-vous. On dirait que KK a perdu toutes ses courbes là-bas. Si vous ne voulez pas que cela arrive à votre modèle, vous pouvez prendre des images sous plusieurs angles et les télécharger ensemble en tant qu’entrée source. Cela vous apportera les meilleurs résultats. La technologie s’améliore de plus en plus, et il devient de plus en plus difficile de distinguer le vrai du faux. N’oubliez pas que plus la capacité est grande, plus la responsabilité est grande. En fait, nous ne sommes pas responsables de tout comportement inapproprié des outils appris à partir de cette vidéo. Si vous êtes curieux de savoir comment fonctionne LiquidGAN, vous pouvez trouver le lien vers le document dans la description. Nous vous serons très reconnaissants pour votre soutien, alors s’il vous plaît diffusez cette vidéo comme une traînée de poudre, cliquez sur le bouton “J’aime”, abonnez-vous et sonnez la cloche pour regarder des vidéos passionnantes, telles que la prédiction de l’IA uniquement en simplifiant la restauration du son ou de l’image sur le cahier visage. Vous pouvez également utiliser nos vidéos précédentes, telles que l’utilisation de visages profonds pour les expressions faciales, le clonage de la voix de quelqu’un, le zoom sur de minuscules images, la coloration d’anciennes images en noir et blanc, la création de vidéos au ralenti à partir de fichiers vidéo normaux, etc. Passe une bonne journée. Merci. #liquidGAN #deepfake #tutoriel #facile #colab.