8 contributions / 0 nouveau(x)
Dernière contribution
Portrait de lapiNIC
Hors ligne
Dernière visite: Il y a 1 année 1 semaine
A rejoint: 21/10/2012 - 18:24
Contributions: 556
Videos lapiNIC

Outre les tutoriels que vous connaissez je réalise des petits clips suivant le principe de l'animation 3d.

Exemple récent :

L'acteur virtuel est un collègue de bureau : Anthony (ndlr : la coupe de cheveux ça change tout)

Le Moteur 3D : Reallusion iClone 5

Traitement Video Post Fx : HitFilm Ultimate

Musique Dubstep : Typhoon - Foreign Beggars feat. Chasing Shadows (il déchire sa race ce titre)

Système de Motion Control : Kinect for Xbox + Street Dance Collection (Popping)

 

Merci :)

Édité par: lapiNIC activé 24/09/2013 - 22:54
Hors ligne
Dernière visite: Il y a 5 années 11 mois
A rejoint: 19/12/2012 - 16:49
Contributions: 92
yes!

C'est vraiment pas mal du tout comme rendu, et le système de motion control permet de faire bouger de façon pas trop synthétique le modèle 3D

Merci pour la liste des logiciels, jvais pouvoir me renseigner dessus.

Cheers drummer

Hors ligne
Dernière visite: Il y a 10 années 2 mois
A rejoint: 06/02/2013 - 20:19
Contributions: 413
Un peu hard de bon matin.

dry Un peu hard de bon matin.

Je retente; c'est sympa, sauf la bouche, ça rend pas terrible.

Les mouvements sont bien rendus mais je trouve les mouvements de caméra vachements secs et anguleux. Ceci étant, ça peut être voulu donc c'est pour le style.

Bon, les amplis qui crâment alors qu'il pleut, c'est de la poésie I-m so happy

 

Portrait de harmelbe
Hors ligne
Dernière visite: Il y a 6 années 7 mois
A rejoint: 26/12/2012 - 17:28
Contributions: 260
Hello lapiNic,

Hello lapiNic,

 Whaa super la video, ça doit te prendre pas mal de temps pour arriver à ce résultat? Bravo wink

A+

Portrait de lapiNIC
Hors ligne
Dernière visite: Il y a 1 année 1 semaine
A rejoint: 21/10/2012 - 18:24
Contributions: 556
pour la bouche

* le titre en dubstep c'est "typhon", et donc j'ai pensé logiquement à la pluie, à l'innondation, à une ville détruite ou dévastée ; le chanteur devait faire son show au beau milieu d'un contexte sinistré, avec montée des eaux et d'une façon un peu magique, la musique devait répondre à la catastrophe environnementale ; donc on trouve à un moment donné une série de plan ou le chanteur crée une espèce de tornade d'énergie lumineuse qui tourne en tourbillon et il danse avec le mini tourbillon. Comme le plan derrière lui est relativement statique et que je voulais qu'il soit un minimum en train de se passer quelque chose, j'ai choisi de créer un mur de flammes. Ca tombait en plein sur les hauts parleurs ; je me suis dit tant mieux, je vais enflammer les hauts parleurs là où la basse est la plus brulante, ça fera ton sur ton. Le mur de flamme est créé à partir d'un système de particules très classique : vous avez ce qu'on appelle des émitters : des programmes qui émettent des particules qui une fois émises obéîssent à une série de critères précis et cependant classiques : durée de vie, quantité de particules, taille, angles de dispersion, friction,  rebond, attraction, pesanteur, décalage, etc... tout les systèmes de particules dans les logiciels d'effets spéciaux ont leurs paramètres. Mais en gros je rattache une image de flamme à chaque particule émise et avec un peu de ceci et de cela on simule un mur de flammes.

* pour la durée du job ça m'a pris un jour (dimanche dernier), la majeure partie du matériel est composé de briques pré-fabriquées : par exemple, le ciel, les bâtiments de la ville désaffectée, les hauts parleurs, tout ça c'est déjà modélisé, j'ai juste eu à importer les éléments prémodélisés dans le monde et à mettre en scène ; l'avatar existe déjà, j'ai simplement plaqué la photo de mon collègue sur sa tête avec un système de projection orthogonale et rectifié les proportions du corps ; pour la kinect, il suffit d'une prise de 5minutes ; la kinect est connectée au squelette de l'avatar et simplement par effet de cascade, bouger devant la kinect anime le squelette qui anime l'avatar ; parcontre pour le break dance j'arrive pas à faire les mouvements de la fin du titre, je ne suis pas à la hauteur, j'ai donc récupéré des mouvements en motion capture effectués par des pros puis inséré ces mouvements dans la prise effectuée à partir de ma kinect. la musique est juste scotchée en fond sonore et attachée à l'atmosphère visuelle de la scène globale, de sorte qu'on l'entende de façon uniforme quelles que soient les positions de la caméra. Les mouvements de ladite caméra sont effectués en écoutant la musique en tache de fond ; à chaque temps fort, je définis une position de caméra nouvelle ; et le logiciel calcule toutes les positions intermédiaires et effectue l'interpolation ; on peut sélectionner entre deux positions une interpolation "linéaire", arrondie, ou pas de transition du tout, et vous avez compris que donc j'ai volontairement choisi des mouvements très secs de la caméra. J'ai essayé d'adoucir les travelings mais ça collait mal à l'ambiance "nerveuse" de la basse wobblée en dubstep...

* pour la bouche j'ai en effet eu de gros problèmes ; le système de lipsync sur iclone est pas mal ; il vous suffit par exemple d'enregistrer votre voix avec un micro, et ça "devine" les mouvements de la bouche et c'est à peu près réaliste ; enfin à peu près ; mais il faut que les sons vocaux soient "nus" c.à.d. en acapella ; en gros la musique derrière doit être coupée, et là j'ai eu des gros problèmes avec le titre car j'ai pas trouvé d'acapella, donc j'ai premièrement essayé d'effectuer des filtrages spectraux mais ça rendait pas bien, la bouche articulait des sons de basse, c'était nul ; donc à la fin j'ai remplacé les mouvements de la bouche automatiques par des mouvements manuels mais imaginez, on enc.. les mouches pour chaque phonème, et à la vitesse où les chanteurs s'expriment c'est vite devenu infernal ; j'en ai eu plein le dos et j'ai alors décidé de ne pas animer la bouche, juste ouvrir la mâchoire et recouvrir tout ça d'effets visuels qui masquent à peu près les articulations ratées ; mais le résultat n'est de toutes façons pas naturel. J'aimerais bien d'ailleurs utiliser un système de motion capture type faceshift (qui crée des animations faciales pour maya ou motion builder à partir d'une kinect qui vous filme en pleine face) mais importer le résultat sous iclone est visiblement impossible ; le hic : c'est que ces zozos de chez reallusion qui codent iclone ne sont visiblement pas pressés, ils sortent une mise à jour tout les deux ans, et n'ont visiblement pas l'intention de coder un plugin qui effectue la conversion entre une animation faciale issue de faceshift, et le système d'animation faciale interne propre à iclone. Bref, je crois que ça va être à moi de régler le problème en créant un protocole de conversion tout seul. En attendant faudra se contenter de ce genre de lipsync très limité, même si à partir d'acapella je peux certainement mieux faire.

 

Portrait de harmelbe
Hors ligne
Dernière visite: Il y a 6 années 7 mois
A rejoint: 26/12/2012 - 17:28
Contributions: 260
Salut,
Portrait de lapiNIC
Hors ligne
Dernière visite: Il y a 1 année 1 semaine
A rejoint: 21/10/2012 - 18:24
Contributions: 556
excellent

Excellent !

Remarque : ils ont les moyens !

Trois rails, trois grandes grues sur rails, robotisées & articulées, automatées par ordinateur, dont deux en front, et une en back qui supporte la caméra et la contrôle.

Deux projecteurs en background pour chaque panneau.

Et un gros travail d'infographie et d'ingénieurie derrière.

 

Hors ligne
Dernière visite: Il y a 10 années 4 mois
A rejoint: 20/11/2013 - 12:26
Contributions: 17
Pour du fait maison c'est

Pour du fait maison c'est excellent.

Bon choix, effectivement les Foreign Beggars ça ramone sévère. Noisia produit une bonne partie de leurs titres depuis leur première collaboration, ceci explique cela. (Bon ok ils ont aussi un flow de furieux)

Connectez-vous ou inscrivez-vous pour publier un commentaire