Hur animatörer synkronisera röster med animation?

De har ett system som är inställd att veta hur munnen flyttas med bokstaven. De lägger poibnts på tecken röst och de klickar på bokstaven behövs sägas. ---Det är ett sätt att göra det. Jag hörde på en YouTube-video under tider av Looney Tunes, de uttryckt tecken först för noggrannhet som försöker göra det tvärtom (animera karaktärerna och sedan uttrycka det) skulle vara mycket svårare att göra. Ibland kan de också prova och agera ut det en spegel, som säga ett ord som de vill ha karaktären att säga, och sedan animera karaktär som de säger det. Det finns faktiskt en underbyggd uppsättning tecken mun positioner för varje fonetik i engelska ordförråd. Dessa accepteras ganska mycket med alla animatörer. Till exempel, ljudet av en "b" och ljudet av en är "skulle ha samma mun position för den karaktär, som ser ut som både läppar är tillsammans. Vanligtvis, först de kommer att spela in alla röst-overs. De kommer att göra hela skriptet i en soundbooth. De kommer faktiskt har alla tecken och animation komplett vid denna punkt utom munnen och troligen vissa ansiktsuttryck. Nu, som de uppspelning inspelningarna, kommer de att animera i munnen enligt fonetik varje stavelse. Vissa justeringar för att hastigheten på animeringen kommer att synkronisera den med inspelningarna. Ibland, de gör berättarröster senaste. Detta ger skådespelaren mer att arbeta med när det gäller uttryck eftersom de kan se vad som händer och matcha deras ord med munnen av karaktären. Tekniskt mjukvaror är nu för tiden mycket hjälpsam. Det finns en kallas papagayo. Det registrerar din röst och skapar en *.dat fil med den. Nu kan du använda detta i programvaran animera som anime studio synkronisera röst med munnen animation av ett enda klick!