RunwayML ( Video to Video ) 를 통해 간단한 애니메이션 만들기

안녕하세요. RunwayML ( Video to Video )를 이용해서 간단한 애니메이션 만드는 방법을 소개하고자 합니다.

먼저 결과물부터 공유드리겠습니다.








아래 영상은 Runway ML 소개영상입니다.



Runway로부터 이런 메일이 왔군요. 아마 일괄적으로 발송한게 아닐까 합니다. 
가보니 Discord server가 있길래 들어가 보았습니다. 
전에 올렸던 영상에서처럼 간단한 사용이 가능하더군요!!
일단 저는 Discord server 접근이 가능해서 사용해보았습니다. ( 최종 Access 승인 2일걸린다는데 
최종 Access 승인 받은것은 아닙니다. )

사용방법은 Midjourney를 이용해 보신 분들이라면 쉽게 하실겁니다. 거의 똑같습니다.

  1.  먼저 RunwayML Discord에 들어갑니다.
2. 우리는 GEN-1을 사용할 겁니다. generate 채널을 눌러주세요!
3. @GEN-1 을 검색하시고 옆의 +버튼을 누른 후 이미지파일 / 영상 파일 을 업로드해주세요.
4. 업로드 하면 이렇게 뜰겁니다. Enter! 눌러주시면 구동이 됩니다.

5.  그럼 옆에 채널에 이렇게 뜹니다. Gen-1 Thread 눌러주시면 작업물을 본인의 작업물을 볼 수 있습니다.

6. 들어가면 이렇게 나오는군요!
이렇게 3초 영상을 얻었습니다. 이 작업을 10번 해서 이어붙이면 30초 영상이 완성됩니다!



----------------------------------------------------------------------------------------------------------------
개인적인 사용후기

아직 최종적인 승인을 받진 못했습니다. 하지만 아직 성능이 기대한 바에는 미치지 못하는 느낌입니다.
광고 영상에서 봤던 것도, Gen-1이 그나마 가장 뛰어난 성능만을 보여주기식으로 보여준 느낌이구요.

그림 Ai를 써보셨다면 알듯이, 정말 완성도 높은 디자인을 만들어내는건 많이 어렵습니다. 손가락도 6개 7개, 원치 않는 잡Noise가 무한정으로 일어납니다. 그래도 그림쪽은 나름 연구가 많이 돼서 어느정도 컨트롤이 가능하지만 말이죠.

하지만 이 친구는 Noise 컨트롤이 전혀 안되는 느낌입니다. 쉽게 말해, 내가 원하는대로 작업물을 만드는게 정말 어렵습니다. 원하는 그림을 빠르게 그려낼 수 있다면 얘기가 달라질지 모르겠습니다만... 설령 그렇다 해도 아직 화질이나 프레임 문제가 많이 남아있습니다. 70~80년대 애니메이션 보는 느낌이에요.

물론 저같은 그림, 영상에 문외한인 사람이 3~4시간만에 이정도 애니메이션을 만들어낼 수 있다는 건 정말 획기적이죠. 하지만 기존 나와있는 필터시스템이 아직은 좀 더 나은 느낌이랄까요...


다음번엔 3D모델링과 Stable-diffusion을 이용해서 결과물을 만들어내 볼려고 합니다! 다음에 또 포스팅할께요~
6
1개의 답글

(채용) 마케팅 리드, AI 엔지니어, 유튜브 PD, SNS 크리에이터

지피터스의 콘텐츠 플라이휠로 고속 성장할 팀원을 찾습니다!

👉 이 게시글도 읽어보세요