:: 게시판
:: 이전 게시판
|
- 모두가 건전하게 즐길 수 있는 유머글을 올려주세요.
- 유게에서는 정치/종교 관련 등 논란성 글 및 개인 비방은 금지되어 있습니다.
통합규정 1.3 이용안내 인용"Pgr은 '명문화된 삭제규정'이 반드시 필요하지 않은 분을 환영합니다.법 없이도 사는 사람, 남에게 상처를 주지 않으면서 같이 이야기 나눌 수 있는 분이면 좋겠습니다."
23/01/02 13:01
그림체 고정이 참 힘들어서 아쉽긴하네요.
같은 화풍이다 라는 것이 명확히 정의되지 않으니... 알려주는 것은 어렵나 봅니다.
23/01/02 13:06
데이터를 좀더 체계적으로 뽑아내야겠죠
수작업으로도 충분히 가능하겠지만 직접만들어보진 않아서 만드는데 얼마나 필요한지는 잘모르겠고 좀더 똑똑하게 효율적으로 양산하기위해서는 멀티모달AI.......가 완성된다면 아마도 가능하지않을까 싶습니다. 멀티모달이라 해놨지만 결국 핵심과제는 이미지 - 텍스트 간 변환이 자유로운 알고리즘을 짜는것일테니까요 이미지분류AI의 블랙박스속에 내재된 개념체계를 텍스트화 해서 주어진 이미지를 압도적인 효율로 함축할수만 있다면 충분히 몇장의 그림체 만으로도 빠르게 핵심적인 묘사를 읽어낼수있죠
23/01/02 13:44
어... 그러니까 본문내용을 잘못읽으신듯한데
저 AI 를 당장에 쓸수있다!를 얘기하는게 아니라 좀더 그림체나 구도표현같은것이 정밀하게 컨트롤되는 수준의 AI가 나온다면 그렇다는거죠 그렇게따지면 그림AI도 걍 일러스트 외주 맡기면되지 뭐하러 AI를 개발하려고 할까요 압도적으로 가성비가 나올수있으니까 그런거죠 주어진영상참고하면서 열심히 3D모델링-카툰렌더링작업으로 만드는것보단 영상 받자마자 수분, 수십분내로 깔끔하게 애니화 시켜서 내는게 훨씬 효율이 좋잖아요?
23/01/02 13:55
윗분이 말씀하신 내용은,
세밀한 컨트롤에서는 딥러닝 모델이 약한 모습을 보이니 세밀한 단계까진 가지 말고 캐릭터의 뼈대(모션, 형태 또는 구조)만을 3D모델(딥러닝 모델의 모델 아님) 파일의 형태로 출력하는 딥러닝 모델을 만든 후 그 위에 캐릭터 거죽을 입히는 식으로 가자는 뜻 입니다. 그리고 이 과정을 사용하면, 문문문무님 말씀처럼 수분 내로도 가능할 것으로 보이고요
23/01/02 13:59
제가 말하고자 하는 AI또한 그런것과 같은 맥락이죠
그림 AI는 필연적으로 컨트롤을 하려면 그런쪽으로 발전할수밖에없어요 그림체와 구도 컨트롤이 된다 -> 3d 형태의 콘티기반으로 묘사의 디테일을 태그화 해서학습 인거죠 사실 그림 AI 관련글 대부분에서 그런류의 댓글로 생각을 적었는데... 뭐 꼭 보고 기억해야만 하는 법은 없으니까...
23/01/02 16:36
"내가 전에 다른 글에서 말했는데..."는 말씀은 사족... 이라고 생각합니다.
본 것이 있어야 기억을 하죠 제가... 근데 제가 아 님의 댓글을 잘못 읽은 것 같네요 딥러닝 모델 쪽 말씀은 따로 안하셨네요
23/01/02 17:42
아 죄송합니다 별 뜻은없었습니다.
걍 그림 AI랑 모델링AI랑 아예 별개의 것, 다른길, 평행관계 라고 생각하진 말아줬으면 한다는 마음이죠
23/01/02 14:48
지금도 아마 영상만으로 어느정도 tracking이 가능하고, 해당 트래킹된 관절을 이미지에서 자동으로 만들어낸 3d모델을 만들고(또한 AI가 자동으로 관절을 매겨주고) 적용하는 방식도 굉장히 잘 되고 있는 편입니다.
23/01/02 16:17
이미지 -> 모델
https://m.youtube.com/watch?v=k043OByAG-4 모델 -> 자동 리깅 https://actorcore.reallusion.com/auto-rig 모션 트래킹 https://blogs.nvidia.co.kr/2022/01/07/nvidia-ai-generating-motion-capture-animation-without-hardware-or-motion-data/ 웹캠 영상 -> 2D 애니메이션 Adobe Character Animator 물론 원큐 프로세스는 아니지만, 각각이 꽤나 잘 발전되어 있고, 리깅만 끝나도 mixamo를 통해서 무료 액션 애셋을 적용할 수 있는지라, 훨씬 간단해 진 것은 사실입니다.
23/01/02 16:40
오오 이정도까지!
웹캠이야 버츄얼 유투버 같은걸로 알긴하죠, 제가 그렇게 말하는 이유도 사실 그것에서 생각을 얻은것이구요 확실히 제가말하는게 님이 말하신 '원큐 프로세스' 이긴합니다. 좀더 정확히 말하자면 캐릭터 거죽또한 AI화가 됬으면 한다 라는거죠 근데 아직까지 저 기술들을 통합하지 못하는 이유가 있을까요? 아니면 못한다기보단 굳이 하려고 하지 않는다 라고 봐도 될까요?
23/01/02 17:03
학습시켜야할 뉴럴넷이 많아질테니, 어쨌든 굉장히 헤비한 프로그램이 될 것 같습니다.
그리고 모델링과 리깅이 끝나면 믹사모수준에서 괜찮은 모션이 다 준비되어있기 때문에... 굳이 필요할 듯 싶은 느낌은 있습니다.
23/01/02 17:21
구글, 오픈AI, IBM급의 개척자들이나 도전할수있다는 얘기군요
멀티모달AI개발에 성공할때쯤에나 겸사겸사 가능한 영역쪽에 포괄되려나
23/01/02 13:56
기존 영상 기반 딥페이크 기술이나 모델링 기술과 잘 결합하면 그림체 고정이나 이런 부분이 더 깔끔해 질 수도 있겠네요. 이건 단순히 이미지 한 장씩 계속 만들어내는 방식인 것 같은데..
23/01/02 16:38
디테일하게 다루는 것은 앞으로도 쭉 어려울 것 같고
3D 모델링 정도의 작업만 돌린 후 거죽을 씌운다면 속도와 퀄리티를 모두 잡을 수 있을 듯 합니다
23/01/02 18:28
딥러닝 기법 자체가 전반적으로 훌륭한 답을 제시하는 편이지만
디테일에서는 언제 어떻게 튈지 모르는 불안정성을 내포하고 있습니다. 모델 내에서 정보가 흘러가는 방식 떄문인데, 비유하자면.. 입력된 정보가 모델 내부에서는 일종의 투표에 의해 흘러간다고 보시면 됩니다. 본문 내용처럼 입력 값이 조금 틀어졌을 때 전반적으로는 유사한 결과를 내게 되겠지만 모델 내부의 작은 소자들 입장에선 결과를 크게 냈다가 아예 반대로 내버릴 수도 있는 등의 불안정성이 존재합니다. 소자 입장에선 약간 긴가민가한 정보들에 대해서 매번 다른 스탠스를 취하기도 합니다. 행여나 입력 이미지의 프레임이 넘어가면서 픽셀 값이 큰 노이즈가 들어가면 결과가 완전히 달라질 수도 있습니다. 이런 단점은 데이터가 적은 분야에서 크게 도드라지기도 합니다. 심지어, 모델에 따라 특정 소자를 고의로 죽이는 기술들도 사용하기 때문에, 같은 그림이 들어가도 다른 결과가 나올 수도 있습니다. 그리고 본문 같은 생성 모델의 경우, 입력된 이미지를 적당히 파편화 시킨 후 지금까지 봐온 학습치를 토대로 재구성을 하게 되는데, 파편화 작업에도 위와 같은 튐이 발생할 수도 있습니다. 대표적으로는 이런 이유들 때문에, 디테일을 잡기가 어렵다고 생각합니다. 물론 이 분야의 기술이 매우 빠르게 발전하고 있어서 저도 따라가기 벅차긴 한데 언젠간 이런 디테일도 잡을 모델이 나올 거라고는 생각합니다. 헥헥
23/01/02 19:38
님이 얘기하신 디테일하게 다룬다는게
일일이 프레임마다 AI로 찍어내는걸 말하시는거죠? 거죽을 만들어내는 디테일을 말하시는건 아니죠? 그렇다는 전제하에 저도 거죽을 AI로 만드는쪽이 제일 맞지않을까 생각합니다. 쭉 얘기해온게 3D 모델링 뼈대 위에 캐릭터와 오브젝트 및 이펙트들의 거죽을 씌우는거죠
|