기획
•
콘텐츠 진흥원 및 모두연에서 전시를 진행하기 위한 기획입니다.
•
사람들이 직접 녹음을 한 목소리에서 Text를 추출하여, 해당 Text 기반 이미지와 사운드를 생성하는 전시 기획
•
Sound의 경우 기존 Sample의 tag들을 이용할 예정이며, 사운드 스케이프에 가까운 사운드가 될 예정
◦
음악적인 요소는 있을듯?
◦
Max4Live ⇒ 각 감정마다 Session view 재생
파트
1.
Disco Diffusion Model 포팅 → Text 입력 후 이미지 생성하도록 코드 수정
a.
참여자 : 창준
b.
현재 Colab Notebook 형태로 제공되어 로컬로 사용시 포팅이 필요함
c.
py 파일 형태로
2.
음성인식 한국어 음성을 받아서 명사화 시킨 후 영어로 번역해 Text 데이터 사용
a.
참여자 : 중선, 성휴
3.
Text 기반 감정분석 후 Loop Sample 중 비슷한 감성의 샘플 선택해 재생 (ableton의 m4l로 재생)
a.
참여자 : 영운, 창준, 다해
•
PM - 소준섭
◦
매 주차별로 진행해야되는 부분들 정리해서 공유할 예정
Github 생성
•
Repo
1주차
2주차
3주차
4주차
5 주차
6주차
7주차
전시작품 시나리오
1.
사용자가 전시작품 앞에 도착
2.
질문지 등장
a.
질문 영상 외주 ⇒ 외주 작업 진행
3.
답변
a.
녹음이 진행되어서 음성을 txt로 변환해서 저장
4.
txt를 기반으로 이미지, 사운드 매칭
a.
이미지와 사운드 출력 → 페이드 인
b.
iMAC을 사용할 건데, 가능하다면, 빔프로젝터나 음향장비를 추가할 수도?
5.
일정 시간 후 페이드 아웃으로 종료
a.
이미지랑 사운드를 받아갈 수 있도록 도전(옵션)
Appendix
Table
Search