바로가기메뉴

본문 바로가기 주메뉴 바로가기

ACOMS+ 및 학술지 리포지터리 설명회

  • 한국과학기술정보연구원(KISTI) 서울분원 대회의실(별관 3층)
  • 2024년 07월 03일(수) 13:30
 

logo

  • P-ISSN1225-598X
  • E-ISSN2982-6292

비디오 의미 파악을 위한 멀티미디어 요약의 비동시적 오디오와 이미지 정보간의 상호 작용 효과 연구

A Study on the Interactive Effect of Spoken Words and Imagery not Synchronized in Multimedia Surrogates for Video Gisting

한국문헌정보학회지 / Journal of the Korean Society for Library and Information Science, (P)1225-598X; (E)2982-6292
2011, v.45 no.2, pp.97-118
https://doi.org/10.4275/KSLIS.2011.45.2.097
김현희 (명지대학교)

초록

본 연구는 오디오 및 이미지 정보가 비동시적으로 결합된 오디오/이미지 요약이 오디오 요약 또는 이미지 요약만 사용했을 때 보다 어떤 상호 작용 효과를 가지고 있는지 살펴보았다. 이를 위해서 오디오/이미지 요약, 오디오 요약 및 이미지 요약을 비디오의 의미 추출에 있어서의 정확도 즉, 요약문 및 항목 선택의 정확도와 이용자들의 이 세 가지 요약에 대한 관점을 비교, 분석하였다. 분석 결과, 요약문 정확도에서는 비디오 유형에 관계없이 상호 작용 효과를 확인하였으나 항목 선택의 정확도에서는 상호 작용 효과가 입증되지 못했다. 끝으로 이용자들은 오디오/이미지 요약에 대해 오디오와 이미지 정보를 병행하여 시청함으로서 비디오 내용에 대한 이해를 빠르게 하지만 때로는 이 두 정보간의 비동시성으로 인하여 비디오 의미 파악을 방해하는 경우도 생겨난다고 기술하였다.

keywords
멀티미디어 요약, 오디오/이미지 요약, 오디오 요약, 스토리보드, 비디오 검색, 이미지 요약, Interactive Effect, Unsynchronized Multimedia Surrogate, Video Gisting, Interactive Effect, Unsynchronized Multimedia Surrogate, Video Gisting

Abstract

The study examines the interactive effect of spoken words and imagery not synchronized in audio/image surrogates for video gisting. To do that, we conducted an experiment with 64 participants, under the assumption that participants would better understand the content of videos when viewing audio/image surrogates rather than audio or image surrogates. The results of the experiment showed that overall audio/image surrogates were better than audio or image surrogates for video gisting, although the unsynchronized multimedia surrogates made it difficult for some participants to pay attention to both audio and image when the content they present is very different.

keywords
멀티미디어 요약, 오디오/이미지 요약, 오디오 요약, 스토리보드, 비디오 검색, 이미지 요약, Interactive Effect, Unsynchronized Multimedia Surrogate, Video Gisting, Interactive Effect, Unsynchronized Multimedia Surrogate, Video Gisting

참고문헌

1.

김현희. 2007. 비디오 자료의 의미 추출을 위한 영상 초록의 효용성에 관한 실험적 연구. 정보관리학회지 , 24(4): 53-72.

2.

김현희. 2009. 비디오의 오디오 정보 요약 기법에 관한 연구. 정보관리학회지 , 26(3): 169-188.

3.

이경미 외. 2008. 내용, 감성, 메타데이터의 결합을 이용한 텍스타일 영상 검색. 한국인터넷정보학회논문집 , 9(5): 99-108.

4.

Ding, W., et al. 1999. “Multimodal surrogates for video browsing." Proceedings of the fourthACM Conference on Digital Libraries, 85-93. Berkeley, CA.

5.

Gunther, R., Kazman, R., & MaccGregor, C. 2004. “Using 3D sound as a navigational aidin virtual environments.” Behaviour and Information Technology, 23(6): 435-446.

6.

Hughes, A., et al. 2003. “Text or pictures? an eye-tracking study of how people view digitalvideo surrogates.” Proceedings of CIVR 2003, 271-280.

7.

Iyer, H., & Lewis, C. 2007. “Prioritization strategies for video storyboard keyframes." Journalof American Society for Information Science and Technology, 58(5): 629-644.

8.

Kennedy, L., Naaman, M., Ahern, S., Nair, R., & Rattenbury, T. 2007. “How Flickr helpsus make sense of the world: Context and content in community-contributed media collections."Proceedings of ACM Multimedia, 2007. Augsburg, Germany. [online]. [cited 2010.5.10].<http://infolab.stanford.edu/~mor/research/kennedyMM07.pdf>.

9.

Kristin, B., et al. 2006. Audio Surrogation for Digital Video: A Design Framework. UNCSchool of Information and Library Science(SILS) Technical Report TR 2006-21.

10.

Marchionini, G., et al. 2009. “Multimedia surrogates for video gisting: Toward combiningspoken words and imagery." Information Processing and Management, 45: 615-630.

11.

Paivio, A. 1986. Mental Representations. New York: Oxford University Press.

12.

Schmandt, C., & Mullins, A. 1995. “AudioStreamer: Exploiting simultaneity for listening."CHI 95 Conference Companion 1995, 218-219.

13.

Song, Y., & Marchionini, G. 2007. “Effects of audio and visual surrogates for making senseof digital video." Proceedings of CHI 2007, 867-876. San Jose, CA, USA.

14.

Song, Y., Marchionini, G., & Oh, C. 2010. “What are the most eye-catching and ear-catchingfeatures in the video?: implications for video summarization." Proceedings of the 19thInternational Conference on World Wide Web 2010. Raleigh, North Carolina.

15.

Wildemuth, B., et al. 2002. “Alternative surrogates for video objects in a digital library:Users' perspectives on their relative usability." Proceedings of the 6th European Conferenceon Digital Libraries, 493-507. New York: Springer.

16.

Yang, M., 2005. An Exploration of Users’ Video Relevance Criteria. Ph.D. diss., Universityof North Carolina at Chapel Hill.

17.

Yang, M., & Marchionini, G. 2004. “Exploring users' video relevance criteria: A pilot study."Proceedings of the Annual Meeting of the American Society of Information Science andTechnology, Nov. 12-17, 2004. 229-238. Providence, RI.

한국문헌정보학회지