바로가기메뉴

본문 바로가기 주메뉴 바로가기

ACOMS+ 및 학술지 리포지터리 설명회

  • 한국과학기술정보연구원(KISTI) 서울분원 대회의실(별관 3층)
  • 2024년 07월 03일(수) 13:30
 

logo

  • P-ISSN1226-9654
  • E-ISSN2733-466X
  • KCI

이모티콘 세부특징의 정교성과 표정 지각 기제

The Elaboration of Emoticon Features and the Underlying Mechanism of Facial Expression Perception

한국심리학회지: 인지 및 생물 / The Korean Journal of Cognitive and Biological Psychology, (P)1226-9654; (E)2733-466X
2019, v.31 no.3, pp.223-229
https://doi.org/10.22172/cogbio.2019.31.3.003
한현주 (한림대학교)
최훈 (한림대학교)

초록

표정은 우리의 내면 상태를 알려주는 얼굴 내의 시각 정보로, 인간 사이의 의사소통을 도와주는 중요한 역할을 한다. 최근에는 SNS 등과 같이 온라인 상의 의사소통 과정에서도 이모티콘을 통해 표정 정보를 적극적으로 사용하고 있다. 본 연구는 이모티콘 표정 지각의 처리 기제에 대해서 알아보고자 하였다. 일반적으로 표정 지각 처리와 관련하여 두 가지의 가설이 있다. 세부특징 기반 처리 가설은 먼저 얼굴의 눈, 코, 입 등의 세부특징들을 각각 처리한 이후, 하나의 통합된 결과로 표정이 지각된다고 주장한다. 이에 반해, 전역적 처리 가설은 세부특징들의 위치 관계성(예, 두 눈 간의 거리)과 같은 전반적인 배열 정보를 통하여 표정이 지각된다고 주장한다. 이모티콘의 표정 처리는 실제 사람의 얼굴 표정과 동일한 기제로 지각된다는 믿음과 달리 최근의 연구들은 이 두 기제가 동일하지 않다는 것을 보여주어, 이모티콘 표정 지각의 기제에 대한 보다 체계적인 연구가 요구 되고 있다. 본 연구에서는 이모티콘의 정교성 수준에 따라 표정 지각 기제가 달라질 수 있는지를 확인하고자 하였다. 본 실험에서 이모티콘의 정교성 수준을 단순한 선으로 표현한 것(단순 이모티콘)과 그림 수준으로 정교하게 표현한 것(정교 이모티콘)으로 구분하였다. 다섯 개의 표정(분노, 공포, 행복, 슬픔, 놀람) 중 하나의 표정을 짓고 있는 실제 얼굴 혹은 이모티콘의 세부특징을 정상적인 곳에 위치시키거나(정배열 조건), 정상적이지 않은 곳에 위치시켜(오배열 조건) 제시하여 정서 식별 과제를 실시하였다. 그 결과, 정교 이모티콘의 경우 정배열 조건에서의 표정 식별 정답률이 오배열 조건에서보다 높았던 반면, 단순 이모티콘의 경우에는 두 조건 간에 유의한 차이가 없었다. 이는 이모티콘의 표정 지각은 그 세부특징의 정교성 수준이 높을수록, 전역적 처리가 표정 지각에 더 강하게 영향을 끼친다는 것을 보여준다.

keywords
emoticon, perception of facial expression, holistic processing, feature-based processing, 이모티콘, 표정 지각, 전역적 처리, 세부특징 기반 처리

Abstract

Facial expressions are visual information that reflects our inner states and plays an important role in how people communicate with others. Recently, facial expressions have been actively used through emoticons via online communication modes such as chatting on social media. The current study investigated the underlying mechanism of the perception of facial expressions in emoticons. There are two hypotheses regarding the processing of facial expressions. First, the feature-based processing hypothesis suggests facial expressions are perceived based on information gathered from each facial feature such as eyes, nose, and mouth, all of which are processed independently. Second, according to the holistic processing hypothesis, facial expressions are perceived with configural information such as the distance between the eyes. For the perception of facial expressions in a real human face, most studies have supported the holistic processing hypothesis. However, the results of studies for facial expressions in emoticons are inconsistent. The purpose of the current study is to explore whether the underlying mechanism of the facial expression perception in emoticons can be influenced by the elaboration level, related to how facial features are described in detail. In the experiment, we employed two types of emoticons to manipulate the elaboration level: simple and elaborated. In a simple emoticon, all facial features are represented with a few line segments, whereas in an elaborated emoticon, the features are elaborately described at the drawing level. Participants were asked to perform an emotion recognition task in which a human face or an emoticon with one of the five basic facial expressions (anger, fear, happiness, sadness, and surprise) was presented in an aligned or misaligned state. As a result, whereas in the case of the elaborated emoticons the accuracy of facial expression recognition was higher in the aligned condition than in the misaligned condition, there was not significant differences between these two conditions in the case of the simple emoticons. It suggests that the higher the level of elaboration of features in emoticons, the stronger the effect of the holistic processing.

keywords
emoticon, perception of facial expression, holistic processing, feature-based processing, 이모티콘, 표정 지각, 전역적 처리, 세부특징 기반 처리

참고문헌

1.

김선진 (2014). 모바일 메신저의 이모티콘 특성에 관한 비교 연구. 디지털디자인학연구, 14(1), 87-96.

2.

정찬섭, 오경자, 이일병, 변혜란 (1998). 감성 인터페이스: 얼굴 표정의 인식 및 합성 모형. 1998, 14(1), 87-96.

3.

정찬섭, 오경자, 이일병, 변혜란 (1998). 감성 인터페이스: 얼굴 표정의 인식 및 합성 모형. 1998년도 한국심리학회 동계 연구 세미나 논문집, 121-160.

4.

Bombari, D., Schmid, P. C., Schmid Mast, M., Birri, S., Mast, F. W., & Lobmaier, J. S. (2013). Emotion recognition: The role of featural and configural face information. The Quarterly Journal of Experimental Psychology, 66(12), 2426-2442.

5.

Brainard, D. H. (1997). The Psychophysics Toolbox. Spatial Pelli, D. G. (1997). The VideoToolbox software for visual psychophysics: transforming numbers into movies. Spatial Vision, 10(4), 437–442.

6.

Piepers, D., & Robbins, R. (2012). A review and clarification of the terms “holistic,” “configural,” and “relational” in the face perception literature. Frontiers in Psychology, 3, 559.

7.

Prazak, E. R., & Burgund, E. D. (2014). Keeping it real:Recognizing expressions in real compared to schematic faces. Visual Cognition, 22(5), 737-750.

8.

Vuilleumier, P., Armony, J. L., Driver, J., & Dolan, R. J. (2003). Distinct spatial frequency sensitivities for processing faces and emotional expressions. Nature Neuroscience, 6(6), 624-631.

9.

Yin, R. K. (1969). Looking at upside-down faces. Journal of Experimental Psychology, 81(1), 141-145. Vision, 10(4), 433–436.

10.

Calder, A. J., Young, A. W., Keane, J., & Dean, M. (2000). Configural information in facial expression perception. Journal of Experimental Psychology: Human Perception and Performance, 26(2), 527-551.

11.

Ekman, P. (1982). Methods for measuring facial action. In K. R. Scherer & P. Ekman (Eds.). Handbook if methods in nonverbal behavior research. Cambridge: Cambridge University Press.

12.

Fallshore, M., & Bartholow, J. (2003). Recognition of emotion from inverted schematic drawings of faces. Perceptual and Motor Skills, 96, 236-244.

13.

Koffka, K. (1935). Principles of Gestalt psychology. London:Kegan, Paul, Trench & Trubner.

14.

Leppänen, J. M., & Hietanen, J. K. (2004). Positive facial expressions are recognized faster than negative facial expressions, but why?. Psychological Research, 69, 22-29.

15.

Lipp, O. V., Price, S. M., & Tellegen, C. L. (2009). No effect of inversion on attentional and affective processing of facial expressions. Emotion, 9(2), 248

16.

Marković, S., & Gvozdenovi, V. (2001). Symmetry, complexity and perceptual economy: Effects of minimum and maximum simplicity conditions. Visual Cognition, 8(3-5), 305-327.

17.

McKelvie, S. J. (1995). Emotional expression in upside‐down faces: Evidence for configurational and componential processing. British Journal of Social Psychology, 34(3), 325-334.

18.

Öhman, A., Lundqvist, D., & Esteves, F. (2001). The face in the crowd revisited: a threat advantage with schematic stimuli. Journal of Personality and Social Psychology, 80(3), 381.

한국심리학회지: 인지 및 생물