본 연구에서는 다트 던지는 동작이 자세유지 체계와 어떻게 협응을 이루는지 두 개의 실험을 실시하여 검증하였다. 실험 1에서는 Fitts 법칙에 따라 표적과의 거리를 이용하여 과제 난이도를 변화시켰으며, 실험 2에서는 지지면의 재질과 크기(나무 바닥, 고무판, 좁은 목재보)를 변화시켜 자세 유지를 교란하여 다트 던지는 동작과의 상호작용을 유도하였다. 실험의 조작이 다트 던지는 동작과 자세유지에 미치는 영향을 수행 결과, 운동 패턴 및 흔들림 정도로 나누어 분석하였다. 수행 결과는 반경오차, 가변오차 및 수행점수로 분석하였으며, 운동 패턴은 운동추적기의 센서로 수집한 시계열 자료로부터 추출한 관절(손목, 팔꿈치, 어깨, 엉덩이, 무릎, 발목)의 각도 변화 값들을 상호 비교한 교차상관 분석값들을 사용하여 분석하였다. 마지막으로 신체의 흔들림 정도는 머리의 앞뒤 및 좌우 흔들림, 어깨의 앞뒤 및 좌우 흔들림 정도를 운동시간 동안 센서의 움직인 거리를 표준편차로 변환한 값을 사용하여 분석하였다. 실험 결과 운동통제 체계가 과제의 변화로 주어진 제약(더 빠른 가속력)이나 환경의 변화로 주어진 제약(자세유지의 어려움)에 대처하여 다분절 운동 사슬을 기능적으로 재구성하여 역동적으로 대처한다고 결론 내렸다.
Two experiments were directed at postural coordination in dart throwing. Darts can be thrown using only the elbow and wrist while keeping the rest of the body stationary. In order to introduce variability in the coordination pattern, distances to the target (Experiment 1), and the characteristics of support surface (Experiment 2) were varied. Dart throwing data were obtained using a wireless motion tracking system via sensors attached to the index finger, wrist, elbow, shoulder, hip, knee, and ankle of the right side (the throwing hand) with additional sensors attached to the head and the left shoulder, for a total of 9 sensors. Cross-correlations between joints (wrist-elbow, wrist-shoulder, wrist-hip, wrist-knee, wrist-ankle, elbow-shoulder, elbow-hip, elbow-knee, elbow-ankle, shoulder-hip, shoulder-knee, shoulder-ankle, hip-knee, hip-ankle, and knee-ankle) were used to construct coordination patterns. The standard deviations of the head and the right shoulder motion were used to assess body sway. In each condition of target distance (Experiment 1) and support surface (Experiment 2), participants threw darts 20 times, preceded by 20 practice throws. Different patterns of coordination arose as a function of target distance and support surface. Coupling strengths between joints were rearranged to cope with different demands imposed by different task constraints. Of particular interest was the finding that body sway was minimal in the narrow beam condition, less than in the wide plank or yoga mattress condition. Results suggest that the motor control system accomplishes a goal-directed movement by reassembling the multijoint kinematic chain dynamically under different task constraints.
인간의 시각 체계는 처리 용량의 한계를 극복하기 위해 복잡한 시각 자극의 중복되는 정보들을 요약해서 표상한다. 요약된 표상의 한 가지 예는 다양한 시각 자극의 평균 크기를 표상하는 것인데, 많은 선행 연구들을 통해 시각 체계의 평균 표상 능력은 매우 정확하다고 알려져 있다. 본 연구에서는 이와 같은 평균 크기 표상의 기제를 설명하는 계산 모형을 제안한다. 제시된 모형에서 시각 체계는 개별 자극들을 다소간의 잡음(초기 잡음)과 함께 부호화하고, 여러 자극들에서 부호화된 정보들을 통합한다. 시각 체계는 정보가 통합된 이후에도 의식 수준의 최종적인 표상이 형성되기 전까지 일정 수준의 잡음이 추가적으로 더해진다(후기 잡음). 본 모형의 타당도를 검증하기 위해 여러 크기의 자극들을 포함한 기준 자극 화면과 비교 자극 화면의 평균 크기를 비교하는 정신물리학 실험을 실시했다. 실험 결과, 크기 차이 변별의 민감도를 나타내는 역치는 자극 개수에 따라 감소했다. 다시 말해, 실험 참가자들은 자극 개수가 많아짐에 따라 그 자극들의 평균 크기를 더 정확하게 지각했는데, 이 결과는 후기 잡음을 포함한 모형으로 잘 설명된다. 본 모형은 개별 시각 정보들이 어떤 과정을 거쳐서 평균 표상을 형성하게 되는지를 보여주며, 본 연구에 사용된 실험 패러다임은 다양한 시각 속성의 평균 표상을 연구하는 데에 유용한 도구가 될 것으로 기대된다.
Human visual system represents a statistical summary of a complex visual input to overcome its limited capacity. An example of summary representation is the average size perception, which has been known to be accurate and precise. In the current study, we developed and validated a computational model of mean size perception. In this model, we assumed that the visual system encodes individual sizes with early noise, then integrates the noisy size information from multiple inputs. Finally, the integrated size information is added by late noise. The suggested model was validated with a psychophysical experiment, in which the standard and the test displays included multiple circles with different sizes and observers were asked to report which display had larger mean size. The psychophysical data was well accounted by the model with late noise: threshold for mean size discrimination was decreased with set-size, but the decrement of threshold was decelerated in large set-sizes. The proposed model allows us to understand underlying mechanism of mean size perception, and the experimental paradigm used in the current study is expected to be a useful tool for studying ensemble perception of various visual properties.
이모티콘은 온라인과 오프라인 소통에서 폭넓게 사용되고 있다. 얼굴이모티콘의 지각적 부호화가 얼굴-특수 구성적 처리에 의존하는지 밝히기 위해 자극 역전이 ERP성분 N170과 P1의 진폭과 정점 잠재기에 미치는 영향을 조사하였는데, N170은 얼굴에 민감하고 정위상 바른 얼굴보다 역전된 얼굴에 대해 진폭이 더 크고 잠재기가 더 지연되지만(N170-얼굴역전효과) P1은 저수준 시각적 속성에 민감한 것으로 알려져 있다. 얼굴이모티콘, 얼굴사진, 그리고 집아이콘을 정위상 바르게 또는 역전시켜 제시하고서 자극 윤곽선상 두 개 틈의 상대적 높이를 판단하도록 참가자에게 요구했다. N170과 P1의 평균진폭과 정점 잠재기를 분석한 결과는 다음과 같다. N170 진폭에 있어 얼굴이모티콘은 얼굴사진과 차이가 없었고, 두 얼굴유형 모두 집아이콘보다 더 부적이었으며(얼굴-민감 N170효과), 역전 정위와 바른 정위의 차이(역전효과)가 모든 자극유형에서 관찰되지 않았다. N170 정점 잠재기에 있어 얼굴이모티콘은 얼굴사진보다 더 짧았고 집아이콘과 차이가 없었는데, 이러한 잠재기상 차이는 역전 정위에서만 관찰되었다. N170 정점 잠재기와 관련된 역전효과가 두 얼굴유형 모두에서 관찰되었고(N170-얼굴역전효과) 집아이콘에서는 관찰되지 않았지만, 역전효과의 크기에 있어서는 얼굴사진이 얼굴이모티콘보다 더 컸고 얼굴이모티콘은 집아이콘과 차이가 없었다. P1의 진폭과 정점 잠재기는 얼굴-민감효과나 얼굴역전효과를 보이지 않았으며, 단지 자극들간 저수준 시각적 차이의 효과만을 보였다. 이러한 결과는 얼굴이모티콘의 지각적 부호화가 얼굴-민감 구성적 처리기전에 다소 의존하지만, 구성적 처리가 방해받는 역전 정위의 경우에는 집아이콘과 같이 사물-민감 지각기전에 주로 의존한다는 것을 시사한다.
Emoticons are widely used for various offline and online communication. To investigate whether the perceptual encoding of face emoticon relies on the face-specific configural processing, we examined how stimulus inversion affects the amplitude and peak latency of face-sensitive ERP component N170 which is known to be larger and delayed in response to inverted than to upright human face (N170-face inversion effect; N170-FIE) as well as ERP component P1 which is known to be sensitive to low-level visual features. ERPs were recorded to upright and inverted face emoticons, face photos, and house icons which were surrounded by oval-shaped outline. Participants had to judge the relative height of two gaps on the outline. N170 was enhanced for face emoticons and face photos relative to house icons (face-sensitive N170 effect), and showed no amplitude difference between face emoticons and face photos. N170 amplitude was not affected by inversion for all types of experimental stimuli. N170 was delayed for face photos relative to face emoticons as well as house icons, and showed no latency difference between face emoticons and house icons. The aforesaid latency difference among experimental stimuli were found only for inverted stimuli. For face emoticons and face photos, N170 was delayed for inverted relative to upright faces (N170-FIE), but, no N170 peak latency-related inversion effect was found for house icons. However, the magnitude of inversion effect was largest for face photos, and showed no difference between face emoticons and house icons. The amplitude and peak latency of P1 showed neither face-sensitive effect nor FIE, and only showed the effect of low-level visual differences among experimental stimuli. These findings show that perceptual encoding of upright face emoticons can rely on face-sensitive configural processing mechanisms to a less degree than face photos, but perceptual encoding of inverted face emoticons can rely on object-sensitive perceptual mechanisms like house icons.
Comprehension of physical events in terms of cause and effect is fundamental for making sense of and dealing successfully with changes in the dynamic physical world. Previous research has demonstrated that the causal structure of the world can, in some cases, be directly perceived: When two billiard balls collide, observers perceive that the action of one ball caused the other's motion, merging two motion events into a unitary percept. The current study explored whether such casual interpretations can contribute to resolving low-level ambiguities in motion perception. We used a bistable apparent motion display, a motion quartet, which can lead to the perception of either horizontal or vertical motion, and tested the effects of “context objects” which moved in such a way that motion targets appeared to collide with them in either horizontal or vertical dimension. Our results show that contextual motion implying a Michotte-style launch can strongly bias observed motion correspondence, consistent with physical regularities of mechanical causality in a postdictive way. It suggests that the perception of causality is an earlier and more pervasive phenomenon than previously understood, and in fact can influence the perception of motion itself.
본 연구는 맥락 정보로서 얼굴표정이 자폐 스펙트럼 장애(ASD) 아동의 얼굴표정 인식에 미치는 영향을 탐색하고자 하였다. 이를 위해 ASD 진단 기준을 충족하는 아동 20명과 이들과 지능, 연령을 매칭한 정상 발달(TD) 아동 20명을 대상으로 실험을 실시하였다. 참가자들은 ‘기쁨’과 ‘화남’ 목표 얼굴에 대한 정서 강도를 평정하였으며, 각 정서는 두 구획으로 나누어져 역균형화된 순서로 이루어졌다. 각 자극은 목표 얼굴과 맥락 정보로서 얼굴 표정이 일치하는 조건, 일치하지 않는 조건, 그리고 맥락 정보가 없는 조건의 세 조건으로 제시되었고, 모든 조건은 집단-내 변인으로 모든 참가자들에게 무작위로 실시되었다. 실험 결과, 기쁨 구획에서는 집단과 조건 간 상호작용이나 집단의 주효과는 관찰되지 않았으나 조건에 따른 주효과는 유의하였는데, 참가자들이 불일치 조건보다 일치 조건일 때 정서강도를 더 높게 평가하였다. 화남 구획에서 집단과 조건 사이에 상호작용이 유의하여 조건 별로 집단에 따른 정서 강도 평정의 차이를 확인한 결과, TD 집단은 일치 조건일 때 불일치 조건보다 정서 강도를 더 높게 평정하여 조건 간에 유의미한 수행의 차이가 나타났으나 ASD 집단은 조건 사이에 유의미한 수행의 차이가 확인되지 않았다. 이 같은 결과는 자폐 스펙트럼 장애 아동이 얼굴표정을 인식할 때 맥락 정보로부터 받는 영향은 정서에 따라 다르며, 적어도 화남의 정서에 대해서는 TD 집단에 비해 맥락 정보로부터 받는 영향이 작음을 의미한다. 이를 바탕으로 본 연구의 의의와 한계가 논의되었다.
The purpose of this study was to investigated quantitative change in emotional intensity ratings with the addition of contextual information in children with Autism Spectrum Disorder(ASD). Participants in the current study were 20 children with ASD and 20 typically developing children(TD) with their full scale IQ and age matched. All participants were asked to assess the emotional intensity of a single emotion(happy/anger) from images presented under two conditions(context-free and context embedded). The results showed a significant interaction effect between groups and conditions in only an anger block. Further analysis revealed that children with TD reported lower intensity of an anger face embedded with happy faces, however, there was no difference in intensity levels for children with ASD inspite of the addition of contextual cues. The results suggests that ASD have impairment in using contextual cues to moderate their assessment of emotional intensity. Clinical implication and limitation of the study is further discussed.
본 연구에서는 자극과 보상의 연합 학습이 유사한 자극의 기댓값 예측에 전이되는 양상을 보상 맥락을 나누어 알아보고자 하였다. 지각 분야의 선행연구에서는 이익과 손실의 맥락에 따라 지각적으로 유사한 자극들의 구분 정도가 다르다는 것이 밝혀졌다. 본 연구에서는 이를 기댓값 예측 과제에 적용하여, 지각적으로 구분이 가능한 자극들의 이익과 손실의 기댓값 전이에서 어떤 차이가 나타나는지 알아보고자 하였다. 실험은 학습 단계와 판단 단계를 나누어 진행되었다. 학습단계에서는 특정 자극을 이익이나 손실에 연합하여 학습하였다. 판단 단계에서는 앞서 학습된 자극, 그와 방위적으로 유사한 자극들을 제시하고 제시된 자극에 대해 도박의향을 결정하도록 했다. 그 결과, 학습한 바에 따라 유사한 자극들에 대해 보상의 기댓값을 전이시키는 양상이 나타났고, 유사성의 정도에 따라 기댓값에 차이가 나타났다. 그러나 이익과 손실 맥락에서 일반화 양상의 차이는 발견되지 않았다. 실험 2에서는 이익의 양을 손실보다 크게 하여(이익 편향) 실험을 진행하였다. 실험 1에서와 전이가 되는 양상이 다른 것을 알 수 있었다. 차이가 발견된 것은 이익 맥락으로, 실험 2에서는 유사성에 따른 점수 차이가 크지 않았다. 이러한 결과들은 손실이 같은 양의 이익보다 크게 매겨진다는 손실 회피 가설과 대립되며, 작은 손실에서는 회피 성향이 나타나지 않는다는 주의적 모델의 설명을 따를 수 있다.
This study is about generalization of expected value on similar stimulus. From precedent study about perception, it is known that generalization curve of loss context is wider than gain context. In this study, we were interested in the effect of reward context on transfer of expected value in similar stimulus which is easy to be discriminated to original. The experiment was divided to learning phase and decision phase. In learning phase, participants learned association between orientation and rewards, and in decision phase, they valued willingness to bet on stimulus those are similar to learned stimulus. As a results, there was a transfer of expected value on similar stimulus. Also, the strength of willingness to bet was depend on the degree of similarity. There was no significant difference between gain and loss context. However, when modifying condition to be biased to gain, the difference of strength of willing to gamble did not shown. It seems that minor loss cannot cause loss aversion behavior in gain context. Also, even if the gain is much bigger than loss, there is no significant much stronger tendency of gain seeking.
정서의 심리구성주의 이론에 따르면, 정서의 명칭(label)은 얼굴 표정의 개념적 표상의 구성을 촉진시킨다(Lindquist, MacCormack & Shablack, 2015). 본 연구는 얼굴표정 전에 제시한 정서 명칭이 얼굴표정의 정서 범주판단에 미치는 영향을 정신물리학적 방법을 사용하여 분석하였다. 또한 명칭을 소리 내어 읽는 조건과 눈으로 응시한 조건을 비교하여, 명칭의 발화에 수반되는 청각 피드백이 해당 효과를 증대시키는지 알아보고자 하였다. 참가자들은 '기쁨', '분노', '질량', 이 세 단어를 밑줄의 유무에 따라 소리 내어 읽거나, 눈으로 읽은 다음, 뒤따라 제시되는 얼굴표정에 대하여 해당 얼굴의 정서를 기쁨 또는 분노로 판단하는 2선택지 강제선택 과제를 수행하였다. 얼굴표정 자극은 기쁨과 분노 두 정서 표정을 20%씩 변화시켜 제작한 6단계 합성 얼굴이 사용되었다. 실험이 끝난 후 개별참가자들의 범주판단 경계를 구하기 위해 심리측정 함수를 적용하여 주관적 동등점(point of subjective equality: PSE)을 추정하였다. 분석 결과, 통제조건인 '질량' 단어 조건 PSE와 비교하여 '기쁨' 단어 조건의 경우 PSE가 기쁨 범주 방향으로 이동하였으며, '분노' 단어 조건의 경우 PSE가 분노 범주 방향으로 유의하게 이동하였다. 또한 명칭을 소리 내어 읽을 경우 '기쁨' 단어 조건에서의 PSE 이동을 더욱 커지게 하는 효과를 관찰하였다. 정서명칭을 보거나 발화하는 행위가 얼굴표정 지각에 영향을 주는 것을 보여줌으로써, 본 연구의 결과는 언어가 정서를 구성하는 과정에 핵심적인 역할을 한다는 Lindquist 등(2015)의 주장을 지지하는 결과로 해석할 수 있다.
According to the psychological construction theory of emotion, labeling an affect promotes the construction of the conceptual representation of facial expressions (Lindquist, MacCormack & Shablack, 2015). In the present study, we investigated the effect of emotion labels on the categorical judgment of emotion of facial stimuli using a psychophysical method. We also tried to compare two conditions under which labels were read aloud or silently to see if the auditory feedback accompanying the utterance would increase the effect. During the experiment, one of three words ('Happiness', 'Anger', and 'Mass') was presented and participants read aloud the word if it was underlined. Then, a target face, randomly chosen from 6 gradually morphed faces from Happy to Angry, was presented for a two-alternative forced choice task ('Happy' or 'Angry'). Using a psychometric function, points of subjective equality (PSEs) of participants were estimated and statistically analyzed. Compared with the non-emotional word, reading an emotional word, 'Happiness' or 'Anger', significantly changed the PSE. Moreover, when the word 'Happiness' was read aloud, the PSE was further biased to Happy. By demonstrating emotion labels change the perceptual category boundary of facial emotion, current results support the claims of Lindquist et al.(2015) that language has an important role in the process of constructing emotion.