바로가기메뉴

본문 바로가기 주메뉴 바로가기

ACOMS+ 및 학술지 리포지터리 설명회

  • 한국과학기술정보연구원(KISTI) 서울분원 대회의실(별관 3층)
  • 2024년 07월 03일(수) 13:30
 

logo

  • P-ISSN1013-0799
  • E-ISSN2586-2073
  • KCI

연관성 척도의 빈도수준 선호경향에 대한 연구

A Study on the Frequency Level Preference Tendency of Association Measures

정보관리학회지 / Journal of the Korean Society for Information Management, (P)1013-0799; (E)2586-2073
2004, v.21 no.4, pp.281-294
https://doi.org/10.3743/KOSIM.2004.21.4.281
이재윤 (경기대학교)

초록

연관성 척도는 정보검색 및 데이터마이닝을 비롯한 다양한 분야에서 사용되고 있다. 각 연관성 척도가 높거나 낮은 빈도 중에서 어떤 쪽을 선호하는가를 나타내는 빈도수준 선호경향은 척도의 적용 결과에 중요한 영향을 미치므로 이에 대한 면밀한 조사가 필요하다. 이 연구에서는 주요 연관성 척도들의 빈도수준 선호경향을 가상의 데이터를 통해 분석하고 그 결과를 제시하였다. 또한 코사인 계수를 비롯한 대표적인 연관성 척도에 대해서 빈도수준 선호경향을 조절할 수 있는 방법을 제안하였다. 이 조절 방법을 동시출현 기반 질의확장 정보검색에 적용해본 결과 그 유용성이 확인되었다. 마지막으로 분석 및 실험 결과가 관련 분야에 시사하는 바를 논하였다.

keywords
연관성척도, 동시출현분석, 정보검색, 데이터마이닝Association Measures, Cooccurrence Analysis, Information Retrieval, Data Mining

Abstract

Association measures are applied to various applications, including information retrieval and data mining. Each association measure is subject to a close examination to its tendency to prefer high or low frequency level because it has a significant impact on the performance of applications. This paper examines the frequency level preference(FLP) tendency of some popular association measures using artificially generated cooccurrence data, and evaluates the results. After that, a method of how to adjust the FLP tendency of major association measures such as cosine coefficient is proposed. This method is tested on the cooccurrence-based query expansion in information retrieval and the result can be regarded as promising the usefulness of the method. Based on these results of analysis and experiment, implications for related disciplines are identified.

keywords
연관성척도, 동시출현분석, 정보검색, 데이터마이닝Association Measures, Cooccurrence Analysis, Information Retrieval, Data Mining

참고문헌

1.

김지영. (2000). 한국어 테스트 컬렉션 HANTEC의 확장 및 보완 (210-215). 제12회 한글 및 한국어 정보치리 학술대회 논문집.

2.

사공철. (2003). 정보학 사전:서울: 문헌정보처리연구회.

3.

이재윤. (2003). 상호정보량의 정규화에 대한 연구. 문헌정보학회지, 37(4), 177-198.

4.

정영미. (1987). 정보검색론:서울: 정음사.

5.

Chung, Young Mee. (2001). A corpus-based approach to comparative evaluation of statistical term association measures. Journal of the American Society for Information Science and Technology, 352(4), 283-296.

6.

Chung, Young Mee. (2004). Optimization of some factors affecting the performance of query expansion. Information Processing and Management, 40(6), 891-917.

7.

Forman, George. (2003). An extensive empirical study of feature selection metrics for text classification. Journal of Machine Learning Research, 3, 1289-1305.

8.

Galavotti, L. (2000). Experiments on the use of feature selection and negative evidence in automated text categorization (59-68). Proceedings of ECDL- 00, 4th European Conference on Research and Advanced Technology for Digital Libraries(Lisbon, Portugal, 2000).

9.

Gower, J. C. (1985). Measures of similarity, dissimilarity, and distance(In Encyclopedia of Statistical Sciences, Vol. 5).

10.

Meyer, A. (2004). Comparison of similarity coefficients used for cluster analysis with dominant markers in maize (Zea mays L). Genetics and Molecular Biology, 27(1), 83-91.

11.

Mladeni'c, D. (1998). Feature subset selection in text-learning (95-100). In Proceedings of the Tenth European Conference on Machine Learning(Chemnitz, Germany, 1998).

12.

Salton, G. (1973). On the specification of term values in automatic indexing. Journal of Documentation, 29(4), 351-372.

13.

van Rijsbergen, C. J. (1979). Information Retrieval. 2nd ed.:London: Butterworths.

14.

Yang, Yiming. (1997). A comparative study on feature selection in text categorization (412-420). Proceedings of the 14th International Conference on Machine Learning.

정보관리학회지