바로가기메뉴

본문 바로가기 주메뉴 바로가기

ACOMS+ 및 학술지 리포지터리 설명회

  • 한국과학기술정보연구원(KISTI) 서울분원 대회의실(별관 3층)
  • 2024년 07월 03일(수) 13:30
 

logo

인공지능 편향식별의 공정성 기준과 완화

Fairness Criteria and Mitigation of AI Bias

한국심리학회지: 일반 / Korean Journal of Psychology: General, (P)1229-067X; (E)2734-1127
2021, v.40 no.4, pp.459-485
https://doi.org/10.22257/kjp.2021.12.40.4.459
김효은 (한밭대학교)
  • 다운로드 수
  • 조회수

초록

인공지능 편향은 사회적 영향과 거버넌스의 문제일 뿐만 아니라 인공지능 시스템의 강건성 문제이기도 하다. 부호처리 패러다임의 인공지능에서는 제기되지 않던 인공지능 편향 문제는 컴퓨터가 인공신경망 기반의 자율지능시스템 단계가 되면서 시스템 구축 절차 각각에서 개입된다. 이 논문의 목적은 인공지능의 구성 절차에서 개입되는 편향의 양상, 편향 판단의 공정성 기준들, 편향완화 방법을 탐색하는 것이다. 공정성의 다양한 유형들은 동시에 만족되기 어렵고 인공지능의 적용 분야 및 맥락에 따라 상이한 기준과 요소의 결합이 필요하다. 학습 데이터, 분류자, 예측 내용의 편향을 완화하는 방법 또한 편향을 완전히 차단하는 것은 아니며 편향완화와 정확도 간의 조화를 모색해야 한다. 인공지능 감사를 통해 알고리즘에 무제한으로 접근하여 편향을 식별해낸다 하더라도 해당 알고리즘의 편향 여부를 단정하기는 어렵다. 편향완화 기술은 단순히 편향을 제거하는 단계를 넘어서서 편향완화와 시스템의 강건성을 동시에 확보하는 과제, 그리고 다양한 공정성 유형들을 조정하는 과제를 해결하는 단계로 나아가고 있다. 결론적으로, 이러한 특성들은 인공지능 편향을 인지하고 해결책을 모색하는 과제가 개념적 차원의 사안 인지를 넘어서 시스템 이해에 기반한 편향 인식 및 조정 차원에서 모색되어야 함을 암시한다.

keywords
기계학습, 편향, 공정성, 데이터, 알고리즘, machine learning, bias, fairness, data, algorithm

Abstract

AI bias is not only an issue of humanities and social impact and governance, but also of systemic robustness. The algorithm bias has the characteristic of being intervened in the system construction process as the computer becomes an artificial neural network-based autonomous intelligence system. The objective of this paper is to deal with the aspects of bias that are involved in each stage of artificial intelligence, the fairness criterion for the judgment of bias, and the bias mitigation methods. Different types of fairness are difficult to satisfy simultaneously and require different combinations of criteria and factors depending on the field and context of AI application. Each method for mitigating the bias of training data, classifiers, and prediction alone do not completely block the bias, and a balance between bias mitigation and accuracy should be sought. Even if bias is identified through unlimited access to the algorithm through AI auditing, it is difficult to determine whether the algorithm is biased. The bias mitigation technology goes beyond simply removing the bias, and is moving toward solving the problem of both reducing the bias and securing the robustness of the system, and adjusting the various types of fairness. In conclusion, these characteristics imply that policies and education that recognize AI biases and seek solutions should be explored in terms of bias recognition and coordination based on system understanding beyond recognizing issues at the conceptual level.

keywords
기계학습, 편향, 공정성, 데이터, 알고리즘, machine learning, bias, fairness, data, algorithm

한국심리학회지: 일반