인공지능, 알고리즘 미디어, 자동화 미디어 등 최근의 신기술 미디어에 대한 대중담론은 기술공학과 정책 담론에 집중되어 있다. 그러나 데이터와 알고리즘으로 작동하는 자동화 미디어의 기술적 특성은 기존의 사회 문제를 해결하기보다는 지속하거나 강화하는 방식으로 작동하기 쉽다. 특히 빅데이터를 기반으로 한 알고리즘 미디어의 경우, 여성을 비롯한 사회적인 소수자들을 체계적으로 비가시화하면서 젠더 관계를 불평등한 것으로 만든다. 이 논문은 자동화 미디어를 사회적인 가치의 측면에서 논의하기 위해 인공지능 담론과 불평등의 관계를 탐색한다. 먼저 현재의 미디어 테크놀로지를 주도하는 이른바 ‘실리콘밸리 세계관’의 의미와 현황을 살펴보고, 이 담론이 언론과학술 분야로 확장되는 양상을 살핀다. 그리고 인공지능 담론의 핵심인 ‘자동성’ 에 대한 문화적인 상상의 의미를 탐색한 후, 자동화된 미디어가 불평등과 같은 사회적 문제를 강화하는 양식들을 검토한다. 특히 자동화 미디어가 젠더 불평등을 증폭하는 방식을 비판적으로 논의한다. 사회적 불평등의 문제는 알고리즘 미디어 기술 그 자체가 아니라 인간과 사회 기술의 관계망을 중심으로 살펴야 할 필요성을 주장한다.
관계부처합동, 『인공지능 국가전략』, 2019.12.17.
임소연, 「여성을 차별하지 않는 인공지능을 만들 수 있을까?」, 『한겨레신문』, 2021.3.5. https://www.hani.co.kr/arti/culture/book/985521.html (접속일: 2021.10.3)
Alistair Barr, “Google Mistakenly Tags Black People as ‘Gorillas,’ Showing Limits of Algorithms,” Wall Street Journal, 2015.7.1.
Carlos Mulas-Granados, Richard Varghese, Vizhdan Boranova, Alice deChalendar, Judith Wallenstein, “Automation, skills and the future of work: What do workers think?,” IMF Working Paper, 2019.12.20.
Kyle Wiggers, “The AI Industry is Bilt on Geographic and Social Inequality, Research Shows,” VentureBeat, 2021.2.4.
Ron Schmelzer, “ The Human-powered Companies that Make AI Work,” Forbes, 2020.2.2.
Tahsin Saadi Sedik, “Pandemics and Automation: Will the Lost Jobs Come Back?,” IMF Working Paper, 2020.1.15.
김초엽·김원영, 『사이보그가 되다』, 사계절, 2021.
Andrew Feenberg, Between Reason and Experience: Essays in Technology and Modernity, MIT Press, 2010.
Anthony Eilliott, The Culture of AI: Everyday Life and the Digital Revolution, Routledge, 2019.
Caroline Criado Perez, Invisible Women: Data Bias in a World Designed for Men, Abrams Press, 2019, 황가한 역, 『보이지 않는 여자들』, 웅진지식하우스, 2019.
Catherine D’lgnazio and Lauren Klein, Data Feminism, The MIT Press, 2020.
Cathy O’Neil, Weapons of Math Destruction, New York: Broadway Books, 2016, 김정혜 역, 『대량살상수학무기』, 흐름출판, 2017.
David Autor, David Mindell and Elizabeth Reynolds, The Work of the Future:Building Better Jobs in an Age of Intelligent Machines, MIT, 2020.
Geoffrey C. Bowker and Susan Leigh, Sorting Things Out: Classification and its Consequences, MIT Press, 1999.
Ivan Illich, Shadow Work, London: Marion Boyars, 1981, 노승영 역, 『그림자노동』, 사월의책, 2009.
Kate Crawford, Atlas of AI, Yale University Press, 2021.
Kris Schaffer, Data versus Democracy: How Big Data Algorithms Shape Opinions and Alter the Course of History, New York: Apress Books, 2019, 김선역, 『데이터, 민주주의를 조작하다』, 힐데와소피, 2020.
Lisa Parks and Nicole Starosielski (eds). Signal Traffic: Critical Studies of Media Infrastructures, University of Illinois Press. 2015.
Mark Andrejevic, Automated Media, Routledge, 2019, 이희은 역, 『미디어 알고리즘의 욕망』, 컬처룩, 2021.
Mary L. Gray, Ghost Work: How to Stop Silicon Valley from Building a New Global Underclass, Boston: Houghton Mifflin Harcourt, 2019, 신동숙 역, 『고스트워크』, 한스미디어, 2019.
Safiya Umoza Noble, Algorithms of Oppression: How Search Engines Reinforce Racism, New York University Press, 2018, 노윤기 역, 『구글은 어떻게 여성을 차별하는가』, 한즈미디어, 2019.
Virginia Eubanks, Automating Inequality: How High-tech Tools Profile, Police, and Punish the Poor, St. Martin’s Press, 2018, 김영선 역, 『자동화된 불평등』, 북트리거, 2018.
Wendy H.K. Chun, “Queerying homophily”. in C. Apprich, W .H.K. Chun, F. Cramer, and H. Steyerl (eds.). Pattern Discrimination, University of Minnesota Press, 2019.
오요한·홍성욱, 「인공지능 알고리즘은 사람을 차별하는가」, 『과학기술학연구』, 제18권 3호, 한국과학기술학회, 2018, 153-215쪽.
이다혜, 「근로자 개념의 재검토: 4차 산업혁명, 플랫폼 노동의 부상에 따른 ‘종속노동’의 재조명」, 『노동법연구』 제49호, 서울대학교 노동법연구회, 2020, 1-50쪽.
이정희·이상준, 「데이터 라벨러 일의 세계: 크라우드형 플랫폼 기업의 고용, 노사관계」, 『노동리뷰』 4월호, 한국노동연구원, 2021, 44-64쪽.
이희은, 「AI는 왜 여성의 목소리인가: 음성인식장치 테크놀로지와 젠더화된 목소리」, 『한국언론정보학보』 제90호, 한국언론정보학회, 2018, 126-153쪽.
이희은, 「기계는 권력의 지도”: AI와 자동화된 불평등」, 『문화과학』 제105호, 문화과학사, 2021, 127-142쪽.
하대청, 「휠체어 탄 인공지능: 자율적 기술에서 상호 의존과 돌봄의 기술로」, 『과학기술학연구』 제19권 2호, 한국과학기술학회, 2019, 169-206쪽.
Alan Turing, “Computing Mchinery and Intelligence,” Mind, 59(236), 1950, pp.433-460.
Alessandra Mularoni, “Feminist Science Interventions in Self-tracking Technoogy,”Catalyst: Feminism, Theory, Technoscience, 7(1), 2021, pp.1-21.
Aphra Kerr, Marguerita Barry and John D. Kelleher, “Expectations of Artificial Intelligence and the Performativity of Ethics: Implications for Communication Governance,” Big Data & Society, 7(1), 2020, pp.1-12.
Arthur Samuel, “Some Studies in Machine Learning Using the Game of Checkers,” IBM Journal of Research and Development, 3(3), 1959, pp.210-229.
Benjamin Wilson, Judy Hoffman and Jamie Morgenstern, “Predictive Inequality in Object Detection,” arXiv, 1902.11097, 2019, pp.1-13.
Frank Engster and Phoebe V. Moore, “The search for (Artificial) Intelligence,”Capitalism. Capital & Class, 44(2), 2020, pp.201-218.
Iyad Rahwan, et.al., “Machine Behaviour,” Nature, 568(7753), 2019, pp.477-486.
Joy Buolamwini and Timnit Gebru, “Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification,” Proceedings of Machine Learning Research, 81, 2018, pp. 77-91.
Luna Dolezal, “Self-tracking, Embodied Differences, and Intersctionality,”Catalyst: Feminism, Theory, Technoscience, 6(1), 2021, pp.1-15.
Michale Szollosy, Living machines in our cultural imagination. in Tony J. Prescott, Nathan Lepora, and Paul F.M.J. Verschure (eds.), Living Machines:A Handbook Of Research In Biomimetic And Biohybrid Systems, Oxford University Press, 2018, pp.578-586.
Mona Sloane and Emmanuel Moss, “AI’s Social Sciences Deficit,” Nature Machine Intelligence, 1(8), 2019, pp.330-331.
Olga Goriunova, “The Digital Subject: People as Data as Persons. Theory, Culture & Society, 36(6), 2019, pp.125-145.
Peter Jackobsson, Anne Kaun and Fredrik Stiernstedt, “Machine Intelligences — An Introduction,” Culture Machine, 2021, pp.1-9.
Richard Barbrook and Andy Cameron, “The California ideology,” Science as Culture, 6(1), 1996, pp.44-72.
Rob Kitchin, “Thinking Critically about and Researching Algorithms,” Information, Communication & Society, 20(1), 2017, pp.14-29.
Tarleton Gillespie, “The relevance of algorithms,” In T . Gillespie, P . J . Boczkowski & K . A . Foot (eds.), Media Technologies, Cambridge, MA:MIT Press, 2014, pp.167-194.
Theo Araujo, Natali Helberger, Sanne Kruikemeir, Claes H. de Vresse, “In AI We Trust? Perceptions about Automated Decision-Making by Artificial Intelligence,” AI & Society, 35(3), 2019, pp.611-623.