본문 바로가기

연구보고서

경기도의 정책방향 및 대안 수립을 위한 기본연구 · 정책연구 · 수탁연구 · 기타연구에 대한 연구자료 입니다.

인공지능의 윤리적 쟁점에 관한 탐색적 연구

인공지능의 윤리적 쟁점에 관한 탐색적 연구

과제분류정책연구

발행연도2022

보고서 번호2022-06

저자배영임, 김유나

원문
국문요약
영문 요약

인공지능의 자율성과 권한이 확대됨에 따라 의사결정 결과에 대한 위험성이 증가할 것이라는 우려가 제기되고 있다. 윤리적 판단 기준은 개인의 특성과 상황적인 요인 등 복합적인 요인에 의해 가변적일 수 있다. 이렇게 모호한 윤리 기준을 인공지능 알고리즘에 어떻게 적용하여 인간에게 이로운 기술로 활용할 수 있을지에 대한 고민이 필요한 시점이다. 이에 본 연구에서는 인공지능 윤리에 관한 선행연구와 사례를 조사하고 국내외 정부와 기업들의 대응 노력을 정리하였다. 또한 인공지능 제품과 서비스의 수요자인 시민들이 윤리적 문제를 어떻게 인식하고 대응 필요성을 느끼는지를 설문조사를 통해 분석하였다.
2장에서는 우선 인공지능 윤리의 개념과 필요성에 관한 선행연구를 조사하였다. 인공지능은 1956년 ‘인공지능’이라는 정식명칭으로 등장한 이후 지금까지 인간과 경쟁하면서 발전해왔으며 최근에는 기술의 발전과 함께 윤리적 개념의 필요성에 대해 연구가 진행되고 있다. 인공지능이 사람의 통제를 벗어나 자율적인 학습과 의사결정 권한을 갖게 됨에 따라 인간을 지배할 수도 있다는 위기감과 문제가 발생했을 때 책임 공백을 어떻게 해결할 것인지에 대한 연구가 진행되고 있다. 하지만 인공지능 윤리에 관한 선행연구는 아직 시작 단계로 충분하지 않고 개념과 특성, 이슈를 제기하는 데 머물러 있는 상황이다. 최근에 불거지고 있는 인공지능 윤리적 이슈 사례를 조사했는데 챗봇 ‘이루다’의 성희롱 발언, 사회적 약자에 대한 혐오 발언이 대표적이다. 이외에도 딥페이크 기술의 오남용, 채용시스템과 범죄예측 프로그램의 성차별 및 인종차별 문제, 자율주행차의 딜레마 문제 등이 사회적 이슈로 대두되고 있다.
3장에서는 국내외 주요국과 기업들의 인공지능 윤리 대응 현황을 살펴보았다. 유럽, 미국, 일본, 영국, 한국 등 여러 국가들이 윤리 가이드라인을 수립하고 정책을 추진 중이다. 또한 글로벌 빅테크 기업들을 중심으로 민간 자율 규제를 만들고 기술적 해결방안을 모색 중이다. 여기에서 주목할 점은 인공지능 윤리 대응을 제도적 관점에서만 바라보는 것이 아니라 기술적 관점에서도 접근하고 있다는 점인데 알고리즘의 편향성 문제를 해결하거나 차별과 혐오 발언을 탐지해 제거하는 등 다양한 기술적 대응 노력이 그것이다. 인공지능 윤리 문제 대응은 기술・비기술 관점에서 종합적으로 접근해야 하며 정부와 함께 민간기업이 적극적으로 참여해 해결해 나가야 할 것이다.
4장에서는 전국 1,000명의 시민을 대상으로 인공지능 윤리 인식조사를 실시하였다. 응답자들은 인공지능 기술이 일상생활을 편리하게 해주는 유용한 기술이라고 인식하고 있으며 대체로 신뢰하지만 일부 응답자들은 인공지능 알고리즘의 불확실성과 개인정보 침해 위험 때문에 신뢰하지 않는다고 답변했다. 인공지능 윤리 문제에 대해서는 현재도 심각하다고 우려하고 있으며 미래에는 지금보다 더 심각해질 것이라고 예상하는 것으로 나타났다. 윤리 문제에서 가장 우려되는 요인은 개인정보 침해 문제와 문제 발생 시 책임소재 문제, 인공지능의 오남용이라고 응답했는데 이는 인공지능이 개인의 일상에 깊이 관여하고 있으며 잘못 사용되거나 문제가 발생할 경우 책임 공백에 대한 우려를 의미한다. 정부가 발표한 인공지능 윤리기준에 대한 우선순위를 조사한 결과, 인간존엄성의 원칙이 가장 우선되어야 하며 인권을 보장하는 방향으로 인공지능이 개발되어야 한다고 응답했다. 인공지능 신뢰성 실현방안으로는 제도화보다 신뢰성 확보를 위한 기술개발이 가장 중요하다고 응답했으며 인공지능 개발 전 단계에 걸쳐 민간기업의 역할보다 정부와 공공의 역할이 중요하다고 응답했다.
본 연구의 결과를 종합할 때 다음의 정책적 시사점을 도출할 수 있다. 첫째, 인공지능 신뢰성 확보를 위한 기술개발 투자를 확대해야 한다. 둘째, 인공지능 윤리 대응을 위해 정부와 공공기관, 민간기업, 시민 단체 등 관련 이해관계자와의 협의체를 운영해야 한다. 셋째, 인공지능 라이프 사이클 단계별 대응 매뉴얼을 구체화하고 문제 발생 시 책임소재를 명확히 해야 한다. 넷째, 지역별 인공지능 윤리 혁신센터 구축・운영이 필요하다.

배영임의 다른 보고서

현재 열람하신 페이지에서 제공된 정보에 만족하십니까?

  • 관리부서 성과확산부
  • 담당자 박성미
  • 전화번호 031-250-3261
  • Email