www.youtube.com/watch?v=oMAFCG-pGg4
* SNU 봄학기 AI 콜로퀴움 강의인 서울대학교 법학전문대학원 고학수 교수님의 강의 - 인공지능 시대, 인공지능 윤리를 듣고 요약 및 짧은 소감을 적은 글 입니다.
아마존의 검색 알고리즘, 유투브, 넷플릭스 등 다양한 추천 알고리즘에서 편향이라는 주제가 화두가 되면서 인공지능 윤리에 대한 관심이 커지고 있다. 실제로 국제 인공지능 학회에서도 ‘Ethics’ 키워드가 등장하는 빈도가 2017년을 기준으로 폭발적으로 증가하고 있다. 국내의 상황 역시, 올 초 AI 채팅봇인 ‘이루다’에 관한 이슈에 일어나면서 인공지능 윤리에 대한 관심이 높아지고 있다. 인공지능 윤리란, 단순 일상용어로서의 윤리를 넘어서서 법학적인 규제를 포함하며 공학적인 측면 역시 다뤄야 하기 때문에 그 논의 진행되기 쉽지 않다. 하여 아직까지는 인공지능의 윤리에 대한 논의가 자연어 처리 분야에서만 활성화되고 있는 상황이다. 그 조차도 국제 사회에서의 자연어처리에 관한 이슈는 “영어”를 사용하는 미국사회를 기준으로 논의되고 있기에, 국제적으로도, 국내에서도 논의가 더욱 활성화되어야 할 필요성이 대두된다.
강연에서 다룬 인공지능을 활용한 의사결정 사례와 이슈의 자세한 현황에 대해 알아보자면, 신용평가를 대표적인 예시로 들 수 있다. 현대사회는 다양한 데이터를 활용하여 전통적인 신용평가와는 사뭇 다른 측면의 신용 점수를 만들어 사용한다. 이는 집을 구매한 이력, 직장이력등과 같이 일반적인 정보부터 웹 브라우징 기록, SNS 사용기록 등 신용평가와는 다소 거리가 멀어보이는 일상적인 정보까지 포함하는 경우가 있다. 하지만 이러한 메타 데이터의 활용이 같은 경제활동을 하는 부부의 신용카드 한도가 20배 차이나게 배정하는 사례를 만들기도 한다. 이에 대해 카드사는 성별은 카드 한도 제한 등의 신용평가 데이터로 사용되지 않는다고 변론하였으나, 성차별 논란으로 꽤나 이슈가 되었던 사례였다.
이러한 이슈들에 대해 우리는 “편향성이 무엇인가”를 신중히 고민해야 한다. 현대사회는 어느 분야에서나 편향성을 지니고 있고, 이를 데이터의 산물인 인공지능이 고스란히 흡수하는 것은 막을 수 없다. 다만, 편향성이라는 것은 결국 차별이 될 수 있다는 점을 늘 주시해야 한다. 무턱대고 편향성을 줄이기 위해 데이터를 가공하다가는 데이터 자체의 신뢰도를 떨어트리는 문제를 직면하게 되기 때문에, 이는 생각보다도 복잡한 문제이다. 어떤 편향성을 문제 삼을지, 어떠한 기준으로 문제 삼을지 역시 여러 가치관의 충돌을 야기하는 문제가 된다. 따라서 우리는 편향에 대해 주의 깊게 주시하며 여러 가치관과 윤리성에 부합하는 인공지능을 만들어 가기 위해 각고의 노력을 기울여야 한다.
'기타 - 개인의견정리' 카테고리의 다른 글
[기타] 교육 or 학습에 대한 짧은 메모 (0) | 2023.09.10 |
---|---|
[chatGPT] chatGPT 열풍에 대한 사견 (1) | 2023.02.18 |