Notice
Recent Posts
Recent Comments
Link
«   2025/05   »
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
Archives
Today
Total
관리 메뉴

악어새와 좀개구리밥

무자비한 알고리즘 (왜 인공지능에도 윤리가 필요할까) 본문

독서 기록

무자비한 알고리즘 (왜 인공지능에도 윤리가 필요할까)

tiobi 2021. 10. 23. 20:48
728x90

"기계에 윤리 가치를 이해시키는 것이 가능할까?"

얼마 전에 이루다라는 이름을 가진 챗봇이 학습 과정에서 무단으로 수집한, 개인정보가 포함되어있는 카카오톡 데이터를 활용하고, 채팅 과정에서 혐오적인 표현을 사용했다는 이유로 이용이 중지된 일이 있었다. 이 사건은 우리나라 사람들에게 인공지능의 윤리 의식에 대한 관심을 갖게 해 주었다. 인공지능은 윤리적인 책임을 질 필요가 있는가? 아니라면 누구에게 책임이 있는가? 인공지능을 개발한 사람인가, 데이터를 제공한 사람인가?

5년 전만 하더라고 인공지능이라고 하면 울트론이나 터미네이터를 상상한 사람이 많았을 것이라고 생각한다. 인공지능이 어떠한 계기로 인간에게 적대적이게 되면 인간은 멸망할 수 있다는 소재는 SF 영화 단골이다. 그런데 요즘에는 이렇게 상상하는 사람이 많지 않을 것이라고 생각한다. 이미 생활 속에 인공지능이라는 단어가 깊숙하게 들어와서(일부 기업은 인공지능을 마케팅 용어로만 사용하는데, 이 경우는 제외하고 보겠다) 사람들은 인공지능이 "사람 대신 판단해주는 프로그램" 정도로 인식하고 있는 것 같다. 따라서 인공지능이 인간을 공격하거나 한다는 이야기는 사람들의 기억 속에만 남아있다.

그런데 이루다 같은 경우가 새로운 문제로 부상했다. 사실 해외에는 이미 이런 사례가 많은데, 페이스북이나 트위터에서 자동으로 글을 올리고 사람들의 말에 반응하는 챗봇들은 대부분 등장과 함께 많은 이목을 끌고, 어떤 좋지 않은 이유로, 예를 들어 혐오 표현을 한다거나 인간이 알아들을 수 없는 언어로 인공지능끼리 대화하는 경우 같은, 금방 소셜미디어에서 사라지는 경우가 잦았다. 

이제 인간 생명을 위협하는 경우는 없다고 가정하고, 인공지능이 인간의 존엄성에 피해를 줄 때 누군가가 책임을 져야 하고, 이런 일이 애초에 발생하지 않도록 노력을 해야 한다. 그리고 그 일은 인공지능 개발에 참여하는 많은 사람들의 노력으로만 이루어질 수 있다. 데이터 수집, 선별, 정제 과정에서, 인공지능 학습 과정과 상품 배포 과정에서 사람들을 최대한 차별과 혐오를 배제해야 한다. 현재까지 인공지능은 큰 법적 제재 없이 성장할 수 있었다. 이제는 인공지능 개발자들이 인공지능에 윤리의식을 투입하는 선제적인 노력을 해야 할 것이다. 

Comments