<The New York Times>에 오랫동안 연재되고 있는 칼럼으로 “The Ethicist”가 있습니다. 현재 뉴욕대학교 철학과 교수인 윤리학자 콰매 앤터니 애피아가 맡은 이 칼럼은 독자가 보내는 윤리 관련 질문에 윤리학자가 답하는 방식으로 꾸려지고 있습니다. 치의신보에서 매월 1회 의료윤리 주제로 같은 형식 코너를 운영해 치과계 현안에서부터 치과 의료인이 겪는 고민까지 다뤄보려 합니다.<편집자주>
김준혁 치과의사·의료윤리학자
약력
연세대학교 치과대학 졸, 동병원 소아치과 수련.
펜실베이니아대학교 의과대학 의료윤리 및 건강정책 교실 생명윤리 석사.
연세치대 치의학교육학교실 교수
저서 <누구를 어떻게 살릴 것인가>(2018),
역서 <의료인문학과 의학 교육>(2018) 등.
관심을 가지고 보는 분야라 지난번에 챗GPT의 교육 활용에 관한 글 잘 보았습니다. 생각하다 보니, 이런 챗봇 같은 인공지능이 지닌 윤리적 문제는 무엇인지 궁금해졌습니다. 구분해서 살펴볼 필요가 있는 부분일 것 같은데, 어떻게 보시는지요? 익명
살펴 주심에 감사드립니다. 말씀 주신 것처럼, 지난번에 챗GPT(ChatGPT)와 교육에 관한 내용만 다루고 윤리적 고려사항을 언급하지 않았습니다. 하지만, 여러 선생님들께서 걱정하시는 부분이라고 생각합니다. 이런 인공지능 기술, 나와 우리에게 위험한 것은 아닌지 말이죠. 물론 인공지능 일반에 대해서도 여러 가지 생각을 할 수 있지만, 최근 화제인 생성형 인공지능에 한정하여 윤리적 문제를 이야기해 볼 필요도 있겠다는 생각이 듭니다. 그림을 만들어 내는 미드저니(Midjourney)나 달리(Dall-E), 글을 만들어 내는 챗GPT는 모두 생성형 인공지능에 속하는데, 이들의 결과물이 이미 우리 사회에 영향을 미치고 있기 때문에 그렇죠. 이런 기술이 꼭 치의학에만 한정하여 문제를 일으키지는 않지만, 전문직으로서 우리는 이런 문제에 관심을 기울일 필요가 있어 보여요. 몇 가지만 같이 살펴보실까요?
첫째, 가짜 정보의 문제입니다. 혹시 미국 전 대통령이 감옥에 갇힌 사진을 인터넷에서 보신 적이 있는지요? 러시아 대통령이 군인들에게 끌려가는 사진은요? 모두 생성형 인공지능이 만들어 낸 가짜 이미지입니다. 이런 일이 벌어지지 않았음에도 그럴듯한 사진을 만들어 제시하는 인공지능의 힘은 이미 우리의 사실 판단에 충분히 영향을 미치고 있습니다. 인공지능 발전을 제한해야 한다는 전문가들의 주장은 자아를 가진 인공지능이 출현하여 인간을 지배할 것을 염려해서라기보다는 (물론, 이런 주장을 하는 이들도 있긴 합니다만) 이미 인간의 판단력에 혼란을 가져오고 좋은 결정을 저해할 수 있을 만큼 성장한 인공지능에 재갈을 물려야 한다는 주장으로 이해할 필요가 있지요.
미국은 이미 내년에 있을 대선에 생성형 인공지능이 미칠 영향을 우려하고 있는 상황입니다. 매우 현실적이지만 거짓된 이미지와 복제된 목소리가 특정 정치인에게 유리하거나 해로운 방식으로 인터넷 공간에서 퍼지는 것을 막을 방법이 있을까요. 우리나라도 내년에 국회의원 선거가 있는데, 결과에 생성형 인공지능이 영향을 미치리라는 우려를 지우기 어렵습니다. 이런 거짓 이미지나 음성의 생성자가 인공지능이라면 우리는 이전처럼 제작자를 처벌하는 방식으로 접근하기는 어렵게 되지요.
호소할 수 있는 방법은 거짓 정보 유포의 차단입니다만, 이미 메신저나 소셜미디어를 통해 여러 정보가 유포되는 상황에서 잘 알 수 있는 것처럼 법적으로 이것을 막기에는 어려움이 있을 것으로 보입니다. 따라서 개개인이 거짓 정보를 분별하고, 유통되는 거짓 정보를 신고하고 차단할 수 있는 능력을 갖춰야 할 필요성이 대두됩니다. 잘 아시는 것처럼, 이것이 윤리가 작동하는 방식의 하나지요.
둘째, 편향의 문제입니다. 생성형 인공지능은 이미 우리 사회가 가지고 있는 고정 관념이나 편견을 따라 이미지나 글을 생성합니다. 이것은 우리가 대상에 대해 가지고 있는 왜곡된 생각들이 확대 재생산되는 결과로 이어집니다. 생성형 인공지능은 직업에 대해 우리가 가지고 있는 인종적 편견을 반복하는 이미지를 만들거나, 소수자 집단에 부정적인 견해를 표명하는 글을 생산할 수 있습니다.
편향을 다루기 위해 개발자와 연구자도 노력을 기울여야 합니다. 인공지능 알고리즘이나 그 기반 데이터가 편향을 지니고 있음을 알고 보상하기 위한 기술적 방법들을 적용하는 것이나, 기초 데이터 수집 단계에서 편향을 보이는 내용들에 개입하는 것이 그 예가 됩니다. 그러나, 이렇게 하는 데에는 한계가 있습니다. 예를 들어, 모 회사에서 여대생처럼 대화하는 챗봇을 출시했다가 개인정보 유출과 자료 활용의 부적절한 동의 과정이 문제가 되어 서비스를 중단한 적이 있었지요. 새로 나온 챗봇은 논란이 될 만한 데이터를 거의 다 제거한 다음 훈련시켜 만든 것인데, 사용자들의 평가에 따르면 이전보다 답변의 질이 떨어진다고 합니다. 즉, 편향 등을 다루기 위해 기초 데이터를 제거하다 보면, 인공지능의 질 보장이 안 되는 문제가 발생할 수 있게 됩니다.
따라서, 개발자 및 연구자의 노력에 더하여 사용자의 인식도 중요합니다. 인공지능이 만들어 낸 이미지나 글이 기존의 편견을 그대로 재현하고 있을 수 있음을 기억하고 그 결과물을 활용해야 한다는 것이죠. 편견은 그대로 차별로 이어지며, 우리는 역사를 통해 특정 집단에 대한 불합리한 차별이 어떤 결과를 낳았는지 지켜봐 왔습니다. 인공지능이 그 불행한 역사를 반복하는 도구가 되지 않을 수 있도록 우리 또한 준비되어 있어야 합니다.
개인정보의 문제나 과도한 의존의 문제, 투명성의 결핍 또한 생성형 인공지능이 가진 문제로 거론됩니다만, 지면상 가짜 정보와 편향의 문제만 다루고자 합니다. 이런 문제가 인공지능 일반의 금지로 이어지기 전에, 효과적으로 활용하면서도 피해를 불러일으키지 않도록 모두의 관심이 필요할 때인 것 같아요.
잠깐, 이런 내용과 치과의사가 무슨 상관이냐고 생각하실 수 있을 것 같습니다. 일반적인 내용이라 교양으로 알아두면 좋겠지만 치과와는 무관한 일이라고 느껴지실 것 같아요. 그렇지 않다는 것을 이야기하며 이 글을 마무리하려 합니다. 가짜 정보, 정치인의 예만 들었지만 다분히 치과 광고나 비난에 활용될 수 있음은 쉽게 떠올리실 수 있을 겁니다. 이전 치과계 전체를 비난하던 모 선생님이나 특정 치과 네트워크가 이런 도구를 활용한다면, 그 피해는 더 쉽게 확산할 수도 있지요. 치과 또한 데이터 수집과 인공지능 활용의 장소로서, 편향의 문제를 경시할 수 없습니다. 진단이나 치료 결과와 같이 치과에서 생성되는 데이터에 편견이 반영되기에, 데이터 생산자로서 치과의사 개인 및 병·의원 또한 이에 주의를 기울일 필요가 있습니다. 더하여, 내가 보고 있는 이미지나 글에 구강 건강과 관련한 편향이 표출되어 있는지 확인하고 알려주는 일은 치과의사만이 할 수 있는 일이겠지요.
▶▶▶선생님이 진료하시거나 치과의사로 생활하시면서 가지셨던 윤리와 관련한 질문을 기다립니다.
dentalethicist@gmail.com으로 보내주십시오.