인공지능의 위험성(AI Risk)

  • 등록 2024.07.10 15:32:43
크게보기

배광식 칼럼

인공지능(AI)은 빠르게 발전하며 우리 삶의 많은 측면에 혁명을 일으키고 있는 분야로 AI의 능력 향상에 따라 7단계(The 7 Stages of AI)로 나눌 수 있다.


1)규칙 기반 AI 시스템(Rule-Based Systems, 1950년대-1960년대): 인공지능의 초기 형태로, 결정내리기 위해 미리 프로그램된 일련의 규칙에 의존하며, 복잡한 상황이나 새로운 상황들을 다루기에는 한계가 있음.(예: 의료 진단 시스템, 간단한 챗봇). 


2)상황 인식 및 유지 시스템(Context Awareness and Retention Systems, 1960년대-1970년대): 특정영역에 대해 과거 정보를 저장 및 접근할 수 있어, 맥락에 따라 자신의 반응을 조정할 수 있으나, 스스로 학습, 개선할 수 있는 능력 결여됨.(예: 스팸 필터, 초기 체스 게임 프로그램). 


3)도메인별 숙달 시스템(Domain-Specific Mastery Systems, 1970년대-1990년대): 게임 플레이나 패턴 인식 같은 특정 영역에서 탁월할 수 있는 AI 시스템으로, 기계 학습(machine learning) 알고리즘을 사용해 데이터로부터 학습하고 시간이 지남에 따라 성능을 향상시키며, 인간 능력을 넘어섬(예: 딥 블루(chess-playing computer), 안면 인식 소프트웨어). 


4)추론 시스템(Reasoning Systems, 1990년대-현재); 데이터로부터 학습할 수 있을 뿐만 아니라 그 정보를 기반으로, 추론 및 논리적 결론 도출이 가능하고, 제한된 방식으로 계획과 문제해결 가능함(예: 자율 주행 자동차, 일부 의료 진단 시스템). 


5)자기 학습 시스템(Self-Learning Systems, 현재-미래); 명시적 프로그래밍 없이 학습하고 개선할 수 있으며, 데이터에서 패턴과 관계를 식별할 수 있고, 이 지식을 사용해 예측을 하거나 행동을 취할 수 있음(예: 몇 가지 추천 시스템, 이상 탐지 시스템). 


6)인공 일반 지능(Artificial General Intelligence(AGI), 미래): 모든 면에서 인간만큼 지능적인 AI로 인간이 할 수 있는 어떤 지적 과제라도 이해하고 학습할 수 있음(예: 현재 달성되지 않았지만, 공상과학에서 종종 묘사됨). 


7)특이점과 초지능(Singularity and Superintelligence, 미래): 현재 우리 이해를 넘어선 변화를 이끌어내는 훨씬 더 가상적인 초지능 단계는, 모든 면에서 인간 지능을 능가하고, 많은 논쟁의 주제이며, 일부 전문가들은 그것이 인류에게 유익할 것이라 믿고 있고, 다른 전문가들은 그것이 실존적 위협이 될 수 있다고 두려워함(예: 현시점에서 순전히 추측할 뿐).


여기서 주목할 점은 이 단계들은 고정적이지 않고 가변적인 분류이며, 서로 중첩되는 부분도 있고, 또한 각 단계를 달성하기 위한 일정도 불확실하나, 점점 발전에 가속이 붙어 초지능이 머지않고, 이 분류는 AI 개발의 잠재적 궤도를 거시적으로 이해하는 데 유용한 방법이다.


약 1년 반 전인 2022년 말, 자연어 처리에서 주목받는 모델 아키텍처로, 병렬 처리와 attention 메커니즘을 통해 효율적인 학습이 가능한 트랜스포머(Transformer)에 기반한 거대언어모델(LLM)인 챗GPT(Open AI)가 처음 선보일 때만 해도, 많은 전문가들이 질문을 잘 해야 유용한 답변을 얻을 수 있고, 질문(프롬프트)을 작성해주는 직업이 각광을 받을 것으로 예측하였다. 그러나 1년 반이 지난 지금, GPT 4 Turbo, GPT 4 Omni, Gemini(Google) 등이 짧은 기간 내에 출시되었고, 질문이 어눌해도 잘 알아듣고 답변하며, 텍스트 뿐 아니라, 그림, 사진, 음성 등, 시청각을 비롯한 다양한 인터페이스의 입출력이 가능한 멀티 모달(Multi-Modal) AI가 등장하여, 프롬프트 작성 대행이 필요 없게 되었다.


AI는 인류에게 매우 유익할 수도 있지만 위험요소도 고려하고 대비해야 한다. AI를 둘러싼 주요 고려할 점은 다음과 같다. 


1)일자리 이동(Job displacement): 많은 업무가 AI로 인해 자동화됨에 따라 실직과 경제적 혼란이 야기될 수 있다.


2)편견과 차별(Bias and discrimination): AI 시스템이 편견 있는 데이터로 훈련받아 편견을 영구화할 수 있다. 예로 대출 승인 또는 형사 사법에서 차별적인 결과를 야기할 수 있다. 


3)프라이버시 침해(Privacy violations): 무차별적으로 방대한 데이터를 수집 분석하는 AI 시스템은 프라이버시 침해에 대한 우려가 있다.


4)인공지능의 무기화(Weaponization of AI): AI에 의해 구동되는 자율 무기 시스템은 치명적 갈등과 윤리 문제를 야기할 수 있다.


5)초지능으로 인한 실존적 위험(Existential risk from superintelligence): 일부 전문가들은 고도로 발달한 인공지능(초지능, Super Intelligence)이 인간의 통제를 벗어나 인류에 위협이 될 수 있다고 우려한다. 적절한 감독과 통제가 불가능한 첨단 AI는 예측 불가능한 사고를 겪어 인류를 해칠 수도 있고, 인간의 안녕에 반하는 목표에 따라 행동할 수도 있다.


인공지능 안전 분야의 루이빌대(University of Louisville) Roman V. Yampolsky 부교수는 고급 AI의 현존하는 위험을 경고하고, 인공지능의 의도치 않은 위해방지를 위한 안전장치 곧 ‘인공지능 울타리(boxing AI)’에 대한 연구를 주창했다. “인공지능: 설명불가, 예측불가, 통제불가(AI: Unexplainable, Unpredictable, Uncontrollable)”라는 저서에서 그는 AI의 심각한 불가사의성과 AI가 내포한 다양한 문제점들을 탐색했다. 이 책은 지능(intelligence), 의식(consciousness), 가치(values), 지식(knowledge)의 본질을 갖춘 인류가 직면하고 있는 가장 흥미로운 질문들의 특성을 다룬다. 또한 AI 성과물의 예측 불가능성, AI의 결정 판단에 대한 불가해성, 그리고 (인간의) AI 통제력에 대한 복잡한 문제점들에 대해 논의한다. 전반적으로 얌폴스키의 연구는 (AI의) 잠재적 위험을 완화하기 위해 AI의 개발과 배치에 신중한 고려와 선제적 조치가 필요함을 강조한다. 그의 기여는 인공지능 안전과 윤리를 둘러싼 담론을 형성하는 데 중요한 역할을 해왔다.

 


※ 이 글은 본지 편집방향과 다를 수 있습니다.

배광식 서울대 치의학대학원 명예교수
Copyright @2013 치의신보 Corp. All rights reserved.





주소 : 서울시 성동구 광나루로 257(송정동) 대한치과의사협회 회관 3층 | 등록번호 : 서울, 아52234 | 등록일자 : 2019.03.25 | 발행인 박태근 | 편집인 이석초 대표전화 : 02-2024-9200 | FAX : 02-468-4653 | 편집국 02-2024-9210 | 광고관리국 02-2024-9290 | Copyright © 치의신보. All rights reserved.