만났습니다]①최재식 KAIST 설명가능한 AI 연구센터장
면접 탈락·금리 차별도 설명 가능해야… AI 판단 근거 요구
KAIST, 다양한 모델 적용 가능한 '플러그앤플레이 XAI'개발중
XAI, 온디바이스 AI 실현에 기여
인공지능(AI) 면접에서 탈락했다면 그 이유를 알 수 있어야 하지 않을까. 나와 같은 연봉을 받는 친구보다 높은 금리를 적용받았다면 AI 신용평가 모델이 왜 그렇게 판단했는지 설명을 들을 수 있어야 하지 않을까.
최재식 KAIST 교수(47)는 이처럼 AI의 결정 과정을 사람이 이해할 수 있도록 설명하는 ‘설명가능한 AI(XAI)’ 분야의 선도적 연구자다. 그는 현재 KAIST XAI 연구센터장을 맡고 있다.
XAI는 기존의 블랙박스 형태 AI 모델을 투명하게 만들어 인공지능이 어떻게 판단을 내렸는지 그 근거를 사용자에게 제공하는 기술이다. 이를 통해 AI의 신뢰성과 공정성을 높이는 것이 목적이다.
특히 내년 1월 시행을 앞둔 AI 기본법은 XAI의 중요성을 더욱 부각시킨다. 해당 법에는 △공정하고 투명하며 해석 가능한 알고리즘 사용을 통해 ‘신뢰 가능한 AI’를 개발·활용해야 한다는 조항과 △AI 서비스 제공자가 사용자에게 AI의 의사결정 이유와 과정을 설명할 수 있는 정보를 제공해야 한다는 ‘사용자의 알 권리’ 보장 항목이 포함돼 있다.
AI의 판단이 일상과 삶에 실질적인 영향을 미치는 시대, 그 판단의 근거를 묻고 이해할 수 있는 권리가 이제는 법적으로도 보장받는 방향으로 나아가고 있는 셈이다.
이에 이데일리는 최재식 교수를 만나 XAI의 개발 현황과 적용가능한 분야, 기술의 미래 등을 물었다. 다음은 최재식 교수와의 일문일답이다.
-설명가능한 인공지능(XAI)이란 무엇입니까?
“한마디로 말하면 블랙박스처럼 내부 작동이 보이지 않던 인공지능을 화이트박스로 바꾸는 기술입니다. 마치 방사선 가속기를 이용해 물질의 내부 구조를 들여다보듯 AI 모델의 의사결정 과정을 열어 ‘무슨 일이 일어나는지’ 투명하게 보는 것이죠.”
- AI의 판단을 사람이 이해할 수 있도록 설명하는 것이 실제로 가능할까요?
“사실 나노의 세계도 우리가 직접 눈으로 본 건 아니지만 과학적으로 규명돼 있지 않습니까. AI도 마찬가지입니다. 복잡한 블랙박스 모델이 어떻게 판단했는지를 설명하기 위해 ‘지분율’이라는 개념을 사용할 수 있습니다.
(이하 생략)
기사 전문 확인 (URL 클릭)
[출처] 김현아 기자 | 이데일리
당사 웹사이트에 공유된 모든 보도 자료는 부분적으로 발췌되었습니다. 콘텐츠는 정보 제공의 목적으로만 제공되며 원래 게시자의 재산으로 유지됩니다.
원본 게시자의 허가 없이 공유 콘텐츠를 무단으로 복사, 복제 또는 재배포하는 것은 엄격히 금지됩니다.