close
PRESS
최재식 KAIST 교수, AI도 사람처럼 실수…왜 틀렸는지 설명할 수 있어야죠
작성일 2025.12.1조회수 67

설명가능AI(XAI) 분야 국내 대표 석학 최재식 KAIST 교수

'환각' 부작용 줄이려면 AI가 판단 배경 설명해야
사고 때 책임소재 규명하고 정확·안전성 높이는 핵심 열쇠


 

“업데이트 이후 환각(AI가 잘못된 정보를 사실처럼 꾸며내는 현상)이 심해졌어요.”

 

최근 생성형 인공지능(AI)을 쓰는 사용자 사이에서 종종 들리는 불만이다. 생성 AI가 일상 깊숙이 들어온 뒤 사람들이 갖는 불안은 단순하다. AI가 하는 말을 믿을 수 있을까.

 

최재식 KAIST 김재철AI대학원 교수(사진)는 1일 “틀리는 것 자체보다 왜 그렇게 판단했는지 설명할 수 있어야 한다”고 말했다. AI가 진화를 거듭할수록 더 똑똑한 AI가 아니라 ‘설명 가능한 AI’가 더 중요해질 것이란 해석이다.

최 교수는 설명 가능 인공지능(XAI) 분야에서 한국을 대표하는 석학이다. 국내에 XAI 개념이 거의 알려지지 않은 시기부터 이 분야를 본격적으로 연구·도입하며 한국 AI 연구 생태계에 설명 가능성 개념이 확산하는 데 결정적 영향을 미친 인물이다. 2017년부터 KAIST 설명가능AI(XAI) 연구센터를 이끌며 국내 AI 신뢰성·투명성 연구의 중심 역할을 하고 있다. 또 구글코리아의 ‘책임감 있는 AI포럼’ 의장을 맡아 지난 2년간 산업·법률·기술 전문가들과 정기적으로 정책과 기술 간 간극을 좁히는 데 힘써왔다.

최 교수는 “XAI가 산업 현장에서 ‘돈 되는 AI’의 필수 조건으로 떠오르고 있다”고 강조했다. 그는 “우려와 달리 일부 에이전트를 활용하는 방식으로 환각 현상을 많이 줄일 수 있다”고 했다. 일정 범위 안에서만 답을 찾도록 하는 식으로 AI가 없는 내용을 지어내는 오류는 얼마든지 줄일 수 있다고 설명했다. 예컨대 구글의 ‘책임감 있는 생성형AI 툴키트’는 AI가 통제된 환경에서만 답변을 생성하도록 유도해 환각 현상을 예방한다.

 

 

 

(이하 생략)

 

 

 

기사 전문 확인 (URL 클릭)

 

[출처] 이영애 기자 |  한국경제  


당사 웹사이트에 공유된 모든 보도 자료는 부분적으로 발췌되었습니다. 콘텐츠는 정보 제공의 목적으로만 제공되며 원래 게시자의 재산으로 유지됩니다.

원본 게시자의 허가 없이 공유 콘텐츠를 무단으로 복사, 복제 또는 재배포하는 것은 엄격히 금지됩니다.