close
PRESS
챗GPT 이후 '설명가능한 AI' 더 중요해져
Date 2023.2.14.View 656

챗GPT 답변 오류 개선, 설명가능한 AI로 가능

"챗GPT 출시 이후 '설명가능한 AI'가 더 중요해졌습니다. 사람은 챗GPT가 왜 정답・오류를 냈는지 모두 파악할 수 없습니다. 앞으로 인간은 설명가능한 AI로 알고리즘 결과를 검증, 개선하는 과정을 꾸준히 거쳐야합니다." 


카이스트 최재식 김재철AI대학원 교수는 14일 서울JW메리어트호텔에서 열린 '제 27회 지능정보산업협회(AIIA) 조찬 포럼'에서 "챗GPT 등 AI 결과에 오류, 편향성 등을 없애려면 설명가능한 AI를 적극 활용해야 한다"고 강조했다. 설명가능한 AI란, 알고리즘이 결과를 내놨는지에 대한 이유·과정을 설명하는 프로세스다. 이 기술은 알고리즘에 들어간 데이터셋을 비롯해 사용 빈도 비율, AI 모델 등을 수치화해 제공한다. 챗GPT는 딥러닝 알고리즘을 거쳐 사용자에게 답한다. 답은 맞을 수도 있고, 틀릴 수도 있다. 인간은 챗GPT가 어떻게 정답을 말할 수 있는지, 왜 틀린 답을 하는지 모두 잡아낼 수 없다. 

최교수는 "인간은 챗GPT의 모든 AI 알고리즘 과정・원리를 파악할 수 없다"고 강조했다. AI 알고리즘 기술 검증은 사람 능력 밖의 영역이라서다. 이에 최 교수는 "설명가능한 AI"를 통해 AI 알고리즘을 분석할 수 있다"고 강조했다. 사람이 검증할 수 없는 부분을 소프트웨어 도구로 볼 수 있다는 의미다. 그는 설명가능한 AI가 필요한 이유를 설명했다. AI는 기존에 있던 기술보다 더 복잡하다고 했다. 최 교수는 "자동차, 휴대전화 등 기존 기술은 단순하게 작동했다"며 사용자는 기기 원리나 결과를 한눈에 파악할 수 있었다"고 말했다.

예를 들어 사람이 핸드폰에 번호를 누르면 통화할 수 있다. 통화가 되지 않으면 전화기가 고장 났다는 사실도 바로 인지한다. 사람은 이 원리를 잘 알고 있어서다. 최 교수는 "반면 AI 기술은 예상치 못한 결과를 내거나 정체 모를 오류를 만든다"고 설명했다. 또 "사람은 AI 시스템 안에서 무슨 일이 벌어지고 있는지, 왜 이런 결과를 냈는지 한 눈에 볼 수 없다"고 덧붙였다. 그는 "사람은 AI에 끊임없이 질문해야 한다"며 "이를 통해 알고리즘을 검증하고 개선해 효율성을 높여야 한다"고 밝혔다.

최재식 교수는 "챗GPT 등 AI가 내놓는 답에 어떤 부분이 틀렸는지, 어떻게 고칠 수 있는지 중요해질 것"이라며 "앞으로 설명가능한 AI는 계속 필요하게 될 것이다"고 예측했다.

이번 행사는 지능정보산업협회(AIIA)와 지능정보기술포럼이 주최하고 지디넷코리아와 매일경제, 테크42가 후원했다.