close
PRESS
[AIF2024] 최재식 카이스트 교수 “AI 기술, 소비자 입장에서 안정성 더 고민해야”
작성일 2024.9.12조회수 391

“‘거짓 답변’ 문제 해결, AI 기술 신뢰성에 굉장히 중요한 문제”
“생명과 재산에 중요한 영향을 미치는 AI 기술은 안전이 가장 중요”

 

[시사저널e=김희진 기자] “사람의 생명과 재산에 중요한 영향을 미치는 인공지능(AI) 서비스는 안전이 매우 중요하다고 생각한다. 소비자 입장에서 AI의 안전성을 더 고민해야 한다.”

최재식 카이스트 김재철AI 대학원 교수는 12일 시사저널e 주최로 서울 용산구 그랜드 하얏트 호텔에서 열린 ‘인공지능포럼(AIF) 2024’에서 ‘생성형 인공지능을 안전하게 사용하는 기술’을 주제로 기조연설을 진행하며 이같이 말했다.

최재식 교수는 먼저 생성형 AI 기술의 전 세계에 미치는 경제적 효과가 매우 크다는 점을 역설했다. 최 교수는 “2017년부터 성장해 온 인공지능의 경제적 효과가 2030년까지 15조7000억달러에 이를 것으로 추산된다”면서 “이는 우리나라 GDP의 약 8배 수준이며 전 세계 GDP의 15%가량에 영향을 미칠 것으로 예상하고 있다”고 전했다.

최 교수는 AI 기술 발전이 다양한 영역에서 이뤄지고 있다고 설명했다. 그는 “AI의 발전이 꼭 강화학습과 생성형 AI에서만 일어났던 건 아니다”라며 “약 20년 전인 2004년 미국 방위고등연구계획국(DARPA)의 자율주행차 경주 대회인 ‘그랜드 챌린지’ 이후 지금은 자동차 자율주행 기술이 활성화됐고 2016년에도 알파고 이세돌 대국이 있었지만 그때 전후로 이미지 인식 성능 기능이 많이 좋아졌다”고 말했다.

이어 “2019년 전후로는 데이터를 토대로 사람들에게 무엇을 광고하고 얼마에 팔지를 예상하는 디지털 마케팅에 AI 기술을 적용해 활용하는 비중이 많이 늘었다”고 덧붙였다.

이처럼 다양한 분야에 AI가 활용되며 생성형 AI 기술의 중요성이 커지고 있지만 최 교수는 생성형 AI의 ‘거짓 답변’ 문제는 아직 해결해야 할 과제라고 지적했다.

그는 “거짓 답변이라는 건 우리가 질문한 것에 대해 AI가 답을 줬을 때 그 답이 실제로는 존재하지 않는 경우”라며 “거짓 답변을 해결할 수 있느냐가 신뢰성에 굉장히 중요한 문제”라고 강조했다.

그러면서 “거짓 답변이 왜 일어나는지, 만약 일어났다면 어떻게 고칠 수 있는지 방법을 찾기 위해 AI 모델의 내부를 좀 더 잘 이해하는 것이 앞으로 계속 중요해질 예정”이라고 말했다.

최 교수는 AI 기술 최적화에 있어서 가장 중요한 축 중 하나가 AI의 신뢰성이라고 말했다.

그는 “AI 모델과 사람의 실수 확률이 0.1%로 동일하더라도 AI는 사람이 처리하는 과정보다 10배, 100배 더 많은 처리 과정을 수행할 수 있기 때문에 실수 가능성이 0.1%로 똑같다고 해도 단위 시간당 실수가 10배, 100배 더 증가할 수 있다”며 “때문에 AI 모델은 중요한 작업에 적용할 때 사람보다 실수가 더 적어야 한다고 생각한다”고 말했다.

마지막으로 최 교수는 AI 기술을 도입하려는 회사들이 안전에 대한 책임감을 가져야 한다고 강조했다.

그는 “어떤 AI 회사가 자율주행 대규모 언어 모델(LLM) 기술로 자율주행 자동차를 만들었다고 발표했을 때 그 자율주행차를 선뜻 탈 사람은 없을 것”이라면서 “사람의 생명과 재산에 중요한 영향을 미치는 AI 기술은 안전이 가장 중요하며, 회사는 이에 대해 책임감을 가져야 한다고 생각한다”고 말했다.

이어 “회사에서 AI 기술을 도입하려면 그 기술이 얼마나 정확하고 안전하며 믿을 수 있는지, 그리고 설명 가능하면서도 문제가 생겼을 때 고칠 수 있는지를 생각해봐야 한다”고 부연했다.

출처 : 시사저널e(https://www.sisajournal-e.com)