close
PRESS
따라잡기 어려운 ‘공룡’의 발걸음…‘한국형 챗GPT’ 성공의 조건
작성일 2023.02.15.조회수 369

네이버·SKT 등 연내 서비스 출시 계획…개인정보·자금·신뢰성 등 선결 과제 많아


[일요신문] '챗(Chat)GPT' 열풍이 뜨거운 가운데 국내 기업의 움직임이 주목을 받는다. 챗GPT는 출시 두 달 만에 월 사용자가 1억 명을 돌파했다. 구글도 이 독주를 저지하지 못했다. 챗GPT에 맞서 선보인 최근 인공지능(AI) 챗봇 ‘바드’ 시연회에서 오류가 드러나면서 망신을 당했다. 구글의 주가는 폭락했고 이틀 사이 시가총액은 150조 원이 증발했다. 국내 기업들도 부랴부랴 비슷한 인공지능 모델을 출시하기 위해 박차를 가하는 중이다. 하지만 글로벌 빅테크와의 경쟁에서 쉽사리 우위를 차지하기는 쉽지 않을 전망이다. 


#오픈AI 따라잡을 수 있을까

네이버가 4분기 실적 발표 컨퍼런스 콜에서 올해 상반기 중 챗GPT와 같은 생성AI인 ‘서치GPT’를 내놓겠다고 밝혔다. SK텔레콤은 기존 AI 비서인 ‘에이닷’에 챗GPT를 접목한 모델을 출시할 계획이며  KT와 카카오는 역시 각각 ‘믿음’과 ‘코GPT’ 출시에 박차를 가하고 있다. 모두 연내 출시를 장담하고 있다. 하지만 선결 과제가 상당할 전망이다. 

챗GPT의 언어 기반 모델인 ‘GPT 3.5’은 기존 모델인 GPT 3.0에 강화학습을 적용해 업그레이드한 모델이다. 오픈AI는 챗GPT가 내놓는 복수의 답변에 사람이 일일이 점수를 매겨 선호도를 반영하게끔 학습시켰다. 무수한 반복 학습을 통해 마치 실제 사람이 대답을 하는 듯한 결과가 나오게 된 것이 이전 모델과의 가장 결정적인 차이점이다. 문제는 이 강화학습이 대규모 인원을 동원해 장기간 매진해야 하는 작업이라는 점이다. 오픈AI도 다수의 영어 사용자를 동원해 1년의 기간을 소요한 만큼 국내 기업들이 단기간에 비슷한 모델을 만들기 쉽지 않으리라는 분석이 나온다.

데이터 수집 이슈도 장차 걸림돌이 될 수 있다. 오픈AI 역시 수집한 데이터의 출처가 불분명한 까닭에 최근 미국에서 소송 움직임이 일고 있는 실정이다. 특히 국내는 기준이 더 엄격하다. 장준혁 한양대 융합전자공학부 교수는 “우리나라는 개인정보보호법이 엄격해서 남의 데이터를 함부로 끌어오면 바로 법적 이슈로 번질 수 있다. 정부가 규제를 풀어줘야 하는데 이것만 해도 상당한 시간이 소요된다”라고 말했다.

게다가 이미 챗GPT를 출시한 오픈AI가 시장을 선점하고 있는 상황은 큰 부담으로 작용할 수밖에 없다. 1억 명의 사용자가 챗GPT를 이용하고 있는 만큼 엄청난 양의 데이터가 빠른 속도로 축적되고 있기 때문이다. 웬만한 성능의 모델을 내놓아도 비교될 수밖에 없는 상황이라는 지적이 나온다. 장준혁 교수는 “구글도 부랴부랴 인공지능 챗봇을 선보였지만 결국 얼마나 모자란지만 자랑한 셈이 됐다. 오픈AI가 선점효과를 누릴 상황에서 국내 기업들도 시장에 어떻게 치고 들어갈지 고민할 수밖에 없다”고 말했다.

글로벌한 범용 AI를 만들어 겨루기엔 역부족인 만큼 국내 기업들은 국내 시장을 집중적으로 타기팅할 것으로 전망된다. 챗GPT가 방대한 데이터를 학습하긴 했지만 상대적으로 한국어 데이터에 대한 학습량이 모자라기 때문에 국내 기업들이 이 부분에서 특화된 모델을 만들어낼 여지가 있다는 것이다. IT업계 한 관계자는 “결국은 얼마나 잘 통용되는 한국형 모델을 만드느냐가 이슈일 거 같다. 검색어 싸움에서 구글보다 네이버가 한국에서 잘 먹히는 것처럼 국내 데이터만 놓고 보면 경쟁력이 생길 수 있다”고 말했다.

문제는 자금과 인력이 만만치 않게 소요될 것으로 전망된다는 점이다. 김선주 연세대 인공지능학과 교수는 “챗GPT를 학습하는 데 2시간에 대략 10억 원씩 들어간다는 얘기도 나온다. 그만한 자본력을 갖춰야 시작할 수 있는 싸움이고 초거대 모델 학습을 잘하는 전문가들을 이 회사들에서 충분히 확보하고 있어야 한다”고 분석했다. 


#'거짓말 한다'…부각되는 '신뢰'의 문제   

기술적으로 넘어서야 할 산도 있다. 바로 정보를 단순히 나열하는 것을 넘어서서 창조적인 결과를 만들어내는 ‘생성형 AI’가 가지고 있는 신뢰성과 관련된 문제다. 

인공지능이 그럴싸하게 '거짓말을 한다'는 얘기다. 김선주 교수는 “챗GPT를 통해 논문을 작성할 경우 인간이 하는 것처럼 참고문헌을 달아준다. 문제는 다 그럴싸하게 보이지만 실제로는 존재하지 않는 내용”이라고 지적했다. IT업계 다른 관계자는 “챗GPT는 데이터를 실시간으로 학습하지 못하기 때문에 어제까지의 데이터를 갖고 학습했으면 인공지능 입장에서 오늘 벌어진 일은 없는 사실이기 때문에 틀린 말을 하기 시작한다”고 말했다.

챗GPT에게 구글의 AI 챗봇 ‘바드’에 대해 설명해달라고 요청했더니 ‘대규모 소프트웨어 프로젝트에서 발생하는 버그를 탐지하고 추적하는 데 사용되는 오류 보고 및 추적 시스템’이라고 대답했다. 2021년까지의 정보밖에 학습하지 못한 탓에 2023년에 출시된 바드와 관련된 정보가 업데이트되지 않았다. 그럼에도 대답을 생성해야 하기 때문에 오류투성이 답변을 내놓은 셈이다. 사용자가 미리 사실을 알지 못하면 속을 수밖에 없다.

거금을 들여 개발해도 신뢰성 이슈를 해결하지 못하는 한 '이루다'처럼 단순 대화형에 그칠 가능성이 높다는 지적이 나온다. 국내 AI 스타트업 스캐터랩이 만들어 낸 이루다는 이용자와 나눈 대화와 웹문서를 주요 텍스트 삼아 학습한 대화형 인공지능이다. 생성 AI모델을 적용해 사람의 질문에 맞춰 실시간으로 답변을 만들어내는 방식을 채택했지만 재미를 위한 대화 이상은 어렵다는 평가를 받았다. IT업계 다른 관계자는 “향후 바이오 메디컬 분야 등으로 뻗어나가 무궁무진하게 활용하려면 신뢰성이 대단히 높아야 한다. 지금처럼 데이터가 충분하지 않을 때도 멋대로 판단해 잘못된 대답을 내놓는 상황에서는 이를 기대하기 어렵다”고 말했다.

국내 기업들도 이 문제에 공을 들이고 있다. 최재식 카이스트 ICT 석좌교수는 “우리나라 이용자들은 이런 문제에 까다롭다. 특히 국내 데이터를 활용한 국내 기업의 챗GPT 모델이 사실 관계가 틀린 답변을 할 경우 부정적인 코멘트를 받을 가능성이 높아 한국 모델은 출시 전에 자동정정이나 검정 기능 등을 고려할 가능성이 높다”고 말했다.

다만 신뢰성 담보가 꼭 서비스의 전제조건이 아니라는 의견도 있다. 김승주 고려대 정보보호대학원 교수는 “100% 신뢰할 수 있는 서비스로 발전하진 못하더라도 참조하기 좋은 ‘도구’ 정도로는 활용할 수는 있다”고 말했다. 이어 “네이버 지식인 서비스가 처음 나왔을 때처럼 사람들이 참조할 대상이 백과사전에서 지식인, 위키피디아를 거쳐 챗GPT까지 도달한 셈이다. 우리가 지식을 다룰 때 어디서부터 어디까지 활용할 수 있는지에 대한 사회적 기준을 정립해주면 된다”고 말했다.