close
PRESS
최재식 KAIST 김재철AI대학원 교수가 보는 AI의 미래
Date 2024.03.27View 1,136

“인간을 뛰어넘는 AGI 우려 시기상조…
EU의 규제법으로 AI ‘투명성 의무’ 중요해져”

지난 3월 13일은 인공지능(AI)의 발전에 대한 기대와 우려를 동시에 확인한 날이었다. 미국에선 인간과 대화를 나누고 상황에 맞는 행동을 취하는 AI 로봇이 모습을 드러냈는데, 유럽연합(EU)은 세계 최초로 AI 기술 규제 법안을 통과시켰다. 

이날 미국의 로봇 개발 스타트업 ‘피규어AI’는 챗GPT 개발업체인 ‘오픈AI’와 협업해 만든 로봇 ‘피규어01’의 영상을 공개했다. 인간이 로봇에게 “지금 뭐가 보이느냐”고 묻자 피규어01은 “테이블 중앙의 접시 위에 빨간 사과가 있고 테이블 위에 손을 얹고 서 있는 당신이 보인다”고 답한다. 인간이 “뭐 좀 먹을 수 있느냐”고 하자 “그럼요”라며 사과를 집어서 건넨다. 방금의 행동에 대해 설명해달라고 하자 로봇은 “사과가 식탁에서 먹을 수 있는 유일한 음식이기 때문에 드렸다”고 말한다. 인간과 자유롭게 대화를 나누는 AI 로봇이 진짜 등장한 것일까.

최재식 KAIST 김재철AI대학원 교수는 “로봇이 물건을 줍는 것은 원래 잘하는 일”이라며 “이전까진 전문가가 프로그래밍 언어로 지시를 내리면 로봇이 작업을 수행하는 방식이었지만 이제는 자연 언어(인간이 일상에서 사용하는 언어)로 지시를 할 수 있고 바로 볼 수 있다는 것에 의미가 있다”고 평가했다. 최 교수는 KAIST XAI(설명가능한 인공지능) 연구센터장이자 국내 XAI 대표 기업 ‘인이지’의 대표이사다. 지난 3월 19일 경기 성남시의 KAIST 김재철AI대학원 성남연구센터에서 최 교수를 만났다.

- 피규어01을 보니 조만간 인공지능이 인간의 지능을 뛰어넘는 것 아닌지 우려가 앞선다. “새로운 AI가 나오면 사람들은 ‘다 되는 거 아니야?’ 한다. 그런데 시간이 지나면 ‘이것도 안 되고, 저것도 안 되네’라고 말한다. 기대가 모이는 상황에서는 실체를 아는 것이 중요하다. 비즈니스적인 측면에서 볼 때 AI도 관심을 끌어야 투자를 받는다. 그래서 실제 AI의 능력이 어디까지인지 아는 데 시간이 걸린다. 인공지능이 인간의 지능을 뛰어넘는 기점을 ‘특이점’이라 한다. 특이점이 도래한다는 것은 범용인공지능(AGI)이 온다는 걸 의미한다. AI 로봇이 쓰레기를 주울 수 있다고 해서 집에서 로봇이 설거지를 자동으로 할 수 있게 됐다고 말할 수 있을까. AGI에 대해 걱정하기 전에 지금까지 나온 AI 모델의 능력치를 정확히 파악하는 게 우선이다. 당장 AGI가 나타날 것이라는 우려는 시기상조라고 본다.”

- 젠슨 황 엔비디아 CEO는 5년 내로 인간의 수준을 능가하는 AGI 시대가 출현할 것이라 예측했다. “만약 5년 안에 AGI와 가까운 것이 만들어지더라도 ‘이 정도면 인간만큼 똑똑한가’라고 했을 때 ‘아니야, 지금은 부족해’라는 얘기가 나올 수 있다. AGI는 특화된 한 분야만 잘하는 게 아니라 모든 분야를 잘해야 한다. 한 분야에 대해선 잘하는 정도를 평가할 수 있지만 여러 분야를 다 잘하는 것을 어떤 기준으로 볼 수 있을까. AGI의 기준이 명확하게 정의되지 않은 것이다.”

- AGI가 나오더라도 인간의 욕심이 더 나은 AGI를 만들려 한다는 뜻인가. “AGI가 무엇인지에 대해 먼저 생각해 보자. 학습한 리스트에 있는 질문을 던졌을 때 말이 되는 답변을 하지만 학습하지 않은 질문에 대해선 답하지 못한다면 AGI라 할 수 없다. 새로운 질문에 대해서도 추론하고 답변한다면 우리는 AGI라 생각할 것이다. 그런데 만약 AI가 사람이 던질 수 있는 모든 질문 리스트를 학습했다면? AGI랑 같다고 느낀다. 그럼 AI가 모든 걸 외우면 된다고 생각할 수 있지만, 암기는 무척 번거롭다. 저장 장치가 더 많이 필요하기 때문이다. 원리를 이해하면 다 안 외워도 된다. 지금은 많은 정보를 외워서 비슷한 질문에 대한 답변을 가져오는 방식이라면 AGI는 ‘이해’하는 방향으로 가는 것이다.”

- AI는 얼마나 발전했나. “인간의 지능을 100이라 할 때 30~40까지는 온 것 같다. 물론 인공지능이 100보다 더 발전할 수도 있다. 피규어01은 원하는 물체를 정확하게 인지하고 그 물체만 골라서 집는 기술을 가지고 있는데 이는 현장에서 이미 많이 쓰이고 있다. 여기에 코드를 고칠 필요 없이 인간의 언어를 통해 지시를 내릴 수 있다는 것이 큰 발전이다. 지난해 오픈AI의 ‘샘 올트먼 해임 사태’ 때 내부적으로 발견된 것이 ‘안 본 문제인데 AI가 잘 푼다’는 것이다. AI의 학습 데이터에 우연히 들어간 문제를 푼 것과, 유사한 문제를 다 지웠는데도 추론해서 해결한 것은 엄청난 차이다. 다만 유사한 문제를 다 지우지 못한 것일 수도 있다.”

- 지금은 AI에 대한 규제가 필요한 시점일까 아니면 발전시켜야 할 때인가. “반반인 것 같다. 저는 AI의 발전이 더 필요하다고 생각하는 사람이지만 AI를 안전하게 활용할 수 있는지에 대한 검증과 연구는 항상 이뤄져야 한다고 본다. AI를 안전하게 컨트롤할 수 있는가, 무엇을 학습했는지 우리가 잘 볼 수 있는가를 확인하는 과정은 중요하다. 예를 들어 우리가 뇌를 MRI로 스캔해봐야 어느 부분이 문제가 생겨서 말이 어눌해졌는지 등을 설명할 수 있다. AI도 마찬가지로 내부를 들여다볼 수 있어야 문제가 되는 부분을 찾거나 고칠 수 있다.”

지난 3월 13일 가결된 ‘AI 규제법’은 EU 27개국 장관들이 오는 4월 최종 승인하면 2026년부터 전면 시행된다. 법안에 따르면 EU는 AI 활용 분야를 ‘허용할 수 없는 위험’ ‘높은 위험’ ‘제한된 위험’ ‘낮은 위험’ 등 총 4단계의 등급으로 나눠 차등 규제한다. 의료·교육을 비롯한 공공 서비스나 선거·자율주행 등은 ‘높은 위험’으로 분류되며, 개인의 특성·행동과 관련된 데이터로 개별 점수를 매기는 ‘소셜 스코어링(social scoring)’이나 AI를 활용한 실시간 원격 생체인식 식별 시스템은 ‘허용할 수 없는 위험’으로 활용이 원천 금지된다. 또한 EU는 챗GPT 같은 생성형 AI를 개발하는 기업에 ‘투명성 의무’를 부여해 EU 저작권법을 반드시 준수하고 AI의 학습과정에 사용한 콘텐츠를 명시하도록 했다. 법을 위반할 경우 전 세계 매출의 1.5%에서 최대 7%에 해당하는 과징금이 부과된다.

- EU는 왜 ‘AI 규제법’을 만들었을까. “AI를 사용하는 과정에서 생길 수 있는 부작용으로부터 내부 국민들을 보호하기 위해서다. AI에게 폭탄 만드는 법이나 마약 구하는 법을 물어봤을 때 ‘알려줄 수 없다’거나 ‘모른다’는 답이 나와야 하는데 돌려서 질문을 했더니 방법을 알려주는 것이 대표적인 부작용 사례다. 규제 자체는 새로운 기술을 만드는 데는 도움이 안 될 수 있다. EU 밖으로의 쏠림 현상도 발생할 수 있다. 쉽게 생각하면 규제가 강한 EU에서 AI 관련 회사를 만들기보다는 규제가 덜 한 나라로 가려 하지 않겠나.”

- 조 바이든 미국 대통령이 지난해 10월 ‘AI 행정명령’을 발표했는데, 미국도 AI를 규제하려는 시도로 봐야 할까. “AI 행정명령에는 AI가 생성한 자료에 식별 가능한 표시(워터마크)를 의무적으로 부착하는 방안을 비롯해 국가 안보나 경제 안보 등에 위험을 초래하는 AI 모델 테스트 시 연방정부에 고지하는 것 등이 담겼다. 하지만 규제에 집중한 EU의 AI 규제법과 달리 AI 행정명령은 AI 검증 체계를 만들려는 노력이라고 볼 수 있다. 어떤 문제가 발생했을 때 내세울 수 있는 안전장치 같은 느낌이다.”

- 우리나라에선 AI 관련 규제가 어디까지 논의됐나. “‘개인정보보호법 개정안’이 지난 3월 15일부터 시행됐다. 우리나라에서 처음으로 시행되는 AI 관련 규제라고 볼 수 있다. 이제는 ‘완전히 자동화된 결정’에 대해 개인정보를 제공한 정보주체가 요청하면 의사결정이 왜 일어났는지 설명해야 하는 의무가 생겼다. 예를 들어 입사시험에서 AI 면접관이 내린 결정에 대해 면접자가 이의를 제기한다면 탈락한 이유를 설명해야 한다. 무척 중요한 문자가 있는데 스팸 문자로 분류돼 받지 못했다면 통신사에서 왜 막혔는지 설명해야 한다.” 

출처 : 주간조선(http://weekly.chosun.com)