구글코리아가 지난 18일 법조계, 학계, IT업계 및 스타트업 등 분야별 전문가로 구성된 제1기 ‘책임감있는AI포럼’ 3회차를 개최하고, 설명가능한 AI(explainable AI, XAI)를 통한 안전하고 유익한 AI 활용 방향을 논의했다고 밝혔다.
3회차 포럼은 안전한 온라인 환경 조성을 위한 전문가간 토론의 장인 ‘세이퍼 위드 구글(Safer with Google)’ 행사와 함께 연계돼 진행됐다. 포럼에서는 프라이버시 침해, 사이버보안 위협, 편향 및 차별 등 AI 기술 고도화에 따른 잠재적 위협을 선제적으로 관리하고, 나아가 설명가능한 AI를 통해 AI의 신뢰성과 안전성을 확보할 수 있는 방안이 중점적으로 논의됐다.
설명가능한 AI 분야 권위자이자 ‘책임감있는AI포럼’ 의장인 최재식 KAIST 김재철AI대학원 교수 겸 KAIST XAI 연구센터 센터장은, 설명가능한 AI의 작동 원리와 의료, 금융, 제조, 정부 등 분야별 활용례를 소개하는 한편, 전 세계적으로 활발하게 논의되고 있는 AI 규제 동향과 윤리적 문제, 기대 효과 등 설명가능한 AI의 향후 전망 및 시사점을 전했다.
최 교수는 “설명가능한 AI는 AI가 의사결정을 내리는 근거와 알고리즘을 검증하고 이를 사람이 이해할 수 있게 설명함으로써, AI 기술의 투명성과 신뢰성을 한층 개선할 것” 이라며, “전 세계적으로 AI 안전성 확보를 위해 주력하고 있는 가운데, 앞으로도 ‘책임감있는AI포럼’에서 AI의 발전을 위한 의미 있는 논의를 이어 나갈 수 있기를 바란다”라고 말했다.
기사 전문 확인 (URL 클릭)
[출처] 편집부 | CIO KR
당사 웹사이트에 공유된 모든 보도 자료는 부분적으로 발췌되었습니다. 콘텐츠는 정보 제공의 목적으로만 제공되며 원래 게시자의 재산으로 유지됩니다.
원본 게시자의 허가 없이 공유 콘텐츠를 무단으로 복사, 복제 또는 재배포하는 것은 엄격히 금지됩니다.