XAI 최신 연구동향과 산업계 활용 사례 공유.... KAIST 설명가능 인공지능연구센터, ‘KCC 설명가능 인공지능 워크샵 2024’ 성료
올해 3월 EU 인공지능법이 최종 통과되고 AI시스템에 대한 글로벌 규제가 현실화됨에 따라 AI모델의 투명성 향상과 AI규제 준수를 지원할 수 있는 설명가능 인공지능(eXplainable Artificial Intelligence, XAI) 기술에 대한 관심이 높아지고 있다.
여기에, XAI 분야에서 활발히 연구 중인 국내 연구기관과 기업 관계자들이 함께 모여 최신 연구동향을 교류하는 시간을 가졌다. KAIST 설명가능 인공지능연구센터 (센터장 최재식 교수) 주관으로 지난달 27일 제주 국제컨벤션센터에서 'KCC 설명가능 인공지능(XAI) 워크샵 2024'가 개최됐다.
이날 행사에서는 XAI 분야의 최신 연구동향과 산업계 활용 사례에 대한 초청강연과 논문발표가 진행되었다.
최근 연구가 활발한 분야인 멀티모달 AI모델 연구 및 해석 동향에 대해 고려대 서홍석 교수(‘멀티모달 대화형 인공지능 관련 연구 동향’)와 한밭대 박천음 교수(‘Multimodal Counterfactual reasoning을 이용한 자연어 해석 연구 동향’)의 초청강연이 있었다.
또한 금융 및 의료 분야에 XAI가 활용된 사례에 대해 ‘금융 및 은행에서의 설명가능한 AI’(오순영 공동의장, (사)과실연 미래포럼)과 ‘Digital Health에서의 XAI의 역할: Repeech 사례를 중심으로’ (김진우 대표, ㈜HAII), 강연이 이어졌다. 또한, 설명가능 인공지능 분야의 국제 표준화 그룹 리더인 이재호 교수(서울시립대)가 ‘프론티어 AI 신뢰성 기술과 정책’에 대해 강연했다.
기사 전문 확인 (URL 클릭)
[출처] 최광민 기자 | 인공지능신문
당사 웹사이트에 공유된 모든 보도 자료는 부분적으로 발췌되었습니다. 콘텐츠는 정보 제공의 목적으로만 제공되며 원래 게시자의 재산으로 유지됩니다.
원본 게시자의 허가 없이 공유 콘텐츠를 무단으로 복사, 복제 또는 재배포하는 것은 엄격히 금지됩니다.