개인정보 보호를 위한 비밀번호 변경안내 주기적인 비밀번호 변경으로 개인정보를 지켜주세요.
안전한 개인정보 보호를 위해 3개월마다 비밀번호를 변경해주세요.
※ 비밀번호는 마이페이지에서도 변경 가능합니다.
30일간 보이지 않기
  • 의료기기·AI
  • 진단

의료 인공지능 최대 난제 신뢰도…'XAI'가 해결책 될까

발행날짜: 2021-11-03 05:45:57

알고리즘 복잡성 인한 블랙박스 문제 해결 방안으로 주목
자연어 설명 모델·인터페이스 개발중…"서비스 가치 제고"

4차 산업 혁명과 맞물려 차세대 의료 시스템으로 각광받고 있지만 신뢰도에 대한 꼬리표를 떼지 못하고 있는 의료 인공지능(AI)의 난제를 풀기 위한 노력들이 이어지고 있어 결과가 주목된다.

이른바 설명 가능한 인공지능(explainable AI)으로 불리는 XAI가 바로 그 핵심으로 신뢰도 입증을 통해 의사와 환자의 불안감을 해소할 수 있는 열쇠로 부각되는 모습이다.

의료 인공지능의 신뢰도 문제를 해결하기 위한 방안으로 XAI가 대두되고 있다.
이같은 내용은 2일 한국보건산업진흥원이 내놓은 'XAI'에 대한 보고서에서 나왔다. 의료 인공지능의 현재 한계를 극복하기 위해서는 XAI 기술의 발전이 필연적이라는 내용 보고서의 핵심이다.

연구진은 일단 현재 의료 인공지능 기술이 세대를 거치며 상용화 단계에 이르렀다고 분석했다. 초기에 영상 의료 데이터에 인공지능 기술을 적용해 진단을 보조하는 수준에 그쳤다면 이제는 질병의 예후 예측과 치료, 처방 등 의료서비스 전주기 과정에 다양하게 활용되고 있다는 것.

또한 의료 인공지능에 의해 과거 표준형 치료 중심에서 진단과 예방 등에 대한 맞춤형 치료로 패러다임이 바뀌고 있으며 의사의 지식 경험 기반 진료에서 데이터 기반의 정밀의료로 발전하고 있다고 분석했다.

실제로 식품의약품안전처 의료기기 허가 보고서에 따르면 국내 의료 인공지능의 인허가 건수는 총 64건에 달하고 있다. 또한 세계 의료 인공지능 시장도 연 평균 20%가 넘는 성장세를 보이며 2023년에는 8조 3134억원에 달할 것으로 예측되고 있다.

하지만 실제 임상 현장에서 활용하기에 여전히 난제는 존재한다. 바로 신뢰성에 대한 부분이 대표적인 문제. 이른바 블랙박스(Black box)로 불리는 결과 도출 과정의 타당성과 투명성 결여가 가장 큰 걸림돌이다.

블랙박스란 인공지능 시스템이 내놓은 판단이나 결정의 과정과 방법에 대한 적절한 설명이 없는 상태를 말한다. 예를 들어 인공지능이 폐암 의심 진단을 내놨지만 어느 부분에서 어떠한 근거로 이러한 결과를 도출했는지를 알수가 없다는 의미다.

의료 인공지능이 빅데이터와 알고리즘을 바탕으로 효과적인 의사 결정 지원을 제공하는 것은 부인할 수 없지만 점차 고도화 되어 가는 딥러닝 알고리즘의 복잡성으로 인해 막상 도출 결과에 대한 설명이 없는 블랙박스 현상이 나타나면서 임상 적용에 한계를 드러내고 있는 셈이다.

더욱이 의료 분야의 경우 안전성이 무엇보다 중요하다는 점에서 이러한 블랙박스 현상이 나타날 경우 의사는 이 결과를 신뢰할 수 있는지 의심하게 되는 것도 문제다. 또한 만약 잘못됐다면 어떻게 수정하거나 보정해야 하는지를 알 수 없기 때문에 이 부분은 반드시 해결해야 할 난제로 꼽힌다.

특히 개인의 특성이나 질병의 진행 과정 등 예기치 못한 변수가 발생할 경우 위험한 결과를 초래하는 것은 물론 인공지능에 대한 투명성과 신뢰성이 떨어지게 되면 법적 책임 소재 문제가 발생할 가능성도 크다.

그레이존(gray zone) 문제도 해결해야 할 난제로 꼽힌다. 의료 인공지능의 특성상 명확하게 분류되지 않는 모호한 경계면의 데이터가 문제가 되고 있는 것. 결국 이를 추적하고 원인과 결과를 도출해 낼 수 있는 정교한 모델이 없다면 이것이 질병이냐 아니냐라는 답조차 낼 수 없는 이유다.

설명 가능한 인공지능(XAI)가 주목받는 이유도 여기에 있다.

XAI란 인공지능이 내린 행위와 판단을 사람이 이해할 수 있는 형태로 설명할 수 있는 인공지능 기술이다. 일반 의료 인공지능과 달리 폐암이라는 결과만 내는 것이 아니라 설명을 위한 별도의 모델과 인터페이스를 갖춰 의사가 이를 이해할 수 있도록 설명해 주는 기능을 더한 것.

실제로 IT 컨설팅 기업인 엑센츄어는 XAI 기술이 가장 필요한 분야로 의료 영상 진단 보조 분야를 꼽은 바 있다. 최소한 인공지능이 결과값을 낸 이유와 원인, 데이터를 설명할 수 있다는 점에서 임상에서의 결정 과정에 신뢰도를 확보할 수 있기 때문이다.

연구진은 이렇게 XAI 기술이 완전하게 의료 인공지능에 이식되는 시점에 비로서 이에 대한 서비스 가치가 발생한다고 설명하고 있다.

또한 이에 더해 의사와 인공지능간에 의사소통이 가능하게 되는 구간이 온다면 바야흐로 의료 인공지능의 시대가 열린다고 내다봤다.

연구진은 "XAI가 완전하게 의료 인공지능에 적용되면 불안감을 해소하고 신뢰도를 높이는 결정적 역할을 하게 될 것"이라며 "결과 도출에 결정적으로 영향을 미치는 요인과 잘못된 결과를 도출하는 원인을 알 수 있다는 점에서 규정 준수에 필요한 요구사항을 충족하며 비로서 서비스 가치가 발생하게 될 것"이라고 밝혔다.

이어 "이미 시각 가능한 인공지능(Visible AI)는 상용화 수준에 있으며 설명 가능한 인공지능(explainable AI) 개발로 모호한 질환 및 환자에 대한 자세한 결과 표현을 통해 설명성이 부여될 것"이라며 "여기에 의사와 인공지능간에 의사 소통이 가능해지는 신뢰 가능한(reliable AI) 모델까지 완성되면 의료 한계를 획기적으로 해결하는 방안으로 대두될 것으로 본다"고 강조했다.
댓글
새로고침
  • 최신순
  • 추천순
댓글운영규칙
댓글운영규칙
댓글은 로그인 후 댓글을 남기실 수 있으며 전체 아이디가 노출되지 않습니다.
ex) medi****** 아이디 앞 네자리 표기 이외 * 처리
댓글 삭제기준 다음의 경우 사전 통보없이 삭제하고 아이디 이용정지 또는 영구 가입이 제한될 수 있습니다.
1. 저작권・인격권 등 타인의 권리를 침해하는 경우
2. 상용프로그램의 등록과 게재, 배포를 안내하는 게시물
3. 타인 또는 제3자의 저작권 및 기타 권리를 침해한 내용을 담은 게시물
4. 욕설 및 비방, 음란성 댓글
더보기
이메일 무단수집 거부
메디칼타임즈 홈페이지에 게시된 이메일 주소가 전자우편 수집 프로그램이나
그 밖의 기술적 방법을 이용하여 무단으로 수집되는 것을 거부하며,
이를 위반할 시에는 정보통신망법에 의해 형사 처벌될 수 있습니다.