의료 영상 딥 러닝 | Ct 영상에서 폐 영역만 뽑아보자! – Python, Deep Learning 5369 투표 이 답변

당신은 주제를 찾고 있습니까 “의료 영상 딥 러닝 – CT 영상에서 폐 영역만 뽑아보자! – Python, Deep Learning“? 다음 카테고리의 웹사이트 https://you.tfvp.org 에서 귀하의 모든 질문에 답변해 드립니다: you.tfvp.org/blog. 바로 아래에서 답을 찾을 수 있습니다. 작성자 빵형의 개발도상국 이(가) 작성한 기사에는 조회수 11,544회 및 좋아요 247개 개의 좋아요가 있습니다.

의료 영상 딥 러닝 주제에 대한 동영상 보기

여기에서 이 주제에 대한 비디오를 시청하십시오. 주의 깊게 살펴보고 읽고 있는 내용에 대한 피드백을 제공하세요!

d여기에서 CT 영상에서 폐 영역만 뽑아보자! – Python, Deep Learning – 의료 영상 딥 러닝 주제에 대한 세부정보를 참조하세요

딥러닝(CNN)을 사용하여 CT 영상에서 페 영역 마스크만 추출하는 Image segmentation 문제를 풀어보겠습니다!
Source code(Github): https://github.com/kairess/CT_lung_segmentation/tree/master/dataset
Dependencies:
– Python
– numpy
– Keras
– matplotlib
Dataset
– Finding and Measuring Lungs in CT Data https://www.kaggle.com/kmader/finding-lungs-in-ct-data
사업 및 개발문의: [email protected]
빵형의 개발도상국 후원: https://toon.at/donate/helloworld

의료 영상 딥 러닝 주제에 대한 자세한 내용은 여기를 참조하세요.

의료영상에서의 딥 러닝

반적인 의료영상 분석 분야에 널리 활용되고 있다. 최근 딥 러닝(deep learning)이라는 기계학습 기법이 핵심. 기술로 대두되면서 관련 기술 및 응용 분야에 대한 관심 …

+ 여기에 표시

Source: www.ksiim.org

Date Published: 5/6/2022

View: 7328

[논문]흉부 의료 영상에서 딥러닝 기반 분할 및 분류 연구

의료 영상의 특성이 반영된 데이터 처리 기법들이 요구될 뿐만 아니라, 의료 분야에서는 지도 학습 기반의 딥러닝 모델 학습을 위한 정답을 생성하는데 매우 비싼 비용 …

+ 여기에 표시

Source: scienceon.kisti.re.kr

Date Published: 10/29/2022

View: 6524

[카카오AI리포트]딥러닝 기반 의료영상 기술의 진화 – 브런치

아래 도표는 딥러닝을 활용한 의료영상 분석 연구들에서 다루고 있는 과제의 빈도수를 나타내고 있습니다. 가장 많은 연구결과가 발표된 과제는 장기 혹은 …

+ 여기에 표시

Source: brunch.co.kr

Date Published: 3/16/2022

View: 2939

AI 의료영상 분석의 개요 및 연구 현황에 대한 고찰 – KoreaScience

AI 의료영상. 분석 기술은 특징을 추출하는 방법으로 최근 딥-러닝(deep learning)에 기반을 둔 학습모델이 주목을 받고 있다[5]. 딥 러닝은 인간의 신경계를 모방한 …

+ 여기에 더 보기

Source: www.koreascience.or.kr

Date Published: 12/19/2021

View: 3749

엄청난 데이터+딥러닝 기술 한국, 의료영상 진단의 성지 될 수 있다

자연어 처리 능력을 이용한 텍스트 의료 데이터 분석에 특화됐던 자사의 왓슨(Watson) 헬스 플랫폼 위에 딥러닝이라는 인공지능 기술에 기반한 의료 영상 분석 기능을 …

+ 더 읽기

Source: dbr.donga.com

Date Published: 12/26/2022

View: 2824

의료 영상에 최적화된 딥러닝 모델의 개발

최근, 의료 영상 분야에서 딥러닝은 가장 활발하게 연구되고 있는 기술 중 하나이다. 충분한 데이터와 최신의 딥러닝 알고리즘은 딥러닝 모델의 개발 …

+ 여기에 표시

Source: jksronline.org

Date Published: 7/2/2021

View: 1776

인공지능 기반 의료영상 분석 기술 동향 – ITFIND

최근 수년간 딥러닝을 중심으로 하는 인공지능 기술은 영상, 음성, 텍스트 등 다양한 형태. 의 데이터 분석에서 기존 방법의 성능을 뛰어 넘는 결과를 …

+ 여기에 더 보기

Source: www.itfind.or.kr

Date Published: 9/5/2022

View: 7718

딥러닝 영상처리 기술을 활용한 의료진단 솔루션, 인공지능

정의 : #딥러닝영상처리기술(Object Detection, Semantic Segmentation) 등을 활용하여 질병을 진단하는 #의료진단플랫폼’으로, 암/종양 진단, …

+ 여기에 자세히 보기

Source: blog.naver.com

Date Published: 10/18/2022

View: 8187

주제와 관련된 이미지 의료 영상 딥 러닝

주제와 관련된 더 많은 사진을 참조하십시오 CT 영상에서 폐 영역만 뽑아보자! – Python, Deep Learning. 댓글에서 더 많은 관련 이미지를 보거나 필요한 경우 더 많은 관련 기사를 볼 수 있습니다.

CT 영상에서 폐 영역만 뽑아보자! - Python, Deep Learning
CT 영상에서 폐 영역만 뽑아보자! – Python, Deep Learning

주제에 대한 기사 평가 의료 영상 딥 러닝

  • Author: 빵형의 개발도상국
  • Views: 조회수 11,544회
  • Likes: 좋아요 247개
  • Date Published: 2019. 2. 10.
  • Video Url link: https://www.youtube.com/watch?v=z8lK69BQ0VE

[논문]흉부 의료 영상에서 딥러닝 기반 분할 및 분류 연구

초록

하드웨어의 급격한 발달과 방대한 데이터 및 경험의 축적으로 인해 최근 수 년 간 딥러닝 기법이 다양한 분야에 도입되었다. 특히 기존 알고리즘으로는 분석 자체가 어려웠던 영상, 음성, 텍스트 등의 데이터에서 인간 수준의 패턴 인식 능력이 증명되면서 의료 분야에서도 의료영상, 유전체, 생체 신호 등의 다양한 데이터에서 질환의 검출부터 진단 및 치료까지 넓은 영역에서 응용될 수 있는 가능성을 보여주었다. 그러나 데이터에 대해 전문 지식이 요구되지 않는 일반적인 분야에서 충분한 데이터와 잘 정의된 지식을 기반으로 연구된 딥러닝 기법들은 의…

하드웨어의 급격한 발달과 방대한 데이터 및 경험의 축적으로 인해 최근 수 년 간 딥러닝 기법이 다양한 분야에 도입되었다. 특히 기존 알고리즘으로는 분석 자체가 어려웠던 영상, 음성, 텍스트 등의 데이터에서 인간 수준의 패턴 인식 능력이 증명되면서 의료 분야에서도 의료영상, 유전체, 생체 신호 등의 다양한 데이터에서 질환의 검출부터 진단 및 치료까지 넓은 영역에서 응용될 수 있는 가능성을 보여주었다. 그러나 데이터에 대해 전문 지식이 요구되지 않는 일반적인 분야에서 충분한 데이터와 잘 정의된 지식을 기반으로 연구된 딥러닝 기법들은 의료 분야에 그대로 응용되기에는 여러 어려움이 있다. 의료 영상의 특성이 반영된 데이터 처리 기법들이 요구될 뿐만 아니라, 의료 분야에서는 지도 학습 기반의 딥러닝 모델 학습을 위한 정답을 생성하는데 매우 비싼 비용이 들기 때문에 자연 영상과는 다른 전략이 요구 된다. 또한, 때때로 데이터의 접근성을 고려한 모델 선택이 필요할 수 있으며, 적용 목적에 따라 단순히 정확도가 높은 모델 보다 민감도 또는 특이도가 최대화되는 모델이 요구될 수 있다.

딥러닝 모델은 데이터가 가진 형태 및 정보에 따라 대단히 다양한 형태로 학습 될 수 있다. 입력 데이터에 대한 직접적인 정답을 학습하는 지도 학습 이외에도 비지도 학습을 통해 생산적인 학습이 이루어지거나, 정책을 통해 스스로 학습하는 강화 학습 또한 이루어질 수 있다. 본 연구에서는 다양한 의료 데이터 중 흉부 CT와 X-ray 영상을 기반으로 한 연구에 초점을 맞추었으며, 지도 학습 중에서도 픽셀 단위의 높은 수준의 정보를 학습하는 분할 모델과 영상을 하나의 범주형 값으로 학습하는 분류 모델을 기반으로 세 가지 세부 연구들을 통해 의료 영상에서 딥러닝 모델의 효용성과 개선점을 평가하고자 하였다.

첫 번째 세부 연구에서는 흉부 CT에서 미만성 간질성 폐질환을 가진 환자들의 폐를 분할하기 위해 딥러닝 모델이 적용되었다. 미만성 간질성 폐질환의 세 가지 하위 질환들, 그리고 두 가지 CT 프로토콜에 대하여 전통적인 영상처리 알고리즘과 비교하여 정량적인 평가가 수행되었으며, 보수적인 평가를 위해 정량 결과가 가장 낮았던 증례들에 대한 시각적인 평가가 이루어졌다. 정량적 평가에서 딥러닝 모델은 전통적인 영상처리 알고리즘과 비교하여 유의하게 향상된 성능을 보여주었으며, 시각적 평가에서 또한 눈에 띄는 오차를 확인하지 못했고, 주된 수치적 오차는 폐문 영역이나 큰 만성적 폐 경화로 인해 전문가도 그 영역을 정확히 정의하기 어려운 영역에서 발생한 것으로 회고되었다.

두 번째 세부 연구는 흉부 CT에서 폐를 미만성 간질성 폐질환의 전형적인 질환 패턴으로 정량화하기 위해 딥러닝 모델이 사용되었다. 질환 패턴은 6가지로 정의되었으며, 두 명의 경험 있는 영상의학과 의사에 의해 정량화된 소량의 데이터와 이전 연구를 통해 개발된 기존 모델을 이용해 정량화된 대량의 데이터가 딥러닝 분할 모델 학습에 이용되었다. 딥러닝 분할 모델이 기존 모델의 결과를 정답으로 학습했을 때, 기존 모델을 매우 유사하게 재현하는 것을 정량 및 시각적으로 확인하였으며, 패치 단위의 연산으로 매우 긴 시간이 소요되었던 기존 모델과 달리 딥러닝 모델은 전체 영상을 이용한 엔드-투-엔드 방식으로 빠른 연산이 가능했다. 그리고 두 명의 의사에 의해 정량화된 소량의 데이터로 딥러닝 모델을 미조정한 후에는 기존 모델보다 향상되고 두 명의 의사간의 차이와 비교할만한 정량적 결과를 보여주었다.

마지막으로 세 번째 세부 연구에서는 흉부 X-ray에 다섯 가지 전형적인 폐 질환을 위한 컴퓨터 기반 검출 모델을 위해 딥러닝이 적용되었다. 두 개의 병원에서 수집된 데이터를 이용하여 약한 지도 학습이 이루어졌으며, 복잡한 폐 질환 패턴을 보다 잘 학습하기 위한 커리큘럼 학습 전략이 제안되었다. 커리큘럼 학습이 적용된 모델은 이를 적용하지 않은 모델에 비해 학습이 안정적이었고, 더 빠르게 수렴되었으며, 더 나은 손실 지점에 이르는 것을 확인하였다. 그리고 t-SNE 기법을 이용한 시각화와 클래스 활성화 맵을 통한 시각화 결과를 통해 상세한 정성적 평가가 이루어졌으며, 각 폐질환의 패턴이 다양체를 이루며 잘 학습 된 것으로 확인이 되었고, 클래스 활성화 맵을 이용한 지역화 결과는 해당 병변 영역이 활성화되는 것을 시각적으로 확인하였다.

의료 영상은 딥러닝 기반 지도 학습 모델을 위해 정답 데이터를 생성하는데 매우 큰 손실이 있을 수 있기 때문에 적절한 실험 설계가 필요하다. 각 세부 연구는 내부 소프트웨어를 활용하여 기존 영상처리 기반의 결과를 바탕으로 인간이 수정하거나 판독문 정보를 파싱한 후 인간이 빠르게 확인하는 형태로 효율적인 정답 생성이 이루어졌고, 성공적으로 딥러닝 모델이 학습되었다. 각 세부 연구 결과는 심층적인 평가를 통해 딥러닝 모델이 이러한 의료 영상에서도 낮은 수준의 영상 픽셀 정보들을 의미론적 정보로 잘 함축할 수 있음을 보여주었으며, 때때로 제한된 영역 내에서는 해부학적 지식을 충분히 갖고 식별하는 의사만큼의 결과를 보여주었다.

[카카오AI리포트]딥러닝 기반 의료영상 기술의 진화

AI 기술의 발전이 과연 우리 삶을 변화시켜줄 수 있을까요? 이 질문에 답을 찾기 위한 노력으로 카카오 AI 리포트는 지금까지 다양한 분야, 기술, 활용 가능성 등을 소개해 왔습니다. 이번에는 ‘의학 분야에서의 AI 기술’을 소개하려고 합니다. 새로운 기술이 개발된다고 해서 바로 돈을 벌 수 있는 산업분야에 응용되기는 쉽지 않습니다. 새로운 기술이 기존에 해결하지 못했던 문제들을 해결할 수 있는 방법을 제시해 준다거나, 기존의 비효율을 개선한다면 그 기술은 산업 분야의 혁신을 가져올 수 있습니다.

[카카오 AI 리포트] Vol. 5 (2017년 7월호) 는 다음 내용으로 구성되어 있습니다.

[1] Industry – AI와 의료

01. 민현석 : 내가 의료 AI를 선택한 이유

02. 안성민 : 데이터 기반 정밀 의료와 AI

03. 황상흠 : 딥러닝 기반 의료영상 기술의 진화 (이번글)

04. 김남국 : 의료와 AI 신기술의 융합 : 과제와 전망

05. 정규환 : AI 의료영상 기술 활용 사례

06. 양광모 : 인공지능 의료, 이제 윤리를 고민하다

[2] Review – AI의 진화

07. 정부환 : 더욱 똑똑해진 AI 광고 알고리듬

08. 이원형 : AI는 인간의 감정을 이해할까?

[3] Information

09. 하반기 주요 AI 컨퍼런스 소개

[카카오 AI 리포트] Vol. 5 전체글 다운받기

내용 중간의 [ ]는 뒷부분에 설명 및 관련 문헌의 소개 내용이 있음을 알리는 부호입니다. 예를 들어, [1]에 대한 설명은 ‘설명 및 참고문헌’의 첫 번째에 해당합니다.

컴퓨터를 이용하여 의료영상을 분석하고 진단하고자 하는 시도는 꽤 긴 역사를 가지고 있습니다. 컴퓨터 보조 진단(computer-aided diagnosis, CAD) 개념은 지금으로부터 약 50년 전 미국의 Gwilym S. Lodwick이라는 의사가 처음 제안했습니다[1]. 이 연구에서 그는 흉부 X선 촬영 영상을 기반으로 어떤 폐암 환자의 일 년 후 생존 여부를 예측하는 시스템을 개발했습니다. 하지만 당시에는 영상을 스캔하여 디지털화하는 기술이 없었고 자연스럽게 이러한 영상을 처리할 수 있는 컴퓨팅 기술도 없었기 때문에 영상으로부터 중요하다고 판단되는 예측 변수들을 손수 추출했습니다.

실제로 의료영상을 스캔하고 이렇게 디지털화된 영상을 컴퓨터를 이용하여 처리하기 시작한 연구는 1970년대에 등장합니다. 이때부터 여러 영상처리 기법들을 이용하여 추출한 객체의 가장자리, 선분 등의 영상 특징들을 활용하기 시작합니다. 이러한 특징들에 기반한 수학적 모델링을 통해 규칙기반(rule-based) 시스템이 만들어지는데 이는 비슷한 시기에 인공지능 분야에서 유행했던 전문가 시스템(expert system)과 유사합니다.

1980년대에 들어서 CAD 시스템의 발전을 가속화시키는 여러 요인들이 등장합니다. 그중 가장 중요한 요인은 바로 의료영상 저장 및 전송시스템 (picture archiving and communication system, PACS)의 도입입니다 ([그림1] 참고). 디지털화된 영상이 의사들의 판독 능력에 미치는 영향이 검증된 이후 이 PACS는 가장 효율적이고 경제적으로 의료영상을 저장하고 전송할 수 있는 시스템으로 자리 잡습니다. 다른 한 가지는 CAD를 바라보는 패러다임의 변화입니다. 이전에는 CAD의 개념이 모호하여 주로 컴퓨터를 이용한 진단 자동화에 초점이 맞춰져 있었다면 이 시기부터 CAD의 개념이 보조 진단으로 확실하게 자리 잡게 됩니다. 즉, CAD 시스템을 의사의 판독 이후 보조 기구로 활용했을 때 원래의 판독 능력보다 나아지기만 하면 충분히 가치가 있다는 것입니다. 이는 CAD 시스템의 판독 능력이 전문가의 그것과 비슷하거나 상회하지 않아도 상호보완적인 역할을 할 수만 있다면 활용 가치가 있다는 것인데 그렇다고 해서 이러한 개념이 CAD 시스템 개발 과정에 직접 반영되지는 않았습니다. 단지 가치를 평가하는 방식과 기준만 변화한 것이지요.

[그림 1] PACS 워크 플로우[2]

CAD라는 개념의 대중화에 가장 큰 역할을 한 곳은 미국 시카고 대학의 Kurt Rossmann Laboratories for Radiologic Image Research 그룹입니다[3]. 이곳에서는 의료 현장에서의 효과가 가장 클 것으로 판단된 혈관영상 (vascular imaging), 흉부 X선 촬영 영상, 유방촬영영상 분석을 주요 연구과제로 선정하여 선도적인 연구를 진행했습니다. 이 연구 그룹은 1993년 북미영상의학회(Radiological Society of North America, RSNA)에서 자신들이 개발한 CAD 시스템을 시연하기 위해 직접 118명의 영상의학전문의를 초청하여 검증하기도 했습니다.

이 시기에 활용된 영상 분석 기법은 기술적인 관점에서 패턴 인식 혹은 기계 학습으로 분류할 수 있습니다. 영상으로부터 주요 특징들을 추출하여 이 추출된 특징들로 영상을 벡터화한 후 다양한 기계학습 분류기법들을 활용합니다. 이런 방식의 기술이 주류를 이뤄 개발되어 오다가 최근 들어 딥러닝을 기반으로 하는 인공지능 기술의 혁신적인 발전으로 접근방법이 급격히 바뀌게 됩니다. 다루는 문제에 따라 중요한 특징들을 직접 디자인하고 추출하던 이전의 방식들이 데이터로부터 문제의 해결에 최적화된 특징들을 학습하는 방식으로 변화한 것입니다. 이러한 주류 접근 방식의 변화는 일반적인 컴퓨터 비전 연구에서의 변화와 그 맥락을 같이 합니다. 규칙 기반의 전문가 시스템에서 시작하여 추출된 특징 벡터를 기반으로 분류기를 학습하는 방식이 주류를 이루어 오다가 최근 들어 딥러닝으로 수렴하는 추세입니다.

딥러닝 기반의 의료영상 분석

의료영상 분석의 세부적인 주요 과제들은 일반적인 영상에서의 그것들과 상당히 유사합니다. 영상을 분류 classification) 하는 것을 시작으로 객체의 검출(detection), 객체 경계의 추출(segmentation), 서로 다른 영상의 정합(registration) 등이 의료영상 분석에서 중요한 과제들이라고 볼 수 있습니다. 기본적으로 영상을 입력으로 하기 때문에 영상에서 특징을 추출하는데 특화된 컨볼루션 신경망(convolutional neural networks, CNN) 이 가장 많이 활용됩니다.

[그림2] 딥러닝 기반 의료영상 분석 연구 문헌의 수 [4] [그림2]의 위 도표는 연도별로 딥러닝 관련 기술을 활용한 의료영상 분석 연구들의 수를 나타냅니다. 2015년 이후로 딥러닝, 특히 CNN을 이용한 연구 논문들의 수가 가파르게 증가하는 것을 확인할 수 있습니다. 아래 도표는 딥러닝을 활용한 의료영상 분석 연구들에서 다루고 있는 과제의 빈도수를 나타내고 있습니다. 가장 많은 연구결과가 발표된 과제는 장기 혹은 특정 구조의 경계 검출이었고, 그 뒤를 이어 병변의 검출과 검사 단위의 분류 연구가 활발했습니다. 상대적으로 영상의 정합 연구는 그 수가 적었는데 의료영상 분석에서는 시차를 두고 촬영된 영상 사이의 변화가 진단에 있어 중요한 정보이기 때문에 앞으로 많은 연구 결과들이 나올 걸로 생각됩니다.

CNN을 활용한 의료영상 분석 연구들 중 가장 화제가 되었던 연구는 구글에서 2016년 발표한 당뇨병성 망막증의 진단[5]과 올해 스탠퍼드 대학에서 발표한 피부암 진단입니다[6]. 두 연구 모두 모델을 개발하는데 활용한 학습 데이터의 수와 학습된 모델의 성능으로 주목을 받았습니다. 공통적으로 약 10만 건 이상의 영상을 학습에 활용했는데 이는 기존의 딥러닝을 활용한 의료영상 분석 연구에 비해 훨씬 큰 규모의 학습 데이터입니다. 그리고 모두 숙련된 전문의 수준에 뒤지지 않는 분류 성능을 보였습니다. 특히 스탠퍼드 대학의 연구는 모바일 기기에 쉽게 탑재되어 활용될 수 있기 때문에 그 활용가치는 굉장히 크다고 평가받습니다. 구글의 연구에서 주목할만한 점은 약 6만 장의 학습 데이터 이상에서는 성능 향상이 없었다는 것입니다. 일정 수준 이상의 예측 능력을 확보하기 위해 필요한 학습 데이터의 수는 일반화하여 결론 내릴 수 없는 어려운 문제입니다. 하지만 의료영상은 대부분 통제된 상황하에서 획득되는 만큼 일반적인 영상에 비해 데이터 간의 산포가 예측 가능하고, 그래서 이미지 넷에 비해 상대적으로 적은 수의 학습 데이터로도 좋은 일반화 성능을 보일 수 있습니다.

[그림3] 딥러닝 기술이 적용된 의료영상 분야 [4] [그림3]에 보이는 다양한 의료영상 분야에서 현재 딥러닝 기반 모델링 방식이 가장 좋은 성능을 내는 것으로 알려져 있습니다[4]. X선 영상에서 CT, MRI, 나아가 병리 조직 영상까지 거의 대부분의 영역에서 딥러닝 기술의 도입이 아주 빠르게 진행되고 있고 좋은 예측 성능들이 보고되고 있습니다. 이렇게 빠르게 확산될 수 있는 이유는 앞에서 언급한 바와 같이 딥러닝 방식이 데이터로부터 주요 특징들을 스스로 학습하기 때문에 주어진 과제와 영상에 최적화된 특징을 직접 디자인할 필요가 없기 때문입니다. 즉, 충분한 양의 학습 데이터만 확보되면 바로 학습을 시작할 수 있고 꽤 높은 확률로 좋은 성능을 얻을 수 있습니다.

지금까지의 의료영상 분석 관련 연구들 대부분은 기술적인 관점에서 봤을 때 기본적인 지도학습의 범주에 속합니다. 다시 말해서 학습 데이터는 입력과 정답, 이렇게 쌍으로 주어지고 입력과 정답 간의 함수관계를 CNN이 학습하는 방식입니다. 앞서 살펴본 바와 같이 의료영상 분석 분야에서 다루고 있는 과제들이 일반적인 영상의 분석 과제들과 공통되기 때문에 전반적인 기술 발전의 흐름이 컴퓨터 비전 분야의 흐름과 매우 유사합니다. 그렇지만 연도별 연구의 수에서 알 수 있듯이 컴퓨터 비전 분야의 연구와 약간의 시간차를 두고 기술 개발이 이뤄지고 있는데, 이는 딥러닝 기반의 기술을 연구할만한 공개된 대규모 데이터를 의료영상 분야에서는 찾기 어렵기 때문입니다.

딥러닝을 위한 의료영상 데이터

딥러닝 기반의 인공지능 기술은 많은 수의 학습 데이터를 필요로 합니다. 그리고 기술 개발의 가속화를 위해서는 이러한 데이터가 연구자들에게 공개되어 쉽게 접근 가능해야 합니다. 현재 하루가 멀다 하고 새로운 시도와 기술이 쏟아지고 있는 컴퓨터 비전 영역의 연구결과들은 이미지 넷 데이터가 없었다면 그 속도가 매우 더뎠을 것입니다. 하지만 지금까지 의료영상 분석의 연구 대부분은 많아야 수천 개의 데이터를 활용했음에도 불구하고 상대적으로 좋은 성능을 보일 수 있었는데 이는 전이 학습(transfer learning)이라는 방식의 효과 덕분이었습니다[7]. 여기서의 전이 학습의 의미는 이미 이미지 넷 데이터 등으로 학습되어 있는 모델을 시작점으로 의료영상의 학습을 시작하는 것을 말합니다. 전이 학습이 효과적인 이유는 이미지 넷 데이터와 같은 일반적인 영상과 의료영상이 어느 정도 공통된 특징을 가지고 있기 때문입니다. 특히 모서리, 선분 등과 같은 낮은 차원의 특징들을 공유하기 때문에 이미 학습된 모델 전체를 시작점으로 삼지 않고 하위 레이어들만 가져와도 큰 효과를 얻을 수 있습니다[8]. 그렇다고 하더라도 역시 학습 데이터는 많으면 많을수록 좋습니다.

의료영상은 그 특성상 대규모의 학습 데이터를 개인 혹은 하나의 기관에서 확보하는 것이 일반적인 영상에 비해 더 어렵습니다. 이런 이유 아래 인공지능 기반 의료영상 분석 기술의 개발에 필수적인 대규모의 의료영상 데이터를 공개하는 시도들이 의료영상 분석 대회라는 형태로 이루어지고 있습니다. 이렇게 의료영상 데이터가 연구를 위해 공개되는 흐름에는 역시 영상의 분석에 있어 딥러닝이 탁월한 효과를 보이고 있기 때문입니다.

이 흐름의 대표적인 예가 작년에 시작된 The Digital Mammography DREAM Challenge[9]와 올해 열렸던 Data Science Bowl 2017[10]입니다. DREAM Challenge는 총 8만 4,000명 이상의 수검자들로부터 모은 64만 개 이상의 유방촬영영상을 학습하여 특정 유방촬영영상에 유방암으로 의심되는 조직이 존재할 가능성을 예측하는 대회입니다. 이전까지의 의료영상 관련 대회에서는 찾아보기 힘들었던 대규모의 데이터를 제공했고 이에 많은 연구자들의 관심을 끌었지만, 막상 뚜껑을 열어보니 실제 악성 병변을 가지고 있는 검사의 수는 수백 건에 불과했고 제공된 데이터를 직접 다운로드하여 사용하는 방식이 아니라 아쉬움이 남습니다. 이 대회는 1차 경쟁 단계(competitive phase) 및 2차 협업 단계(collaborative phase)로 나뉘어 있는데 현재 루닛은 1차 단계 결과 상위 8개 팀만을 초청하여 진행되는 2차 단계에 참여하여 과제를 수행하고 있습니다. Data Science Bowl 2017은 약 1,400건의 흉부 CT 촬영 영상을 이용하여 그 영상에 암조직으로 의심되는 병변이 존재하는지 여부를 예측하는 대회입니다. 제공된 데이터 중 실제 악성 종양이 포함된 케이스는 약 360건 정도로 앞서 유방촬영영상 데이터와 같이 정상 데이터에 비해 그 수가 적습니다.

공개데이터 관점에서 올해 가장 흥미로운 소식은 NVIDIA의 GPU 기술 학회(GPU technology conference, GTC)에서 스탠퍼드 대학이 발표한 Medical ImageNet 프로젝트입니다[11]. 프로젝트의 이름에서 알 수 있듯이 의료영상으로 이미지넷과 같은 대규모 공개 데이터셋을 만들겠다는 내용입니다. 이 데이터셋은 의료영상뿐 아니라 연관된 유전체 데이터, 환자의 전자의무기록 등 상당히 넓은 범위를 모두 포함합니다. 데이터셋의 크기는 대략 0.5 페타바이트, 총영상의 수는 약 10억 건 정도로 예상되고 있습니다. 아직 구체적인 공개시기는 알려진 바 없지만 공개가 되면 관련 연구의 발전에 상당한 기여를 할 수 있을 걸로 기대됩니다.

위와 같이 우리에게 어느 정도 익숙한 방사선영상 이외의 또 다른 형태의 의료영상으로는 병리 조직 슬라이드를 스캔한 병리 영상이 있습니다. 병리 영상의 판독은 조직의 악성 유무와 전이 여부를 판단하고 이러한 진단 결과가 향후 환자의 치료 계획에 영향을 미치는 아주 중요한 행위입니다. CAMELYON 대회[12]는 이 병리 영상을 이용하여 유방암 전이를 검출하는 것을 목표로 작년부터 개최되어 오고 있습니다. 올해 대회에서는 1,000장의 슬라이드 영상이 참가자들에게 제공되었습니다. 2016년에 열린 유방암의 진행 정도를 예측하는 Tumor Proliferation Assessment Challenge(TUPAC)[13]에서는 약 800장의 슬라이드 영상을 제공했고 이 대회의 총 세 가지 세부과제에서 루닛은 모두 1위를 기록하기도 했습니다.

위에 언급된 대회들에서 상위 성적을 얻은 참가팀들은 모두 딥러닝, 특히 CNN 기반의 모델을 이용합니다. 일반적인 영상 분석과 마찬가지로 의료영상에서도 대부분의 영역에서 현재 가장 좋은 성능을 보이는 기술은 딥러닝임을 다시 한번 확인할 수 있습니다.

의료영상 데이터의 특징과 향후 과제

의료영상은 일반적인 영상과 데이터 측면에서 확연히 다른 몇 가지 특징들을 가지고 있는데 이러한 특징들을 모델링 과정에 반영한 기술 개발이 앞으로 활발해질 것으로 예상됩니다. 이러한 기술은 새로운 알고리즘의 개발, 최적화된 네트워크 모형의 수립 등을 필요로 할 수 있습니다. 예를 들어, 2015년에 소개된 U-Net[14] 은 적은 수의 영상을 이용하여 세포 경계를 검출하는데 효과적인 새로운 네트워크 모형이라고 알려져 있고, 이 연구에서 현미경 영상의 특징을 고려한 탄성 변형(elastic deformation) 방식으로 데이터를 생성하여 좋은 검출 성능을 얻었습니다.

의료영상에서 공통적으로 찾아볼 수 있는 몇 가지 특징들은 아래와 같습니다.

먼저, 대량의 데이터를 얻기 힘들고 게다가 지도학습에 필요한 레이블 정보를 얻는 건 더욱 어렵습니다. PACS가 도입된 이래 병원 내에서 촬영되는 의료영상들은 모두 저장되어 왔기 때문에 데이터 수는 굉장히 많습니다. 하지만 여러 제도적, 사회적 이슈들로 인해 이러한 데이터를 손쉽게 외부에서 접근하기 어렵고 실제 활용하기 위해서는 축적된 데이터를 학습에 활용할 수 있도록 정제하는 작업이 선행되어야 합니다. 이 부분이 많은 시간과 노력을 요합니다. 또한 숙련된 전문가만이 영상을 판독할 수 있기 때문에 지도학습에 필요한 레이블 정보를 얻는 것 또한 많은 시간과 노력이 필요합니다. 예를 들어, 객체 검출 방식을 통해 의료영상에서의 병변의 위치를 알아내고자 한다면 기본적으로 학습 데이터에 병변의 위치가 모두 표기되어 있어야 하는데 PACS에 있는 그대로의 의료영상들은 이러한 정보를 담고 있는 경우가 거의 없기 때문에 새롭게 병변의 위치를 표시해야 합니다. 데이터를 마련하는 데 있어 필요한 자원을 최소화하면서도 좋은 성능을 기대할 수 있는 방법론의 개발이 중요합니다.

다른 특징은 영상의 크기입니다. 2015년 이미지넷 대회의 모든 과제에서 압도적인 성능으로 1위를 차지한 Residual Network[15]는 영상을 분류할 때 짧은 변 기준으로 최대 640 픽셀 크기의 영상을 입력으로 받습니다. 반면 흉부 X선 영상은 한변의 크기가 2000픽셀 이상이고 유방촬영영상의 경우 4000픽셀이 넘습니다. 또한 병리 조직 세포를 스캔한 병리 영상의 경우는 한변의 크기가 10만 픽셀보다 큰 경우가 대부분입니다. 만약 영상단위로 분류를 하고자 한다면 상당히 많은 계산 자원을 필요하게 됩니다. 정보의 손실 없이 주어진 데이터를 활용하기 위하여 이러한 엄청난 크기의 입력 영상을 효율적으로 처리할 수 있는 알고리즘의 개발이 필요합니다.

또 다른 특징은 영상에 존재하는 객체의 크기입니다. 일반적인 영상에서 그 영상의 클래스는 특정 객체의 유무로 판단하게 됩니다. 예를 들어, 고양이 클래스에 속한 영상은 고양이라는 객체를 가지고 있습니다. 의료영상에서는 보통 정상과 비정상 영상을 구분하는 것이 목적이기 때문에 비정상 병변이 영상의 클래스를 결정하는 객체라고 볼 수 있습니다. 의료영상은 이 객체의 크기가 일반적인 영상에 비해 상대적으로 굉장히 작은 경우가 많습니다. 물론 주어진 데이터안에 존재하는 모든 객체들의 위치를 알고 있다면 문제없겠지만 실제로 그런 데이터를 수집하는 것은 현실적으로 많은 자원을 요구하기 때문에 한정된 정보를 활용하면서도 이렇게 작은 객체를 잘 검출할 수 있는 기술을 필요로 합니다.

언급된 것들 이외에 주어진 의료영상의 고유한 특징을 학습 과정에 반영시키는 방향으로 기술 개발이 이루어진다면 데이터 관점에서 경제적이면서 좋은 성능을 보이는 모델을 얻을 수 있을 것입니다.

마치며

현재까지 보고되고 있는 인공지능 기술을 활용한 의료영상 분석에 관한 연구들을 보면 그 결과가 놀랍습니다. 소개드린 바와 같이 수년간 수련한 전문의 수준의 진단 성능을 데이터로부터 학습된 모델이 보여주고 있으니까요. 하지만 실제로 널리 활용되기까지는 더 광범위하고 다양한 검증을 거쳐야 합니다. 의료라는 산업의 특성상 실제로 활용되기 위해서는 인공지능 시스템이 좀 더 예측 가능해야 하고, 다양한 상황하에서도 일관된 성능을 보여야 하며, 예측한 결과에 대한 최소한의 해석이 가능해야 합니다. 앞으로 이런 관점에서의 기술 개발과 함께, 개발된 시스템에 대한 많은 임상 연구들이 발표되기를 기대합니다.

글 | 황상흠 [email protected]

인공지능 기술이 인류의 번영에 도움이 될거라 믿고 있는 엔지니어입니다. 오랜 시간에 걸쳐 축적된 지식의 혜택을 전세계에서 누구나 누릴 수 있게 된다면 얼마나 멋질까요. 그런 세상을 꿈꾸며 의료 분야의 인공지능을 연구하고 있습니다.

[1] 논문 : Lodwick, G. S. (1966), “Computer-aided diagnosis in radiology: A research plan”, Investigative Radiology, 1, 72-80.

[2] 참고 : https://en.wikipedia.org/wiki/Picture_archiving_and_communication_system

[3] 논문 : Doi, K. (2007), “Computer-aided diagnosis in medical imaging: Historical review, current status and future potential”, Computerized Medical Imaging and Graphics, 31, 198-211.

[4] 논문 : Litjens, G. et al. (2017), “A survey on deep learning in medical image analysis”, arXiv:1702.05747v2.

[5] 논문 : Gulshan, V. et al. (2016), “Development and validation of a deep learning algorithm for detection of diabetic retinopathy in retinal fundus photographs”, The Journal of the American Medical Association (JAMA), 316, 2402-2410.

[6] 논문 : Esteva, A. et al. (2017), “Dermatologist-level classication of skin cancer with deep neural networks”, Nature, 542, 115-118.

[7] 논문 : Shin, H.-C. et al. (2016), “Deep convolutional neural networks for computer-aided detection: CNN architectures, dataset characteristics and transfer learning”, IEEE Transactions on Medical Imaging, 35(5), 1285-1298.

[8] 논문 : Hwang, S. and Kim, H.-E. (2016), “A novel approach for tuberculosis screening based on deep convolutional neural networks”, In Proceedings of SPIE Medical Imaging, 9785, 97852W-1.

[9] 참고 : https://www.synapse.org/Digital_Mammography_DREAM_Challenge

[10] 참고 : https://www.kaggle.com/c/data-science-bowl-2017

[11] 참고 : https://gputechconf2017.smarteventscloud.com/connect/sessionDetail.ww?SESSION_ID=110157

[12] 참고 : https://camelyon17.grand-challenge.org/

[13] 참고 : http://tupac.tue-image.nl/

[14] 논문 : Ronneberger, O., Fischer, P. and Brox, T. (2015), “U-Net: convolutional networks for biomedical image segmentation”, Medical Image Computing and Computer-Assisted Intervention (MICCAI), 9351, 234-241.

[15] 논문 : He, K. et al. (2015), “Deep residual learning for image recognition”, arXiv:1512.03385.

엄청난 데이터+딥러닝 기술 한국, 의료영상 진단의 성지 될 수 있다

Article at a Glance 의료 영상 장비를 쓰는 의사는 최소한의 방사선량으로 최대한의 진단 정보를 알아내야 한다. 하지만 방사선량이 적은 X-Ray 장비는 MRI나 CT보다 덜 위험하지만 그만큼 정보량이 적다. 또 의사의 컨디션이나 숙련도에 따라 판독 결과가 달라진다. 컴퓨터를 이용한 보조 진단(CAD) 기술이 나오기도 했지만 정확도에 문제가 있었다. 그런데 2012년부터 ‘딥 러닝’ 기술이 급속하게 발전하기 시작하며 진단의학계의 판도가 달라지고 있다. 사람의 얼굴을 사람보다 더 잘 구별해내는 인공지능 알고리즘이 개발되면서 이를 진단의학에 사용하려는 움직임이 국내외에서 활발해지고 있다. 특히 디지털 의료 데이터가 풍부한 한국은 딥러닝 영상 진단 분야에서 유리한 입지를 차지할 수 있을 것이다. 최근 IBM이 의료 영상 처리 전문 기업인 Merge Healthcare를 10억 달러에 인수했다. 자연어 처리 능력을 이용한 텍스트 의료 데이터 분석에 특화됐던 자사의 왓슨(Watson) 헬스 플랫폼 위에 딥러닝이라는 인공지능 기술에 기반한 의료 영상 분석 기능을 추가하겠다는 강한 의지를 보여주는 사례다. 2015년 7월 권위 있는 인공지능 학회인 ICML(International Conference on Machine Learning)의 딥러닝 워크숍에서는 의료 영상 분야가 딥러닝의 유망한 응용 분야라는 예측도 제기됐다. 딥러닝 기술로 의료 영상 분석을 혁신하겠다는 목표로 지난 2014년 9월에 설립된 미국의 Enlitic사는 1년 만에 500만 달러의 투자금을 유치하기도 했다. 누구나 알 만한 거대 기업부터 학계, 스타트업에 이르기까지 이런 일관적인 움직임을 보인다는 것에는 분명 그럴 만한 이유가 있을 것이다. 언뜻 보면 서로 관련이 없을 것 같은 인공지능 기술과 영상의학이지만 그 속을 들여다보면 굉장히 깊은 연관성이 있으며 지난 1∼2년 사이에 비약적인 발전을 보인 딥러닝 기술 덕분에 영상의학은 새로운 도약을 눈앞에 두게 됐다. 본 글에서는 이런 혁신에 대한 이해를 돕기 위해 영상의학과 딥러닝에 대해 설명하고, 이 두 분야가 만나서 이뤄지는 영상의학의 혁신 포인트, 그리고 최근 사례들을 소개하도록 하겠다. 영상의학의 목표 빌헬름 뢴트겐이 X-Ray를 발견하면서 시작된 영상의학은 현재 의료 진단 및 치료에서 매우 중요한 역할을 담당하고 있다. 초기에는 골절과 같은 비교적 간단한 진단에만 이용됐으나 촬영 장비의 눈부신 발전으로 인해 다양한 질병의 진단이 가능해졌으며 특히 각종 암의 조기 진단에 활발하게 이용된다. 영상의학의 목표는 최소한의 방사선량으로 최대한의 진단 정보를 알아내는 것이다. 방사선 조사량이 많을수록 더 좋은 품질의 영상을 얻을 수 있지만 그만큼 방사선으로 인한 위험성도 커지기 때문에 조기 진단에서는 방사선량이 가장 적은 X-Ray나 초음파가 많이 쓰인다. 이런 영상들에서 이상 소견이 나타나면 더 자세한 정보를 얻을 수 있는 CT나 MRI를 사용하게 된다. 하지만 정보량이 부족한 X-Ray에서 빈틈 없이 완벽한 진단을 하는 것은 아직 어렵고 의사의 컨디션이나 숙련도에 따라 판독 결과가 달라지는 문제가 있어 이를 해결하고자 하는 여러 노력들이 이뤄지고 있다. 이 주제를 조금 더 구체적으로 설명하기 위해 현재 미국에서 가장 많이 발생하는 여성 암인 유방암을 예로 들어 설명하도록 하겠다. 유방암의 경우 특화된 X-Ray 영상인 유방촬영술(Mammography)을 이용해 조기 진단을 수행한다. 유방촬영술은 1980년대부터 활용되기 시작했는데 초기에는 의사마다 판독 기준 및 결과 작성 방법이 제각각이었다. 그러다 1986년 BI-RADS(Breast Imaging Reporting and Data System)라 불리는 표준이 미국에서 제정된다. 이 표준은 2013년에 개정된 5판까지 발전하면서 객관적인 유방암 조기진단을 달성하는 데 큰 기여를 했다. 하지만 이런 노력에도 아직 유방촬영술을 통한 유방암의 조기 진단은 완벽하지 않다. 미국 BCSC(Breast Cancer Surveillance Consortium) 자료에 따르면 유방촬영술은 실제 암을 찾아내는 비율인 민감도(Sensitivity)가 84.4%에 그치고 있다. 그렇다고 해서 더 비싸거나 방사선 노출이 많은 MRI, CT를 조기 검진용으로 쓰는 것은 현실적으로 어렵고 위험하다. 결국 추가적인 방사선 노출 없이 현재 얻어지고 있는 영상에서 더 많은 암의 흔적을 찾아내는 방법이 고안돼야 한다. 컴퓨터 비전: 인간의 시각 인지 능력을 따라잡기 위한 노력 의료 영상은 인체의 내부를 시각화한 데이터이고, 영상의학은 다양한 임상 경험을 바탕으로 이 데이터에서 질병과 상관 관계가 높은 특징들을 정리하는 것이다. 유방암의 경우 종괴, 미세석회화, 구조 왜곡, 그리고 비대칭 음영 등의 특징들이 BI-RADS 표준에 정의돼 있다. 일반 사진과는 다르게 의미 있는 특징을 정의하는 것이 매우 어려운 의료 영상에서 이렇게 체계적인 판독 체계를 수립한 것은 더 나은 의료 진단을 위해 밤낮으로 연구한 의사들의 빛나는 결과물이다. 굉장히 다양한 모습으로 나타나는 암의 그림자를 수없이 관찰하고 병리 진단과 대조해 일반화된 지식의 형태로 가공하는 과정을 통해 비로소 영상의학이라는 학문이 완성돼 가는 것이다. 하지만 영상의학은 인간의 시각적 인지능력을 통해 이뤄져 왔기 때문에 특히 정보량이 부족한 조기 검진 분야에서는 한계에 부딪히게 된다. 대단히 섬세한 시각적 인지 과정에 대한 지식을 제한된 수의 예시 영상과 글로 전달해야 함은 물론 의사 개개인의 경험과 소질, 그리고 날마다 다를 수 있는 컨디션에 따른 인지 능력의 편차가 존재하기 때문이다. 따라서 완벽에 가까운 의료 영상 진단을 위해 인간의 시각적 인지능력을 보조할 수 있는 도구를 개발하려는 노력은 매우 자연스러운 흐름이라고 할 수 있다. 인간의 시각적 인지능력을 모사하기 위한 연구는 컴퓨터 비전이라는 분야에서 이뤄져 왔다. 전자공학과 컴퓨터과학이 주도해온 이 분야는 1999년 브리티시컬럼비아대의 데이비드 로위(David G. Lowe) 교수가 Scale Invariant Feature Transform(SIFT)라고 이름 지은 시각적 특징 표현 방법이 제안되면서 급격하게 발전하기 시작했다. 이 방법을 이용하면 영상 안의 물체의 크기에 상관없이 일관된 특징을 표현할 수 있어 Support Vector Machine(SVM) 같은 분류기를 통해 쉽게 물체의 종류를 인식할 수 있다. 이후에도 Histograms of Oriented Gradients(HOG) 등의 표현 방법들이 제안됐으나 SIFT는 2010년대까지 컴퓨터 비전 분야에서 가장 보편적인 특징 표현 방법으로 인기를 끌었다. 이렇게 컴퓨터 비전 기술이 발달하면서 자연스럽게 영상의학에도 영향을 미치기 시작했다. 미국 캘리포니아에 위치한 R2 Technology사는 이런 컴퓨터 비전 기술을 유방촬영술 판독 분야에 적용한 ImageChecker라는 제품을 출시해 세계 최초로 컴퓨터 보조 진단(Computer-Aided Detection/Diagnosis, CAD) 시장을 개척했다. 급기야 2002년에는 CAD를 보조 판독 용도로 사용하는 것에 대한 보험 코드를 받는 데 성공함으로써 CAD가 미국 전역에 빠르게 보급됐다. 이런 성공에 힘입어 R2 Technology사는 2006년 HOLOGIC사에 220만 달러에 인수됐고 현재도 많은 의료 현장에서 사용되고 있다. 그 외에도 iCAD, VuCOMP, Riverrain Technologies와 같이 다른 영상의학 분야를 위한 CAD를 개발하는 훌륭한 회사들이 계속해서 나타났고, CAD는 영상의학에서 하나의 세부 분야로 자리잡으며 승승장구하는 듯했다. 하지만 2007년에 저명한 의학저널인 에 게재된 유방촬영술 CAD가 판독 결과에 주는 영향을 분석한 논문이 등장하면서 분위기가 반전되기 시작했다. CAD를 사용한 경우가 사용하지 않은 경우보다 오히려 더 낮은 판독 정확도를 보였다는 충격적인 연구 결과였기 때문이다. 정확도가 떨어졌던 가장 큰 이유는 의심되는 영역을 하나라도 놓치지 않게 하기 위해서 과도하게 많은 마커를 표시했기 때문이다. 유방 촬영술용 CAD는 조기 진단이라는 목적에 맞게 설계돼 정확도를 희생하더라도 암을 찾을 확률을 극대화하는 방향으로 동작하는데, 이는 오히려 CAD가 영상의학계에서 부정적인 이미지를 가지게 되는 원인이 돼버렸다. 이런 이유들로 인해 CAD의 입지가 좁아졌다. 하지만 2010년대 초반 CAD 기술의 가장 기초가 되는 컴퓨터 비전 기술의 수준이 퀀텀 점프를 하게 된 사건이 발생하면서 컴퓨터는 영상의학에서 다시 한번 중요한 기회를 맞이하게 된다. 바로 딥러닝의 등장이다. 딥러닝을 통한 컴퓨터의 비약적인 시각 인지 능력 향상 딥러닝은 기술적 용어라기보다는 마케팅 용어에 가깝다. 조금 더 기술적인 표현으로는 딥 뉴럴 네트워크(Deep Neural Network)라고 하며 이미 오래 전부터 연구돼 왔던 인공신경망(Artificial Neural Network)을 다층구조로 확장한 것이다. 인간의 뇌가 뉴런과 시냅스로 구성돼 있다는 점에 착안해 만들어진 기계학습 기술인데, 학습에 필요한 빅데이터와 이를 현실적인 시간에 처리할 수 있게 도와주는 고성능 컴퓨팅 시스템을 만나 다층구조의 인공신경망을 구현하는 데 성공했다. 그 결과 기존 방법들을 훨씬 뛰어넘는 놀라운 인지 능력을 보여주고 있다. 딥러닝이 앞서 설명한 SIFT와 같은 방식보다 얼마나 높은 성능을 보이는지 입증한 유명한 사건이 있다. 2010년부터 시작된 Imagenet Large-Scale Visual Recognition Challenge(ILSVRC)라는 이미지 인식 대회가 있는데 1000가지 물체 종류 중에서 주어진 이미지 안에 있는 물체가 어디에 속하는지 맞춰야 하는 굉장히 어려운 문제를 풀어야 한다. 대회 2년 차인 2011년까지는 앞서 설명한 SIFT에 기반한 방식들이 주를 이뤘고, 정확도는 74% 수준에 머무르고 있었다. 사실 그 당시에는 이 정도의 정확도도 대단한 것이었다. 하지만 바로 다음 해인 2012년에 엄청난 사건이 벌어졌다. 캐나다 토론토대 Geoffrey Hinton 교수와 그의 제자인Alex Krizhevsky의 팀인 Super Vision이 완전히 새로운 방식인 Deep Neural Network을 이용해 전년도 기록을 10%나 뛰어넘은 84%의 정확도를 달성해 버린 것이다. 게다가 이 팀은 바로 다음 해에 DNN Research라는 회사를 설립해 구글에 인수됐다. 이렇게 놀라운 성능은 딥러닝이 가지는 특징 학습(Feature Learning)이라는 능력에 기인한다. SIFT와 같이 인간이 직접 설계한 특징 표현 방법은 예측 가능한 시나리오에서는 잘 동작할 수 있지만 처음 보는 패턴을 적절한 특징으로 표현하는 데 있어서는 한계점을 보일 수밖에 없다. 하지만 딥러닝은 대량의 학습 데이터로부터 가장 최적의 특징 표현을 스스로 학습해 내기 때문에 일반화 능력이 굉장히 좋으며 이를 통해 높은 성능을 보일 수 있게 된 것이다. 1∼2%의 정확도로 경쟁하던 분야에서 갑자기 10%의 성능 향상을 보인 게임체인저가 나타나자 컴퓨터 비전을 연구하는 사람들은 너도나도 이 새로운 기술에 달려들기 시작했다. 2013년 대회에서는 상위 10등 안의 모든 참가팀이 딥러닝 기술을 이용했으며 매년 최고 기록이 경신돼 2015년에는 구글이 비공식 대회 기록으로 95.2%를 달성, 인간의 정확도로 알려졌던 95%를 넘어서기에 이른다. 2015년에 구글이 보여준 이미지 인식 성능은 단순히 95%를 넘는 정확도를 보였다는 사실을 넘어 이제 인간이 자신보다 뛰어난 시각적 인지능력을 가진 기계를 설계할 수 있게 됐다는 상징적인 의미를 가진다. 이런 사례는 얼굴 인식 분야에서도 찾아볼 수 있다. 얼굴 사진을 통해 누구인지 알아내는 문제는 ILSVRC의 물체 인식 문제에 못지 않게 난이도가 높은 문제에 속했다. 하지만 딥러닝 기술의 잠재력이 알려지면서 여러 연구진이 이를 얼굴 인식에도 접목하기 시작했고, 첫 의미 있는 성과인 DeepFace가 페이스북에서 발표됐다. 1만3323장의 사진을 5749명의 사람 중에서 정확히 인식해야 하는 어려운 작업에서 무려 97.35%에 달하는 인식률을 달성했다. 동일한 작업을 인간이 할 경우의 정확도는 97.53%로, 페이스북의 얼굴 인식 엔진인 DeepFace와 거의 동일한 수준이었다. 그리고 몇 개월 후 구글은 동일한 작업을 99.63%의 정확도로 수행하는 FaceNet을 발표, 인간의 수준을 가볍게 넘어버린다. 이렇게 인간을 절대 넘을 수 없을 것 같았던 컴퓨터의 시각적 인지능력이 단 2년 만에 딥러닝 기술에 의해 폭발적으로 성장하게 됐다. 딥러닝이 영상의학에서 보여줄 잠재력 앞서 말했듯이 영상의학은 다년간 의료영상을 관찰하면서 알게 된 병변의 특징들을 일반화해서 정리한 학문이다. 그동안은 컴퓨터의 인지 능력이 인간의 수준을 넘지 못해 한계점을 보였다면 이제는 인간보다 더 뛰어난 일반화 능력을 가지는 딥러닝이라는 기술이 나타났기 때문에 영상의학과 컴퓨터의 관계는 새로운 국면에 접어들게 됐다. 단순히 인간이 할 수 있는 작업을 돕는 보조기구를 넘어서 인간보다 더 잘 볼 수 있는 눈을 가진 새로운 도구로써의 역할을 하게 되는 것이다. 이와 관련해, 영상의학은 아니지만 병리 조직검사 분야에서 딥러닝이 가능성을 보여준 사례가 있다. 2012년 International Conference on Pattern Recognition(ICPR)에서 개최된 유사분열세포 검출 대회에서 딥러닝을 이용한 스위스의 IDSIA 연구팀이 78.2%의 정확(F-Score)도로 우승을 차지한 것이다. 유사분열세포의 수를 세는 작업은 병리 조직검사 과정에서 빈번하게 일어나는 일이지만 매우 노동집약적인 작업이고 의사마다 판단이 다를 수 있어 객관성 향상이 요구되고 있는 상황이다. 이 연구팀은 대회 우승 이후에도 관련 연구를 계속해 사전 지식이 없는 동등한 상황에서 인간보다 딥러닝 알고리즘이 분류 기준을 더 잘 학습할 수 있음을 보이기도 했다. 영상의학 시장은 연 35조 원에 달할 만큼 큰 시장이다. 이 분야를 혁신할 수 있는 새로운 기술, 딥러닝이 등장했기 때문에 사업적으로도 매력적인 기회가 열렸다고 볼 수 있다. 스타트업들도 이런 기회를 잡기 위해 분투하고 있다. 필자가 운영하는 딥러닝 스타트업 루닛은 유방촬영술과 유방 병리 조직검사 프로세스에 딥러닝 기술을 적용한 Scope라는 제품을 개발하고 있다. 유방촬영술을 위한 Scope R, 유방 병리 조직검사용 제품인 Scope P가 있으며 특히 Scope P는 스마트폰 카메라로 촬영한 현미경 영상을 딥러닝으로 분석하는 간편한 시스템으로 진단 보조 제품이 보편화되지 않은 병리과에서 좋은 반응을 보이고 있다. 그 외에도 딥러닝 기술로 폐 영상을 분석하는 뷰노코리아도 탄탄한 기술력으로 시장 진입을 노리고 있다. 미국에서는 2013∼2014년에 창업한 Enlitic, MetaMind, Butterfly Network, 그리고 SemanticMD와 같은 스타트업들이 딥러닝과 의료 영상 분석에 적용하기 위해 사업을 전개하고 있다. Enlitic과 MetaMind, SemanticMD는 방사선 이미지들을 주력으로 다루고 있고 Butterfly Network 사는 독특하게 자체 개발한 휴대용 초음파 기기에서 얻어진 영상을 딥러닝으로 분석하려고 하고 있다. 이렇게 여러 회사들이 이 시장에 뛰어들고 있지만 아직 제품이 나오고 수익을 창출하고 있는 회사는 없는 상태다. 이런 소프트웨어들도 결국 의료기기에 해당하기 때문에 철저한 임상실험, 까다로운 FDA 승인 절차 등의 과정을 거치게 되며 이로 인해 실제로 병원에서 이런 제품들이 정식으로 사용되기까지는 오랜 시간이 걸릴 것이다. 스타트업뿐만 아니라 대기업들도 이런 기회를 선점하기 위해 빠르게 움직이고 있다. IBM은 왓슨 플랫폼을 영상의학에도 적용하기 위해 Merge Healthcare사를 거액에 인수했고, 구글과 마이크로소프트는 오랫동안 내부적으로 영상의학에 대한 연구를 지속해 왔기 때문에 딥러닝을 접목한 여러 가지 실험들을 꾸준히 계속하고 있다. 이런 치열한 경쟁에서 살아남기 위해서는 더 많은 의료 영상 데이터를 확보하고 이를 이용해서 고객이 실제로 원하는 좋은 제품을 만드는 것에 집중해야 한다. 이 점에서 한국이 가지는 강점이 있다. 바로 딥러닝의 핵심인 데이터가 풍부하다는 것이다. 국내 대형 병원은 일찍이 의료 영상을 디지털 형태로 보관해 왔고 환자들이 미국 대비 훨씬 적은 비용으로 의료 서비스를 받을 수 있어 병원에 대량의 임상 정보가 보관돼 있다. 이런 장점을 최대한 활용하면 새롭게 태동하는 이 시장에서 한국이 선제적인 위치를 차지할 수 있는 차별화 포인트가 될 것이다. 백승욱 루닛(Lunit) 대표 [email protected] 필자는 카이스트에서 전자공학을 전공했고 동 대학원에서 박사 학위를 취득했다. 현재는 딥러닝을 이용한 의료 영상 분석 기술을 개발하는 루닛의 대표를 맡고 있다.

의료 영상에 최적화된 딥러닝 모델의 개발

Deep learning has recently become one of the most actively researched technologies in the field of medical imaging. The availability of sufficient data and the latest advances in algorithms are important factors that influence the development of deep learning models. However, several other factors should be considered in developing an optimal generalized deep learning model. All the steps, including data collection, labeling, and pre-processing and model training, validation, and complexity can affect the performance of deep learning models. Therefore, appropriate optimization methods should be considered for each step during the development of a deep learning model. In this review, we discuss the important factors to be considered for the optimal development of deep learning models.

키워드에 대한 정보 의료 영상 딥 러닝

다음은 Bing에서 의료 영상 딥 러닝 주제에 대한 검색 결과입니다. 필요한 경우 더 읽을 수 있습니다.

이 기사는 인터넷의 다양한 출처에서 편집되었습니다. 이 기사가 유용했기를 바랍니다. 이 기사가 유용하다고 생각되면 공유하십시오. 매우 감사합니다!

사람들이 주제에 대해 자주 검색하는 키워드 CT 영상에서 폐 영역만 뽑아보자! – Python, Deep Learning

  • 개발
  • 인공지능
  • 파이썬
  • 이미지처리
  • python
  • ai
  • imageprocessing
  • deeplearning
  • machinlearning
  • segmentation
  • image

CT #영상에서 #폐 #영역만 #뽑아보자! #- #Python, #Deep #Learning


YouTube에서 의료 영상 딥 러닝 주제의 다른 동영상 보기

주제에 대한 기사를 시청해 주셔서 감사합니다 CT 영상에서 폐 영역만 뽑아보자! – Python, Deep Learning | 의료 영상 딥 러닝, 이 기사가 유용하다고 생각되면 공유하십시오, 매우 감사합니다.

Leave a Comment