머신 러닝(Machine Learning) 머신 러닝은 인공지능(AI, Artificial Intelligence)의 한 분야로서, 방대한 양의 빅데이터를 컴퓨터에 주입시켜, 패턴을 분석시키고 이를 토대로 훈련과 학습을 이루어내는 기술적 방안을 일컫는 말이다. 딥 러닝(Deep Learning)
▲ 뉴런(Neuron), 이미지 출처: https://www.atarlife.com/mirror-neurons
딥 러닝은 앞서 언급한 머신 러닝의 한 분야로서, 그 알고리즘의 특성에 의해 인간의 뇌에서 정보를 전달하고 처리하는 뉴런(Neuron)에 비교되는 기술이다. 핵심은 인간의 뉴런과 같이 인공 신경망으로 설계되어 기계적으로 정확한 조건이나 데이터를 기반으로 판단하는 것이 아니라, 학습을 통해 사람과 같은 사고를 할 수 있도록 스스로 분석하고 판단할 수 있다는 것이다. 딥 러닝의 구조
▲ 딥 러닝의 신경망 네트워크
인간의 신경망을 본떠 만든 딥 러닝은 그 작동 구조 역시 동일한 맥락으로 설계되었다. 즉 학습 방법에 있어 쉽게 예를 들면, 어떠한 데이터가 입력됐을 때, 다양한 종류의 신경망이 각기 다른 역할로 데이터를 분석하여 패턴을 발견해가며 데이터를 정의하기에 이른다. 이렇게 신경망 네트워크가 복잡하면 복잡해질수록 그 정확도가 높아지며, 최근 세간의 화제였던 구글의 알파고(AlphaGo)는 신경망 층(Layer)이 13개로 이루어져 있다. 딥 러닝의 발전
▲ 이미지 출처: 엔비디아 공식 블로그(http://blog.naver.com/kor_nvidia/220596458073)
딥 러닝의 발전을 단적으로 보여주는 예는 이미지넷(ImageNet) 경진대회에서 찾을 수 있다. 이를 설명하기 위해서는 먼저 이미지넷이 무엇인지 알 필요가 있는데, 쉽게 말해서 인공지능 기술 발전을 논함에 있어 중대한 역할을 수행한 이미지 데이터베이스로 설명할 수 있을 것이다. 이미지넷은 객체와 사물을 약 2만 개의 카테고리로 분류한 1,400만 장의 이미지를 가지고 있으며, 본 데이터를 기반으로 이미지 판별 능력의 정확성을 가르는 대회가 바로 이미지넷 경진대회이다.(이미지넷 경진대회는 1,000개의 카테고리와 100만 개의 이미지로 구성) 이미지넷 경진대회에서 딥 러닝 기술은 2012년부터 등장했는데, 그 주역은 바로 토론토 대학의 알렉스 크리제브스키(Alex Krizhevsky)가 만든 인공 신경망 네트워크인 알렉스넷(AlexNet)이다. 알렉스넷은 병렬 연산에 유리한 GPU를 통해 수많은 이미지로 알렉스넷을 교육 훈련시켰으며, 마침내 2012년에는 약 84.7%의 정확성으로 기존의 소프트웨어를 간단히 제치며, 미래 기술의 해답을 제시했다.
이렇게 알렉스넷을 시작으로 구글의 구글넷(GoogleNet), 마이크로소프트에서도 딥 러닝 프로그램을 발표하며, 최근에는 구글넷에서 약 96% 이상의 정확도까지 끌어올리는데 성공했다. 이는 사람의 정확도보다도 높은 것으로, 인공지능의 이미지 분류 능력(컴퓨터 비전) 분야에 있어 매우 의미 있는 사건으로 평가할 수 있다. GPU 컴퓨팅 능력으로 인해 가속화되는 딥 러닝
▲ 세계 최초 딥 러닝 전용 슈퍼 컴퓨터, 엔비디아 DGX-1
딥 러닝은 근본적으로 인공 신경망 네트워크를 통해 학습하는 새로운 소프트웨어 모델이다. 즉, 딥 러닝을 구동하고 또 학습하기 위해서는, 자연스럽게 대규모 네트워크의 병렬적인 구조를 빠르게 처리할 수 있는 하드웨어가 필요한 것이다. 즉, GPU의 병렬 처리 연산 능력과 이미지넷과 같은 인터넷을 통해 얻을 수 있는 방대한 데이터를 결합시키는 딥 러닝 기술은 그 적용 분야가 무궁무진하다. 이런 이유로 엔비디아 입장에서는 딥 러닝 분야를 향해 공격적인 마케팅과 투자를 하는 것도 자연스러운 시대의 흐름으로 생각할 수 있다. 실제로 엔비디아는 최근 GTC(GPU Technology Conference) 2016에서 세계 최초로 딥 러닝 전용 슈퍼 컴퓨터인 DGX-1을 공개하기도 했다. DGX-1은 16 나노 핀펫+(16 nm FinFET+) 공정 기반의 최신 아키텍처인 파스칼(Pascal) GPU, 테슬라 P100 8대를 탑재하고 있으며, 최대 170 TFLOPS 연산 능력을 가지고 있다. 딥 러닝을 위한 장비인 만큼, 딥 러닝 전용 소프트웨어가 설치되어 있으며, NVLink 및 HBM2 메모리도 탑재되었다. 가격은 $129,000 USD로 개인 사용자들은 꿈꿀 수 없는 몸값을 자랑한다. 딥 러닝 적용 분야
▲ 이미지 출처: 엔비디아 공식 블로그(http://blog.naver.com/kor_nvidia/220596458073)
가장 먼저 자율주행(Automotive) 자동차 분야를 들 수 있다. 장애물 판단이나 탑승자의 안전을 위한 기능에 큰 발전을 기대할 수 있으며, 실제로 자율주행 자동차 분야에 공격적인 마케팅과 기술 개발에 힘쓰는 엔비디아의 경우 드라이브 PX 2(DRIVE PX 2)라는 슈퍼 컴퓨팅 자율주행 플랫폼을 CES 2016에서 공개하기도 했다. 드라이브 PX는 딥 러닝 및 센서 융합, 서라운드 비전을 결합한 자율주행 플랫폼이며 현재 메이저 자동차 회사와 긴밀한 협력 관계를 맺고 현재진행형으로 기술 박차를 가하고 있다. * 파스칼 기반의 GPU가 탑재된 드라이브 PX 2의 연산 능력은 8 TFLOPS를 갖추고 있는데, 이는 맥스웰 기반의 GTX TITAN X가 가지고 있는 6 TFLOPS보다도 높은 성능이다.
▲ 페이스북의 얼굴 인식 기능, 딥 페이스(Deep Face)
페이스북의 얼굴 인식 기능인 딥 페이스(Deep Face)도 대표적인 예이다. 페이스북에서 인물 사진을 등록할 때, 딥페이스 기술은 인물의 얼굴을 인식하고 분석하여 자동으로 자신이 판단한 인물을 대입시켜 태그 대상으로 띄워주게 된다. 이는 상당한 정확도를 자랑하는데, 수치 상으로는 약 97.25%로 사람이 직접 눈으로 봤을 때의 정확도인 97.53%와 큰 차이가 없다는 것이 의미가 크다. ▲ 구글의 딥 드림(Deep Dream)
다음은 구글에서 개발한 인공지능 화가 딥 드림(Deep Dream)이다. 실제로, 딥드림은 깊은 꿈이라는 단어처럼, 추상적이고 초현실적인 이미지를 스스로 그려내는데, 이는 더 이상 예술 분야가 인간에게만 한정되지 않을 가능성을 말해주고 있다. 딥드림이 이미지를 구현하는 방식은 소스가 되는 이미지를 기반으로 작업이 이루어진다. 기본적인 알고리즘은 의도된 것을 표현하기 위한(주제의식) 것을 제외하고, 나머지 요소는 형태 왜곡을 통해 작품을 완성하게 되는 것. 아래 URL에서 딥드림이 완성한 이미지들을 감상할 수 있다. Deep Dream Generator: http://deepdreamgenerator.com * 또한, 해당 사이트로 이동하면 다른 사용자들의 이미지로 완성된 딥드림 뿐만 아니라 자신이 직접 원하는 사진을 업로드하여 딥드림이 만들어내는 이미지을 얻어낼 수 있다. 그 외 음성 인식, 언어 번역과 같은 기존에 서비스되고 있는 기능들에도 딥 러닝을 적용하면, 스스로 학습하여 판단하는 능력을 길러주기에 인식 정확성의 획기적인 향상을 기대해볼 수 있을 것이다. TITAN X (Pascal) 딥 러닝: 알렉스넷 & 구글넷 이렇게 앞으로의 활용 가치가 무궁무진한 '딥 러닝'분야에 GPU의 병렬 연산 능력은 큰 도움이 될 수 밖에 없다. 따라서, 본 페이지에서는 리눅스 OS 우분투(ubuntu)에서 가동되는 알렉스넷(Alexnet)과 구글넷(Googlenet) 알고리즘으로 작동하는 간단한 연산 능력 테스트 결과를 함께 수록하였다.
테스트 방법은 미리 짜여진 알렉스넷&구글넷 스크립트를 통해, GPU가 Forward-Backward를 거치며 소요되는 시간을 측정하여 성능을 점검하는 것이다. 알렉스넷에 비해 구글넷의 이미지 판별 알고리즘이 더 복잡하여, 소요 시간은 더 오래걸리지만, 그만큼 정확성이 더 높다는 것을 감안해야할 것이다. ▲ 우분투(ubuntu) OS에서 알렉스넷(Alexnet) 연산 능력을 테스트하는 모습. 상기 스크린샷과 같이 스크립트를 구동하게 되면, 포워드-백워드를 거치며 소요된 시간을 계산해주고, 여기서 총 소요시간도 함께 출력된다. 본 테스트에는 벤치마크의 주인공인 TITAN X (Pascal)뿐만 아니라, 기존의 케플러, 맥스웰 기반의 GTX TITAN 시리즈를 비교군으로 포함하여, 향상된 연산 능력을 확인해보도록 하겠다.
▲ 테스트 결과를 살펴보면, TITAN X (Pascal)은 전세대 맥스웰 아키텍처 기반의 GTX TITAN X에 비해 확연히 단축된 시간을 확인할 수 있다. 즉 연산에 소요되는 시간이 짧다는 것은 그만큼 처리속도가 빠르다는 것을 증명하며, 딥 러닝 교육과 그 활용에 있어 가장 진보된 GPU임을 확인시켜 준다. 케플러 아키텍처 기반의 GTX TITAN과 비교하면, 3배 이상의 차이가 나기 때문에 비교하기 민망한 수준이다. ▲ 보다 쉬운 비교를 위해 백분율로 환산했을 때의 수치이다. 맥스웰 아키텍처 기반의 GTX TITAN X가 계산에 소요된 시간을 100%라고 한다면, TITAN X (Pascal)은 2/3 수준의 시간만 소요되기 때문에 약 1.5배의 연산 성능을 지닌 것으로 풀이할 수 있다. 케플러와 비교하면 3배를 훌쩍 뛰어넘는 성능이다.
|