인공지능과 딥러닝
이세돌과 AlphaGo의 대결이후, 인공지능에 대한 관심이 올라갔다. 똑똑한 인공지능들이 사람들의 일자리를 빼앗아 갈것이라는 기사들도 나왔고, 멀지 않은 미래에 사람보다 똑똑한 인공지능이 등장해서 인류를 지배할 것이라는 SF 같은 이야기들도 회자되었었다.
이런 관심에 부응하여 서점에도 책들이 display된다. 급조된 책이 있는가 하면(많은 경우 내용이 아주 실망스럽다), 오랫동안 준비되어 왔으나 빛을 못 보다가 마침내 대중에게 노출되고 읽히게 되는 책들이 있다. 이 책, 인공지능과 딥러닝은 후자에 속하는 책이다.
이런 관심에 부응하여 서점에도 책들이 display된다. 급조된 책이 있는가 하면(많은 경우 내용이 아주 실망스럽다), 오랫동안 준비되어 왔으나 빛을 못 보다가 마침내 대중에게 노출되고 읽히게 되는 책들이 있다. 이 책, 인공지능과 딥러닝은 후자에 속하는 책이다.
저자에 따르면, 지금은 인공지능의 3번째 붐이라고 한다. 한 번의 붐이 일어나면 세상이 모두 바뀔것처럼 기대를 갖다가고, 정작 성과가 기대에 미치지 못하면 모두 등을 돌리는 싸늘한 겨울이 이어진 것이 과거의 패턴이었다고 한다. 이번 3차 붐도 다시 겨울을 맞게 될 것인지의 여부는 아직 확실하지 않지만, 과거 그 어느때보다 환경 변화가 크기 때문에 이번에는 베팅을 해볼만하다고 한다.
인공지능이라는 단어는 널리 쓰이지는 지금도 학계에서 그 정의가 사못 다르다고 한다. 그만큼 인공지능을 바라보는 관점과 그 기대에 차이가 크다는 것을 반증하는 것으로 보인다. 인공지능은 1956년 여름 미국 Dartmouth College에서 개최된 Workshop에서, 사람과 같이 생각하는 기계를 처음으로 '인공지능'으로 불려진 것에 기인했다고 한다. 진공관으로 만들어진 ENIAC이라는 계산기를 보고, 인공지능을 떠올렸다니 그 발상 자체가 더 멋지게 느껴진다.
1차 인공지능 붐에서는 추론과 탐색이 주를 이루었다고 한다. 일련의 선택과정을 Tree로 표현하고, 각 가지를 오르락 내리락 하면서 최적을 찾아가는 방법이 바로 탐색이라 하겠다. Data Structure & Algorithm 교재에도 어김없이 등장하는 Depth First Search(DFS), Breadth First Search(BFS)를 비롯하여, 가능한 탐색시간을 줄이기 위해 동원되는 기법들이 당시에 개발되었다. Computing 능력이 보잘것 없었기 때문에, 웬만한 현실세계의 문제를 풀기에는 당연히 한계가 있었기에 겨울이 찾아오게 된다. (그래도, 이 영역이 발전을 거듭해서, 체스, 장기, 바둑에 이르기까지 알고리즘이 사람을 이기는 경지에 이른 것이고, Computing 능력이 따라오지 못하다보니 좋은 알고리즘을 만들기 위한 노력, Computational Complexity를 따지는 노력도 쌓이고, 훗날 2차, 3차 인공지능 붐의 토대를 만들었다고 생각한다.)
2차 인공지능 붐은 소위 Expert System 이라는 것과 함께 찾아왔다. 1970년대 Stanford 대학교에서 개발된 MYCIN이 그 시작으로, 생산, 회계, 인사, 금융 등 다양한 분야에서 Expert System 이 만들어졌다고 하며, 1980년대에는 Fortune 1000대 기업의 2/3 정도가 Expert System을 사용하고 있는 것으로 조사되었다고 한다. 사람의 지식을 어떻게 하면 표현할 수 있을지가 당대의 과제였으며, Ontology가 붐을 일으켰다고 한다. 정작 인간의 지식을 표현하는 것도 쉽지 않고, 표현하는 방법을 찾았다 하더라도 이것을 지식을 표현하는데에 천문학적 시간과 노력이 필요함을 깨달아가면서 다시 겨울이 찾아왔다고 한다. (학교 다닐 때에 보았던 대부분의 Expert System들은 그저 If ~ Then ~ 의 조합들인 Rule Based System 들이 전부였었는데, 내 기억으로는 Fuzzy System이 더 각광을 받지 않았었나 싶다. 그리고, 냉하게 따져보면, 나는 2차 인공지능 시대의 겨울시점에 학교를 다니면서, 그것을 인지하지 못했고 1차 인공지능, 2차 인공지능 시대에 만들어진 이론들을 배웠음을 알게 되었다.)
3차 인공지능 붐의 발단, 아니 Deep Learning의 발단은 이미지 인식 경쟁대회인 ILSVRC(Imagenet Large Scale Visual Recognition Challenge)에서 Canada Toronto 대학의 SuperVision이 압도적인 승리를 거둔 것에 기인한다고 한다. (궁금해서 인터넷을 찾아보니, 밑의 pdf 파일에서 Challenge의 내용이 무엇인지, 성적은 어떠했는지들을 볼 수 있었다.)
ILSVRC2012 소개자료 (http://image-net.org/challenges/LSVRC/2012/ilsvrc2012.pdf)
사람의 뇌 구조를 흉내낸 Neural Network이 인기를 끌면서, Machine Learning이 각광을 받았는데, 근본적으로는 Supervised Learning을 시키는 과정에서 어떤 요소(feature)가 중요한지 아닌지를 똑똑한 사람이 문제유형마다 일일히 정의해주어야 하는 한계가 있었다는 것이다. 그런데, Deep Learning은 Neural Network의 Input Node/Output Node 사이에 여러 층의 Hidden Layer를 둠으로서 보다 고차원적인 Abstraction이 가능해졌다는 것이고, 어떤 요소가 중요하고 어떤 요소가 중요하지 않은지를 굳이 사람이 지정해주지 않아도 되도록 수정한 것이다. 그리고, Standard Set으로만 Learning을 시키는 것이 아니라, 고의적으로 Noise를 포함시킨 학습을 통해서 Robustness까지도 키웠다는 것이다. 여기에 2000년대 후반의 획기적인 Computing 능력과 Internet 세상에 담겨진 엄청난 양의 문서와 Multi-media contents들이 Deep Learning을 위한 소스와 에너지가 된 것이다.
바로 지금은 인공지능의 3차 붐속에 있고, 과거보다 탄탄한 이론, Internet 공간에 올라와 있는 엄청난 양의 data, Computing Power, Feasible한 Application Area를 갖고 있기 때문에, 허망하게 겨울을 맞을 것 같지는 않다. 사람을 능가하는 인공지능이 2045년에는 등장할 것이라고들 하는데(Singularity Point가 얼마 남지 않았다), 아직 30년 정도 남았으니 그럴 것 같기도 하고, 아닐 것 같기도 하다. :)
인공지능에 대한 대중적 입문서로서의 역할은 충실히 하는 책이라 생각된다. 인공지능의 3차례 붐에서 얻은 것은 무엇이고, 어떤 한계가 노출되었는지도 잘 정리했다고 생각한다. 산업과 사회에 미치는 영향에 대한 부분은 구체성이 많이 떨어진 상태에서 개념적 접근을 하다보니 정보전달 면에서나 공감을 얻는 면에서나 부족한 부분은 있었다고 보인다. 글쎄~ 책을 다 읽고 난 느낌은 이렇다. 인공지능에 대해 붐이 일어난 것처럼 떠들고는 있는데, 특정 영역에 대한 Expert System 구성은 이제 가능할 것 같기도 하지만, 여전히 일반적인 지능을 논하기에는 많이 부족한 느낌이 든다. AlphaGo가 보여준 것은 이제 어마어마한 양의 Computation을 해낼 수 있다는 것이고, 자동화와 결합하게 되면 (경제성을 따져보아야 하겠지만) 마음 먹은 것은 무엇이든 만들어낼 수 있을 것 같다. 언어 이해를 통한 Q&A, 번역의 수준이 올라오면 진짜 인공지능의 시대가 왔다고 느껴질 것 같다.
댓글
댓글 쓰기