본문 바로가기

모두를 위한 인공지능 : Building AI for Everyone | 제프 딘 구글 AI 총괄 시니어 펠로우 | 인공지능 AI 머신러닝 | 세바시 949회


강연자의 강연 소개 : some people are afraid of artificial intelligence because it causes change, and the way we view computers. But I think that’s really looking at it at the wrong way. I think we are in control of how we have A.I do things, and it’s really going to enable us to do more as a society than we were able to do before. so, I will tell you about how it works, and give you several examples about how A.I is being used throughout the Google products, throughout the world, by other researchers, and by developers around the world to solve interesting problems. 


인공지능은 사람에게 두려움의 대상입니다. 컴퓨터에 대한 변화의 이미지를 불러 일으키기 때문이지요. 하지만 저는 우리가 인공지능을 어떻게 통제할 수 있는지 알고 있다고 생각합니다. 그리고 인공지능을 통해 이전에 할 수 있던 것보다 더 많은 것을 우리 사회에 이용할 수 있다고 봅니다. 저는 인공지능이 어떻게 작동하는지, 어떻게 전 세계에의 구글 제품들, 혹은 다른 개발자들을 통해 흥미로운 문제들을 해결하고 있는지, AI의 사용 방법에 대해 말씀드리겠습니다.


게시일: 2018. 7. 30.



안녕하세요. 제프 민입니다. 

구글의 인공 지능 연구팀을 이끌고 있습니다.



먼저 다니엘 델레온(Daniel Deleon)에 관해서 이야기해 볼까 합니다.



다니엘은 미국 캘리포니아 폴리테크닉 주립대학교에 다니는 학생입니다.

다니엘은 공학을 전공하지만 음악에 대한 열정이 남다릅니다.

부모님은 모두 음악가였고, 음악과 함께 성장했습니다.


그는 대학에 진학해서 어떻게 소리 파동이 결합하고 고막에 영향을 주는지에 대해 과학적으로 배웠습니다. 

다니엘은 소리와 공학에 관심이 많았습니다



그는 취업박람회에서 다니엘(Danielle)과 존(John)을 만났습니다.



그들은 몬트레이 베이 수족관 연구소 출신으로 다양한 수생 생물과 행동을 연구하고 있습니다. 

다니엘(Danielle)과 존은 흥미로운 문제를 연구하고 있었습니다. 

이것을 다니엘(Daniel)과 논하고 싶었습니다.



그 연구란 인공지능을 사용해 고래를 추적하는 방법에 관한 것이었습니다

그래서 다니엘(Danielle)과 존은 해저에 수많은 마이크를 설치했습니다.

그리고 그들은 그것을 가지고 고래가 어디에 있는지 확인하려고 했습니다.

이렇게 멸종 위기의 고래 종을 이해함으로써, 우리는 실제로 그들의 움직임과 행동을 파악할 수 있습니다.

그러나 이를 추적하기는 쉽지 않습니다. 

고래는 소리를 통해서만 소통을 하기 때문입니다.

깊은 바다는 빛이 수백 미터를 가기 어렵기 때문에 고래는 소리를 통해 의사소통하죠.



자 그러면 고래 소리를 한번 들어볼까요



꽤 특이합니다.

이번 것은 훨씬 더 독특하네요 



이런 소리를 듣고 우리는 고래가 어디에 있는지 알아낼 수 있습니다.

그러나 문제는 수많은 해저 마이크를 통해 지루한 소리가 수백, 수천 시간 녹음된다는 것입니다.

그러면 우리는 이렇게 길게 녹음된 오디오를 통해 고래가 어디에 있는지 어떻게 찾아낼 수 있을까요?

그 모든 소리를 들으려면, 수백 년이 걸려도 다 듣지 못할 겁니다. 



그래서 다니엘(Daniel)과 다니엘(Danielle)은 힘을 합쳐서 새로운 도구인 자동화 도구를 개발하기 시작했습니다. 

다니엘(Daniel)은 컴퓨터에게 이런 고래 울음소리를 들을 수 있도록 가르치는 새로운 기술을 사용했습니다.

오디오 파형의 패턴을 인식하는 도구를 사용해 수십억 시간 분량의 오디오를 분석했고 98%의 정확도로 고래가 어디에 있는지를 찾아낼 수 있었습니다.



이를 통해 고래를 추적할 수 있게 되었고 고래의 행동, 수영 패턴 및 이동 방법을 이해할 수 있었습니다. 

그리고 그로 인해 우리는 이러한 멸종 위기 동물에 대해 훨씬 더 잘 이해할 수 있게 되었습니다 


다니엘(Daniel)이 한 것이 무엇일까요?

그가 사용한 것이 바로 인공지능 기술입니다. 

이것은 실제로 컴퓨터가 스스로 이런 패턴을 인식하도록 훈련시키는 기술로 '텐서플로(Tensorflow)'라는 머신러닝을 위한 오픈 소스 소프트웨어를 활용했습니다.


이런 다니엘(Daniel)의 이야기는 인공지능을 활용한 사례 중 하나일 뿐입니다.

잠재적으로 인공지능을 활용할 수 있는 곳은 무궁무진합니다.



구글은 누구나 인공지능 기술을 사용할 수 있도록 만드는 데 수년간 노력해 왔습니다.

우리는 많은 연구를 해왔고, 다음과 같은 세 가지 일을 하고 있습니다. 



우리는 일상적으로 사용하는 앱에 인공지능을 넣어 프로그램을 더욱 유용하게 했습니다



우리는 또한 다른 사람들이 혁신할 수 있도록 돕고 있고, 그들의 비즈니스에서 인공지능을 사용할 수 있도록 돕고 있습니다.

텐서플로와 같은 오픈 소스 프로그램을 활용해서 말이죠.

또 비즈니스와 조직의 문제들을 해결할 수 있도록 클라우드 제품을 지원하고 있습니다. 



구글은 또한 인공 지능을 사용해 인류의 거대한 문제를 해결하기 위해 노력해 왔습니다.

이 각각 세 영역에 대해서 말씀드리겠습니다. 

하지만 잘 모르시는 분들을 위해서 인공지능이 무엇인지 먼저 설명해 드리겠습니다.



인공지능은 컴퓨터가 만들어졌을 때부터 존재했습니다.

사람들은 어떻게 컴퓨터를 사람처럼 똑똑하게 만들 것인가를 꿈꿔 왔습니다.



인공지능은 무언가를 똑똑하게 만드는 기술입니다

인공지능이 처음 구상될 때 사람들은 컴퓨터를 좀 더 똑똑하게 할 방법을 생각하기 시작했습니다.

컴퓨터에 세상의 많은 규칙을 알려주고 컴퓨터는 그러한 규칙을 따라 지능을 높일 수 있었습니다. 

그러나 최근 몇 년간 우리는 컴퓨터에 지능을 주는 가장 좋은 방법이 모든 것을 알려주는 것이 아니라는 것을 깨달았습니다 

대신 컴퓨터가 스스로 세상을 관찰하고 배울 수 있도록 가르쳐야 한다는 것을 깨달았습니다. 


머신 알고리즘의 2단계

이제 인공지능이 어떻게 작동하는지 살펴보겠습니다. 

머신러닝 알고리즘에는 두 가지 주요 단계가 있습니다. 

첫 번째는 훈련하는 것입니다.

머신러닝 시스템에 우리가 배우고자 하는 것의 여러 사례를 주는 것입니다. 

예를 들어서 이미지를 보고 그 이미지 안에 무엇이 있는지 시스템 훈련을 통해서 맞출 수 있게 하는 것입니다. 

예를 들어서 강아지와 고양이 두 카테고리가 될 수도 있고 수천 가지의 카테고리가 될 수도 있죠. 

좀 더 자세히 살펴보면 '이것은 고양이고' '저것은 강아지다'는 것을 학습시켜주는 겁니다.


물론 컴퓨터도 처음에는 실수할 것입니다. 

(고양이를 보고) '저거는 강아지 같아 보이네요' 라면서요

그러나 잘못이 발생했을 때마다 기초 수학으로 만들어진 훈련을 기반으로 조금씩 수정을 하는 겁니다.

다음에 유사한 이미지를 봤을 때 올바른 결과물을 낼 수 있도록 머신러닝을 수정하는 겁니다.

이런 과정을 계속해서 반복하고 머신러닝 모델을 수정해가며 점점 올바른 결과에 다가가는 것입니다.

이렇게 모델이 훈련되고 나면 이 모델을 사용할 수 있습니다.



두 번째 단계는 추론하는 단계입니다.

머신에 그동안 보지 못했던 완전히 새로운 것을 보여주고 답을 찾도록 하는 것입니다. 

이전에 머신이 보지 못한 새로운 이미지가 있다고 해봅시다. 

강아지인지 고양이인지 결과물을 내야 하는것입니다. 

이것이 머신러닝의 핵심입니다.

많은 양의 사례를 보여주고, 사례에 맞게 잘 움직이도록 하여 전혀 새로운 사례에도 동작할 수 있도록 일반화합니다

그리고 이를 모든 것에 적용하는 것입니다.



최근 몇 년간 매우 많은 진보가 있었는데 그 사례를 하나 말씀드리겠습니다. 컴퓨터 비전 분야입니다.

스탠퍼드 대학은 매년 '이미지 넷 챌린지(Image Net Challenge)'를 개최하고 있습니다.

이전 머신러닝 기술을 사용한 2011년 대회 우승자의 착오율은 26%였습니다

사람이 이런 작업을 하는데 착오율은 5% 밖에 나오지 않습니다.

이것은 매우 어려운 일인데요. 

이미지 하나가 주어지고 40종에 달하는 강아지 품종을 수 천가지의 카테고리로 중 하나로 분류해 내야 하는 일인 것입니다.

그래서 사람도 완벽하게 해내기 어려운 일입니다.



그러나 지난 몇 년 동안 머신러닝 분야에 큰 발전이 있었고, 2016년 대회 우승자의 착오율은 불과 3%였습니다.

이것은 엄청난 결과입니다. 

그동안 완벽하게 처리해내지 못했지만 이제는 매우 잘하는 단계까지 왔습니다.

과거 진화의 과정에서 동물이 시각을 갖게 되는 대변혁의 시점이 있었을 텐데 지금 우리 컴퓨터 환경의 변화가 그런 상황입니다. 



이렇게 컴퓨터가 시각을 얻게 된 것은 많은 가능성을 열어주었는데 오늘 그중에 몇 가지를 이야기하도록 하겠습니다. 

우리는 음성 인식 분야와 언어 이해 분야에서도 비슷한 큰 변화가 있었습니다. 

이제 인공지능을 이용해서 앱을 좀 더 유용하게 만드는 것을 살펴보겠습니다.

구글은 제품 전반에 걸쳐서 이런 다양한 기술을 사용하고 있습니다.

여러분이 '구글 포토앨범'에서 강아지 사진을 찾고 있다고 해봅시다.

앱은 어떤 사진이 강아지가 포함된 사진인지 파악하고 그것을 바로 여러분께 보여주는데 이것이 그 한 예입니다.



또한 구글 앱은 여러분 주변 모습을 시각적으로 검색할 수 있습니다. 

'구글 렌즈'를 사용해서 주변 사물을 비추면, 그 사물이 무엇인지에 대해서 보여줍니다.




이것은 외국인인 제가 서울을 돌아다니다가 어떤 아름다운 빌딩을 보고 그것에 대해 더 알고 싶으면 그 빌딩을 이미지로 검색해서 화면에 바로 어떤 빌딩인지 알려줍니다.

은 하이킹을 하면서 아름다운 식물을 봤는데 그것이 무엇인지 모르거나 강아지가 어떤 종류인지 모를 때도 사용할 수 있습니다. 

강아지가 어떤 종류인지 모를 때도 사용할 수 있습니다

이러한 기술로 모든 사람이 세상에 '시각적으로 접근할 수 있도록 만들고 있습니다.


'구글 번역기'는 해외 여행할 때 매우 유용합니다.

특히, 제가 한국을 여행하는 것처럼 언어가 익숙하지 않은 곳에서는 더 유용합니다.

구글 번역기는 카메라를 들고 서 있기만 하면 됩니다. 

그러면 보는 화면의 이미지 속에 글자가 어디 있는지 인식하고 그것을 번역해 다시 화면의 글자 위에 덧입혀 보여줍니다.



그래서 제가 낯선 곳에 있어도 제가 사용하는 언어로 쓰인 것처럼 보여줍니다.


또 다른 예로는 휴대전화로 받은 이메일에 신속하게 답장할 수 있는 것입니다. 

누구에게나 휴대전화로 글자를 치는 것은 매우 귀찮은 일입니다.

이메일에 빠르게 답장해야 하는 경우 '지메일' 앱이 여러분이 받은 이메일을 가져와서 이메일의 텍스트가 무엇인지 이해하고 그것에 맞는 답장을 제안할 수 있습니다. 

만약 친구가 '내일 오후 6시에 저녁 먹으러 올래?'라고 했다면

'응 그래 갈게'라든지 '미안해 어려울 것 같아'라는 대답을 제안하고

타자를 치는 대신 클릭 한 번만으로 답장을 보낼 수 있습니다. 



두 번째로 다른 사람들이 혁신하도록 돕는 것이 구글이 깊이 고민하는 것이고, 이것이 바로 '모두를 위한 인공지능'을 실현하는 것입니다.

그래서 구글은 텐서플로와 같은 개발 툴을 제공하고 있습니다. 

텐서플로는 사람들이 머신러닝을 사용할 수 있도록 만든 오픈 소스 패키지인데 이미 많은 분야에 사용되고 있습니다.

앞서 말씀드린 다니엘(Daniel)과 모트레이 수족관이 더 강력한 결과물을 만들어 내는데 머신러닝을 사용하고 있는 사례 중 하나입니다.


또한 구글은 인공지능 인터페이스를 구글의 클라우드 제품에서 사용할 수 있도록 만들고 있습니다.

여러분이 구글의 클라우드에 어떤 이미지를 올리면, 그 이미지에 대한 정보를 바로 알아볼 수 있게 하고 있습니다.

이미지에 포함된 글자를 찾고 그것이 어떤 이미지인지 여러분에게 말해줄 것입니다.

구글은 또한 이런 알고리즘을 효율적으로 실행하고, 클라우드를 통해서 사용할 수 있는 맞춤 하드웨어를 개발하는데도 많은 투자를 하고 있습니다.


한국의 티몬이라는 회사가 있는데 티몬은 이런 기술을 그들의 웹사이트에 적용한 사례입니다.

티몬은 판매자들이 업로드하는 이미지가 어떤 내용인지 알고 싶었습니다. 

그래서 티몬은 이미지에 있는 글자를 인식하고 해석해서 판매자들이 허위 정보나 정확하지 않은 주장을 하는지 않는지 관리하기를 원했습니다.

그러나 이것을 인공지능으로 자동화함으로써 사람이 일일이 확인하는 수고를 피할 수 있게 되었습니다.



세 번째로 인류의 큰 문제를 푸는 것은 인공지능이 사람을 도울 수 있는 가장 흥미로운 분야라고 생각합니다.

건강 관리 분야를 살펴보죠 

건강관리 분야는 머신러닝을 통해 발전할 수 있는 가장 잠재력이 큰 분야입니다.

또한 새로운 치료법을 개발하는데 기초가 되는 생명과학 분야에 엄청난 잠재력을 발휘할 수 있기도 합니다.


그래서 구글의 인공지능 그룹은 안과 질환을 발견하는데, 머신러닝을 이용하는 방법을 찾고 있습니다. 

당뇨 망막증이라는 이 질병은 당뇨 환자들의 시력 상실을 가져오는 가장 큰 원인 중 하나로 등장하고 있는데, 전 세계적으로 4억 명이 위험에 노출되어 있습니다.

보통 1년에 한 번은 안과에서 특수 카메라로 안구 사진을 찍고 이 사람이 당뇨 망막증의 전조를 보이는지 전문의에게 진단을 받아야 합니다. 

특히 초기에 진단할 경우 효과적으로 치료해서'시력상실을 겪지 않을 수 있지만 '그때를 놓치면 시력을 잃을 수 있어서 조기진단이 매우 중요합니다. 


문제는 이런 망막 사진을 잘 해석할 수 있는 안과 전문의들이 전 세계에 많이 없다는 것입니다.

이것이 인공지능이 해결할 수 있는 문제 중 하나입니다


이를 위해서 의사에 의해서 잘 판독되고 정리된 많은 안구 사진을 모으고

이런 망막 사진 판독을 자동화시켜서 병을 진단할 수 있는 시스템을 개발할 수 있습니다.

앞서 이야기했던 '강아지와 고양이 사례와 비슷합니다.


이밖에도 다른 일을 할 수도 있습니다. 인공지능을 통해서 환자의 다른 의료 질환을 예측하는데 적용할 수 있습니다. 

인공지능을 통해 환자의 의료 기록을 살펴보고 앞으로 이 환자는 이렇게 될 위험이 크다 '아니다'를 예측할 수 있습니다. 

의사들이 하듯 인공지능 예측 시스템을 통해 예측 할 수 있고

어떻게 조치를 해야 할지도 알 수 있습니다.

혹은 멸종위기에 있는 새를 보호하는 데도 사용하고 있고요



구글 직원 외에도 텐서플로를 사용해서 결과물을 만들어낸 사례들도 많습니다. 

탄자니아에서는 중요한 작물이고 전 세계 5억 명의 중요한 탄수화물 식량원인 카사바가 어떤 병에 걸렸는지 알려주는 것뿐만 아니라

어떻게 치료하면 되는지 '농민에게 알려주는 앱을 개발하기도 했습니다.


또 과학 분야에서도 인공지능이 사용되고 있습니다.

우리 연구팀 중의 한 명이 하버드 대학교 연구팀과 협업해서 케플러(Kepler) 천체 망원경으로 들어온 데이터를 인공지능으로 분석해서 새로운 행성을 발견하기도 했습니다.

궤도를 돌고 있고 별의 '미세한 차이와 밝기 변화를 감지해서 별을 발견했습니다.



결국 구글이 원하는 것은 모두를 위한 인공지능을 널리 보급하는 것입니다.

이를 위해 구글은 솔루션도 오픈 소스화 했고, 관련된 교육 프로그램도 온라인에 개설하고 있습니다.


그리고 인공지능을 어떻게 새로운 문제에 '적용할 것인지에 대한 것도 제공하고 있습니다

사람들이 이러한 기술을 이용하기 시작하고 많은 곳에 어떻게 이 기술이 사용하는지 배우는 것은 매우 중요하다고 생각합니다.

구글의 사명은 '인공지능을 모두에게 제공하는 것입니다.

구글의 제품뿐만 아니라 전 세계의 다른 개발자들의 기술 개발을 통해서 인류가 직면하고 있는 난제를 해결하는 것이 저희의 목표입니다.


감사합니다.




END


이 글은 청각을 잃은 제 친구를 위해 작성되었습니다.

전체 또는 일부가 잘못 듣고 잘못 옮겨 적은 내용이 있을 수 있습니다. 

해당 글에 댓글 남겨 주세요.


추신 : 여러분의 공감 클릭은 정말 큰 힘이 됩니다.  감사합니다