카테고리 없음2021. 4. 8. 18:00

 

호암재단 발표내용

 

 아들의 수상 소식을 접하고 그에 관한 이야기를 하려는 내게 누군가 '불출(不出)'이라 꾸짖어도 어쩔 수 없다. 

 

며칠 전 학교에서 강의를 마친 뒤 집에 오려는데, 양훈식 선생이 방금 인터넷 신문에서 보았다며 경현의 ‘2021 삼성호암상’ 수상 소식이 보도된 기사 한 건을 문자로 보내주었다. 그 기사를 읽고 집까지 두 시간 넘는 거리를 운전하며, 내 마음 속에는 여러 가지 상념들이 명멸했다.

 

평소 삼성호암상은 아무나 받는 상이 아니라고 생각해온 나로서는 그 상 자체에 큰 관심을 갖지 않았던 것이 사실이다. 국문학을 포함한 인문학자에게 주는 상도 아니고, 자연과학과 공학 등 실용적 보편학문과 예술분야, 사회봉사의 특출한 인물들이 받는 상이라는 점에서 그에 대하여 큰 관심을 갖지 않았던 것이다. 그런데 하루 밤을 자고 일어나 여러 사람들로부터 축하 전화를 받으며 그 상의 무게를 비로소 실감하게 되었다.

 

기사를 검색해보니, 호암재단[이사장 김황식]이 발표한 2021년도 삼성호암상 수상자 및 심사과정은 다음과 같았다.

 

수상자

 

1. 과학상

1) 물리・수학부문: 허준이 교수[38세/스탠퍼드 대]

2) 화학・생명과학부문: 강봉균 교수[60세/서울대]

 

2. 공학상: 조경현 교수[36세/뉴욕대]

 

3. 의학상: 이대열 특훈교수[54세/존스홉킨스대]

 

4. 예술상: 봉준호 감독[52세/영화]

 

5. 사회봉사상: 이석로 원장[57/방글라데시 꼬람똘라병원]

 

심사

 

국내외 저명학자와 전문가 46명으로 구성된 심사위원회와 해외석학 자문위원 49명의 업적 검토 등 4개월 동안의 엄격한 심사과정

 

삼성호암상은 삼성그룹 창업자인 호암(湖巖) 이병철 회장의 ‘인재제일, 사회공익 정신’을 기려 1990년에 제정되었다 하니, 한국 내에서는 그 권위와 역사를 능가할 만한 상도 없을 것이다.  또한 대부분의 기사들에서 호암재단이 ‘허준이 교수, 조경현 교수 등 30대의 젊은 과학자 2명이 수상자로 선정된 것은 학계의 큰 소득임’을 밝혔다고 했는데, 나로서는 그 점이 더욱 감격스러웠다. 학문의 성격에 따라 다르겠지만, 나이가 들어감에 따라 완성도가 높아지는 인문학 종사자로서 솔직히 놀라운 일이 아닐 수 없었다. 사실 그간의 내 경험으로 미루어 그 방향이 타당할 뿐 아니라 대단히 바람직하다고 생각한다. 인문학이라 해도 나이가 들어감에 따라 비전의 성숙도가 높아지는 것은 맞지만, 그것을 학문적 결과로 실현하기가 쉽지 않기 때문이다. 그런 점에서 삼성호암상이 시대적 조류를 과감히 받아들여 30대인 조경현을 역대 최연소 수상자로 선정한 것은 영광스러운 쾌거라 할 수 있지 않은가.

 

다음으로 감격스러운 것은 그의 학문분야와 성취도에 대한 평이다. 그것들은 다음과 같다.

 

1. 공학상 조경현 교수는 문장 전후 맥락까지 파악하는 ‘신경망 기계번역 알고리즘’을 개발해 ‘인공지능[AI] 번역의 혁신가’라는 평가를 받았다. [매일경제]

 

2. 공학상 조경현 교수는 인공지능[AI] 번역 전문가다. 문장의 전후 맥락까지 파악해 고품질의 번역을 할 수 있는 ‘신경망 기계번역 알고리즘’을 개발했다. 조 교수가 개발한 알고리즘은 현재 대다수 번역 엔진에 사용되고 있다는 게 재단 설명이다. [동아사이언스]

 

3. 인공지능[AI] 번역 기술의 대가로 꼽히는 조경현 미국 뉴욕대 교수는 공학상 수상자로 선정됐다. 조 교수는 문장 단위의 AI 번역을 뛰어넘어 사회・문화적 맥락과 작가 스타일을 살리는 ‘신경망 기계번역 알고리즘’[NMT]을 처음 선보였다. 그가 개발한 NMT는 현재 대다수 번역 엔진에 채택돼 AI 번역 및 관련 산업계에 영향을 끼치고 있다. [중앙일보]

 

4. 조경현 교수는 문장 전후 맥락까지 파악하는 ‘신경망 기계 번역 알고리즘’을 개발해 인공지능 번역에 혁신을 가져왔다. [조선일보]

 

5. 특히 “올해는 물리・수학 부문 허준이 교수, 공학상 조경현 교수 등 30대 젊은 과학자 2명이 수상자로 선정됐다.”며 “세계 유수의 상들과 견줘 손색없는 수준을 인정받는 삼성호암상에 올해 30대의 젊은 수상자가 2명이나 선정된 것은 학계의 큰 소득으로 평가된다”고 덧붙였다. [아이뉴스 24]

 

1~4는 뉘앙스의 차이가 있을 뿐, 똑같은 내용이다. 그가 그 분야에서 손꼽히는 AI의 전문가라는 점, 그가 개발한 새로운 번역의 알고리즘이 매우 훌륭하여 대다수 번역 엔진에 사용되고 있으며 관련 산업계에 영향을 끼치고 있다는 점 등이 그 내용의 골자들이다. 5는 호암재단이 30대의 연구자를 수상자로 선정한 의미를 밝힌 내용이다. 나로서는 이 기사들의 내용이 그에 대한 최고의 감동적인 찬사라고 생각한다. 무엇보다 이 말들이 사실과 부합되는지, 혹은 36살의 젊은 그가 오륙십 대의 시니어 학자들과 함께 이 상을 함께 받을 자격이 있는지 등에 대하여 크게 의심하고 싶지는 않다. 대학 졸업 이후 해외의 유수 대학들과 훌륭한 학자들을 찾아다니며 스스로 미래의 블루오션이라 믿은 AI를 배우며, 그것을 자신의 전공분야로 삼아 매진하기로 결심한 그의 판단과 노력을 잘 알고 있기 때문이다. AI의 2세대가 시작도 되기 전에 어린 나이의 그가 그 학문의 중요성과 의미를 간파하고 뛰어들었으니, 교수나 학자로서는 '약관'이라 할 수 있는 36의 나이에 학계의 주목을 받게 된 것이 크게 이상한 일은 아니리라. 

 

그러나 조경현이 명심해야 할 일이 있다. 한 사람의 학자가 자기 당대에 자신의 학문을 완성하는 경우는 없다는 사실이다. 그게 전통 고전문학이든, 첨단의 AI이든, 제대로 된 학자라면 늙어 꼬부라질 때까지 연구실에 틀어박혀 끊임없이 정진해야 하는 이유이다. 제 아무리 뛰어난 인간이라 할지라도 그 인간의 당대에 한 분야를 완성할 수 없도록 한 것은 감히 거스를 수 없는 ‘신의 섭리’가 아닐까. 간혹 ‘이 논문은 이 분야의 결정판이니, 아무도 더 손댈 수 없다’고 큰소리치는 인사들도 없지는 않았으나, 얼마 지나지 않아 100% 허언(虛言)임이 판명된 것만으로도 그 점은 분명하다.

 

이제껏 빠져 지내는 잡기(雜技) 하나 없이 답답하게 살아가는 학자가 조경현이다. 자리에 앉아 컴퓨터를 무릎에 올려놓고 온갖 알고리즘의 세계를 유영(遊泳)하며 종으로 횡으로 자신의 가설을 논증하기에 바쁜 친구가 바로 조경현이다. 강의와 연구에 몰두하는 틈틈이 각종 컨퍼런스의 촘촘한 스케줄 따라 세계를 돌아다녀야 하는 것도 그의 생활 중 큰 부분이다. 어느 틈에 오만한 마음을 가질 수 있겠는가.

 

2018년 블룸버그 통신이 그를 ‘새해에 주목해야 할 각 분야 50인’의 한 사람으로 선정했을 때도, 2019년 뉴욕대학이 부임[2015년 9월] 4년만에 종신교수직을 주고 미국 정부가 입국[2015년 9월] 3년 반만에 그린카드를 부여했을 때도, 2020년도에 삼성이 한국인으로서는 유일하게 ‘삼성연구자상’을 주었을 때도, 변함없이 허름한 티셔츠 한 장 걸치고 아무데나 앉아 쉼 없이 컴퓨터를 두드리며 발표문을 작성하는 그였다. 드디어 올해 삼성호암상을 받게 되었으나, 이후 그의 그런 자세엔 추호의 변함도 없으리라. 그래서 그는 내 아들이되, 나는 그를 내 선생으로 생각해야 마땅한 일이다. 아들을 훌륭한 선생으로 두고 있으니, 나는 분명 하늘로부터 큰 축복을 받은 셈이다.

 

블룸버그에서 발표한 2018년 각계의 수상자들과 조경현

                                                      

<<시사인>> 570호 표지사진[2018. 8. 10.]

 

        삼성 첫 'AI연구자상' 시상 관련 기사[중앙일보 2020년 11월 2일자 경제면]

 

 

 

Posted by kicho
글 - 칼럼/단상2018. 7. 6. 12:05

 

 

관련 유튜브 링크 :  https://www.youtube.com/watch?v=z4CNmiLF-YU&feature=youtu.be

 

 

팔불출(八不出)의 변(辯)-학자로 자란 아들을 보며

 

 

누군가는 말했다. ‘저 잘났다 자랑하는 놈, 마누라 자랑하는 놈, 자식 자랑하는 놈, 선조와 부모 자랑하는 놈, 형제 자랑하는 놈, 후배 자랑하는 놈, 돈 자랑하는 놈, 고향 자랑하는 놈을 팔불출(八不出)이라 부른다고. ‘불출이란 사전적으로 못난이란 뜻이지만, 어감(語感) 상으론 엄청 못난 놈쯤 되는 말이다. 체면 중시 사회에서 수오지심(羞惡之心: 옳지 못함을 부끄러워하고 미워하는 마음)을 뼛속 깊이 간직하고 이 나이까지 살아 온 나다. 그런데 지금 팔불출 가운데 세 번째 불출이 되어 보고자 한다.

 

근래 한두 가지 일을 경험하면서 내 알량한 자존심의 메커니즘이 더 이상 작동될 수 없음을 깨달았다. 내 생각에 자존심이란 살아 갈 날들이 살아 온 날들보다 많을 때생겨나기 쉬운, 특이한 심리다. 이제 교수로서 내 인생의 한낮은 기울었고, 내 뒤에 끝도 없이 늘어선 후생(後生)들은 빨리 비켜서라고 재촉한다. 가당치 않은 자존심으로 그들에게 군림하려 한 과거를 버리고, 그들의 장점을 인정하면서 슬그머니 앞자리를 양보하는 것. 그 길만이 내게 남은 유일한 출구임을 이제야 깨닫는다. 따라서 학자의 길을 걷기 시작한 아들의 장점을 인정하는 것도 즐거움일 뿐 자존심 차원의 문제는 아닐 것이다. 이제 내 협소한 울타리를 걷어내려는 것은 꽤 오래 전부터 견지해 온 학자로서의 아이덴티티가 심각하게 도전을 받는 중이고, 어쩌면 그런 도전들의 정당성이 역사적 필연임을 알게 되었기 때문이리라.

 

조경현(Kyunghyun Cho)33살 된 내 큰 아들이다. 이번 방학에 그가 보여준 놀라운 일을 계기로 망설임 없이 이 공간에서 그를 언급하게 되었다. 그는 현재 뉴욕대 컴퓨터과학과 교수다. 20022, 인문계 고등학교 2학년을 마치고 카이스트(KAIST)로 진학하는 그를 보내며 쓴 글(공부하러 집 떠나는 아들을 보며, <<어느 인문학도의 세상 읽기>>, 인터북스, 2009)의 마무리 부분에 다음과 같은 내 소망을 담은 바 있다.

 

자식이 어찌 부모의 마음을 알 수 있으랴? 그리고, 알아주기를 바란들 무엇 하랴? 그러나, 세상의 아들들이 이것만은 알아야 할 것이다. 세상의 부모들 대부분은 공부하러 집 떠나는 아들들에게 물질로 호강시켜 줄 것을 바라지 않는다는 사실을 말이다. 험한 세파 속에서도 자신의 두 발로 서서 당당하게 자신만의 목소리를 내는 것. 그러나 이왕이면 가정과 사회, 그리고 국가와 민족에게 보탬이 되는 삶을 살아감으로써 부모에게 자부심을 안겨 주는 것. 이 시대의 부모로서 그 이상 무엇을 바란단 말인가?”(247~248)

 

이것이 16년 전 집을 떠나던 그에게 아버지의 입장에서 표명한 소망이었고, 그 점은 지금도 전혀 달라지지 않았다. 카이스트를 나온 그는 핀란드의 알토대학(Aalto University: 201011일에 설립된 핀란드의 대학교. 2010년부터 정부 주도 하에 핀란드의 산업경제문화를 선도하는 기존의 세 대학-헬싱키 기술 대학교헬싱키 경제대학교헬싱키 미술 디자인 대학교-을 합병하여 출범했음)에서 석박사학위를 받고, 몬트리올 대학교에서 박사 후 과정을 거친 뒤, 2016년 뉴욕대학의 교수가 되었다.

처음에 그가 영국이나 스웨덴 등의 전통 명문대학으로부터 입학허가를 받았으면서도 핀란드의 대학교를 선택한 이유가 궁금했지만, 결국 묻지 않았다. 그의 고집을 알고 있었고, 그를 믿어야 한다는 나의 자기억제(self-control) 소신' 때문이기도 했다. 그 후 우연한 기회에 핀란드의 그 대학에서 유능한 교수의 지도로 인공지능분야를 공부한다는 소식을 접했지만, 인공지능이란 말의 의미를 잘 알지 못했고, 그 때만 해도 내겐 뜬구름 잡는 듯한그 분야나 공부내용을 자세히 알고 싶지도 않았다.

 

카이스트에서는 물론 핀란드로 간 뒤에도 그는 부모에게 돈 한 푼 요구하지 않았다. 매우 궁금했지만, 그것도 묻지 않았다. 다만, 핀란드는 학비가 필요 없다는 사실을 알고 있었고, 당시만 해도 우수한 핀란드 교육을 배운다는 명목으로 파견되던 우리나라 시찰단들을 위해 그가 틈틈이 영어 통역 알바를 하고 있다는 사실을 언젠가 인터넷을 통해 알게 되었다박사과정에 진학한 뒤에는 큰 규모의 핀란드 정부 장학금을 받았는데, 학비와 생활비는 물론 해외 컨퍼런스 참여에 따르는 모든 비용을 해결할 만큼 풍족한 것이었다. 그 장학금에 대한 설명을 듣고 나서 비로소 나는 핀란드라는 나라를 존경하게 되었다. 외국인을 무료로 교육시켜주고 장학금까지 지급하면서 아무런 조건을 달지 않는 나라가 세상 어디에 있단 말인가. ‘가능성 있는 젊은 인재라면 국적을 불문하고 국가가 나서서 양성해야 한다는 책임감이야말로 국가 이기주의가 그악하달 정도로 팽배한 지금의 상황에서 매우 숭고한 일 아닌가. 그런 점에서 인구 550만의 작지만 강한 나라 핀란드를 존경하게 된 것이다.

어쨌든 그런 과정에서도 나는 그가 컴퓨터 계통을 전공한다는 사실 외에 구체적인 것을 알고 있지 못했다. 문외한이기도 하려니와 내 전공에 묻혀 살아 온 나로서는 관심을 가질 여유도 없었다. 지금에 와서야 어렴풋이 그가 당시에 갖고 있던 학문적 비전(vision)을 짐작하게 되었다. 석사논문(Improved Learning Algorithms for Restricted Boltzmann Machines/2011)과 박사논문(Foundations and Advances in Deep Learning/2014)에 그가 꿰뚫어 본 미래가 분명 담겨 있지 않은가! Dr. Juha Karhunen, Dr. Tapani Raiko, Dr. Alexander Ilin 등 유수 학자들의 지도 아래 그는 이미 8년 전부터 10년 이내에 핫이슈로 부상될 딥 러닝(deep learning)의 중요성을 알고 차곡차곡 준비해 왔음을 나는 비로소 깨닫는다.

 

학위를 받고 핀란드를 떠난 그는 캐나다의 몬트리올 대학에서 박사 후 과정을 밟기 시작했다. 자기 분야의 세계적인 석학 요슈아 벤지오(Dr. Yoshua Bengio) 교수를 찾아간 것이다. 그곳으로 간 지 1년쯤 지났을까. 채용 공고에 응모한 미국과 영국, 스위스, 스코틀랜드 등의 유수 대학들에서 교수직 제의를 받았다는 소식을 듣게 되었다. 마지막까지 저울질한 것은 미국의 뉴욕대학교와 영국의 옥스퍼드대학교였는데, 내가 보기에도 두 곳의 장단점은 분명했다. 오래도록 대학물을 먹은 나로서는 전통적인 명성과 함께 정년보장 직으로 채용되는 옥스퍼드가 나아 보였으나, 결국 그는 뉴욕대학을 선택했다. 그 대학에 딥 러닝 분야의 석학 얀 르쿤(Dr. Yann LeCun) 교수가 있었음을 나중에서야 알게 되었다. 세계의 중심인 뉴욕, 경쟁과 자기혁신의 용광로인 미국 대학사회에서 맘껏 연구 활동을 펼치고자 한 그의 뜻을 완전히 이해하기까지는 상당한 시간이 필요했다.

 

잘은 모르지만, 캐나다로 건너 간 뒤부터 그의 학문은 비약적인 발전을 이루게 되었다. 그는 랩(lab)에 몰려드는 세계의 수재들을 지도하며 다양한 테마의 연구에 몰두하고, 한 주에 한 번씩 강의실에서 만나는 학생들을 이끌어주며, 연간 십여 차례씩 국내외 컨퍼런스와 연구교류 여행을 해야 하는 간단치 않은 삶을 살고 있다. 자세한 건 모르지만, 그의 주된 관심사는 컴퓨터의 딥 러닝을 이용한 자연어 처리(natural language processing with deep learning)’인 듯하다. 그가 고안한 것으로 알고 있는 NMT(Neural Machine Translation/신경망 기계번역)는 이미 인공지능 컴퓨터 언어학습 분야의 핫 이슈가 되어 있고, 현재 그는 서로 다른 언어들 사이에서 통번역을 자유자재로 처리할 수 있는 인공지능의 메커니즘을 만들기 위해 동분서주하고 있다. 

 

***

 

1년에 단 한 번, 체류기간은 단 1주일. 그는 여름 방학 초에만 부모가 있는 서울로 온다. 그 짧은 체류기간도 이곳저곳에서 요청한 강연 스케줄로 빡빡하다올해 강연들 중 핵심은 네이버(NAVER)의 커넥트(Connect) 재단에서 있었다. 등록자 200명을 위해 하루 네 시간 씩 이틀 동안 여덟 시간을 강의하고 온 그는 늘 그러하듯 담담했다. 강연료는 얼마나 받았느냐고 농담조로 묻자 천만 원이오. 그런데 모두 기부했어요.”라고 간단히 대답했다. 강연료 액수에 우선 놀랐고, 기부 사실을 아무렇지도 않다는 듯 말하는 그의 무심함에 또 한 번 놀랐다. 그래도 태연한 척 어디에 기부했니?”라고 물으니, “여성 과학자들을 위해 소셜 벤처 걸스로봇(Girlsrobot)에 기부했어요.” 한다. “잘 했다고 대답은 하면서도 궁금증은 커졌다. 그의 전공 지식이 대체 무엇이관대 8시간 강의에 천만 원씩이나 받는 것이며, 그 돈을 한꺼번에 기부하는 배포나 철학은 또 뭐란 말인가. 궁금했으나, 더 묻지 않기로 했다. 아무리 아버지이지만, 가난한 나라의 국문학 교수가 그 내용을 자꾸만 캐묻는 것도 후학에 대한 예의가 아니란 생각이었다. 이삼일 후 그가 떠나고 나서 우연히 인터넷을 서핑하다가 동아일보의 놀라운 기사 한 건을 접하게 되었다.

 

donga.com

 

과학인 키워달라” 30대 과학자 통 큰 기부

 

조경현 뉴욕대 컴퓨터과학과 교수

국내 강연료 1000만원 전액 쾌척

30세에 신경망 기계번역논문으로 딥러닝 분야 세계적 연구자 반열에

 

 

딥러닝 분야에서 학계의 주목을 받는 젊은 한국인 과학자가 국내 대중을 대상으로 연 강연의 강연료 전액을 여성 과학 기술인을 지원하는 국내 소셜 벤처에 기부해 화제다. 주인공은 조경현 뉴욕대 컴퓨터과학과 교수(33·사진). 그는 공동연구를 위해 방한한 이달 11, 12일 커넥트재단 초청으로 경기 성남시 네이버 본사 강당에서 딥 러닝을 이용한 자연어 처리강연을 했다. 8시간 동안 200여 명을 대상으로 한 대형 강연이었다.

 

해외 석학을 초청한 자리인 만큼 강연료가 1000만 원에 이르렀지만, 조 교수는 예비 여성 과학기술인과 대학원생을 지원하는 데 써 달라며 전액을 소셜벤처인 걸스로봇에 쾌척했다.

 

조 교수는 평소 한국은 물론이고 미국에서도 이공계 분야 여성의 활약과 진출이 아직 부족하다는 문제의식을 지니고 있었다고 말했다. 그가 뉴욕대 학부에 개설한 머신러닝 입문과목은 정원이 70명이지만 이 중 여학생 수는 한 손에 꼽을 만큼 적다. 한국은 미국보다 상황이 더 열악할 것이라는 생각에 기부를 결심했다. 그는 미국에서는 아프리카의 과학, 공학 발전을 위해 교수들이 연중 몇 주씩 현지를 찾아가 강의를 하는 등 지역별, 인종별 격차를 줄이는 노력을 많이 하고 있다미국 동료 과학자들의 이런 자세에서도 영향을 받았다고 말했다.

 

조 교수는 현재 구글 번역과 네이버 파파고 등이 채용 중인 신경망 기계 번역기술의 이론적 토대가 된 기념비적인 논문을 2014년 공동 저술해 학계에서 주목을 받았다. ‘정렬 및 번역 동시 학습에 의한 신경망 기계번역이라는 제목의 이 논문은 20일 현재까지 3674회 인용된 딥 러닝 분야의 베스트셀러로 꼽힌다.

 

윤신영 동아사이언스 기자 ashilla@donga.com

원문보기:

http://news.donga.com/3/all/20180621/90681370/1#csidxc09a80b7f83fa0ea2f4c765d86099f0

 

 

 

, 그랬구나! 세상은 그의 존재를 알고 있는데, 나만 그의 성장을 모른 채 늘 어린 아이로만 생각하고 있었다! 1997년 첫 연구년을 받아 미국으로 떠날 준비를 할 때, 초등학교 6학년인 그와 4학년인 둘째 아이에게 초급 영어 회화를 가르치며 초조해 하던 나를 떠올렸다. 이 어린 것들을 데리고 낯설고 물 선 미국 땅에서 무사히 1년을 지내고 돌아올 수 있을 것인가. 내게 주어진 천금 같은 기회를 살려 이 철부지들을 낯선 미국 땅과 문화에 잘 적응시킬 수 있겠는가. 가족들을 끌고 물을 건너는 가장에겐 걱정이 많았다. 그러나 미국에 건너가자마자 영어도 미국 생활 자체도 그들에게 대뜸 추월당한 나였다. 그렇게 아이들은 어른들을 앞서 갔지만, 바로 어제까지 그들은 내게 코흘리개 아이들일 뿐이었다. 올해 초 그는 미국의 블룸버그 통신이 선정한 ‘201850개 분야에서 주목해야 할 인물에 들었다. 사실 놀라워할 만한 사건이었다. 그러나 그 때만 해도, ‘뭘 갖고 그러지?’라고 심드렁하게 생각한 나였다. 그런데 그게 아니었다.

 

 

어느 새 그는 이미 남들이 인정하는 세계적인 학자가 되어 있었다. 논문의 인용지수나 강연파일들의 태그 건수가 내 상식을 초월하고, 미국 안에서는 물론 유럽에서도 아시아에서도 그를 찾는 곳들이 많아 일일이 응대할 수 없다는 점도 알게 되었다. 특히 인공지능이 대세를 형성하고 있는 오늘날 그는 순풍을 탄 독수리처럼 하늘로 솟고 있다. 그러면서도 늘 겸손한 자세로 구부정하게 앉아 키보드를 두드리는 그가 대견하다. 좀 잘 나간다고 까불다가 추락하는 세상 천재들의 말로를 잘 알고 있다는 듯 밤낮으로 노력하는 그를 보며 안심을 한다.

 

인천공항 출국장. 그를 탑승구로 들여보내고 나는 아내에게 속마음을 털어 놓았다. “지금 보니 저 녀석은 대양을 헤엄치는 고래이고, 나는 고향 마을 실개천의 붕어나 미꾸라지일세. 고래가 실개천으로 돌아올 이유도 없고, 붕어나 미꾸라지가 대양으로 나갈 이유도 없겠지. 나는 개천 속 붕어와 미꾸라지의 삶을 녀석에게 보여주며 항상 교만하지 않고 초심을 유지할 수 있도록 할 셈이네!”

 

제주도의 호텔 로비에서

제주도 목장에서 오른쪽부터  조경현, 백규, 임미숙, 김미언, 조원정, 조영빈

 

 

Posted by kicho
알림2017. 6. 5. 23:19

 

Keynote Speech on NMT(Neural Machine Technology) by Dr. Kyunghyun Cho(Professor/New York University) in Sweden

NMT(Neural Machine Technology:신경망 번역)의 원리에 대한 설명

https://play.gu.se/media/1_xt08m5je

Posted by kicho
글 - 학술문2017. 5. 14. 22:34
Neural Machine Translation Research Accelerates Dramatically

Academia continues to ramp up its research into neural machine translation (NMT). Five months into the year, the number of papers published in the open-access science archive, arXiv.org, nearly equals the research output for the entire year 2016. The spike confirms a trend Slator reported in late 2016, when we pointed out how NMT steamrolls SMT.

As of May 7, 2017, the Cornell University-run arXiv.org had a total of 137 papers in its repository, which had NMT either in their titles or abstracts. From only seven documents published in 2014, output went up to 11 in 2015. But the breakthrough year was 2016, with research output hitting 67 contributions.

Advertisement

NMT, or an approach to machine translation based on neural networks, is seen as the next evolution after phrase-based statistical machine translation (SMT) and the previous rules-based approach.

While many studies and comparative evaluations have pointed to NMT’s advantages in achieving more fluent translations, the technology is still in its nascent stage and interesting developments in the research space continue to unfold.

Most Prolific

At press time, NMT papers submitted in 2017 were authored by 173 researchers from across the world, majority of them (63 researchers) being affiliated with universities and research institutes in the US.

The most prolific contributor is Kyunghyun Cho, Assistant Professor at the Department of Computer Science, Courant Institute of Mathematical Sciences Center for Data Science, New York University. Cho logged 14 citations last year.

He has, so far, co-authored three papers this year —  “Nematus: a Toolkit for Neural Machine Translation,” “Learning to Parse and Translate Improves Neural Machine Translation,” and “Trainable Greedy Decoding for Neural Machine Translation” — in collaboration with researchers from the University of Edinburgh, Heidelberg University, and the University of Zurich in Europe; the University of Tokyo and the University of Hong Kong in Asia; and the Middle East Technical University in Turkey.

Aside from Cho, 62 other researchers with interest in NMT have published their work on arXiv under the auspices of eight American universities: UC Berkeley, Carnegie Mellon, NYU, MIT Computer Science and Artificial Intelligence Laboratory, Cambridge, Stanford, Georgia Institute of Technology Atlanta, Johns Hopkins University, and Harvard.

Sixty-one researchers from Europe have also substantially contributed to the collection, with authors from the UK (18), Germany (11), Ireland (13), and the Netherlands (7) submitting the most papers.

There were also 58 NMT academic papers from Asia, authored by researchers mostly from China, Hong Kong and Taiwan (31), Japan (22), South Korea (3), and Singapore (2).

Tech Firms in the Mix

Research teams from US tech giants such as Facebook Research, Google Brain, IBM Watson, NVIDIA (on whose GPU chips NMT runs), and translation technology pioneer SYSTRAN have also been increasingly contributing their research to arXiv. 

A paper from a team of researchers from Google Brain, for example, offers insights on building and extending NMT architectures and includes an open-source NMT framework to experiment with results.

Researchers from Harvard and SYSTRAN introduced an open-source NMT toolkit — OpenMT — which provides a library for training and deploying neural machine translation models. They said the toolkit will be further developed “to maintain strong MT results at the research frontier” and provide a stable framework for production use.

NMT, where math meets language

Facebook, which announced on May 9, 2017 that it is outsourcing its NMT model, has one other paper on arXiv. Entitled “Learning Joint Multilingual Sentence Representations with Neural Machine Translation,” it is authored by two members of its AI research team in collaboration with two other researchers from the Informatics Institute – University of Amsterdam and the Middle East Technical University.

In Asia, China’s Internet provider, Tencent, has two contributions this year. One is from its AI Lab in Shenzhen (“Modeling Source Syntax for Neural Machine Translation”); the other, from its Mobile Internet Group (“Deep Neural Machine Translation with Linear Associative Unit”), done in collaboration with researchers from Soochow University, Chinese Academy of Sciences, and Dublin University.

The Beijing-based Microsoft Research Asia has also started to contribute its own studies on NMT this year. Two papers (“Adversarial Neural Machine Translation” and “MAT: A Multimodal Attentive Translator for Image Captioning”) were uploaded just this month.

The company’s own researchers have collaborated with other scientists from the University of Science and Technology of China, Sun Yat-sen University (Taiwan), Guangdong Key Laboratory of Information Security Technology, Tsinghua University, UESTC, and Johns Hopkins University.

Surge Will Last

As early as February 2016, an informal survey conducted by Cho indicated that the NMT research boom would have legs.

In a blog post dated February 13, 2016, Cho said he conducted the informal (he admits highly biased) poll mainly to determine researchers’ opinion about contributing to arXiv. Rather than being a peer-reviewed journal or online platform, arXiv is an automated online distribution system for research papers (e-prints).

“In total, 203 people participated, and they were either machine learning or natural language processing researchers. Among them, 64.5% said their major area of research is machine learning, and the rest natural language processing,” Cho wrote.

It is a big number of scholars and scientists who could feed the NMT research funnel for years — whether, as Cho calls it, they choose “to arXiv” or “not to arXiv” their works right away.

Eden Estopace

An IT journalist for the past 17 years, Eden has written for the top publications in the Philippines and Asia, covering consumer and enterprise IT. Offline, her interests are creative writing, photography, and film.

Posted by kicho