본문 바로가기
IT 정보

구글을 떠난 제프리 힌턴의 경고

by IT Insider 2023. 5. 5.

제프리 힌턴(Geoffrey Hinton)은 신경망(Neural network) 레이어를 효율적으로 학습하는 딥러닝을 개발해 오늘날의 인공지능과 생성 AI의 기본을 만들었습니다. 현재 모든 AI들의 대부가 바로 제프리 힌턴인 것입니다. 그런 그가 구글을 떠났고, 이제는 자신이 만들고 발전시킨 바로 그것들이 인류에 심각한 해를 끼칠 것이라고 우려하고 있습니다.

아직 우리는 챗GPT를 어떻게 사용할지도 알지 못하고 딥 러닝이니 머신러닝 같은 용어들도 생소한데 그것들이 이제는 우리 삶을 심각하게 위협할 것이라고 경고하고 있는 것입니다.

 

*아래 기사는 뉴욕 타임스 기사를 편집하고 발췌한 것입니다.

 

제프리 힌턴은 인공지능의 선구자였습니다. 2012년 힌튼 박사와 일리야 수츠케버(Ilya Sutskever) 와 알렉스 크리제브스키(Alex Krishevsky)와 함께 AI 업체인 DNN리서치를 창업하고 AI에게 수천 장의 사진을 입력하고 꽃, , 자동차와 같은 일반적인 물체를 식별하도록 스스로 학습할 수 있는 신경망을 구축했습니다. 컴퓨터가 인간의 두뇌처럼 작동해 정보를 흡수하는 딥 러닝을 개발한 것도 제프리 힌턴입니다. 이런 그가 구글을 떠난 사실을 밝히면서 평생 해온 자신의 연구를 후회한다는 말을 했습니다.

사진: 제프리 힌턴

"나는 통상적인 변명으로 나를 위로합니다. 내가 하지 않았다면 다른 누군가가 했을 것이라고요."

 

A.I.에서 Dr. Hinton의 연구는 기술 산업에 놀라운 발전을 가능하게 했습니다. A.I. 시스템은 1990년대 초 웹 브라우저의 도입만큼 중요할 수 있으며 약물 연구에서 교육에 이르기까지 다양한 분야에서 획기적인 발전을 가져오게 했습니다. 그러나 현재 우려했던 AI의 할루시네이션 현상은 생각했던 것보다 자주 나타나고 있습니다. 잘못된 정보를 제공받고 성장한 AI 잘못된 정보를 제공하는 도구가 될 수 있습니다. 수많은 일자리에도 위협이 될 수 있습니다. 이 기술의 가장 큰 걱정거리는 언젠가 인류에게 위험이 될 수 있다는 것입니다.

 

"나쁜 행위자들이 그것을 악용하는 것을 어떻게 막을 수 있는지 알기 어렵습니다."

이것이 바로 닥터 힌튼이 생성 AI를 걱정하는 이유입니다.

 

ChatGPT

OpenAI의 인공 지능 언어 모델인 ChatGPT는 복잡한 질문에 응답하고, 시를 쓰고, 코드를 생성하고, 휴가를 계획하고, 언어를 번역하는 기능으로 작년 11월부터 헤드라인을 장식하고 있습니다. 3월 중순에 출시된 최신 버전인 GPT-4는 이미지에도 대응할 수 있습니다.

 

Bing

ChatGPT가 출시된 지 두 달 후, OpenAI의 주요 투자자이자 파트너인 Microsoft는 거의 모든 주제에 대해 개방형 텍스트 대화를 할 수 있는 유사한 챗봇을 Bing 인터넷 검색 엔진에 추가했습니다. 그러나 출시 후 관심을 끌었던 것은 가끔 보여지는 봇의 부정확하고 오해의 소지가 있는 이상한 반응이었습니다.

 

Bard

음유 시인 Bard라고 불리는 Google의 챗봇은 지난 3월 미국과 영국의 제한된 수의 사용자에게 공개되었습니다. 원래 이메일과 시를 작성하기 위해 창의적인 도구로 고안된 이 도구는 아이디어를 생성하고, 블로그 게시물을 작성하고, 사실이나 의견으로 질문에 답할 수 있습니다.

 

어니

바이두(Baidu)는 지난 3월 중국 최초의 ChatGPT 어니를 공개했습니다. 지식 통합을 통한 향상된 표현(Enhanced Representation through Knowledge Integration)의 줄임말인 Ernie의 데뷔는 약속된 봇의 "라이브" 데모가 녹화된 것으로 밝혀진 후 실패한 것으로 판명되었습니다.

 

샌프란시스코 스타트업 OpenAI3월에 새로운 버전의 ChatGPT를 출시한 후 1,000명 이상의 기술 리더와 연구원이 새로운 시스템 개발에 대한 6개월 유예를 요구하는 공개서한에 서명했습니다. 기술은 "사회와 인류에 심각한 위험"을 제기한다는 것이 이유입니다. 며칠 후, 인공지능진흥협회의 전·현직 지도자 19명이 인공지능의 위험성을 경고하는 편지를 공개했습니다. 이 그룹에는 Bing 검색 엔진을 포함한 광범위한 제품에 OpenAI 기술을 배포한 Microsoft의 최고 과학 책임자인 에릭 호비츠(Eric Horvitz)가 포함되어 있습니다.

 

A.I.의 대부로 불리는 제프리 힌튼 박사는 이런 공개서한 어느 것에도 서명하지 않았으며 구글을 그만둘 때까지 구글이나 다른 회사를 공개적으로 비판하고 싶지 않다고 말했습니다. 마침내 그는 지난달 회사에 사임을 통보했고, 목요일에는 구글 모회사인 알파벳의 최고경영자 순다르 피차이와 전화 통화를 했습니다. 그는 피차이와의 대화 내용을 공개적으로 논의하는 것은 거부했습니다.

 

75세의 외국 거주 영국인 제프리 힌튼 박사는 A.I의 개발 및 사용에 대한 개인적인 신념에 따라 경력을 쌓은 평생 학자입니다. 1972년 에딘버러 대학교 대학원생 시절 힌튼 박사는 신경망(Neural network) 연구를 시작했습니다. 인공 신경망은 데이터를 분석하여 기술을 학습하는 수학적 시스템입니다. 당시 이 아이디어를 믿었던 연구자는 거의 없었습니다. 그러나 이것은 그의 일생의 일이 되었습니다.

 

1980년대에 힌튼 박사는 카네기 멜런 대학교 컴퓨터공학과 교수였으나 펜타곤이 자금 지원을 꺼린다는 이유로 대학을 떠나 캐나다로 갔습니다. 당시 미국 내 A.I. 연구는 국방부에서 자금을 지원했습니다. 힌튼 박사는 전장에서 인공지능을 사용하는 것을 심각하게 반대합니다. 그는 이들을 "로봇 병사"라고 불렀습니다.

 

2012, Hinton 박사와 그의 토론토 학생 두 명 일리야 수츠케버(Ilya Sutskever)와 알렉스 크리셰프스키(Alex Krishevsky)는 수천 장의 사진을 분석하고 꽃, , 자동차와 같은 일반적인 물체를 식별하도록 스스로 학습할 수 있는 신경망을 구축했습니다.

Google은 힌튼 박사와 그의 두 제자가 시작한 회사를 인수하기 위해 4,400만 달러를 지출했습니다. 그리고 그들의 시스템은 ChatGPT Google Bard와 같은 새로운 챗봇을 포함하여 점점 더 강력한 기술을 만들어냈습니다. 2018년에 힌튼 박사와 다른 두 명의 오랜 협력자는 신경망(Neural network)에 대한 연구로 "컴퓨팅의 노벨상"이라고 불리는 튜링상을 받았습니다.

사진: 일리아 슈테커

OpenAI의 수석 과학자인 일리아 슈테커는 토론토에서 힌튼 박사와 함께 연구했습니다. 같은 시기 Google, OpenAI 및 기타 회사는 엄청난 양의 디지털 텍스트에서 학습하는 신경망을 구축하기 시작했습니다. 힌튼 박사는 그것이 기계가 언어를 이해하고 생성하는 강력한 방법이라고 생각했지만, 인간이 언어를 처리하는 방식보다 열등했습니다.

그러다가 작년에 구글과 OpenAI가 훨씬 더 많은 양의 데이터를 사용하여 시스템을 구축하면서 그의 관점이 바뀌었습니다. 그는 여전히 시스템이 어떤 면에서는 인간의 뇌보다 열등하다고 믿었지만 다른 면에서는 시스템이 인간의 지능을 무색하게 한다고 생각했습니다. "아마도 이 시스템에서 일어나는 일은 실제로 뇌에서 일어나는 일보다 훨씬 더 나을 것입니다."라고 그가 말했습니다.

기업들이 AI를 개선함에 따라 그는 시스템이 점점 더 위험해지고 있다고 생각합니다. 그는 AI에 대해 말합니다. "5년 전과 지금을 보세요, 차이를 받아들여 앞으로 전진합니다. 무서울 정도입니다."

 

그는 작년까지 구글이 해를 끼칠 수 있는 무언가를 공개하지 않도록 주의하면서 기술을 위한 "적절한 관리인" 역할을 했다고 말했습니다. 하지만 이제 마이크로소프트가 구글의 핵심 사업에 도전하는 챗봇으로 빙 검색 엔진을 강화함에 따라 구글은 같은 종류의 기술을 배치하기 위해 서두르고 있습니다. 기술 대기업들은 멈출 수 없는 경쟁에 갇혀 있다고 힌튼 박사는 말합니다.

 

그가 당장 우려하는 것은 인터넷이 거짓 사진, 비디오, 문자로 넘쳐날 것이며, 일반인들은 더 이상 무엇이 진실인지 알 수 없을 것입니다. 또한 A.I. 기술은 시간이 지나면 고용 시장을 뒤집을 것입니다. 현재의 ChatGPT와 같은 챗봇은 인간 근로자를 보완하는 경향이 있지만 그들은 법률가, 개인 비서, 번역가 및 암기 작업을 처리하는 다른 사람들을 대체할 수 있습니다. "그것은 힘든 일을 가져다줄 것입니다. 그러나 그보다 더 많은 것을 빼앗길 수 있을 것입니다.”

 

앞으로 그는 기술의 미래 버전이 인류가 분석하는 방대한 양의 데이터에서 예상치 못한 행동을 배우기 때문에 인류에게 위협이 되는 것을 걱정합니다. 개인과 기업이 AI를 허용함에 따라 이것이 문제가 된다고 그는 말하고 있습니다. 시스템은 자체 컴퓨터 코드를 생성할 뿐만 아니라 실제로 자체적으로 해당 코드를 실행합니다. 그리고 그는 진정한 자율 무기인 킬러 로봇이 현실이 되는 날을 두려워합니다.

 

"몇몇 사람들은 이 물건이 실제로 사람보다 더 똑똑해질 수 있다고 믿었습니다. 그러나 대부분의 사람은 그럴 수 없으리라 생각했습니다. 나는 그런 일은 멀다고 생각했습니다. 30년에서 50년 어쩌면 그보다 더 먼 미래의 일일 것으로 생각했습니다. 분명히 말하자면, 나는 더 이상 그렇게 생각하지 않습니다."

 

그의 많은 학생과 동료를 포함한 다른 많은 전문가들은 이 위협이 가설에 불과하다고 말합니다. 그러나 힌튼 박사는 구글과 마이크로소프트 등의 경쟁이 일종의 글로벌 규제 없이는 멈추지 않는 글로벌 경쟁으로 확대될 것이라고 믿고 있습니다.

 

그러나 규제는 불가능할 수도 있다고 그는 말합니다. 핵무기와 달리 기업이나 국가가 비밀리에 AI 기술을 연구하고 있는지 알 방법이 없다는 것입니다. 최고의 희망은 세계 최고의 과학자들이 기술을 제어하는 ​​방법에 대해 협력하는 것입니다.

 

힌턴 박사는 사람들이 그에게 잠재적으로 위험한 기술을 어떻게 연구할 수 있는지 묻곤 했을 때, 그는 원자폭탄을 만들기 위한 미국의 노력을 이끈 로버트 오펜하이머의 말을 인용해 "기술적으로 달콤한 것을 보면 그것을 계속하세요."라고 말하고는 했습니다.

 

그러나 그는 더 이상 그런 말을 하지 않습니다.

 

댓글