본문 바로가기

이것저것

AI의 위험성 경고 (제프리 힌튼 교수에 대하여)

반응형

제프리 힌튼(Jeffrey Hinton)은 1947년 12월 6일 영국 런던에서 태어났으며, 현재는 토론토 대학교에서 교수직을 맡고 있습니다. 


힌튼 교수는 딥 러닝 분야에서의 다양한 발전에 큰 역할을 한 인물 중 하나로서 역전파 알고리즘을 개발 하였으며 이러한 기술을 바탕으로 이미지 인식, 음성 인식, 자연어 처리 등의 분야에서 많은 발전이 이루어졌습니다.


제프리 힌튼은 딥 러닝 분야에서의 기여로 2018년 ACM 튜링상을 수상하였으며, 현재도 딥 러닝 분야에서의 선도적인 역할을 계속하고 있습니다.

 

또한, 그는 Google Brain의 공동 창시자 중 한 명으로서, Google에서도 딥 러닝 분야에서 활발한 연구를 이어가고 있었습니다. 

그러던 그가 갑자기 10년만에 구글을 떠나면서 여러가지 AI에 대한 고민을 발표했습니다.

" AI 흐름을 주도해 왔던 제프리 힌튼의 경고 메시지는 적지 않은 울림을 몰고 왔다. 일론 머스크 같은 비즈니스맨의 경고와는 차원이 다르기 때문이다."

이미 세상의 흐름은 바뀌었지만 한번은 생각해 볼만한 내용이라고 생각 됩니다. 


다음은 Zdnet Korea에 실린 기사입니다. 기사 중요 내용은 다음과 같습니다.

 

관련 기사 1

https://zdnet.co.kr/view/?no=20230502093040&utm_source=dable 

 

'AI 대부' 제프리 힌튼, 구글 퇴사…"수십년 AI 연구 후회"

인공지능(AI) 학습법인 딥러닝을 처음으로 만든 제프리 힌튼 토론토대 교수가 구글을 떠난다. AI에 대한 위험성을 자유롭게 이야기하기 위해서다.제프리 힌튼 교수는 1일(현지...

zdnet.co.kr

 

기사 중요 내용은 다음과 같습니다. 

NYT 인터뷰 내용에 따르면 힌튼은 최근 AI 기술에 대해 크게 우려하고 있다. 그는 “생성AI로 인한 가짜 이미지와 텍스트가 너무 많아졌다”며 “앞으로 인간은 진실과 거짓을 구분하지 못하는 세상을 마주하게 될 것이다. 이 점이 가장 두렵다”고 강조했다.

힌튼은 앞으로 AI 연구에 대한 규제가 필요하다는 입장이다. 그는 “현재 기업이나 국가가 어떤  AI 기술을 연구하는지 일일이 알 수 없다”며 “결국 전 세계 과학자들이 AI 기술을 제어하는 방법에 대해 협력해야 한다”고 주장했다. 또 “AI를 통제할 수 있다는 확신이 들 때까지 AI 기술을 넓혀선 안 된다”고도 했다.

 

반응형



2.  관련 기사 2 

 

https://zdnet.co.kr/view/?no=20230503111026

 

'AI 대부'는 왜 갑자기 구글을 떠났을까

천문학 박사 과정 학생인 케이트 디비아스키는 새로운 혜성을 발견한다. 기쁨에 겨운 그는 지도교수인 렌달 민디 박사에게 이 사실을 알린다. 민디 박사 역시 기쁜 마음으로 축하...

zdnet.co.kr

 

힌튼은 구글과 결별한 가장 큰 이유로 ‘AI의 위협’을 거론했다. 구글에 몸 담고 있으면 이 문제를 자유롭게 거론하기 힘들기 때문에 떠나는 쪽을 택했다고 말했다.

그는 “AI가 사람보다 더 똑똑해지기까지는 아직 상당한 시간이 필요할 것이라고 생각했지만 이젠 그렇게 생각하지 않는다”는 말도 했다. 심지어 AI 시스템에서 일어나는 일이 사람 뇌보다 더 나은 경우도 있다고 경고했다.

흔히 인간은 새로운 것을 금방 배우는 반면 챗GPT 같은 LLM은 엄청난 데이터를 학습해야만 한다는 것이 일반적인 상식이다. 

하지만 힌튼은 MIT테크놀로지리뷰와 인터뷰에서 '퓨 샷 러닝(few-shot learning)' 가능성에 대해 언급했다. 사전 학습된 LLM들은 몇 가지 사례만으로도 새로운 것을 굉장히 빨리 배울 수 있다는 것이다. 그런 다음 이렇게 학습한 것들을 조합해 전혀 배운 적 없는 주장을 내세우기도 한다. 이렇게 되면 인간의 장점은 완전히 사라지게 된다는 것이 힌튼의 주장이다. 

흔히 챗GPT 같은 LLM의 심각한 결함 중 하나로 ‘환각(hallucinations)’을 꼽는다. AI가 ‘아무말 대잔치’를 하는 상황을 묘사한 말이다.

하지만 힌튼은 ‘환각’ 보다는 ‘작화증(confabulations)’이란 용어를 더 선호한다. ‘작화증’이란 ‘자기의 공상을 실제 일처럼 말하면서 자신은 그것이 허위라는 것을 인식하지 못하는 증상’을 의미한다.

흔히 작화증은 기술에선 중요한 결함으로 간주한다. 하지만 힌튼은 사람간의 대화에서도 흔히 볼 수 있는 현상이라고 주장한다. 그는 MIT테크놀로지리뷰와 인터뷰에서 “작화증은 인간 기억력의 특징 중 하나다”면서 “따라서 이런 모델은 인간과 비슷하게 작동하는 셈이다”고 강조했다.

힌튼은 똑똑한 기계들의 다음 단계는 자신만의 ‘하위목표(subgoal)’를 설정하는 것이라고 주장한다. 여러 발생 상황이나 변수를 고려해 AI가 하위 목표를 자체적으로 설정한다는 의미다.

그는 “하위목표를 설정하게 될 경우 로봇들이 ‘더 많은 전력을 갖자. 모든 전기를 내 칩으로 우회시키자’고 하는 상황이 발생할 수도 있다”고 경고했다. 힌튼의 이런 경고는 암울한 미래상을 그린 SF영화에서 우리가 흔히 보던 모습이다. AI가 인간의 통제 영역 바깥으로 나갈 수도 있기 때문이다. 

 

 

반응형