관심있는 이슈들

[기사] 'AI 대부' 제프리 힌튼, 구글 퇴사…"수십년 AI 연구 후회"

Yuniverse. 2023. 5. 2. 17:22

https://zdnet.co.kr/view/?no=20230502093040

 

'AI 대부' 제프리 힌튼, 구글 퇴사…"수십년 AI 연구 후회"

인공지능(AI) 학습법인 딥러닝을 처음으로 만든 제프리 힌튼 토론토대 교수가 구글을 떠난다. AI에 대한 위험성을 자유롭게 이야기하기 위해서다.제프리 힌튼 교수는 1일(현지...

zdnet.co.kr

 

거의 모든 산업군에서 AI가 사용되고, 며칠되지도 않았는데 더 발전된 AI가 등장하는 요즘이다.

이에 따라 AI에 대한 우려의 목소리 또한 커지고 있다.

이런 기사를 읽으면 AI에 굉장히 우호적인 마음가짐을 지니고 있는 나조차도 걱정섞인 생각이 든다.

 

특히, 기사에서 

“생성AI로 인한 가짜 이미지와 텍스트가 너무 많아졌다”며 “앞으로 인간은 진실과 거짓을 구분하지 못하는 세상을 마주하게 될 것이다. 이 점이 가장 두렵다”

이 말이 제일 공감이 갔다. 

회사 업무에 챗GPT를 쓰다보면 챗GPT가 잘못된 방안을 알려줄 때가 있다. 대부분의 경우에는 그것이 잘못된 방안이란 걸 내가 알고 있기 때문에 나 스스로 수정을 거쳐 업무에 적절하게 이용할 수 있지만, 만약 내가 그게 잘못된 방안인지 판가름을 할 수 없다면 어떻게 될까? 나는 AI가 알려준 방안이란 이유만으로 그 '오답'을 '정답'으로 믿고 업무를 진행하게 되지 않을까? 만약 그게 중요한 업무였다면 이 '오답'을 믿고 진행했을 때 돌이킬 수 없는 결과를 초래할지도 모른다.

 

런닝머신을 타고 있던 나에게 트레이너선생님이 해준 말이 있다.

"런닝머신을 리드하는 게 아니라 런닝머신에 리드 당하고 있다면, 런닝머신 속도를 낮추셔야 합니다."

 

AI의 발전 또한 런닝머신과 마찬가지라 생각한다.

인간이 AI의 발전을 리드하는 게 아니라, AI의 발전속도에 리드 당하고 있다면

그때는 AI의 발전속도를 억지로 낮춰서라도 인간이 리드할 수 있게끔 해야할 것이다.