인공지능은 정말 생각을 하는 걸까
인공지능은 정말 생각을 하는 걸까
  • 이상진
  • 승인 2018.12.30 12:00
  • 조회수 8446
  • 댓글 0
이 기사를 공유합니다

이세돌 기사와 알파고와의 대결은 알파고의 승리로 끝났다. 출처:fotolia
이세돌 국수와 알파고와의 대결은 알파고의 승리로 끝났습니다. 출처: fotolia

2016년 3월 이세돌 9단과 구글 알파고의 바둑 대결은 대한민국에 인공지능과 관련된 활발한 논의를 불러 일으켰습니다. 전 세계에 충격을 줬죠.

 

이세돌 9단과 알파고의 바둑대결 결과는 알파고의 4:1 승리로 끝났는데요. 알파고의 승리로 마무리된 세기의 대결 결과로 '이제 기계가 사람을 지배하는 시대가 올 것'이라는 우스갯소리가 회자됐습니다. 또 반대로 알파고는 바둑판이라는 경계가 정해진 상태에서 경우의 수를 학습하고 계산했을 뿐, 인간처럼 생각할 수는 없기 때문에 그런 우려는 섣부르다는 지적도 나왔죠.

 

최근 대중문화에서 활발해진 인공지능에 관한 논의는 사실 20세기 중반부터 제기된 문제였습니다. 컴퓨터와 같은 기계가 사람처럼 '생각할 수 있느냐'는 질문을 공식적으로 처음 던진 이는 앨런 튜링이었어요. 앨런 튜링은 제2차 세계대전 당시 나치 독일의 암호기였던 '에니그마'를 해독한 영국의 천재 수학자이자 논리학자였습니다.

 

'튜링테스트' 통과하면 기계도 '생각'

 

튜링은 1950년에 <Computing Machinery and Intelligence>라는 논문을 발표하는데요. 논문의 첫 문장에서 그는 'Can machines think'라는 질문을 던집니다. 그리고 이른바 '튜링테스트'라고 불리는 일종의 게임을 제시합니다. 그는 '튜링테스트'를 통과하는 기계는 생각하는 능력이 있는 것으로 판단해야 한다고 주장하는데요.

 

'튜링테스트'는 기계가 행동주의적 지능검사를 통과하는지 알아보는 테스트입니다. 논문 속에서 튜링테스트의 설정은 다소 복잡한데요. 이를 간단한 개념만 풀어 설명하면 다음과 같습니다. 

 

조사자들의 30% 이상이 해당 기계를 사람이라고 판단하면 '튜링테스트'를 통과한다. 출처:fotolia
조사자들의 30% 이상이 해당 기계를 사람이라고 판단하면 '튜링테스트'를 통과합니다. 출처: fotolia

검사에서 기계(컴퓨터 또는 인공지능 프로그램)는 5분 동안 조사자들과 온라인으로 대화를 나누죠. 이때 기계와 대화를 나눈 조사자들이 해당 기계를 사람이라고 판단하는 확률이 30%를 넘게 되면 이 기계는 튜링테스트를 통과하게 된 것이고 생각하는 능력이 있다고 인정받습니다.

 

'튜링테스트'는 행동주의 테스트로 불리기도 합니다. 튜링이 '생각' 그 자체에 대한 규정을 내리지 않고 '인간처럼 행동하는 기계는 생각하는 것으로 보자'는 전제를 가정했기 때문인데요. 튜링은 '생각하다'라는 의미에 대해 정의내리기는 불가능하다고 지적했습니다. 사람마다 그 기준이 다르기 때문에 그 의미를 정의하는 것은 '여론조사'를 통해 다수결로 정의할 수밖에 없고, 튜링은 그런 정의내림이 부당하다고 본 까닭입니다. 

 

존 설, 중국어방 논증으로 '튜링테스트' 비판

 

'튜링테스트'에 대한 가장 유명한 반론은 이른바 '중국어방 논증'으로 불리는 논의인데요. UC버클리 철학과의 존 설 명예교수가 1980년에 제기했습니다. '중국어방 논증'은 일종의 사고 실험입니다. 논증을 간단히 비유해 설명해보면 다음과 같습니다.

 

'정해진 규칙'에 따른 행동이 '생각한다'는 것을 의미할까? 출처:fotolia
'정해진 규칙'에 따른 행동이 '생각한다'는 것을 의미할까? 출처: fotolia

어느 날 마른 하늘의 날벼락처럼 납치된 미국인 A가 하얀 방에 갇혀 있습니다. A를 가둔 사람들은 A에게 자신들이 요구하는 작업을 완료하면 내보내주겠다고 하죠.

 

그들은 A에게 작업 방식이 영어로 기록된 한 권의 책과 알 수 없는 미지의 기호들로 가득한 A4크기의 노트를 한 무더기 건네줍니다. A는 책에 적힌 프로세스에 따라 미지의 기호들의 대한 답을 미지의 기호로 적어 납치범들에게 건네주고 풀려나죠.

 

이때 미지의 기호는 '중국어'였습니다. 그리고 그가 책을 기반으로 작성한 답변은 '완벽한 중국어답변'이었습니다.

과연 위의 작업을 완료한 A가 중국어를 이해했다고 볼 수 있을까요? 그가 아무리 완벽한 중국어 답변을 내놓았어도 책에 적힌 프로세스를 따른 결과에 불과한 것인데 말입니다.

 

존 설 교수는 위와 같은 '중국어방 논증'을 들면서 발달된 기계(컴퓨터 등)가 '튜링테스트'를 통과해도 기계는 단지 프로그램된 프로세스를 따랐을 뿐 인간처럼 생각하고 이해하는 과정은 없다고 주장합니다.

 

'생각한다'를 정의내리는 모호함과 어려움은 '튜링테스트'를 다시 되돌아보게 한다. 출처:fotolia
'생각한다'를 정의내리는 모호함과 어려움은 '튜링테스트'를 되돌아보게 합니다. 출처: fotolia

하지만 '중국어방 논증'에도 지적할 부분은 있습니다. 프로세스에 따라 작업한 기계가 자신은 작업의 내용을 이해하고 생각하고 있다고 주장한다면, 기계가 생각하지 않는다는 것을 어떻게 부정할 수 있을까요? 

 

기계 이전에 어떤 '사람'이 '생각하고 있다'는 건 어떻게 증명할 수 있을까요? '그 기계' 또는 '그'가 직접 되지 않는 이상 '생각하고 있다'거나 '생각하지 않는다'는 것을 증명하거나 부정할 방법이 있을까요?
 


##참고자료##


김재인, <인공지능의 시대, 인간을 다시 묻다>, 서울:동아시아, 2017.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

  • 충청남도 보령시 큰오랏3길
  • 법인명 : 이웃집과학자 주식회사
  • 제호 : 이웃집과학자
  • 청소년보호책임자 : 정병진
  • 등록번호 : 보령 바 00002
  • 등록일 : 2016-02-12
  • 발행일 : 2016-02-12
  • 발행인 : 김정환
  • 편집인 : 정병진
  • 이웃집과학자 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2016-2024 이웃집과학자. All rights reserved. mail to contact@scientist.town
ND소프트