관리 메뉴

MisoEnglish

AI 인문학 시리즈 2부: AI의 뿌리와 역사 본문

The Language Beyond Grammar

AI 인문학 시리즈 2부: AI의 뿌리와 역사

slowblooms 2025. 12. 17. 08:55

 

2부. 뿌리와 역사

— 계산기에서 ‘생각하는 기계’까지

AI 인문학 시리즈
핵심 3줄 요약
  • AI는 ‘갑자기 등장한 신기술’이 아니라, 생각을 덜어내고 싶었던 인간의 오래된 욕망에서 시작되었습니다.
  • 튜링의 질문은 ‘진짜 생각’보다 ‘생각하는 것처럼 보임(행동/대화)’에 초점을 두었습니다.
  • AI는 성공보다 실패의 시간이 길었고, 그 실패가 규칙 → 경험(데이터)으로의 전환을 만들었습니다.

AI를 제대로 이해하려면 기술 이야기보다 먼저 사람 이야기를 해야 합니다. 결국 질문은 하나로 모입니다.

사람은 왜 ‘생각하는 기계’를 만들고 싶어 했을까?

이 질문을 따라가다 보면, AI는 갑자기 튀어나온 신기술이 아니라 아주 오래된 인간의 욕망과 필요에서 시작되었다는 걸 알게 됩니다.

1) 인간은 오래전부터 ‘생각을 외주’ 주고 싶어 했습니다

사람은 늘 머리를 쓰는 일을 줄이고 싶어 했습니다.

  • 계산은 더 정확하게
  • 기억은 더 오래
  • 반복 작업은 지치지 않게

그래서 초기의 기계는 아주 단순했습니다. 사람이 시킨 일을 빠르고 정확하게 처리해 주는 도구였죠. 이 단계의 기계는 생각하지 않았고, 판단하지 않았고, 의미를 이해하지도 못했습니다. 그저 명령을 수행했습니다.

하지만 욕심은 한 단계 더 나아갑니다
“계산 말고, 판단도 대신해주면 안 될까?”
“사람처럼 생각하게 만들 수는 없을까?”

이 질문이 바로 AI의 출발점이 됩니다.

2) “기계도 생각할 수 있을까?” — 튜링의 질문

1950년대, 영국의 수학자 앨런 튜링은 당시로서는 아주 도발적인 질문을 던졌습니다. “기계도 생각할 수 있을까?”

튜링이 흥미로웠던 지점은 “기계가 진짜로 생각하느냐” 같은 철학적 논쟁이었어요. 대신 이렇게 방향을 바꿉니다.

튜링의 전환

“우리가 ‘생각한다’고 판단하는 기준은 결국 겉으로 드러나는 행동 아닐까?”
그렇다면 ‘속마음’을 증명하기보다, 생각하는 것처럼 보이면 일단 충분하다고 볼 수도 있지 않을까?

튜링 테스트(= ‘모방 게임’, Imitation Game)
  • 상황: 사람 심판이 글(텍스트)로만 대화합니다.
  • 상대: 한쪽은 사람, 한쪽은 기계(컴퓨터)입니다.
  • 기준: 대화 후에도 심판이 누가 기계인지 잘 구분하지 못한다면 “지능적으로 보인다”고 말할 수 있지 않을까?

즉, 튜링은 “지능”을 머릿속의 신비로 두기보다 대화·추론·설명처럼 관찰 가능한 능력으로 판단해보자고 제안한 셈입니다.

왜 튜링 테스트가 중요했을까?
“기계가 생각하는가?”라는 끝없는 논쟁을 잠시 멈추고, 측정 가능한 질문(사람을 얼마나 그럴듯하게 속일 수 있는가)으로 바꿔버렸기 때문입니다.
⚠️ 튜링 테스트의 한계도 같이 알아두면 좋아요
  • ‘속이기’와 ‘이해하기’는 다를 수 있음: 말은 그럴듯해도 실제 이해/사실 검증은 약할 수 있어요.
  • 텍스트 대화 중심: 지능은 언어만이 아니라 시각·행동·상식·물리세계 이해 등도 포함하죠.
  • 심판/질문에 따라 결과가 달라짐: 어떤 질문을 하느냐에 따라 “속는 정도”가 크게 바뀝니다.

그래서 오늘날에는 튜링 테스트 하나만으로 평가하기보다, 다양한 벤치마크(추론/사실성/안전성 등)를 함께 봅니다.

그럼에도 튜링의 질문은 오늘날 대화형 AI(예: 챗GPT)가 등장하는 흐름을 이해하는 데 아주 좋은 출발점이 됩니다. “사람처럼 대화하는 능력”이 지능의 한 단서로 여겨지기 시작했으니까요.

3) 기대가 앞섰던 시기, 그리고 좌절: ‘AI의 겨울’

1960~70년대에 들어서자 기대는 급격히 커졌습니다. “곧 사람처럼 생각하는 기계가 나올 거야” 같은 낙관도 많았죠. 하지만 현실은 달랐습니다.

왜 ‘AI의 겨울’이 왔을까? (핵심 3가지)
  • 컴퓨팅 파워 부족: 당시 컴퓨터는 느렸고 메모리/저장 공간도 작았습니다.
  • 데이터 부족: 현실을 이해·학습시킬 ‘재료(대규모 데이터)’가 거의 없었습니다.
  • 규칙의 폭발: 예외가 너무 많아, 사람이 규칙을 끝까지 적어 넣는 방식이 금방 한계에 부딪혔습니다.

기대는 컸지만 성과가 따라오지 못했고, 투자와 관심이 식으면서 침체기가 찾아왔습니다. 이 시기를 흔히 ‘AI의 겨울’이라고 부릅니다.

🔎 심화: ‘두 번의 겨울’은 같은 실패였을까, 다른 실패였을까?

흔히 “AI 겨울이 두 번 있었다”고 말하는데, 공통점은 기대가 기술/환경을 앞질렀다는 점이에요. 다만 시기마다 ‘막힌 지점’은 조금씩 달랐습니다.

첫 번째 침체(초기 낙관 이후)
  • 현실은 규칙으로 다 적기엔 너무 복잡했고(예외 폭발),
  • 연산/메모리/데이터가 부족해 “현실 수준”의 성능이 나오기 어려웠습니다.
두 번째 침체(‘실용’의 벽)
  • 일부 영역에서는 “되는 것처럼” 보였지만,
  • 현장에서 유지·확장하려면 비용이 급증했고(규칙/지식 업데이트),
  • 환경이 조금만 바뀌어도 성능이 흔들리는 ‘취약함’이 드러났습니다.

이 실패들이 중요한 이유는, 다음 세대 AI가 ‘규칙을 입력’에서 ‘데이터로 학습’으로 전환하도록 만든 결정적 계기였기 때문입니다.

4) 실패의 역사는 왜 중요한가

AI는 성공보다 실패의 시간이 훨씬 길었습니다. 기대 → 실망 → 침체의 흐름이 반복되며, 우리가 기술을 바라볼 때 한 가지 교훈을 남깁니다.

그래서 지금 AI를 볼 때 필요한 태도
모든 걸 해결해 줄 것처럼 과하게 기대하는 것도,
세상을 망칠 존재처럼 과하게 두려워하는 것도 경계할 필요가 있습니다.

5) 그래도 인간은 포기하지 않았습니다: ‘규칙’에서 ‘경험’으로

침체기가 와도 연구는 완전히 멈추지 않았습니다. 사람들은 조용히, 하지만 꾸준히 방향을 바꿔 생각하기 시작합니다.

방향 전환의 핵심 한 문장

“규칙을 다 가르치지 말고, 경험(데이터)을 통해 스스로 배우게 해보자.”

세상의 모든 규칙을 사람이 적어 넣는 대신, 많은 사례를 보여주고 기계가 스스로 패턴을 찾게 하자는 발상이 등장합니다. 이 변화가 다음 단계, 즉 머신러닝과 딥러닝의 길을 열게 됩니다.

✅ (댓글 유도) 3문항 미니 퀴즈 + 정답

Q1. 튜링의 핵심 아이디어에 가장 가까운 것은?
① 기계는 감정이 있어야 한다 ② 생각 “하는 것처럼 보이면” 충분할 수 있다 ③ 규칙을 모두 입력하면 된다

Q2. ‘AI의 겨울’이 온 주요 이유로 가장 가까운 것은?
① 데이터와 컴퓨팅 자원이 부족했다 ② 사람들이 AI를 너무 사랑했다 ③ 기계가 자아를 가졌다

Q3. 다음 단계로 이어진 방향 전환은?
① 규칙을 더 많이 입력 ② 경험(데이터)로 학습 ③ 로봇을 더 크게 만들기

 

정답: Q1-② / Q2-① / Q3-②


다음 글 예고
3부에서는 AI가 어떻게 ‘공부’를 하기 시작했는지(머신러닝·딥러닝)를 아주 쉽게 풀어봅니다.
“규칙”이 아니라 “경험(데이터)”로 배우는 방식이 왜 결정적이었는지 함께 정리해요.

 

 

 

 

 

© MisoEnglish / Michelle Kim. 이 글은 제가 직접 작성한 오리지널 콘텐츠입니다. 전체 복제나 무단 재게시를 금하며, 일부 인용 시에는 반드시 출처(MisoEnglish)와 링크를 남겨 주세요.