[사이버네틱스] AI 다음은 무엇인가 — 사이버네틱스, 스스로 진화하는 시스템의 시대




시리즈: “AI를 넘어서 — 사이버네틱스로 가는 길” (1/5)

AI는 이미 우리 곁에 왔습니다. 하지만 AI가 “추천”하고 사람이 “판단”하는 구조는 여전히 반쪽짜리입니다. 진짜 다음 단계는 시스템이 스스로 판단하고, 실행하고, 결과를 보고, 스스로 수정하는 것입니다. 그것이 사이버네틱스입니다.


지금 AI가 할 수 있는 것, 그리고 못하는 것

ChatGPT에게 질문하면 답을 줍니다. 이미지를 주면 분류합니다. 데이터를 주면 예측합니다. 놀라운 일입니다. 그런데 한 발 뒤로 물러서서 보면, 이 모든 과정에서 AI가 하는 일은 정확히 한 가지입니다. 입력을 받아서 출력을 내는 것.

문제는 그 다음입니다. 출력이 맞았는지 틀렸는지, 실제 세상에서 어떤 결과를 만들어냈는지, 그래서 다음에는 어떻게 해야 하는지를 AI는 모릅니다. 아니, 더 정확하게는 알 수 있는 구조가 아닙니다.

기업에서 AI를 도입한 현장을 보면 이런 모습이 대부분입니다.

데이터 → AI 모델 → 예측/추천 → 사람이 판단 → 사람이 실행 → 결과 확인 → 사람이 다시 AI에 피드백

AI는 가운데 한 칸만 담당합니다. 나머지는 전부 사람의 몫입니다. 이것은 AI를 도입한 것이지, AI가 일하는 것은 아닙니다. 도구가 아무리 좋아도 도구를 쥐고 있는 사람의 손이 바빠야 한다면, 진정한 자동화와는 거리가 있습니다.

그렇다면 진짜 다음 단계는 무엇일까요? AI가 예측만 하는 것이 아니라, 예측에 따라 실행하고, 실행 결과를 스스로 확인하고, 잘못됐으면 스스로 수정하는 것. 사람이 매번 개입하지 않아도 시스템 전체가 자율적으로 돌아가는 것. 이 개념은 사실 새로운 것이 아닙니다. 1948년에 이미 이론이 만들어졌습니다. 그 이름이 사이버네틱스(Cybernetics)입니다.


사이버네틱스란 무엇인가

노버트 위너의 질문

1948년, 미국의 수학자 노버트 위너(Norbert Wiener)는 한 권의 책을 출간합니다. 제목은 Cybernetics: Or Control and Communication in the Animal and the Machine. 그가 던진 질문은 단순했습니다.

“생물이든 기계든, 시스템이 어떻게 스스로를 조절하는가?”

위너는 제2차 세계대전 중 대공포의 자동 조준 시스템을 연구하면서 이 질문에 도달했습니다. 적기의 위치를 예측하고, 포를 쏘고, 빗나가면 보정해서 다시 쏘는 과정. 이 과정에서 핵심은 “결과를 확인하고 수정한다”는 피드백의 원리였습니다.

위너는 이 원리가 대공포에만 적용되는 것이 아니라는 것을 깨달았습니다. 사람의 체온 조절, 심장 박동, 시장 경제의 수요-공급 균형, 그리고 아직 오지 않은 미래의 기계까지. 피드백을 통해 스스로를 조절하는 모든 시스템에 적용되는 보편적 원리였습니다. 그는 이것을 “사이버네틱스”라 명명했습니다. 그리스어 kybernetes, 배의 키잡이라는 뜻에서 따온 이름입니다.

핵심 개념: 피드백 루프

사이버네틱스의 모든 것은 하나의 개념으로 수렴합니다. 피드백 루프(Feedback Loop).

에어컨을 떠올려 보겠습니다. 실내 온도가 26도보다 높으면 냉방을 켭니다. 온도가 내려가면 끕니다. 다시 올라가면 켭니다. 에어컨은 자기가 만들어낸 결과(실내 온도 변화)를 계속 감시하면서 스스로 행동을 조정합니다. 이것이 피드백 루프입니다.

이 루프의 구조를 분해하면 이렇습니다.

목표 설정 (26도 유지) → 현재 상태 감지 (지금 28도) → 차이 계산 (2도 높음) → 행동 (냉방 가동) → 결과 확인 (27도로 내려감) → 다시 차이 계산반복

단순해 보이지만, 이 구조가 사이버네틱스의 전부이자 핵심입니다. 목표가 있고, 현재 상태를 감지하고, 차이를 계산하고, 행동하고, 결과를 다시 감지하는 순환. 이 순환이 끊어지지 않고 돌아가는 시스템이 바로 사이버네틱 시스템입니다.

중요한 것은 이 루프 안에 사람이 매번 끼어들 필요가 없다는 점입니다. 에어컨은 사람에게 “지금 28도인데 냉방 켤까요?”라고 묻지 않습니다. 스스로 판단하고 스스로 실행합니다. 이것이 단순한 자동화와 사이버네틱스의 차이입니다.

두 종류의 피드백

피드백에는 두 가지가 있습니다.

음성 피드백(Negative Feedback)은 시스템을 안정시킵니다. 에어컨이 온도를 일정하게 유지하는 것처럼, 목표에서 벗어나면 다시 되돌리는 방향으로 작동합니다. “균형을 잡는 힘”이라고 생각하면 됩니다. 대부분의 제어 시스템이 이 원리로 작동합니다.

양성 피드백(Positive Feedback)은 변화를 증폭시킵니다. SNS에서 좋아요가 많은 게시물이 더 많이 노출되고, 더 많은 좋아요를 받는 것이 양성 피드백입니다. 유용할 때도 있지만, 통제하지 않으면 시스템이 폭주합니다. 주식 시장의 버블이 대표적인 양성 피드백의 폭주 사례입니다.

사이버네틱 시스템을 설계할 때는 이 두 가지 피드백의 균형을 잡는 것이 핵심입니다.


AI와 사이버네틱스는 어떤 관계인가

같은 뿌리, 다른 길

AI와 사이버네틱스는 사실 같은 시대, 같은 학문적 토양에서 태어났습니다. 1940~50년대, 같은 학회에서 같은 사람들이 두 분야를 함께 논의했습니다. 그런데 이후 역사적으로 서로 다른 길을 걸었습니다.

AI는 “기계가 지능적인 행동을 할 수 있는가”라는 질문에 집중했습니다. 체스를 두고, 언어를 이해하고, 이미지를 인식하는 것. 개별 과제를 얼마나 잘 수행하느냐가 핵심이었습니다.

사이버네틱스는 “시스템이 어떻게 스스로를 조절하는가”라는 질문에 집중했습니다. 개별 과제의 수행 능력이 아니라, 시스템 전체가 환경 변화에 적응하고 스스로 균형을 유지하는 능력. 부분이 아니라 전체를 보는 관점이었습니다.

비유하자면, AI는 뛰어난 두뇌를 만드는 기술이고, 사이버네틱스는 두뇌를 포함한 몸 전체가 자율적으로 작동하는 시스템을 설계하는 원리입니다. 두뇌가 아무리 뛰어나도 눈(감각)이 없고, 손(실행)이 없고, 신경(피드백)이 끊겨 있으면 유기체로서 기능하지 못합니다.

현대 AI 안에 이미 들어 있는 사이버네틱스

재미있는 것은, 현대 AI 기술 안에 사이버네틱스의 원리가 이미 깊이 스며들어 있다는 점입니다. 다만 그 이름으로 불리지 않을 뿐입니다.

딥러닝의 역전파(Backpropagation)가 대표적입니다. 신경망이 예측을 하고 → 정답과 비교하고 → 오차를 계산하고 → 가중치를 수정하고 → 다시 예측하는 과정. 이것은 정확히 사이버네틱스의 피드백 루프입니다.

강화학습(Reinforcement Learning)은 더 직접적입니다. 에이전트가 행동하고 → 환경에서 보상을 받고 → 보상을 최대화하는 방향으로 행동을 수정하는 과정. 위너가 설명한 “목표 지향적 피드백 시스템”의 컴퓨터 구현이라고 할 수 있습니다.

RLHF(인간 피드백을 통한 강화학습)도 마찬가지입니다. ChatGPT가 답변하고 → 사람이 좋고 나쁨을 평가하고 → 모델이 그에 맞게 조정되는 것. 인간을 피드백 소스로 사용하는 사이버네틱 시스템입니다.

그런데 여기서 중요한 차이가 있습니다. 이런 피드백 루프들은 대부분 학습 단계에서만 작동합니다. 모델이 한 번 학습을 마치고 배포되면, 그 시점부터는 피드백 루프가 끊깁니다. 현실 세계에서 모델이 내린 판단이 어떤 결과를 만들었는지, 그 결과가 다시 모델에 반영되지 않습니다. 적어도 사람이 수동으로 재학습을 시키기 전까지는.

사이버네틱스가 제안하는 것은 이 피드백 루프를 배포 이후에도 끊지 않는 것입니다. 학습 때만이 아니라, 실제 운영 중에도 계속 돌아가는 피드백. 시스템이 현실에서 행동하고, 결과를 관찰하고, 스스로 수정하는 살아있는 루프.


블랙박스 — 모르는 것을 다루는 지혜

사이버네틱스의 또 하나의 핵심 개념이 블랙박스(Black Box)입니다. 시스템의 내부 구조를 완전히 알지 못하더라도, 입력과 출력의 관계를 관찰하면 시스템의 행동을 이해하고 제어할 수 있다는 생각입니다.

이것이 왜 중요할까요? 오늘날의 딥러닝 모델이 정확히 이 상황이기 때문입니다. GPT 같은 대형 언어 모델은 수천억 개의 파라미터를 가지고 있고, 왜 특정 답변을 내놓는지 내부를 완전히 설명할 수 없습니다. 그래서 AI 분야에서는 이것을 문제로 봅니다. “설명 가능한 AI(Explainable AI, XAI)”라는 이름으로 블랙박스를 열어보려 합니다.

사이버네틱스의 관점은 조금 다릅니다. 블랙박스를 반드시 열어야만 하는 것은 아닙니다. 대신, 블랙박스의 행동을 관찰하고, 피드백을 통해 원하는 방향으로 조절하면 됩니다. 에어컨의 내부 회로를 이해하지 못해도 온도 조절기를 쓸 수 있는 것처럼. AI 모델의 내부를 완전히 이해하지 못하더라도, 출력을 관찰하고 피드백을 주어 행동을 교정하면 시스템으로서 작동하게 만들 수 있습니다.

이것은 포기가 아니라 실용주의입니다. 그리고 RLHF, 가드레일, 모니터링 같은 현대 AI 안전 기법들이 바로 이 사이버네틱스적 실용주의의 산물입니다.


1차 사이버네틱스와 2차 사이버네틱스

사이버네틱스는 시간이 흐르면서 한 단계 더 깊어졌습니다.

1차 사이버네틱스: 관찰자는 밖에 있다

초기의 사이버네틱스(1차)는 관찰자가 시스템 외부에서 시스템을 관찰하고 제어한다고 가정했습니다. 엔지니어가 에어컨을 설계하듯, 시스템을 설계하는 사람은 시스템 바깥에 있습니다. 시스템은 주어진 목표를 향해 피드백 루프를 돌릴 뿐이고, 목표 자체를 바꾸지는 않습니다.

대부분의 현재 AI 시스템이 1차 사이버네틱스 수준입니다. 사람이 목표를 정해주고, AI는 그 목표를 달성하기 위해 최적화합니다.

2차 사이버네틱스: 관찰자도 시스템의 일부다

1970년대 이후 등장한 2차 사이버네틱스는 한 단계 더 나아갑니다. 관찰자 자체가 시스템의 일부라는 인식입니다. 시스템을 관찰하고 설계하는 행위 자체가 시스템에 영향을 미치고, 시스템도 관찰자에게 영향을 미칩니다.

이것을 AI에 적용하면 이런 의미입니다. AI 시스템을 사용하는 사람의 행동이 AI에 영향을 주고, AI의 출력이 다시 사람의 행동을 바꿉니다. 추천 알고리즘이 사용자의 취향을 학습하면서 동시에 사용자의 취향을 형성하는 것이 대표적인 2차 사이버네틱스 현상입니다.

더 발전하면, 시스템이 자기 자신의 목표까지 수정하는 단계로 갑니다. 주어진 KPI를 최적화하는 것을 넘어서, “이 KPI가 정말 올바른 목표인가?”를 시스템 스스로 질문하는 것. 이것이 앞으로 이 시리즈에서 다룰 “메타 피드백 루프”의 개념적 뿌리입니다.


왜 지금 사이버네틱스인가

사이버네틱스가 1948년에 나왔는데 왜 지금 다시 주목해야 할까요? 이유는 단순합니다. 이제야 기술이 이론을 현실로 만들 수 있는 수준에 도달했기 때문입니다.

세 가지 기술 변화

첫째, AI의 범용화입니다. LLM의 등장으로 “프롬프트만 바꾸면 다른 업무에 적용할 수 있는 판단 엔진”이 현실이 되었습니다. 예전에는 업무마다 전용 모델을 수개월에 걸쳐 학습시켜야 했습니다. 지금은 자연어로 업무를 정의하면 AI가 바로 판단을 수행합니다. 이것이 사이버네틱 시스템의 “두뇌”를 범용적으로 만들 수 있게 해줍니다.

둘째, 실시간 데이터 인프라의 성숙입니다. Kafka, Pulsar 같은 이벤트 스트리밍 기술이 보편화되면서, 시스템의 모든 행동과 결과를 실시간으로 수집하고 피드백하는 것이 기술적으로 가능해졌습니다. 피드백 루프의 “감각 기관”이 갖춰진 것입니다.

셋째, 자동화 인프라의 고도화입니다. API 경제의 확장, 워크플로우 엔진의 발전, 마이크로서비스 아키텍처의 보편화로, AI의 판단을 실제 행동으로 전환하는 “손과 발”이 준비되었습니다.

이 세 가지가 합쳐지면, 위너가 상상했던 “스스로 감지하고, 판단하고, 행동하고, 수정하는 시스템”을 기업 환경에서 실제로 구축할 수 있게 됩니다.

현재 AI 도입의 한계를 넘어서

솔직하게 말해서, 많은 기업이 AI를 도입하고도 기대만큼의 효과를 보지 못하고 있습니다. 그 이유 중 하나가 바로 피드백 루프의 부재입니다. AI가 추천을 해도 사람이 일일이 검토하고 실행해야 하고, 결과를 다시 AI에 피드백하는 과정도 수동입니다. 이러면 AI가 아무리 똑똑해도 전체 시스템의 속도는 사람의 속도에 묶입니다.

사이버네틱스 관점에서 AI를 도입한다는 것은, AI 모델 하나를 집어넣는 것이 아니라, 감지-판단-실행-피드백의 전체 순환 구조를 설계하는 것입니다. 이 순환이 자동으로 돌아가면, 시스템은 사람의 개입 없이도 점점 더 나아집니다. 사람은 시스템을 감시하고 목표를 설정하는 역할로 올라갑니다. 도구를 직접 휘두르는 것이 아니라, 도구가 스스로 일하도록 조율하는 것입니다.


사이버네틱스를 이해하는 비유

개념을 더 직관적으로 이해하기 위해, 몇 가지 비유를 들어보겠습니다.

비유 1: 자율주행차

자율주행차는 현존하는 가장 완성도 높은 사이버네틱 시스템 중 하나입니다.

카메라와 라이다로 주변 환경을 감지하고 → AI가 상황을 판단하고 → 핸들과 브레이크를 실행하고 → 차량의 반응과 주변 변화를 다시 감지합니다. 이 루프가 초당 수십 번 돌아갑니다. 운전자가 매 순간 “지금 브레이크 밟을까요?”라고 묻지 않습니다. 시스템이 스스로 판단하고 스스로 실행합니다.

그리고 중요한 것은, 이 시스템에는 안전 장치(가드레일)가 있다는 점입니다. AI가 판단을 못하는 상황에서는 운전자에게 제어권을 넘기고, 비상 상황에서는 자동으로 감속합니다. 완전한 자율이 아니라 안전한 자율을 추구합니다.

비유 2: 인체의 항상성

사람의 몸은 지구상에서 가장 정교한 사이버네틱 시스템입니다. 체온이 올라가면 땀을 흘려 식히고, 혈당이 떨어지면 배고픔을 느끼게 하고, 바이러스가 침입하면 면역 시스템이 대응합니다. 이 모든 것이 의식적인 판단 없이 자동으로 작동하는 피드백 루프입니다.

기업에 사이버네틱 시스템을 구축한다는 것은, 기업이라는 유기체에 이런 자동 조절 능력을 부여하는 것입니다. 매출이 떨어지면 마케팅이 자동으로 조정되고, 재고가 부족하면 발주가 자동으로 나가고, 고객 불만이 증가하면 서비스 방식이 자동으로 변하는 것.

비유 3: 지금 이 대화

사실 지금 이 순간에도 사이버네틱 시스템이 작동하고 있습니다. 여러분이 질문하면 → AI가 답하고 → 여러분이 “좀 더 쉽게 설명해줘”라고 피드백을 주면 → AI가 방식을 바꿉니다. 여러분과 AI 사이에 피드백 루프가 형성된 하나의 사이버네틱 시스템이 작동하고 있는 것입니다.

다만, 이 루프는 아직 완전하지 않습니다. 대화가 끝나면 이 피드백은 사라집니다. 다음 대화에서 같은 맥락을 처음부터 다시 설명해야 합니다. 이 루프가 끊어지지 않고 계속 이어진다면, 시스템은 여러분을 점점 더 잘 이해하게 될 것입니다. 그것이 사이버네틱스가 가리키는 방향입니다.


다음 편 예고

이번 편에서는 사이버네틱스가 무엇이고, AI와 어떤 관계이며, 왜 지금 중요한지를 살펴봤습니다.

다음 편 “6개 레이어로 이해하는 사이버네틱스 아키텍처 전체 그림”에서는 이 개념을 실제 시스템으로 구현할 때 필요한 구조를 다룹니다. 감각(Sense) → 인지(Brain) → 실행(Action) → 피드백(Feedback) → 안전(Safety) → 인터페이스(Interface), 6개 계층으로 나눈 범용 사이버네틱스 플랫폼의 전체 그림을 아키텍처 다이어그램과 함께 상세히 설명합니다.


핵심 정리

  • 사이버네틱스는 “피드백을 통해 스스로를 조절하는 시스템”에 관한 학문이다
  • 피드백 루프(목표 → 감지 → 차이 계산 → 행동 → 결과 확인 → 반복)가 핵심 원리이다
  • AI와의 차이: AI는 뛰어난 “두뇌”를 만드는 기술이고, 사이버네틱스는 두뇌를 포함한 전체 시스템이 자율적으로 순환하는 구조를 설계하는 원리이다
  • 블랙박스 사고: 내부를 완전히 이해하지 못해도, 입출력을 관찰하고 피드백으로 제어할 수 있다
  • 2차 사이버네틱스: 관찰자도 시스템의 일부이며, 시스템이 자기 목표까지 수정할 수 있다
  • 지금 가능한 이유: LLM의 범용성, 실시간 데이터 인프라, 자동화 인프라의 성숙이 합쳐졌다



댓글 남기기