본문 바로가기
제품/AI

AI 에이전트의 종류와 특징

by 헬로웬디 2025. 5. 11.

에이전트는 지능의 정도(얼마나 지능적인가?), 의사결정 방식, 그리고 목표 달성을 위해 환경과 어떻게 상호작용하는지에 따라 다음 5가지 유형으로 나눌 수 있습니다.  

 

  • 단순 반사 에이전트 (Simple Reflex Agents)
  • 모델 기반 반사 에이전트 (Model-Based Reflex Agents)
  • 목표 기반 에이전트 (Goal-Based Agents)
  • 유틸리티 기반 에이전트 (Utility-Based Agents)
  • 학습 에이전트 (Learning Agents)

 

단순 반사 에이전트 (Simple Reflex Agents)

단순 반사 에이전트를 시작으로 각 에이전트를 살펴봅시다.

단순 반사 에이전트는 인공지능에서 가장 기본적인 형태의 에이전트로 현재의 관찰(지가)에만 의존하여 사전에 정해진 규칙에 따라 즉각적으로 행동을 결정합니다. "만약 A라면 B를 하라"와 같은 조건-행동 규칙을 사용합니다. 

 

예시:

온도 조절기: 실내 온도가 기준 이하로 떨어지면 난방을 켜고, 기준 이상이면 난방을 끄는 장치

클라우드 오토스케일러: 서버 CPU 사용률이 90%를 넘으면 서버를 자동으로 추가

진공청소기 로봇: 현재 위치가 더럽다면 청소하고, 아니면 이동하는 단순 로직

 

단순 반사 에이전트는 규칙이 잘 정의된 구조적이고 예측 가능한 환경에서는 효과적이지만, 복잡하거나 과거 정보를 반영해야 하는 동적인 상황에서는 그렇지 못합니다.

 

모델 기반 반사 에이전트 (Model-Based Reflex Agents)

단순 반사 에이전트는 과거 정보를 저장하지 못하기 때문에, 사전 정의된 규칙만으로는 새로운 상황을 처리하기에 충분하지 않습니다. 모델 기반 반사 에이전트는 사전 정의된 규칙과 함께 환경의 상태와 변화 양상을 내부적으로 모델링하여 기억하고 이를 바탕으로 행동을 결정합니다. 

 

예시:

진공청소기 로봇: 로봇이 어디를 청소했는지 기억하여 반복적으로 같은 곳을 청소하지 않고 위치를 바꾸어 감 

 

목표 기반 에이전트 (Goal-Based Agents)

목표 기반 인공지능 모델은 모델 기반 에이전트 위에 구축되며, 여기에 목표를 달성하기 의사결정 능력이 추가됩니다. 우리는 조건-행동 규칙 대신 목표를 가지는데 이것은 에이전트가 달성하고자 하는 결과입니다. 에이전트는 자신의 모델을 사용해 환경이 어떻게 변화하는지, 그리고 특정 행동이 어떤 결과를 초래할지 예측합니다. 즉, "내가 어떤 행동을 했을 때 어떻게 될까?"를 시뮬레이션하여 가능한 행동들의 미래 결과를 예측하는 방식입니다. 이러한 에이전트는 더 이상 단순히 조건에 맞는 행동을 선택하는 것이 아니라, 현재 상태와 예측된 미래 결과를 바탕으로 목표를 달성하는 데 가장 효과적인 행동을 찾습니다.

 

예를 들어, 자율주행자동차는 목적지에 도달하기 위해 목표 기반 에이전트를 사용하여 경로를 선택하고, 환경 변화에 적응하는 방식으로 작동합니다.

 

목표 기반 에이전트는 명확한 목표가 설정되어 있고, 환경에 적응해야 하는 로봇 공학 및 시뮬레이션 분야에서 널리 사용됩니다.

 

유틸리티 기반 에이전트 (Utility-Based Agents)

목표를 달성하는 것만큼 중요한 것이 있습니다. 바로 목표를 달성하는 과정에서 어떤 결과가 얼마나 바람직한지, 즉 결과의 "가치"입니다. 유틸리티 기반 에이전트는 단순히 목표가 달성되었는지 여부를 고려하는 것을 넘어, 각 결과의 desirability, 즉 바람직한 정도를 고려합니다. 여기서 유틸리티는 특정 결과에 대한 행복 점수나 선호 값을 나타냅니다. 이 유틸리티 값은 에이전트가 각 가능한 미래 상태에서 얼마나 행복할지, 또는 실제로 그 상태에 대한 기대 유틸리티가 무엇인지를 묻는 방식으로 작동합니다. 

 

유틸리티 기반 에이전트는 옵션을 단순히 "목표 달성 여부"로 평가하는 대신, 각 옵션의 질을 평가하고 이를 바탕으로 선택을 내립니다. 즉, 여러 가지 선택지를 두고 가장 바람직한 결과를 도출할 수 있는 경로를 선택하는 것입니다

 

자율 드론 배달을 예로 들면, 목표 기반 에이전트는 "패키지를 특정 주소로 배달"이라는 단순한 목표를 가지고 이를 달성하는 행동을 선택합니다. 이 경우, 경로가 험하고 에너지를 얼마나 낭비하는지는 고려하지 않고 단지 목표 달성만을 최우선으로 생각하는 방식입니다. 반면 유틸리티 기반 에이전트는 그 목표를 달성하는 과정에서 추가적인 가치를 고려합니다. 예를 들어, "패키지를 빠르고 안전하게 배달하며 최소한의 에너지로 진행하는 것"을 목표로 설정할 수 있습니다. 이 경우, 드론은 여러 가지 경로를 시뮬레이션하여 각 경로에 대한 예상 시간, 배터리 수준, 날씨 등을 고려합니다. 그런 후, 가장 효율적이고 유리한 경로를 선택하는 방식입니다. 즉, 드론은 유틸리티 점수를 극대화하는 경로를 선택하여 단순한 목표 달성 이상의 가치를 추구합니다.

 

학습 에이전트 (Learning Agents)

기존의 전통적인 에이전트는 대부분 하드코딩된 규칙이나 단순한 목표 중심(goal-driven) 방식으로 작동했습니다. 이제 우리는 스스로 배우고, 적응하며, 진화하는 에이전트, 즉 학습 에이전트(Learning Agents)의 시대에 접어들고 있습니다. 학습 에이전트는 가장 유연하고 가장 강력한 형태의 AI로 평가받고 있으며, 그 핵심은 바로 경험을 통해 학습한다는 점에 있습니다.

 

이들은 직접 환경과 상호작용하고, 그로부터 피드백을 받아 자신의 행동을 개선합니다. 시간이 지남에 따라, 에이전트는 자신의 행동 결과를 바탕으로 더 나은 선택을 하게 되며, 이는 곧 성능 향상으로 이어집니다. 마치 사람이 경험을 통해 점점 더 나은 결정을 내리듯, 학습 에이전트도 스스로 진화해나갑니다.

 

학습 에이전트는 여러 핵심 요소들로 구성되어 있으며, 이들이 유기적으로 협력하여 지능적인 행동을 만들어냅니다.

  • 크리틱(Critic)

크리틱은 센서를 통해 에이전트의 행동 결과를 관찰하고, 그 결과를 사전에 정의된 성능 기준과 비교합니다. 이 비교를 통해 생성된 숫자 피드백 신호는 강화 학습에서는 일반적으로 **보상(reward)**이라고 불립니다.

이 보상은 에이전트의 행동이 얼마나 잘 수행되었는지를 나타내며, 학습의 핵심적인 기반이 됩니다.

 

  • 학습 요소(Learning Element)

크리틱이 제공한 보상을 바탕으로, 학습 요소는 에이전트의 지식과 행동 전략을 업데이트합니다. 이 과정에서 에이전트는 환경에 더 잘 적응할 수 있는 방향으로 자신을 개선해 나갑니다.

즉, 학습 요소는 에이전트가 **어떤 상태(state)**에서 **어떤 행동(action)**을 선택해야 할지에 대한 **최적의 매핑(mapping)**을 점차 구축해 나갑니다.

 

  • 문제 생성기(Problem Generator)

문제 생성기는 에이전트가 아직 시도해보지 않은 새로운 행동을 제안합니다. 예를 들어, "다른 경로를 시도해보자. 더 빠를 수도 있잖아?"와 같은 식입니다. 이 모듈은 에이전트가 **탐험(exploration)**을 통해 새로운 가능성을 발견하도록 유도합니다.

 

  • 성능 요소(Performance Element)

성능 요소는 학습 요소가 구축한 전략을 바탕으로 실제로 어떤 행동을 취할지 결정합니다. 즉, 에이전트가 환경 속에서 구체적으로 무엇을 할지를 담당하는 실행 주체입니다.

 

 

 

먾은 유저케이스에서 단일 에이전트를 사용하기 보다는 여러 에이전트가 함께 협력하는 멀티 에이전트 시스템이 사용됩니다. 이런 시스템에서는 여러 에이전트가 공통된 환경에서 협동하며 같은 목표를 향해 함께 일합니다. 하지만 AI 에이전트는 사람과 협력할 때 가장 강력한 도구가 됩니다. 이런 기술들이 실질적인 가치를 창출하기 위해서는, 여전히 사람의 직관과 판단이 개입되는 "휴먼 인 더 루프(human-in-the-loop)" 방식이 중요합니다. 따라서 미래의 AI는 인간을 대체하기보다는, 인간과 함께 더 나은 방향으로 협력하고 확장해나가는 존재가 될 것이라 믿으며, 사람과의 조화 속에서 그 미래가 실현될 것입니다.

'제품 > AI' 카테고리의 다른 글

Transformer 모델  (0) 2025.12.18
Hugging Face Transformers  (0) 2025.12.08
Ollama 설치부터 구글 Gemma 모델 실행까지  (0) 2025.12.07