AI

Agents Are Not Enough, Integration of Agentic AI with 6G Networks for Mission-CriticalApplications: Use-case and Challenges 논문 리뷰

Astero 2025. 3. 12. 21:36
728x90


Agents Are Not Enough

  • 논문 리뷰 : Agents Are Not Enough (http://www.arxiv.org/pdf/2412.16241)
  • Chirag Shah, Ryen W. White
    • 에이전트는 특정 작업을 수행하기 위해 사용자 입력을 받아 행동하는 자율적 시스템이나, 확장성과 안정성에 있어 이들은 충분하지 않음
    • 사용자 개인화를 높이고, 신뢰성을 구축하며, 복잡한 작업을 처리할 수 있는 시스템을 구성해야 함
    • 에이전트, 심, 어시스턴트를 포함한 새로운 에코 시스템을 통해 효과적이고 지속 가능한 에이전트를 실현

 

  • 논문 개요
    • 현재의 단순 정의 에이전트의 사용자를 대신하여 작업을 수행하는 과정에서 어떠한 한계를 가지고 있는지 설명
    • 과거 에이전트의 발전사를 정리하고, 각 시대의 기술적 한계와 실패를 분석
    • 에이전트의 발전 : 초기 AI 에이전트, 전문가 시스템, 반응형 에이전트, 다중 에이전트 시스템, 인지 아키텍처
    • 관찰되는 문제점 : 일반화 부족, 확장성 문제, 조정 및 커뮤니케이션, 강인성, 윤리적 문제 및 안정성
    • 해결 방안 : 기계 학습과 기호 AI의 통합, 새로운 아키텍처 도입, 향상된 조정 메커니즘 개발, 강인한 학습 알고리즘 통합, 윤리적 및 책임 있는 설계
    • 성공적인 에이전트의 요소 : 가치 생성, 적응 가능한 개인화, 신뢰성, 사회적 수용 가능성, 표준화
    • 에이전트, 사용자, 그리고 조수 간의 새로운 생태계를 제안

 

  • 역사적 시도와 실패
  • 문제의 원인 : 일반화의 부족, 확장성 문제, 조정 및 통신 문제, 강건성 부족, 윤리적 문제 및 안전 문제
    • 초기 AI 에이전트 (1950년대)
      • 기술 : Symbolic AI를 사용하여 인간의 문제 해결 방식을 모방
      • 예시 : general problem solver(GPS)
      • 한계 : 사전 정의된 규칙에 의존하여 실제 세계의 복잡성을 처리하는 데 어려움
    • 전문가 시스템 (1980년대)
      • 기술 : 특정 분야의 지식을 활용하여 의사 결정을 수행
      • 예시 : Mycin, dendral
      • 한계 : 특정 분야에서는 효과적이었지만, 프로그래밍된 전문 지식 외에는 일반화할 수 없었고 광범위한 애플리케이션에는 비실용적
    • 반응형 에이전트(1990년대)
      • 기술 : 내부 모델 없이 환경 자극에 반응
      • 예시 : Rodney Brooks 의 Subsumption Architecture
      • 한계 : 계획을 세우거나 과거 경험으로부터 학습하는 능력이 부족하여 동적 환경에서의 활용도가 제한적
    • 다중 에이전트 시스템(MAS)
      • 기술 : 특정 역할을 가진 여러 에이전트 간의 상호 작용을 통해 문제를 해결
      • 한계 : 조정, 통신, 확장성 측면에서 어려움, 에이전트 간의 상호 작용 관리로 인해 비효율성과 예측 불가능한 동작이 발생
    • 인지 아키텍처
      • 기술 : 지각, 기억, 추론을 통합하여 인간의 인지 과정을 모델링
      • 예시 : Soar, act-r an analysis and comparison of act-r and soar
      • 한계 : 확장성과 실시간 성능이 떨어짐, 복잡성으로 인해 높은 계산 비용이 발생, 제한된 실제 적용 사례

 

  • 에이전트의 한계점
    • 기존 에이전트의 기술적 문제 해결만으로는 에이전트의 성공적인 발전을 보장할 수 없음
    • 기술적인 측면 외에도 가치 창출, 개인화, 신뢰성, 사회적 수용성, 표준화 측면에서 추가적인 고려가 필요
      • 가치 창출 
        • 에이전트가 사용자에게 충분한 가치를 제공하지 못하면 사용자는 에이전트 사용을 꺼릴 수 있음
        • 가치는 에이전트 사용으로 인한 이점과 시간, 개인 정보와 같은 비용 간의 차이와 관련
      • 적응형 개인화
        • 사용자의 상황에 맞게 적응할 수 있어야 함
        • 에이전트는 사용자의 선호도와 상황을 이해하고 이에 맞춰 행동해야 함
      • 신뢰성
        • 에이전트가 더 많은 작업을 수행할수록 사용자는 에이전트를 신뢰할 수 있어야 함
        • 에이전트가 은행 거래, 개인적인 통신, 중요한 의사 결정을 수행하도록 하려면 에이전트에 대한 신뢰도가 높아야 함
      • 사회적 수용성
        • 에이전트가 쇼핑, 일정 관리, 협상과 같은 다양한 자겅ㅂ을 수행하려면 에이전트 기반 상호 작용 및 거래에 대한 사회적 수용성이 널리 확립되어야 함
      • 표준화
        • 에이전트의 호환성, 신뢰성, 보안 문제를 해결하기 위해 에이전트 배포, 연결, 서비스 제공 방식에 대한 표준화 정립이 필요
        • AutoGen과 같은 멀티 에이전트 프레임워크가 복잡한 작업을 해결하는 데 성공했지만, 다양한 시나리오에서 활용되기 위해서는 표준화가 요구됨

 

  • 에이전트의 개선 방향 : 단순히 기술적인 문제 해결을 넘어, 에이전트가 사용자에게 실질적인 가치를 제공하고 신뢰를 얻을 수 있는 방안을 모색해야 할 것을 강조
    • 1) 머신러닝과 symbolic Ai 통합
      • 머신러닝을 통해 데이터로부터 유연하게 학습
      • symbolic ai를 통해 구조화된 추론과 설명 가능성을 제공하여 에이전트의 적응력과 추론 능력을 향상
    • 2) 새로운 구조
      • 일반적인 작업에 대해 foundation models 에 대한 호출 필요성을 줄이고 에이전트 워크플로우를 저장하고 실행하는 캐싱 솔루션을 구현
      • 또한 소규모 언어 모델과 대규모 언어 모델을 통합하는 새로운 하이브리드 및 계층적 아키텍처는 확장성과 효율성을 향상
      • 작업을 하위 작업으로 분해하고 이를 전문 에이전트에 할당함으로써 복잡성을 보다 효과적으로 관리
    • 3) 향상된 조정 매커니즘
      • 분산 제어 및 협상 프로토콜과 같은 고급 조정 메커니즘을 개발하여 multi-agent systems 의 성능을 향상
      • 에이전트 간의 더 나은 의사 소통과 협업을 촉진
    • 4) 강력한 학습 알고리즘
      • 강화 학습 및 전이 학습과 같은 강력한 학습 알고리즘을 통합하여 AI 에이전트의 적응성을 향상
      • 에이전트는 경험을 통해 학습하고 다양한 작업에 지식을 적용
    • 5) 윤리적이고 책임감 있는 디자인
      • 윤리적이고 안전한 AI 설계를 보장하려면 투명성, 공정성 및 책임성을 우선히 하는 지침 및 프레임워크를 구현
      • 시스템 설계에 설명 가능성을 통합하고 시스템 배포를 통해 강력한 테스트를 수행하는 등 윤리적 및 안전 문제를 완화
  • 새로운 에코시스템 제안 : 3가지 핵심 메커니즘 - Agents, Sims, Assistants
  • Agents
    • 특정 작업을 수행하도록 훈련된 좁고 목적 지향적인 모듈
    • 개별적으로 자율성을 갖지만, 다른 Agents와 상호 작용 가능
  • Sims
    • 사용자 프로필, 선호도 및 행동을 결합하여 사용자를 나타내는 표현
    • Sims는 사용자의 개인 정보 보호 및 개인 설정을 반영하며, 사용자를 대신하여 에이전트와 상호 작용함
  • Assistants
    • 사용자와 직접 상호 작용하고 사용자를 깊이 이해하며, 필요에 따라 Sims와 Agents를 호출하여 작업을 수행하는 프로그램
    • Assistants 는 사용자의 개인 정보에 액세스 할 수 있고, 사용자에게 맞게 조정될 수 있는 개인 버전의 에이전트

 

AI Agent 와 AAI

  • AI 시스템 비교
    • AI 시스템은 기능과 자율성에 따라 전통적 AI, AI Assistants, AI Agent, Agentic AI로 구분
      • 전통적 AI : 규칙 기반으로 특정 작업에 최적화
      • AI Assistants :  자연어 처리로 일상적 작업을 수행
      • AI Agent : 환경을 인식하는 목표 지향적 행동
      • Agentic AI :  복잡한 문제를 해결하고 장기적 전략을 수립하는 높은 수준의 자율성

 

  • Agentic Ai 는 더 높은 수준의 자율성, 적응성, 추론 능력
  • 목표 설정과 협업 협업 방식 또한 더욱 유연하고 독립적

 

AAI 사례 연구

사례 연구 : Integration of Agentic AI with 6G Networks for Mission-Critical Applications: Use-case and Challenge ( https://arxiv.org/pdf/2502.13476v1 )

 

  • Sunder Ali Khowaja∗ , Senior Member, IEEE, Kapal Dev∗ , Senior Member, IEEE, Muhammad Salman Pathan, Engin Zeydan, Senior Member, IEEE, Merouane Debbah, Fellow, IEEE
  • 공공 안전 응용 프로그램을 위한 Agentic AI(AI)와 6G 네트워크의 통합에 대해 다룬 논문
  • 연구의 주요 초점은 AI 기반의 미션 크리티컬 응용 프로그램의 한계를 극복하고, 높은 변동성을 가진 긴급 상황에서 효율적인 의사 결정을 지원하는 새로운 AAI 프레임워크를 제안하는 것
    • Agentic AI 프레임워크 개발 : 미션 크리티컬 애플리케이션을 위한 다층 아키텍처 제안
    • 실시간 데이터 처리 및 의사결정 : 에지 컴퓨팅 노드를 통해 지연 시간을 줄이고 효율적인 자원 할당을 실현
    • 성능 향상 및 비교 분석 : 초기 응답 시간을 평균 5.6분 단축하고 경과 시간 감소 효과 입증

 

  • 데이터 소스 레이어 : 다양한 센서 및 IOT 장치로부터 데이터를 수집하는 핵심 레이어, 여기에는 소셜 미디어 분석, UAV, 감시 카메라, 온도 모니터, 지진 센서 등이 포함. 이 레이어는 위치 정보와 같은 여러 출처의 데이터를 통합하여 상황 인식을 개선하고, 신속한 동적 반응을 지원.
  • 엣지 처리 레이어 : 이 레이어는 접점에서 데이터 처리, 분석 및 의사 결정을 분산해서 수행. 로컬에서 실행되는 AI Agent가 데이터를 처리하여 지연을 줄이고 응답 시간을 개선, 분산 학습 패러다임(예 : 연합 학습)을 통해 클라우드 의존성을 줄이고, 데이터 처리 속도를 높임
  • 네트워크 인프라 레이어 : 5G및 6G 와 같은 차세대 통신 시스템을 활용하여 데이터 전송의 안정성과 저지연성을 담당. 네트워크 슬라이싱과 적응형 라우팅 기능을 통해 미션 크리티컬 서비스의 요구에 맞게 동적으로 네트워크를 구성
  • Agentic AI 레이어 : 이 레이어는 협력 작업, 지속적인 학습 및 분산된 AI Agent 간의 자율적 의사 결정을 지원함. 전통적인 AI 시스템과는 달리 AAI 는 상황에 따라 자동으로 적응할 수 있는 지능형 구조를 가지고 있으며, 에이전트 간의 상호작용을 통해 지식 기반을 강화.
  • 임무 크리티컬 애플리케이션 레이어 : 이 레이어는 응급 대응 노력과 AAI 레이어를 연결하는 인터페이스 역할, 의사 지원 시스템, 자원 할당, 위험 평가 등의 기능을 수행. AAI 의 통합으로 인해 애플리케이션 레이어는 신속하고 유연하게 반응

 AAI 향후 연구 방향

  • Agentic AI의 연구 동향
    • 인간 중심 목표 설정
      • Agentic AI 시스템의 궁극적인 목표는 여전히 인간에 의해 정의도고 제어됨
      • 연구자들과 개발자들이 초기 목표와 제약 조건을 설정하는 것이 중요함

https://hbr.org/2024/12/what-is-agentic-ai-and-how-will-it-change-work

 

What Is Agentic AI, and How Will It Change Work?

From the early days of mechanical automatons to more recent conversational bots, scientists and engineers have dreamed of a future where AI systems can work and act intelligently and independently. Recent advances in agentic AI bring that autonomous future

hbr.org

관련 논문 : https://philpapers.org/archive/POPHGA.pdf

 

  • 목표 분해 및 하위 목표 설정
    • AI Agent 가 주어진 상위 목표를 달성하기 위해 하위 목표를 자동으로 설정하고 분해하는 능력 연구

https://council.aimresearch.co/agentic-ai-the-journey-from-automation-to-autonomy/)%5b5%5d(https:/tokyotechlab.com/blogs/agentic-ai

 

  • 강화 학습을 통한 목표 최적화
    • AI Agent가 경험을 통해 목표 달성 방식을 개선하고 하위 목표를 조정하는 방법 연구

https://tokyotechlab.com/blogs/agentic-ai

 

What is Agentic AI? Why is it the Future of Artificial Intelligence?

Agentic AI is a form of artificial intelligence capable of operating autonomously, making decisions, and executing tasks independently without requiring constant human oversight.

tokyotechlab.com

  • 맥락 인식 및 추론
    • 대규모 언어 모델(LLM)을 활용한 상황 분석과 의사결정 능력 향상 연구

https://scet.berkeley.edu/the-next-next-big-thing-agentic-ais-opportunities-and-risks/

 

The Next “Next Big Thing”: Agentic AI’s Opportunities and Risks - UC Berkeley Sutardja Center

Central, Intelligent Agents “In a few years, autonomous artificial-intelligence ‘agents’ could be performing all sorts of tasks for us, and may replace entire white-collar job functions, such as generating sales leads or writing code. … The implica

scet.berkeley.edu

 

Agentic AI의 향후 연구 방향

  • 윤리적 목표 설정 : AI 시스템이 윤리적 기준을 고려하여 목표를 설정하는 방법 연구 필요
  • 에이전트 간의 협상 및 다중 에이전트 시스템의 목표 조정 : 여러 AI Agent가 협력하여 공동 목표를 설정하고 달성하는 방법 연구
  • 장기적 목표 설정 및 유지 : AI 시스템이 단기적 목표뿐만 아니라 장기적 목표를 설정하고 유지하는 능력 개발
  • 타당성 성능 평가 및 설명 가능한 Agentic AI 방법론 개발 : 작업자가 납득하기 쉬운 성능 평가 및 추론 근거를 설명할 수 있는 방법론을 연구

Agentic AI의 윤리적 과제

  • 인간의 개입이 없는 자율적인 목표 설정
  • AI 윤리 문제를 해결

 

  • 1. 투명성 확보
    • 알고리즘 설명 가능성
      • 에이전트가 어떤 방시긍로 결정을 내리는지 사용자가 이해할 수 있도록 알고리즘의 작동 방식을 명확하게 설명해야 함.
      • 특정 결정을 내린 이유, 사용된 데이터, 고려된 요소 등을 시각적으로 표현하고자 자연어 설명으로 제공
    • 데이터 출처 공개
      • 에이전트가 학습하거나 의사 결정에 사용하는 데이터의 출처와 수집 방법을 투명하게 공개
      • 이를 통해 데이터의 편향성이나 오류 가능성을 사용자가 평가하고, 에이전트의 공정성을 검증
  • 2. 공정성 보장
    • 편향 제거
      • 학습 데이터에 내재된 편향이 에이전트의 의사 결정에 영향을 미치지 않도록 편향 제거 기술을 적용
      • 성별, 인종, 종교 등 민감한 속성에 따른 차별을 방지하기 위해 데이터 전처리, 알고리즘 조정, 결과 보정 등
    • 다양성 확보
      • 에이전트의 학습 데이터에 다양한 사용자 그룹의 데이터를 포함
      • 에이전트가 특정 집단에 편향되지 않고, 모든 사용자에게 공정한 서비스를 제공할 수 있어야 함
  • 3. 책임성 강화
    • 오류 발생 시 책임 소재 명확화
      • 에이전트의 오류로 인해 피해가 발생했을 경우, 책임 소재를 명확하게 규정
      • 에이전트 개발자, 운영자, 사용자 간의 책임 범위를 사전에 정의하고, 피해 발생 시 보상 절차를 마련하는 등
    • 감독 및 감사 체계 구축
      • 에이전트의 작동을 지속적으로 감시하고 감사하는 체계를 구축
      • 이를 통해 에이전트의 윤리적, 법적 문제 발생 가능성을 조기에 감지하고, 필요한 조치를 취할 수 있음
  • 4. 안정성 확보
    • 오작동 방지
      • 에이전트가 예기치 않은 상황에서 오작동하지 않도록 다양한 시나리오를 고려하여 테스트를 수행
      • 또한, 오작동 발생 시 시스템을 안전하게 멈추거나 사용자의 개입을 유도하는 기을을 구현
    • 악용 방지
      • 에이전트가 악의적인 목적으로 사용되지 않도록 보안 조치를 강화
      • 에이전트의 접근 권한을 제한하고, 비정상적인 사용 패턴을 감지하는 시스템을 구축하는 등
  • 5. 인간의 가치 존중
    • 사용자 자율성 보장
      • 에이전트가 사용자의 의사를 무시하고 독단적으로 결정을 내리지 않도록 사용자의 자율성을 최대한 보장
      • 에이전트의 결정에 대한 사용자의 동의를 구하고, 사용자가 언제든지 에이전트의 개입을 중단할 수 있도록 해야 함
    • 인간의 존엄성 존중
      • 에이전트가 인간의 존엄성을 훼손하는 방식으로 작동하지 않도록 윤리적 가이드라인을 준수
      • 에이전트가 인간을 비하하거나 차별하는 발언을 하지 않도록 하고, 인간의 감정을 조작하거나 속이는 행위를 금지
728x90