Agents Are Not Enough, Integration of Agentic AI with 6G Networks for Mission-CriticalApplications: Use-case and Challenges 논문 리뷰
Agents Are Not Enough
- 논문 리뷰 : Agents Are Not Enough (http://www.arxiv.org/pdf/2412.16241)
- Chirag Shah, Ryen W. White
- 에이전트는 특정 작업을 수행하기 위해 사용자 입력을 받아 행동하는 자율적 시스템이나, 확장성과 안정성에 있어 이들은 충분하지 않음
- 사용자 개인화를 높이고, 신뢰성을 구축하며, 복잡한 작업을 처리할 수 있는 시스템을 구성해야 함
- 에이전트, 심, 어시스턴트를 포함한 새로운 에코 시스템을 통해 효과적이고 지속 가능한 에이전트를 실현
- 논문 개요
- 현재의 단순 정의 에이전트의 사용자를 대신하여 작업을 수행하는 과정에서 어떠한 한계를 가지고 있는지 설명
- 과거 에이전트의 발전사를 정리하고, 각 시대의 기술적 한계와 실패를 분석
- 에이전트의 발전 : 초기 AI 에이전트, 전문가 시스템, 반응형 에이전트, 다중 에이전트 시스템, 인지 아키텍처
- 관찰되는 문제점 : 일반화 부족, 확장성 문제, 조정 및 커뮤니케이션, 강인성, 윤리적 문제 및 안정성
- 해결 방안 : 기계 학습과 기호 AI의 통합, 새로운 아키텍처 도입, 향상된 조정 메커니즘 개발, 강인한 학습 알고리즘 통합, 윤리적 및 책임 있는 설계
- 성공적인 에이전트의 요소 : 가치 생성, 적응 가능한 개인화, 신뢰성, 사회적 수용 가능성, 표준화
- 에이전트, 사용자, 그리고 조수 간의 새로운 생태계를 제안
- 역사적 시도와 실패
- 문제의 원인 : 일반화의 부족, 확장성 문제, 조정 및 통신 문제, 강건성 부족, 윤리적 문제 및 안전 문제
- 초기 AI 에이전트 (1950년대)
- 기술 : Symbolic AI를 사용하여 인간의 문제 해결 방식을 모방
- 예시 : general problem solver(GPS)
- 한계 : 사전 정의된 규칙에 의존하여 실제 세계의 복잡성을 처리하는 데 어려움
- 전문가 시스템 (1980년대)
- 기술 : 특정 분야의 지식을 활용하여 의사 결정을 수행
- 예시 : Mycin, dendral
- 한계 : 특정 분야에서는 효과적이었지만, 프로그래밍된 전문 지식 외에는 일반화할 수 없었고 광범위한 애플리케이션에는 비실용적
- 반응형 에이전트(1990년대)
- 기술 : 내부 모델 없이 환경 자극에 반응
- 예시 : Rodney Brooks 의 Subsumption Architecture
- 한계 : 계획을 세우거나 과거 경험으로부터 학습하는 능력이 부족하여 동적 환경에서의 활용도가 제한적
- 다중 에이전트 시스템(MAS)
- 기술 : 특정 역할을 가진 여러 에이전트 간의 상호 작용을 통해 문제를 해결
- 한계 : 조정, 통신, 확장성 측면에서 어려움, 에이전트 간의 상호 작용 관리로 인해 비효율성과 예측 불가능한 동작이 발생
- 인지 아키텍처
- 기술 : 지각, 기억, 추론을 통합하여 인간의 인지 과정을 모델링
- 예시 : Soar, act-r an analysis and comparison of act-r and soar
- 한계 : 확장성과 실시간 성능이 떨어짐, 복잡성으로 인해 높은 계산 비용이 발생, 제한된 실제 적용 사례
- 초기 AI 에이전트 (1950년대)
- 에이전트의 한계점
- 기존 에이전트의 기술적 문제 해결만으로는 에이전트의 성공적인 발전을 보장할 수 없음
- 기술적인 측면 외에도 가치 창출, 개인화, 신뢰성, 사회적 수용성, 표준화 측면에서 추가적인 고려가 필요
- 가치 창출
- 에이전트가 사용자에게 충분한 가치를 제공하지 못하면 사용자는 에이전트 사용을 꺼릴 수 있음
- 가치는 에이전트 사용으로 인한 이점과 시간, 개인 정보와 같은 비용 간의 차이와 관련
- 적응형 개인화
- 사용자의 상황에 맞게 적응할 수 있어야 함
- 에이전트는 사용자의 선호도와 상황을 이해하고 이에 맞춰 행동해야 함
- 신뢰성
- 에이전트가 더 많은 작업을 수행할수록 사용자는 에이전트를 신뢰할 수 있어야 함
- 에이전트가 은행 거래, 개인적인 통신, 중요한 의사 결정을 수행하도록 하려면 에이전트에 대한 신뢰도가 높아야 함
- 사회적 수용성
- 에이전트가 쇼핑, 일정 관리, 협상과 같은 다양한 자겅ㅂ을 수행하려면 에이전트 기반 상호 작용 및 거래에 대한 사회적 수용성이 널리 확립되어야 함
- 표준화
- 에이전트의 호환성, 신뢰성, 보안 문제를 해결하기 위해 에이전트 배포, 연결, 서비스 제공 방식에 대한 표준화 정립이 필요
- AutoGen과 같은 멀티 에이전트 프레임워크가 복잡한 작업을 해결하는 데 성공했지만, 다양한 시나리오에서 활용되기 위해서는 표준화가 요구됨
- 가치 창출
- 에이전트의 개선 방향 : 단순히 기술적인 문제 해결을 넘어, 에이전트가 사용자에게 실질적인 가치를 제공하고 신뢰를 얻을 수 있는 방안을 모색해야 할 것을 강조
- 1) 머신러닝과 symbolic Ai 통합
- 머신러닝을 통해 데이터로부터 유연하게 학습
- symbolic ai를 통해 구조화된 추론과 설명 가능성을 제공하여 에이전트의 적응력과 추론 능력을 향상
- 2) 새로운 구조
- 일반적인 작업에 대해 foundation models 에 대한 호출 필요성을 줄이고 에이전트 워크플로우를 저장하고 실행하는 캐싱 솔루션을 구현
- 또한 소규모 언어 모델과 대규모 언어 모델을 통합하는 새로운 하이브리드 및 계층적 아키텍처는 확장성과 효율성을 향상
- 작업을 하위 작업으로 분해하고 이를 전문 에이전트에 할당함으로써 복잡성을 보다 효과적으로 관리
- 3) 향상된 조정 매커니즘
- 분산 제어 및 협상 프로토콜과 같은 고급 조정 메커니즘을 개발하여 multi-agent systems 의 성능을 향상
- 에이전트 간의 더 나은 의사 소통과 협업을 촉진
- 4) 강력한 학습 알고리즘
- 강화 학습 및 전이 학습과 같은 강력한 학습 알고리즘을 통합하여 AI 에이전트의 적응성을 향상
- 에이전트는 경험을 통해 학습하고 다양한 작업에 지식을 적용
- 5) 윤리적이고 책임감 있는 디자인
- 윤리적이고 안전한 AI 설계를 보장하려면 투명성, 공정성 및 책임성을 우선히 하는 지침 및 프레임워크를 구현
- 시스템 설계에 설명 가능성을 통합하고 시스템 배포를 통해 강력한 테스트를 수행하는 등 윤리적 및 안전 문제를 완화
- 1) 머신러닝과 symbolic Ai 통합
- 새로운 에코시스템 제안 : 3가지 핵심 메커니즘 - Agents, Sims, Assistants
- Agents
- 특정 작업을 수행하도록 훈련된 좁고 목적 지향적인 모듈
- 개별적으로 자율성을 갖지만, 다른 Agents와 상호 작용 가능
- Sims
- 사용자 프로필, 선호도 및 행동을 결합하여 사용자를 나타내는 표현
- Sims는 사용자의 개인 정보 보호 및 개인 설정을 반영하며, 사용자를 대신하여 에이전트와 상호 작용함
- Assistants
- 사용자와 직접 상호 작용하고 사용자를 깊이 이해하며, 필요에 따라 Sims와 Agents를 호출하여 작업을 수행하는 프로그램
- Assistants 는 사용자의 개인 정보에 액세스 할 수 있고, 사용자에게 맞게 조정될 수 있는 개인 버전의 에이전트
AI Agent 와 AAI
- AI 시스템 비교
- AI 시스템은 기능과 자율성에 따라 전통적 AI, AI Assistants, AI Agent, Agentic AI로 구분
- 전통적 AI : 규칙 기반으로 특정 작업에 최적화
- AI Assistants : 자연어 처리로 일상적 작업을 수행
- AI Agent : 환경을 인식하는 목표 지향적 행동
- Agentic AI : 복잡한 문제를 해결하고 장기적 전략을 수립하는 높은 수준의 자율성
- AI 시스템은 기능과 자율성에 따라 전통적 AI, AI Assistants, AI Agent, Agentic AI로 구분
- Agentic Ai 는 더 높은 수준의 자율성, 적응성, 추론 능력
- 목표 설정과 협업 협업 방식 또한 더욱 유연하고 독립적
AAI 사례 연구
사례 연구 : Integration of Agentic AI with 6G Networks for Mission-Critical Applications: Use-case and Challenge ( https://arxiv.org/pdf/2502.13476v1 )
- Sunder Ali Khowaja∗ , Senior Member, IEEE, Kapal Dev∗ , Senior Member, IEEE, Muhammad Salman Pathan, Engin Zeydan, Senior Member, IEEE, Merouane Debbah, Fellow, IEEE
- 공공 안전 응용 프로그램을 위한 Agentic AI(AI)와 6G 네트워크의 통합에 대해 다룬 논문
- 연구의 주요 초점은 AI 기반의 미션 크리티컬 응용 프로그램의 한계를 극복하고, 높은 변동성을 가진 긴급 상황에서 효율적인 의사 결정을 지원하는 새로운 AAI 프레임워크를 제안하는 것
- Agentic AI 프레임워크 개발 : 미션 크리티컬 애플리케이션을 위한 다층 아키텍처 제안
- 실시간 데이터 처리 및 의사결정 : 에지 컴퓨팅 노드를 통해 지연 시간을 줄이고 효율적인 자원 할당을 실현
- 성능 향상 및 비교 분석 : 초기 응답 시간을 평균 5.6분 단축하고 경과 시간 감소 효과 입증
- 데이터 소스 레이어 : 다양한 센서 및 IOT 장치로부터 데이터를 수집하는 핵심 레이어, 여기에는 소셜 미디어 분석, UAV, 감시 카메라, 온도 모니터, 지진 센서 등이 포함. 이 레이어는 위치 정보와 같은 여러 출처의 데이터를 통합하여 상황 인식을 개선하고, 신속한 동적 반응을 지원.
- 엣지 처리 레이어 : 이 레이어는 접점에서 데이터 처리, 분석 및 의사 결정을 분산해서 수행. 로컬에서 실행되는 AI Agent가 데이터를 처리하여 지연을 줄이고 응답 시간을 개선, 분산 학습 패러다임(예 : 연합 학습)을 통해 클라우드 의존성을 줄이고, 데이터 처리 속도를 높임
- 네트워크 인프라 레이어 : 5G및 6G 와 같은 차세대 통신 시스템을 활용하여 데이터 전송의 안정성과 저지연성을 담당. 네트워크 슬라이싱과 적응형 라우팅 기능을 통해 미션 크리티컬 서비스의 요구에 맞게 동적으로 네트워크를 구성
- Agentic AI 레이어 : 이 레이어는 협력 작업, 지속적인 학습 및 분산된 AI Agent 간의 자율적 의사 결정을 지원함. 전통적인 AI 시스템과는 달리 AAI 는 상황에 따라 자동으로 적응할 수 있는 지능형 구조를 가지고 있으며, 에이전트 간의 상호작용을 통해 지식 기반을 강화.
- 임무 크리티컬 애플리케이션 레이어 : 이 레이어는 응급 대응 노력과 AAI 레이어를 연결하는 인터페이스 역할, 의사 지원 시스템, 자원 할당, 위험 평가 등의 기능을 수행. AAI 의 통합으로 인해 애플리케이션 레이어는 신속하고 유연하게 반응
AAI 향후 연구 방향
- Agentic AI의 연구 동향
- 인간 중심 목표 설정
- Agentic AI 시스템의 궁극적인 목표는 여전히 인간에 의해 정의도고 제어됨
- 연구자들과 개발자들이 초기 목표와 제약 조건을 설정하는 것이 중요함
- 인간 중심 목표 설정
https://hbr.org/2024/12/what-is-agentic-ai-and-how-will-it-change-work
What Is Agentic AI, and How Will It Change Work?
From the early days of mechanical automatons to more recent conversational bots, scientists and engineers have dreamed of a future where AI systems can work and act intelligently and independently. Recent advances in agentic AI bring that autonomous future
hbr.org
관련 논문 : https://philpapers.org/archive/POPHGA.pdf
- 목표 분해 및 하위 목표 설정
- AI Agent 가 주어진 상위 목표를 달성하기 위해 하위 목표를 자동으로 설정하고 분해하는 능력 연구
- 강화 학습을 통한 목표 최적화
- AI Agent가 경험을 통해 목표 달성 방식을 개선하고 하위 목표를 조정하는 방법 연구
https://tokyotechlab.com/blogs/agentic-ai
What is Agentic AI? Why is it the Future of Artificial Intelligence?
Agentic AI is a form of artificial intelligence capable of operating autonomously, making decisions, and executing tasks independently without requiring constant human oversight.
tokyotechlab.com
- 맥락 인식 및 추론
- 대규모 언어 모델(LLM)을 활용한 상황 분석과 의사결정 능력 향상 연구
https://scet.berkeley.edu/the-next-next-big-thing-agentic-ais-opportunities-and-risks/
The Next “Next Big Thing”: Agentic AI’s Opportunities and Risks - UC Berkeley Sutardja Center
Central, Intelligent Agents “In a few years, autonomous artificial-intelligence ‘agents’ could be performing all sorts of tasks for us, and may replace entire white-collar job functions, such as generating sales leads or writing code. … The implica
scet.berkeley.edu
Agentic AI의 향후 연구 방향
- 윤리적 목표 설정 : AI 시스템이 윤리적 기준을 고려하여 목표를 설정하는 방법 연구 필요
- 에이전트 간의 협상 및 다중 에이전트 시스템의 목표 조정 : 여러 AI Agent가 협력하여 공동 목표를 설정하고 달성하는 방법 연구
- 장기적 목표 설정 및 유지 : AI 시스템이 단기적 목표뿐만 아니라 장기적 목표를 설정하고 유지하는 능력 개발
- 타당성 성능 평가 및 설명 가능한 Agentic AI 방법론 개발 : 작업자가 납득하기 쉬운 성능 평가 및 추론 근거를 설명할 수 있는 방법론을 연구
Agentic AI의 윤리적 과제
- 인간의 개입이 없는 자율적인 목표 설정
- AI 윤리 문제를 해결
- 1. 투명성 확보
- 알고리즘 설명 가능성
- 에이전트가 어떤 방시긍로 결정을 내리는지 사용자가 이해할 수 있도록 알고리즘의 작동 방식을 명확하게 설명해야 함.
- 특정 결정을 내린 이유, 사용된 데이터, 고려된 요소 등을 시각적으로 표현하고자 자연어 설명으로 제공
- 데이터 출처 공개
- 에이전트가 학습하거나 의사 결정에 사용하는 데이터의 출처와 수집 방법을 투명하게 공개
- 이를 통해 데이터의 편향성이나 오류 가능성을 사용자가 평가하고, 에이전트의 공정성을 검증
- 알고리즘 설명 가능성
- 2. 공정성 보장
- 편향 제거
- 학습 데이터에 내재된 편향이 에이전트의 의사 결정에 영향을 미치지 않도록 편향 제거 기술을 적용
- 성별, 인종, 종교 등 민감한 속성에 따른 차별을 방지하기 위해 데이터 전처리, 알고리즘 조정, 결과 보정 등
- 다양성 확보
- 에이전트의 학습 데이터에 다양한 사용자 그룹의 데이터를 포함
- 에이전트가 특정 집단에 편향되지 않고, 모든 사용자에게 공정한 서비스를 제공할 수 있어야 함
- 편향 제거
- 3. 책임성 강화
- 오류 발생 시 책임 소재 명확화
- 에이전트의 오류로 인해 피해가 발생했을 경우, 책임 소재를 명확하게 규정
- 에이전트 개발자, 운영자, 사용자 간의 책임 범위를 사전에 정의하고, 피해 발생 시 보상 절차를 마련하는 등
- 감독 및 감사 체계 구축
- 에이전트의 작동을 지속적으로 감시하고 감사하는 체계를 구축
- 이를 통해 에이전트의 윤리적, 법적 문제 발생 가능성을 조기에 감지하고, 필요한 조치를 취할 수 있음
- 오류 발생 시 책임 소재 명확화
- 4. 안정성 확보
- 오작동 방지
- 에이전트가 예기치 않은 상황에서 오작동하지 않도록 다양한 시나리오를 고려하여 테스트를 수행
- 또한, 오작동 발생 시 시스템을 안전하게 멈추거나 사용자의 개입을 유도하는 기을을 구현
- 악용 방지
- 에이전트가 악의적인 목적으로 사용되지 않도록 보안 조치를 강화
- 에이전트의 접근 권한을 제한하고, 비정상적인 사용 패턴을 감지하는 시스템을 구축하는 등
- 오작동 방지
- 5. 인간의 가치 존중
- 사용자 자율성 보장
- 에이전트가 사용자의 의사를 무시하고 독단적으로 결정을 내리지 않도록 사용자의 자율성을 최대한 보장
- 에이전트의 결정에 대한 사용자의 동의를 구하고, 사용자가 언제든지 에이전트의 개입을 중단할 수 있도록 해야 함
- 인간의 존엄성 존중
- 에이전트가 인간의 존엄성을 훼손하는 방식으로 작동하지 않도록 윤리적 가이드라인을 준수
- 에이전트가 인간을 비하하거나 차별하는 발언을 하지 않도록 하고, 인간의 감정을 조작하거나 속이는 행위를 금지
- 사용자 자율성 보장