게임AI
-
커리큘럼 학습과 리워드 엔지니어링 – 게임 AI 성능 끌어올리기
들어가며 지금까지 강화학습으로 게임 AI를 만드는 여정을 함께 해왔습니다. OpenAI Gym 환경 설정부터 DQN, PPO, 멀티 에이전트까지 다뤘지만, 실전에서는 알고리즘만으로는 부족한 경우가 많습니다. 복잡한 게임 환경에서 에이전트가 학습에 실패하거나, 수렴 속도가 너무 느리거나, 지역 최적해에 빠지는 문제를 자주 마주치게 됩니다. 이번 시리즈의 마지막 편에서는 커리큘럼…
-
멀티 에이전트 강화학습으로 대전 게임 구현하기 – MARL 실전 가이드
멀티 에이전트 강화학습이란? 지금까지 우리는 DQN과 PPO를 이용해 단일 에이전트가 게임 환경과 상호작용하며 학습하는 방법을 다뤘습니다. 하지만 실제 게임 환경에서는 여러 플레이어가 동시에 경쟁하거나 협력하는 경우가 많습니다. 이때 필요한 것이 바로 멀티 에이전트 강화학습(MARL, Multi-Agent Reinforcement Learning)입니다. MARL은 여러 에이전트가 동일한 환경에서 동시에 학습하며, 각…
-
PPO 알고리즘으로 복잡한 게임 마스터하기 – 연속 행동 공간 다루기
시작하며 지난 편에서는 DQN을 활용해 Atari 게임을 학습하는 방법을 다뤘습니다. DQN은 이산 행동 공간에서 강력하지만, 실제 게임 환경에서는 조이스틱의 미묘한 각도 조절이나 가속도 조절처럼 연속적인 행동 공간을 다뤄야 할 때가 많습니다. 이번 편에서는 이러한 문제를 해결하는 PPO(Proximal Policy Optimization) 알고리즘을 깊이 있게 살펴보겠습니다. PPO가 필요한…
-
DQN으로 Atari 게임 정복하기 – 딥러닝 기반 강화학습 실전 적용
DQN의 등장 배경 지난 편에서 OpenAI Gym 환경 설정과 기본적인 Q-Learning 에이전트를 구현해봤습니다. 하지만 테이블 기반 Q-Learning은 상태 공간이 큰 환경에서는 사용할 수 없다는 치명적인 한계가 있었죠. Atari 게임처럼 화면 픽셀을 입력으로 받는 경우, 가능한 상태의 수가 천문학적으로 많아지기 때문입니다. DeepMind는 2013년 이 문제를 딥러닝으로…