모방 학습이라는 새로운 학습 방법을 알아봄
-> 신규 패러다임의 특징은 전문가의 행동을 흉내내는 학습 방법에 있음.
모방학습은 보상 신호가 없다는 점과 전문가가 제공하는 많은 정보를 사용 할 수 있다는 점에서 강화학습과 다름
새로운 상태에서 학습자의 행동 신뢰도를 높이기 위해 학습자가 학습에사용하는 데이터 집합을 상태 행동 집합에 추가해 확장할 수 있다.
-> 이 프로세스를 데이터 집계라고 한다.
새로운 데이터는 새로운 학습 폴리시에서 발생하며 이 경우 동일한 학습 폴리시에서 발생하는 온-폴리시 데이터를 언급
온-폴리시 상태와 전문가 피드백의 통합은 학습 품질을 높이는 매우 좋은 접근법이다.
모방학습 알고리즘은 전문가의 행동을 따라하기만 하므로 전문가 보다 좋은 성능을 달성 할 수 없다는 한계가 있다.
따라서 전문가로 부터 보상함수를 추론해 이 문제를 극복하는 역강화학습inverseRL을 소개함.
이 방법을 사용하면 폴리시는 지도자와 독립적으로 학습할 수 있다.
DAgger의 구현 코드
- 전문가 추론 함수를 적재해 상태가 설정된 행동을 예측한다.
- 학습자를 위한 계산 그래프를 만든다.
- DAgger 이터레이션을 작성해 데이터 집합을 빌드하고 신규 폴리시를 학습한다.
![](https://blog.kakaocdn.net/dn/n6tkx/btr7xVcx5Zn/OMI4W17cHQQnSAiQr5rAyK/img.png)
파이썬 기반 강화학습 알고리듬 책을 읽고, 그 책의 질문 부분에 대한 답변을 작성한것 입니다.
'ReinforcementLearning' 카테고리의 다른 글
[Book][doit_1]강화학습이란 (0) | 2023.04.03 |
---|---|
블랙박스 최적화 알고리즘 이해하기 (0) | 2023.04.02 |
모델 -기반 강화학습 (0) | 2023.04.02 |
DDPG와 TD3 애플리케이션 (0) | 2023.04.02 |
TRPO와 PRO 구현 (0) | 2023.04.02 |