일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- markov decision process
- 스페인어학습지
- tf-agents
- cp 커맨드
- 파이썬
- itertools.permutations
- AlphaGo
- MCTS
- TensorFlow
- 강화학습
- TreePolicy
- 파이썬 순열로구현하기
- cp command
- cp 폴더 복사
- 심층강화학습
- UCB1
- 환급기원
- 몬테 카를로 트리 탐색
- 파이썬으로 순열 구현하기
- 스터디미니
- Rl policy
- 파이썬 순열
- Monte Carlo
- Python
- tree search
- 딥러닝
- permutations
- 오일러프로젝트
- 순열
- 알파고
- Today
- Total
목록Manual/tf-agents (2)
Learn And Earn
이번 포스팅에서는 tf-agents 요소들을 조립하여 강화학습 문제를 해결할 때, 필연적으로 등장하는 데이터들의 종류와 그 데이터를 어떻게 다루는지에 대해서 간략하게 설명해보겠습니다. 크게 두 가지 관점에서 데이터를 바라볼 건데요, 하나는 데이터가 이 강화학습 문제에서 갖는 의미이고 또 다른 하나는 데이터의 모양입니다. tf-agents의 큰 그림에 대해서는 이 포스팅에서 다뤄놓았으니 참고하시면 되겠습니다. 데이터의 의미 정말 순수하게 발생한 장소로만 따지면 2개, 실제로 쓰이는 데이터를 따지면 3개입니다. TimeStep - environment에 agent가 action을 가함으로써 얻게 되는 변화한 환경의 모습, 그리고 얻는 reward signal, 추가로 제공되는 discounted factor..
이번 포스팅에서는 tensorflow에서 개발한 tf-agents에 대해서 알아보겠습니다. tf-agnets는 이름에서 알 수 있듯이 강화학습을 아주 빠르게 구현할 수 있게 도와줄 수 있는 라이브러리입니다. 이번 포스팅에서는 세부적으로 모든 모듈을 뜯어보기 보다는, tf-agents를 이용하여 강화학습 문제를 해결 할 때, 어떠한 구성 요소를 조립하여 하나의 모델을 완성하는지에 초점을 두고 설명하겠습니다. 개요 tf-agents 모델을 구성하는 데에 크게 6개의 구성요소가 있습니다. environment agent policy network driver replay buffer checkpointSaver, policySaver 이제 이 조각들이 각각 어떠한 역할을 하는지에 대해서 간략하게 설명해보겠습니..