quantylab/rltrader

테스트 결과 출력

Opened this issue · 3 comments

안녕하세요! 개정판 책이 배송오기만을 기다리고 있습니다. ㅎ.ㅎ

테스트 결과 출력에 대하여 질문이 있습니다.
이전 코드와 금번 코드 모두 마찬가지로, 테스트할 경우 하나의 epoch에 대한 결과가 나오는데..
이를 세부적으로 확인하려면 어떤 방식으로 코드를 추가 작성해야 할까요?

테스트 데이터셋에 대하여 row건 별로 에이전트의 액션, 리워드, 평잔 등을 확인하고 싶습니다.

감사합니다..

@incheony 안녕하세요. 관심주셔서 감사합니다.
테스트는 epoch가 1이므로 epoch for 문 안의 while 블록 안에서 row 건 별로 로그를 남길 수 있겠습니다.

rltrader 추가 기능으로 검토해 보겠습니다. 감사합니다 : )

빠른 답변 감사합니다 ^~^

추가 질문 드리겠습니다 ㅜㅜ

데이터를 분별로 변경하다보니 실행 시간이 너무 오래 걸려서 학습 속도를 향상시키고 싶은데..

http://blog.quantylab.com/stock_rl_mod_learners.html
여기서 mini_batch_size라고 상단에 설명을 해주셨는데 코드에서는 mini_batch_size라는 것을 찾아 볼 수 없었습니다. 이는 batch_size와 동일한 것인가요?

학습 속도 향상을 하기 위한 batch_size 및 이외 더 필요한 항목들을 어디 부분에서 수정하면 될까요..? main.py에는 별도의 배치 관련 인자가 없는 것을 확인하여 질문 드립니다...

감사합니다!

다음 코드에서 batch_size가 while문 안에서는 미니배치 크기로 사용되고 있습니다.

            # while문 안
                # 반복에 대한 정보 갱신
                self.batch_size += 1
                self.itr_cnt += 1
                self.exploration_cnt += 1 if exploration else 0

                # 지연 보상 발생된 경우 미니 배치 학습
                if learning and (delayed_reward != 0):
                    self.fit(delayed_reward, discount_factor)

            # 에포크 종료 후 학습
            if learning:
                self.fit(
                    self.agent.profitloss, discount_factor, full=True)