代码拉取完成,页面将自动刷新
同步操作将从 lightning-trader/future_agent 强制同步,此操作会覆盖自 Fork 仓库以来所做的任何修改,且无法恢复!!!
确定后同步将在后台操作,完成时将刷新页面,请耐心等待。
import numpy as np
from sb3_contrib import RecurrentPPO
from stable_baselines3.common.evaluation import evaluate_policy
from helper import *
if __name__ == '__main__':
env = get_dummy_env(1,True)
model = RecurrentPPO.load("./model/rppo/best_model_1")
#mean_reward, std_reward = evaluate_policy(model, env,1)
#print(f"{mean_reward} {std_reward}")
obs = env.reset()
# cell and hidden state of the LSTM
lstm_states = None
# Episode start signals are used to reset the lstm states
episode_starts = np.ones((env.num_envs,), dtype=bool)
while True:
action, lstm_states = model.predict(obs, state=lstm_states, episode_start=episode_starts)
obs, rewards, dones, info = env.step(action)
episode_starts = dones
env.render()
if dones :
env.close()
break
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。