自己写的网站非常好,却不会展现给别人? 简直是英雄无用武之地啊!!! 来看这里 超详细教程教你部署网站!!!

        大家在学习写网站的时候是否有着这样的经历——哇塞我写的网页真好看,好想让她(他)看看,但是苦于不会部署自己的网站,只能靠自己截图或者录视频给别人看,但是截图或视频又不能很好的展现你这个网页究竟写得多好,然后郁郁寡欢——呜呜呜.......

        当然,当你苦于这个问题时,这时候,我就出现了(狗头),在这里,不管你是萌新还是小白,只要认真听,保证让你写的精彩网站让大家看到!好了话不多说,现在开始注意了(敲黑板!!!)

        首先呢,要想部署你的网页,不学会Linux系统的操作方式是不行的,因为大部分的服务器都是Linux系统界面,到这里大家可能会问了——啊还要学习Linux系统,太麻烦了吧,有没有更简单的方法啊?

        那我就要告诉大家了,如果因为部署网页就要学习Linux系统,那也算是小题大作了,所以呢,我就是来教大家最简单的方法滴。好了现在进入正题,现在真的要好好听了嗷!

        第一步呢,大家要购买一个服务器,由于大家大部分只想让自己的网页给别人看,所以我就不细讲服务器是干什么的了,那有人又要问了——博主服务器去哪里买啊?

        那么在这里呢,我推荐大家去腾讯云,因为这个操作起来相比较其他会更方便一些腾讯云 - 产业智变 云启未来,网站呢就在这里,大家点击登陆后,可以在产品中搜索轻量应用服务器,因为这个比较便宜,而且对于部署网页来说也是非常够用了,相信大家应该都是第一次买,所以腾讯云对于新人有相应的优惠,有的甚至可以找到免费试用的服务器

        购买之后呢我们会有这样一个页面,在这里我们点击登录,这样我们就见到了完整的Linux界面(如下图所示)学过Linux的对这个界面应该很熟悉吧

        大家没接触过Linux系统的应该都知道Windows的cmd窗口,这个和Windows基本是一样的,只不过相应的命令可能不同,具体的命令我的主页写过很多,大家可以关注去看看,当然,我是来教大家如何简单的部署网页的,所以大家只需要跟着我来就可以了,爱学习的同学们还是可以去看看的嗷。

        在第一次使用呢,我们要设置root用户的密码,所以我们要输入su命令,然后输入passwd,接着连续输入两次你的密码,设置成功后,我们就可以开始真正的部署了,由于涉及到的知识比较多,我就不多啰嗦了,想知道更详细的或者想知道原理的,大家可以评论区咨询,我都会一一回复

        1.安装nginx

                输入命令 sudo apt install nginx

        2.传输写的html文件

                找到自己写的HTML文件,把文件复制到桌面

                在电脑上进入Windows的cmd窗口

                输入scp -r 自己的文件名 root@服务器的ip:/var/www/ (注意橙色的需要自己进行修改,不要直接输入,服务器ip可以参考这篇文章的第一张图右下方看自己的页面获得)

        3.创建配置文件

                在服务器界面输入 cd /etc/nginx/conf.d

                接着输入touch 文件名.conf 

                接着输入vim 上面创建的文件名.conf

                按i键之后写入server {
        listen 2121;
        root /var/www/
传输到服务器的文件名;
        index 自己的网页名字.html;
    }

        注意橙色的地方都是要根据自己的文件去进行相应的修改的,不要把我的直接复制了嗷!!!

        到这里我们的网页部署就已经完成了,接下来在网页输入你服务器的ip:2121 就可以看到你写的网页了,别人也是可以看得到的。

        文章很长,写作不易,大家要认真看,觉得有用留下好评哦

DQN(Deep Q-Network)是一种使用深度神经网络实现的强化学习算法,用于解决离散动作空间的问题。在PyTorch中实现DQN可以分为以下几个步骤: 1. 定义神经网络:使用PyTorch定义一个包含多个全连接层的神经网络,输入为状态空间的维度,输出为动作空间的维度。 ```python import torch.nn as nn import torch.nn.functional as F class QNet(nn.Module): def __init__(self, state_dim, action_dim): super(QNet, self).__init__() self.fc1 = nn.Linear(state_dim, 64) self.fc2 = nn.Linear(64, 64) self.fc3 = nn.Linear(64, action_dim) def forward(self, x): x = F.relu(self.fc1(x)) x = F.relu(self.fc2(x)) x = self.fc3(x) return x ``` 2. 定义经验回放缓存:包含多条经验,每条经验包含一个状态、一个动作、一个奖励和下一个状态。 ```python import random class ReplayBuffer(object): def __init__(self, max_size): self.buffer = [] self.max_size = max_size def push(self, state, action, reward, next_state): if len(self.buffer) < self.max_size: self.buffer.append((state, action, reward, next_state)) else: self.buffer.pop(0) self.buffer.append((state, action, reward, next_state)) def sample(self, batch_size): state, action, reward, next_state = zip(*random.sample(self.buffer, batch_size)) return torch.stack(state), torch.tensor(action), torch.tensor(reward), torch.stack(next_state) ``` 3. 定义DQN算法:使用PyTorch定义DQN算法,包含训练和预测两个方法。 ```python class DQN(object): def __init__(self, state_dim, action_dim, gamma, epsilon, lr): self.qnet = QNet(state_dim, action_dim) self.target_qnet = QNet(state_dim, action_dim) self.gamma = gamma self.epsilon = epsilon self.lr = lr self.optimizer = torch.optim.Adam(self.qnet.parameters(), lr=self.lr) self.buffer = ReplayBuffer(100000) self.loss_fn = nn.MSELoss() def act(self, state): if random.random() < self.epsilon: return random.randint(0, action_dim - 1) else: with torch.no_grad(): q_values = self.qnet(state) return q_values.argmax().item() def train(self, batch_size): state, action, reward, next_state = self.buffer.sample(batch_size) q_values = self.qnet(state).gather(1, action.unsqueeze(1)).squeeze(1) target_q_values = self.target_qnet(next_state).max(1)[0].detach() expected_q_values = reward + self.gamma * target_q_values loss = self.loss_fn(q_values, expected_q_values) self.optimizer.zero_grad() loss.backward() self.optimizer.step() def update_target_qnet(self): self.target_qnet.load_state_dict(self.qnet.state_dict()) ``` 4. 训练模型:使用DQN算法进行训练,并更新目标Q网络。 ```python dqn = DQN(state_dim, action_dim, gamma=0.99, epsilon=1.0, lr=0.001) for episode in range(num_episodes): state = env.reset() total_reward = 0 for step in range(max_steps): action = dqn.act(torch.tensor(state, dtype=torch.float32)) next_state, reward, done, _ = env.step(action) dqn.buffer.push(torch.tensor(state, dtype=torch.float32), action, reward, torch.tensor(next_state, dtype=torch.float32)) state = next_state total_reward += reward if len(dqn.buffer.buffer) > batch_size: dqn.train(batch_size) if step % target_update == 0: dqn.update_target_qnet() if done: break dqn.epsilon = max(0.01, dqn.epsilon * 0.995) ``` 5. 测试模型:使用训练好的模型进行测试。 ```python total_reward = 0 state = env.reset() while True: action = dqn.act(torch.tensor(state, dtype=torch.float32)) next_state, reward, done, _ = env.step(action) state = next_state total_reward += reward if done: break print("Total reward: {}".format(total_reward)) ``` 以上就是在PyTorch中实现DQN强化学习的基本步骤。需要注意的是,DQN算法中还有很多细节和超参数需要调整,具体实现过程需要根据具体问题进行调整。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值