Tony MaHyper-V结合远程路由访问实现一个公网IP

本文介绍如何利用Hyper-V和远程路由访问,在仅有单个公网IP的环境下搭建多个虚拟服务器,并实现外部网络对这些服务器的访问。具体步骤包括安装配置虚拟网络适配器、设置NAT映射及端口转发等。
Hyper-V结合远程路由访问实现一个公网IP
内部多个虚拟服务器的发布
现在有一台Windows Server 2008服务器有且只有一个IP地址是可以进行Internet的网络访问,现在在该服务器上安装hyper-v的角色,并且在Hyper-v上安装两台Guest OSVM1VM2VM1服务器上安装的IIS,对外提供网站服务器。
以下是这个应该的基本架构图。为了使结构简单,不容出问题,所以在物理服务器的宿主机上启用远程路由访问,为内部的物理服务器提供NAT的映射。
1.安装虚拟网卡
打开设备管理器
选择操作添加过时硬件
添加硬件向导,下一步
选择搜索并自动安装硬件
继续下一步
选择网络适配器,继续下一步
厂商选择Microsoft,网络适配器选择Microsoft Loopback Adapter
继续下一步
提示已经添加成功,完成添加硬件向导
我们可以再设备管理器中看见一个Microsoft Loopback Adapter的网络适配器
在网络连接中我们可以看见一块Microsoft Loopback Adapter的网卡
通过Hyper-V的虚拟网络管理器,我们需要虚拟一张外部的网卡,点击添加
虚拟网络设置名称为Microsoft Loopback,连接到外部并且允许管理操作系统共享
完成我们可以再网路连接中看见一张新的Microsoft Loopback网卡
设置Microsoft Loopback网卡地址为172.16.1.1/24
并且这张网卡上去掉除过TCP/IPv4所有项目
设置完成后我们查看该网卡看的详细信息
在已经安装的虚拟机上,设置网络适配器的网络,为刚才新建的网络Microsoft Loopback
完成后。我们对物理服务器添加远程访问和路由。点击添加角色
通过向导添加,点击下一步
选择网络策略和访问服务,下一步
继续下一步
这里选择路由,点击路由
弹出添加角色向导,点击添加所需的角色服务
确认后,下一步
点击安装
进行安装中
安装完成后
开始配置并且启动路由和远程访问
下一步
选择网络地址转化(NAT),下一步
选择公用接口连接到Internet,这里选择物理网卡并且是外网的地址192.168.80.67,下一步
选择启用基本的名称和地址服务,下一步
可以看见内部网络地址和子网掩码,计算机已经根据网卡的信息得出,继续下一步
点击完成后,路由和远程访问基本的配置就已经完成了。
完成后,在NAT的属性里,可以看见有一个地址分配的选项,勾选上后,表示内部的机器可以通过DHCP上网。
在虚拟机器上,我们通过ipconfig /renew,获得了地址
在物理服务器上通过IE访问虚拟机器上的Web服务器,已经成功
下边要做的是通过外部地址访问内部的这个web服务器。网络策略和访问路由和远程访问—IPv4—NAT,我们找到外部物理网卡的链接,右键属性
选择服务和端口—Web服务器(HTTP)。也可以自己添加自己需要的端口
修改专用地址,也就是需要做端口映射的内部虚拟机器的地址
完成后,我们可以再外部的机器上用IE浏览器测试访问物理服务器的地址http://192.168.80.67,就可以得到刚才在物理服务器上访问http://172.16.1.189,一样的页面
如果内部还有其它服务器需要映射,可以安装上边的方法添加。
Python 中集成 Ollama 可以通过使用 `ollama` 官方提供的 Python 客户端库来实现。Ollama 是一个本地运行的大型语言模型(LLM)工具,它支持多种模型,如 Llama 2、Mistral 等,并且可以通过简单的 APIPython 应用程序集成。 ### 安装 Ollama Python 库 首先,需要确保你已经在本地系统上安装了 Ollama。你可以从 [Ollama 官方网站](https://ollama.com/)下载并安装适用于你操作系统的版本。 接下来,安装 Python 客户端库。Ollama 提供了一个官方的 Python 包,可以通过 `pip` 安装: ```bash pip install ollama ``` ### 使用 Ollama Python 库 安装完成后,可以使用 `ollama` 模块来调用 OllamaAPI。以下是一个简单的示例,展示如何使用 Ollama 的 `generate` 方法来生成文本: ```python import ollama # 生成文本 response = ollama.generate(model='llama3', prompt='为什么天空是蓝色的?') # 打印响应 print(response['response']) ``` 在这个例子中,`model` 参数指定了要使用的模型(例如 `llama3`),`prompt` 参数是用户输入的提示词。Ollama 会根据提示词生成相应的文本,并返回一个包含 `response` 字段的字典。 ### 获取模型列表 如果你想查看当前可用的模型,可以使用以下代码: ```python import ollama # 获取模型列表 models = ollama.list() # 打印模型列表 for model in models['models']: print(model['name']) ``` ### 模型对话(Chat) Ollama 还支持更复杂的对话模式,允许你在多轮对话中保持上下文。以下是一个使用 `chat` 方法的示例: ```python import ollama # 开始对话 response = ollama.chat( model='llama3', messages=[ {'role': 'user', 'content': '你好,你能帮我做什么?'}, {'role': 'assistant', 'content': '你好!我可以帮助你回答问题、提供建议,甚至进行简单的创作。有什么我可以帮你的吗?'}, {'role': 'user', 'content': '你能告诉我关于机器学习的基础知识吗?'} ] ) # 打印响应 print(response['message']['content']) ``` 在这个例子中,`messages` 参数是一个包含多个对话记录的列表,每个记录都有一个 `role` 和 `content` 字段。Ollama 会根据这些对话记录生成相应的回复。 ### 错误处理 在实际应用中,建议添加错误处理逻辑,以应对可能出现的网络问题或模型加载失败等情况: ```python import ollama try: response = ollama.generate(model='llama3', prompt='为什么天空是蓝色的?') print(response['response']) except Exception as e: print(f"发生错误: {e}") ``` ### 相关问题
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值