Thinkphp实用技巧【连接mongoDB】

本文介绍如何在ThinkPHP框架中整合MongoDB数据库,包括配置连接、使用扩展方法及直连代码示例。通过具体代码展示model类的写法,帮助开发者快速上手。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

TIP:用框架的好处在连接各种数据库的时候就更能提现出来了。关系型数据库的话用不用框架的差别不大,但是在非关系型数据库语法不熟悉的情况下,TP可以很好的省去这部分时间。当然如果不是开发时间有限的情况下还是建议先熟悉后再运用会更好。

mongoDB的扩展方法在菜鸟教程已经说得很详细了:https://www.runoob.com/mongodb/mongodb-install-php-driver.html

在TP5里面也只需要按照文档引入扩展类就可以直接运用:https://www.kancloud.cn/manual/thinkphp5_1/354135
在composer下来以后发现类名跟文档不一样。当然熟悉mongoDB语法后的问题不大。


如果单连接mongodb数据库的话只需要在配置文件修改即可,如果只是为了扩展不影响原有数据库的可以新建一个model类或者直接在页面新建mongoDB连接。

直连代码直接调用DB类:$mongo = Db::connect($config);

model类的写法跟其他数据库的写法都一样,如下:

<?php
namespace app\common\model;
use think\Model;
class mongodb extends Model
{
    protected $connection=[
        'type'      => '\think\mongo\Connection',
        'query'	    => '\think\mongo\Query',
        "hostname"  =>  "127.0.0.1",
        "database"  =>  "mongodb",
        "username"  =>  "",
        "password"  =>  "",
    ];
}

类创建好了写法就跟平时model类一样了,例:

<?php
namespace app\web\controller;
use app\common\model;

class Test extends Common
{
    public function index()
    {
        $mongoDb = model("mongodb");
        $list = $mongoDb->table("test")->select();
        print_r($list);
    }
}

 

### RTX 50显卡 PyTorch 配置指南 CUDA 版本要求 RTX 50显卡是基于NVIDIA的最新架构设计,支持更高的CUDA计算能力。为了确保PyTorch能够充分利用RTX 50显卡的性能,需要正确配置CUDA版本以及相关依赖库。以下是详细的配置指南和CUDA版本要求: #### 1. 确定CUDA版本 RTX 50显卡通常支持最新的CUDA版本(例如CUDA 12.x)。根据PyTorch官方文档和社区反馈[^1],建议使用与PyTorch兼容的最新CUDA版本。例如,PyTorch 2.3.0支持CUDA 12.1。如果需要更高版本的CUDA(如CUDA 12.2),可以参考社区提供的安装方法[^2]。 #### 2. 安装方式选择 对于RTX 50显卡,推荐以下两种安装方式: - **方案A:Conda安装** 使用Conda创建独立的Python环境,并安装PyTorch及相关依赖库。以下是具体命令: ```bash conda create -n pytorch_env python=3.10 conda activate pytorch_env conda install pytorch torchvision torchaudio pytorch-cuda=12.1 -c pytorch -c nvidia ``` 上述命令将安装PyTorch 2.3.0及CUDA 12.1的相关依赖[^1]。 - **方案B:Pip精确安装** 如果偏好使用pip安装,可以通过指定URL的方式下载对应版本的PyTorch及其依赖库。以下是安装示例: ```bash pip install torch==2.3.0+cu121 torchvision==0.18.0+cu121 torchaudio==2.3.0 --index-url https://download.pytorch.org/whl/cu121 ``` 如果需要更高版本的CUDA(如CUDA 12.2),请参考官方文档或社区提供的安装链接[^2]。 #### 3. 验证安装 完成安装后,可以通过以下代码验证PyTorch是否成功检测到GPU: ```python import torch print(torch.cuda.is_available()) # 应返回True print(torch.version.cuda) # 显示CUDA版本 print(torch.cuda.get_device_name(0)) # 显示GPU名称 ``` 如果`torch.cuda.is_available()`返回`False`,可能是因为CUDA未正确安装或驱动程序版本不匹配。 #### 4. 其他注意事项 - 确保NVIDIA驱动程序版本与CUDA版本兼容。例如,CUDA 12.x通常需要NVIDIA驱动程序版本530及以上。 - 如果遇到安装问题,可以参考PyTorch官方文档或社区讨论区。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值