charles 安卓手机抓包——配置——超详细

1.电脑本地安装charles证书

2.查看电脑charles的IP和端口号

3.手机连接charles,抓取简单的http

4.charles设置ssl proxy setting

5.手机安装charles证书

依旧无法抓取提示 unknown 请见下篇文章  谢谢

一、 chalres电脑本地证书安装

 

 

二、 charles查看IP地址和端口

记住个人电脑上charles上的IP和端口,我这里的端口8888 ip 192.168.1.106    每个人的不同,

三、 手机连接电脑charles(必须处于同一个网路)

WLAN进入网络详情   或WLAN高级设置  或长按次WLAN网络——进行设置

代理设置,选择手动         输入自己刚才查到的电脑IP  和  端口 进行保存

电脑出现允许代理的提示,点击Allow即可

到此处表示已经可以抓http的手机包了       哇喔哇喔挖

四步https设置

出现小锁(需要对charles进行解密的代理设置)

Proxy =》 SSL Proxying Settings

SSL Proxying  勾选 Enable SSL Proxying  点击add添加(各个版本不同大同小异)

add添加     Host: *              Port:443

部分还要    Host: *              Port:*

一路ok即可

  又出现了unknown怎么办,

五、手机安装charles证书

链接好代理后,手机打开自带游览器输入: chls.pro/ssl    下载证书

下载好后点击安装,提示:_______   你自定义一个证书名称,点击保存

提示证书安装成功即可

点击打开或保存(部分手机点击证书提示找不到对应的打开文件)

这是由于部分手机不能识别pem格式的证书文件

可以直接导出电脑上charles本地的证书 -----到手机中,如下图:

 导出桌面,写一个文件名如/charles  选择类型cer  点击保存即可

 

将证书通过数据线,文件传输模式,传入手机的文件中(如:download下)

安卓手机,往右滑动,全局搜索 (信任)

打开受信任的凭据  =》选择从手机中安装 =》 选择 charles证书即可

(手机需要设置锁屏密码, 已设置的输入密码,点击保存:提示已安装charles证书即可)

部分charles版本需要需要重启,

如部分https依旧提示unknown看下篇文章

VitualXposed框架+charles抓包   或   虚拟机+charles抓包

部分手机部分charles版本不同设置大同小异,

### 大模型对齐微调DPO方法详解 #### DPO简介 直接偏好优化(Direct Preference Optimization, DPO)是一种用于改进大型语言模型行为的技术,该技术通过结合奖励模型训练和强化学习来提升训练效率与稳定性[^1]。 #### 实现机制 DPO的核心在于它能够依据人类反馈调整模型输出的概率分布。具体来说,当给定一对候选响应时,DPO试图使更受偏好的那个选项具有更高的生成概率。这种方法不仅简化了传统强化学习所需的复杂环境设置,而且显著增强了模型对于多样化指令的理解能力和执行精度[^2]。 #### PAI平台上的实践指南 为了便于开发者实施这一先进理念,在PAI-QuickStart框架下提供了详尽的操作手册。这份文档覆盖了从环境配置直至完成整个微调流程所需的一切细节,包括但不限于数据准备、参数设定以及性能评估等方面的内容。尤其值得注意的是,针对阿里云最新发布的开源LLM——Qwen2系列,文中给出了具体的实例说明,使得即使是初次接触此类工作的用户也能顺利上手。 ```python from transformers import AutoModelForCausalLM, Trainer, TrainingArguments model_name_or_path = "qwen-model-name" tokenizer_name = model_name_or_path training_args = TrainingArguments( output_dir="./results", per_device_train_batch_size=8, num_train_epochs=3, ) trainer = Trainer( model_init=lambda: AutoModelForCausalLM.from_pretrained(model_name_or_path), args=training_args, train_dataset=train_dataset, ) # 假设已经定义好了train_dataset trainer.train() ``` 这段代码片段展示了如何使用Hugging Face库加载预训练模型并对其进行微调的过程。虽然这里展示的例子并不完全对应于DPO的具体实现方式,但它提供了一个基础模板供进一步定制化开发之用[^3]。
评论 39
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值