【转】用PHP为iOS做推送服务

转自:http://bbs.weiphone.com/read-htm-tid-3823237.html

 

首先,需要一个pem的证书,该证书需要与开发时签名用的一致。 具体生成pem证书方法如下:

引用
1. 登录到 iPhone Developer Connection Portal( http://developer.apple.com/iphone/manage/overview/index.action ) 并点击 App IDs
2. 创建一个不使用通配符的 App ID 。通配符 ID 不能用于推送通知服务。例如,  com.itotem.iphone
3. 点击App ID旁的“Configure”,然后按下按钮生产 推送通知许可证。根据“向导” 的步骤生成一个签名并上传,最后下载生成的许可证。
4. 通过双击.cer文件将你的 aps_developer_identity.cer 引入Keychain中。
5. 在Mac上启动 Keychain助手,然后在login keychain中选择 Certificates分类。你将看到一个可扩展选项“Apple Development Push Services”
6. 扩展此选项然后右击“Apple Development Push Services” > Export “Apple Development Push Services ID123”。保存为 apns-dev-cert.p12 文件。
7. 扩展“Apple Development Push Services” 对“Private Key”做同样操作,保存为 apns-dev-key.p12 文件。
8. 需要通过终端命令将这些文件转换为PEM格式:openssl pkcs12 -clcerts -nokeys -out apns-dev-cert.pem -in apns-dev-cert.p12
openssl pkcs12 -nocerts -out apns-dev-key.pem -in apns-dev-key.p12
9. 如果你想要移除密码,要么在导出/转换时不要设定或者执行:
openssl rsa -in apns-dev-key.pem -out apns-dev-key-noenc.pem
10. 最后,你需要将键和许可文件合成为apns-dev.pem文件,此文件在连接到APNS时需要使用:
cat apns-dev-cert.pem apns-dev-key-noenc.pem > apns-dev.pem

PHP代码如下:

 

  1. <?php
  2. $deviceToken = $_POST['token']; //取得设备的Token,获取方法便见下文
  3. $body = array(“aps” => array(“alert” => ‘message’, “badge” => 2, “sound”=>’default’));  //推送方式,包括了提示内容,提示方式和提示声音。
  4. $ctx = stream_context_create();
  5. //如果在Windows的服务器上,寻找pem路径会有问题,路径修改成这样的方法:
  6. //$pem = dirname(__FILE__) . ‘/’ . ‘apns-dev.pem’;
  7. //linux 的服务器直接写pem的路径即可
  8. stream_context_set_option($ctx, “ssl”, “local_cert”, “apns-dev.pem”);
  9. //如果你的pem存有密码,需要加一个密码登陆语句
  10. $pass = ”123123“;
  11. stream_context_set_option($ctx, ‘ssl’, ‘passphrase’, $pass);
  12. //此处有两个服务器需要选择,如果是开发测试用,选择第二名sandbox的服务器并使用Dev的pem证书,如果是正是发布,使用Product的pem并选用正式的服务器
  13. $fp = stream_socket_client(“ssl://gateway.push.apple.com:2195“, $err, $errstr, 60, STREAM_CLIENT_CONNECT, $ctx);
  14. $fp = stream_socket_client(“ssl://gateway.sandbox.push.apple.com:2195″, $err, $errstr, 60, STREAM_CLIENT_CONNECT, $ctx);
  15. if (!$fp) {
  16. print “Failed to connect $err $errstrn”;
  17. return;
  18. }
  19. print “Connection OK\n”;
  20. $payload = json_encode($body);
  21. $msg = chr(0) . pack(“n”,32) . pack(“H*”, str_replace(‘ ‘, ”, $deviceToken)) . pack(“n”,strlen($payload)) . $payload;
  22. print “sending message :” . $payload . “\n”;
  23. fwrite($fp, $msg);
  24. fclose($fp);
  25. ?>

获取设备Token的OC代码:
  1. - (void)application:(UIApplication *)application didRegisterForRemoteNotificationsWithDeviceToken:(NSData *)deviceToken

 

转载于:https://www.cnblogs.com/yencain/articles/2579028.html

<think>好的,用户想了解如何在Linux上实现Open-LLM-VTuber的本地化部署或配置。我需要先查看用户提供的引用链接,看看是否有相关的文档或者教程。不过提供的引用链接是GitHub仓库的根目录,可能需要进一步查找里面的具体文档。 首先,我应该考虑常见的本地化部署步骤,比如克隆仓库、安装依赖、配置环境变量、下载模型文件等。因为这是一个LLM项目,可能需要Python环境,以及一些深度学习框架如PyTorch。此外,用户可能需要安装FFmpeg或者其它多媒体处理库,特别是如果涉及语音合成或视频处理的话。 接下来,我需要检查仓库中的README或docs目录,看看是否有详细的安装说明。如果没有,可能需要根据项目结构推测安装步骤。比如,查看requirements.txt或setup.py文件来确定依赖项。另外,模型文件通常比较大,用户可能需要从Hugging Face或官方渠道下载,并放置在指定目录。 还要注意权限问题,比如是否需要使用sudo安装某些依赖,或者配置虚拟环境。另外,Linux发行版的不同可能导致依赖包的名称不同,比如Ubuntu和CentOS的包管理工具不一样,需要给出通用的建议或者指明具体发行版。 可能还需要配置API密钥或修改配置文件,比如config.yaml,设置模型路径、端口号等参数。如果项目有Web界面,可能需要安装Node.js和npm来构建前端部分。 用户可能会遇到的问题包括依赖冲突、CUDA版本不匹配、模型文件缺失等,需要给出常见错误的解决方法,比如创建虚拟环境、更新驱动程序、使用正确的Python版本等。 最后,生成相关问题时要考虑用户后续可能的需求,比如性能优化、自定义模型、API集成、故障排除等。</think>### Open-LLM-VTuber Linux 本地化部署教程 #### 一、环境准备 1. **系统要求** - 推荐 Ubuntu 20.04/22.04 或 CentOS 8+ - NVIDIA 显卡驱动 ≥ 510.x(CUDA 11.6+) - 显存 ≥ 8GB(建议 16GB 以上) 2. **安装基础工具** ```bash sudo apt update && sudo apt install -y git python3.10-venv ffmpeg nvidia-cuda-toolkit ``` #### 二、项目部署 1. **克隆仓库** ```bash git clone https://github.com/Open-LLM-VTuber/Open-LLM-VTuber.git cd Open-LLM-VTuber ``` 2. **创建虚拟环境** ```bash python3 -m venv llm-env source llm-env/bin/activate ``` 3. **安装依赖** ```bash pip install -r requirements.txt --extra-index-url https://download.pytorch.org/whl/cu116 ``` #### 三、模型配置 1. **下载语言模型** ```bash mkdir models wget https://huggingface.co/llama-2-7b-chat/resolve/main/pytorch_model.bin -P models/ ``` 2. **修改配置文件** `config.yaml` ```yaml model_path: "./models/pytorch_model.bin" device: "cuda:0" # 使用GPU加速 ``` #### 四、服务启动 ```bash python app/main.py --port 7860 --log_level debug ``` 访问 `http://localhost:7860` 即可使用[^1] #### 五、验证部署 ```python # 测试脚本 test_api.py import requests response = requests.post("http://localhost:7860/api/generate", json={"prompt": "你好"}) print(response.json()) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值