iOS_WKWebView加载本地网页

@property (strong, nonatomic) WKWebView *webView;
@property (nonatomic, copy) NSString *url;
  • WKWebView加载工程内Html页面
// 我这里是将html资源文件放置在工程内一个bundle的文件夹内
NSString *path = [[[NSBundle mainBundle] pathForResource:@"H5Local" ofType:@"bundle"] stringByAppendingPathComponent:@"fund/index.html"];
// 拼接后的网页路径
self.url = [self componentFileUrlWithOriginFilePath:path Dictionary:@{@"key":@"value"}];
// 加载网页
[self.webView loadRequest:[NSURLRequest requestWithURL:[NSURL URLWithString:self.url]]];

  • WKWebView加载沙盒内Html页面
// 将要加载的html路径
NSString *urlStr1 = @"~/Cache/fund/index.html";
// 将要加载的html路径的上一层级路径
NSString *urlStr2 = @"~/Cache/fund";
self.url = [self componentFileUrlWithOriginFilePath:urlStr1 Dictionary:@{@"key":@"value"}];

[self.webView loadFileURL:[NSURL URLWithString:self.url] allowingReadAccessToURL:[NSURL fileURLWithPath:urlStr2]];

  • WKWebView对加载的本地网页进行后拼接参数
  • 无论是加载沙盒内网页还是工程内网页,如果需要在网页后拼接参数,不能简单的使用字符串拼接的方式进行拼接,需要借助NSURLComponents类进行数据的拼接。
  • 使用方法如下:
/**
 本地网页数据拼接

 @param filePath 网页路径
 @param dictionary 拼接的参数
 @return 拼接后网页路径字符串
 */
- (NSString *)componentFileUrlWithOriginFilePath:(NSString *)filePath Dictionary:(NSDictionary *)dictionary{
    NSURL *url = [NSURL fileURLWithPath:filePath isDirectory:NO];
    // NO代表此路径没有下一级,等同于[NSURL fileURLWithPath:filePath];
    // 如果设置为YES,则路径会自动添加一个“/”
    NSURLComponents *urlComponents = [[NSURLComponents alloc]initWithURL:url resolvingAgainstBaseURL:NO];
    NSMutableArray *mutArray = [NSMutableArray array];
    for (NSString *key in dictionary.allKeys) {
        NSURLQueryItem *item = [NSURLQueryItem queryItemWithName:key value:dictionary[key]];
        [mutArray addObject:item];
    }
    [urlComponents setQueryItems:mutArray];
    // urlComponents.URL  返回拼接后的(NSURL *)
    // urlComponents.string 返回拼接后的(NSString *)
    return urlComponents.string;
}
### 类似于OpenAI O1系列推理能力的替代模型 对于寻求具备OpenAI o1-preview模型相似推理能力的技术或模型而言,市场上存在多种选择。这些选项不仅限于特定公司产品,还包括开源社区贡献的各种先进解决方案。 #### 一、Google PaLM (Pathways Language Model) PaLM 是由谷歌开发的语言模型,在处理复杂的自然语言理解和生成任务方面表现出色。该模型基于Transformer架构构建,并通过大规模预训练获得强大的泛化能力和逻辑推断技巧[^3]。 ```python from transformers import pipeline, AutoModelForSeq2SeqLM, AutoTokenizer model_name = "google/flan-t5-xl" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForSeq2SeqLM.from_pretrained(model_name) nlp = pipeline('text2text-generation', model=model, tokenizer=tokenizer) result = nlp("Explain the theory of relativity in simple terms.") print(result[0]['generated_text']) ``` 此代码片段展示了如何利用Hugging Face库加载并运行一个名为`flan-t5-xl`的大规模多模态转换器模型来进行文本到文本的任务,如解释相对论理论。 #### 二、阿里云Qwen 作为国内领先的超大规模语言模型之一,Qwen同样能够胜任复杂场景下的语义理解工作。它支持中文在内的多种语言输入输出形式,适用于广泛的应用领域,包括但不限于对话系统、机器翻译以及文档摘要提取等任务[^4]。 #### 三、Meta LLaMA(Large Language Model Meta AI) LLaMA是由Facebook母公司Meta发布的大型语言模型家族成员。其设计目标在于探索更高效的学习机制来提升模型性能的同时减少计算资源消耗。因此,在面对一些需要较强抽象思维能力的问题解答上也展现出了不俗的实力[^5]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值