11--leetcode--python

一.给定 n 个非负整数 a1,a2,...,an,每个数代表坐标中的一个点 (i, ai) 。在坐标内画 n 条垂直线,垂直线 i 的两个端点分别为 (i, ai) 和 (i, 0)。找出其中的两条线,使得它们与 x 轴共同构成的容器可以容纳最多的水。

说明:你不能倾斜容器,且 n 的值至少为 2。
图中垂直线代表输入数组 [1,8,6,2,5,4,8,3,7]。在此情况下,容器能够容纳水(表示为蓝色部分)的最大值为 49。

示例:

输入: [1,8,6,2,5,4,8,3,7]
输出: 49


思路:我们在由线段长度构成的数组中使用两个指针,一个放在开始,一个置于末尾。 此外,我们会使用变量 maxareamaxarea 来持续存储到目前为止所获得的最大面积。 在每一步中,我们会找出指针所指向的两条线段形成的区域,更新 maxareamaxarea,并将指向较短线段的指针向较长线段那端移动一步。
时间复杂度变为O(n)

class Solution(object):
    def maxArea(self, height):
        i=0
        j=len(height)-1
        s=0
        while i<j:
            s=max(s,(j-i)*min((height[i],height[j])))
            if height[i]<=height[j]:
                i+=1
            else:
                j-=1
        return s
        """
        :type height: List[int]
        :rtype: int

LLAMA(Large Language Model Agent for Multi-purpose Applications)是一种基于大语言模型的应用框架,而Qwen是一个开源的语言模型,常用于问答场景。要在没有GPU的电脑上部署Qwen2,你需要通过lamma-factory进行简化安装和配置。以下是大致步骤: 1. **环境准备**: - 安装Python基础环境(包括pip) - 确保已安装必要的依赖,如TensorFlow(可以选择CPU版本) ```sh pip install python==3.8 pip install numpy tensorflow-cpu ``` 2. **获取模型**: - 从GitHub或其他官方源下载预训练的Qwen模型Llama-factory通常会提供适用于CPU的模型。 ```sh git clone https://github.com/qwen-project/qwen.git cd qwen ``` 3. **配置**: - 进入模型目录,检查`lama_factory/config.py`文件,将`device`设置为`cpu`,确保不会尝试使用GPU资源。 4. **初始化模型工厂**: ```python from lama_factory import LlamaFactory factory = LlamaFactory(config_file='lama_factory/config.yaml') ``` 5. **加载并运行模型**: - 使用工厂创建Qwen实例,并在需要的时候进行交互。 ```python lama = factory.create_agent() response = lama.generate_response(prompt="你好,我是Qwen") print(response) ``` 6. **处理输入和输出**: - 将用户的问题作为prompt传递给模型,接收并打印其响应。 7. **启动服务**: 如果你想构建一个本地服务供外部访问,可以使用`lama_factory.run_server()`,指定监听的端口。 注意:由于Qwen的计算需求较大,运行在CPU上可能会较慢。如果对速度有较高要求,可以考虑使用更小的模型或者分布式计算。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值