书生浦语大模型实战营基础部分Python关卡

任务1:

class Solution:

def canConstruct(self, ransomNote: str, magazine: str) -> bool:

# 创建字典统计magazine中字符出现次数

char_count = {}

# 遍历magazine字符串,统计每个字符出现次数

for char in magazine:

char_count[char] = char_count.get(char, 0) + 1

# 遍历ransomNote中的每个字符

for char in ransomNote:

# 如果字符不在magazine中,或者已经用完了,返回False

if char not in char_count or char_count[char] == 0:

return False

# 使用一个字符,对应次数减1

char_count[char] -= 1

return True

# 测试

solution = Solution()

print(solution.canConstruct("a", "b")) # False

print(solution.canConstruct("aa", "ab")) # False

print(solution.canConstruct("aa", "aab")) # True

任务2:


修改后代码:

from openai import OpenAI

import json

def internlm_gen(prompt,client):

'''

LLM生成函数

Param prompt: prompt string

Param client: OpenAI client

'''

response = client.chat.completions.create(

model="internlm2.5-latest",

messages=[

{"role": "user", "content": prompt},

],

stream=False

)

return response.choices[0].message.content

api_key = 'eyJ0eXBlIjoiSldUIiwiYWxnIjoiSFM1MTIifQ.eyJqdGkiOiI1MDE3MzY5MSIsInJvbCI6IlJPTEVfUkVHSVNURVIiLCJpc3MiOiJPcGVuWExhYiIsImlhdCI6MTczMDM5MzI1MiwiY2xpZW50SWQiOiJlY

content = """

书生浦语InternLM2.5是上海人工智能实验室于2024年7月推出的新一代大语言模型,提供1.8B、7B和20B三种参数版本,以适应不同需求。

该模型在复杂场景下的推理能力得到全面增强,支持1M超长上下文,能自主进行互联网搜索并整合信息。

"""

prompt = f"""

请帮我从以下``内的这段模型介绍文字中提取关于该模型的信息,要求包含模型名字、开发机构、提供参数版本、上下文长度四个内容,以json格式返回。

`{content}`

"""

res = internlm_gen(prompt,client)

print("Raw response:", res) # Debug line

res_json = json.loads(res)

print(res_json)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值