任务1:
class Solution:
def canConstruct(self, ransomNote: str, magazine: str) -> bool:
# 创建字典统计magazine中字符出现次数
char_count = {}
# 遍历magazine字符串,统计每个字符出现次数
for char in magazine:
char_count[char] = char_count.get(char, 0) + 1
# 遍历ransomNote中的每个字符
for char in ransomNote:
# 如果字符不在magazine中,或者已经用完了,返回False
if char not in char_count or char_count[char] == 0:
return False
# 使用一个字符,对应次数减1
char_count[char] -= 1
return True
# 测试
solution = Solution()
print(solution.canConstruct("a", "b")) # False
print(solution.canConstruct("aa", "ab")) # False
print(solution.canConstruct("aa", "aab")) # True
任务2:
修改后代码:
from openai import OpenAI
import json
def internlm_gen(prompt,client):
'''
LLM生成函数
Param prompt: prompt string
Param client: OpenAI client
'''
response = client.chat.completions.create(
model="internlm2.5-latest",
messages=[
{"role": "user", "content": prompt},
],
stream=False
)
return response.choices[0].message.content
api_key = 'eyJ0eXBlIjoiSldUIiwiYWxnIjoiSFM1MTIifQ.eyJqdGkiOiI1MDE3MzY5MSIsInJvbCI6IlJPTEVfUkVHSVNURVIiLCJpc3MiOiJPcGVuWExhYiIsImlhdCI6MTczMDM5MzI1MiwiY2xpZW50SWQiOiJlY
content = """
书生浦语InternLM2.5是上海人工智能实验室于2024年7月推出的新一代大语言模型,提供1.8B、7B和20B三种参数版本,以适应不同需求。
该模型在复杂场景下的推理能力得到全面增强,支持1M超长上下文,能自主进行互联网搜索并整合信息。
"""
prompt = f"""
请帮我从以下``内的这段模型介绍文字中提取关于该模型的信息,要求包含模型名字、开发机构、提供参数版本、上下文长度四个内容,以json格式返回。
`{content}`
"""
res = internlm_gen(prompt,client)
print("Raw response:", res) # Debug line
res_json = json.loads(res)
print(res_json)