代码生成模型
Code Llama 最小70亿参数
Vs CodeGemma(轻量级), 最小20亿参数
具体信息见: ollama支持模型详细信息.
这里我们用最小的一款进行测试:
在终端运行:(初次运行自动下载到本地)
ollama run codegemma:2b
输入提示词:’‘’ Complete the following Python function:
def calculate_factorial(n):# Call the function and print result
print(calculate_factorial(5))‘’‘
生成代码:
参考Code Llama,代码生成大模型的功能还包括:(本文以提示为例进行实验)
Python代码实现
上节测试了在命令行中运行代码生成模型,接下来使用python脚本自动生成代码并执行。
官方python样例: ollama-python.
任务要求:
生成一个n的阶乘函数,并调用它计算5的阶乘。(同前文命令行实现)
Demo:
import requests
import json
import subprocess
# Step 1: 定义 Ollama API 的 URL 和请求的 prompt
api_url = "http://localhost:11434/api/generate"
# prompt = "<|fim_prefix|>def calculate_factorial(n):<|fim_suffix|># Call the function and print result\nprint(calculate_factorial(5))<|fim_middle|>"
# Step 2: 配置请求数据
data = {
"model": "codegemma:2b",
"prompt": "Write a Python function to calculate the fa