CSharp Ollama

上次笔记记录了CSharp调用OpenAI接口的方法。链接如下:

CSharp OpenAI-优快云博客

如果要使用免费的本地部署的Ollama模型代码,只需修改简单几个参数就好。

这里使用Windows11系统,已经通过Ollama下载好了glm4模型,那么调用代码如下:

using Microsoft.SemanticKernel;
using OpenAI;
using System.ClientModel;

namespace CSharpAI
{
    internal class s05_chat_prompt
    {
        public async Task RunAsync()
        {
            OpenAIClientOptions options = new OpenAIClientOptions();
            options.Endpoint = new Uri("http://localhost:11434/v1");
            OpenAIClient client = new OpenAIClient(new ApiKeyCredential("ollama"), options);

            Kernel kernel = Kernel.CreateBuilder()
                .AddOpenAIChatCompletion(modelId: "glm4", client)
                .Build();

            string chatPrompt = """
                    <message role="user">What is Seattle?</message>
                    <message role="system">Respond with JSON.</message>
                """;

            Console.WriteLine(await kernel.InvokePromptAsync(chatPrompt));
        }

        public static async Task Main()
        {
            await new s05_chat_prompt().RunAsync();
        }
    }
}

如果要使用其他模型,只需将代码中的modelId的值修改为对应模型名即可。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值