首先祝大家中秋节快乐。
最近openai又推出了新的模型openai o1还有它的mini版。官网的介绍,就是它的推理能力很强,比gpt-4o有很大的提升。
最近也跟同行在聊这个o1,看看落地方面有哪些可行性。在我们自己的实验上,把o1用在Chain of Goal-Oriented Reasoning 也就是CoGOR上,效果还是不错的。
有人估计没听说过CoGOR,我稍微解释一下你们就明白了。
记得很多客户跟我们抱怨说,现在的gpt做一些问答,还是可以的,但是真的想让它做一些具体的任务,总觉得不够好。
第一:一个任务,我需要跟它互动很多次,它才能大致理解我的内容。
第二:一旦任务过长,模型会出现幻觉,或者“前言不接后语”,导致最终的结果不对,我又要重新开始提问。
我说,你举个例子:
客户说:就比如,前段时间出来的llama3.1,我要给领导跟同事做一个介绍。我就问了大模型,“帮我写一个介绍llama3.1的文章?“
写出来的东西,乱七八糟,然后我就只能继续跟大模型说:请介绍得再深入一点。
接下来,llm又给我介绍了一大堆,除了字数变长了,其它的,我真没发现有啥区别,这个东西,我跟本没法用,