- 博客(14)
- 收藏
- 关注
原创 torch+cuda+torchvison+torchaudio版本不匹配
官网版本:https://pytorch.org/get-started/previous-versions/深度学习torch+cuda+torchvison+torchaudio版本匹配。还是在官网找好,再安装下载,否则,费时费力。需要重新安装torch gpu版本。
2024-07-05 14:17:50
544
原创 让语言模型兼容 OpenAI 的api在您的计算机上运行代码
下面是一个自动打开环境代码,根据例子修改你的路径和环境名。输入以下代码,需要根据你的本地模型api进行修改。只试了chatglm3-6b和Qwen-7B系列的。
2024-01-29 14:14:00
488
1
原创 AutomaticSpeechRecognitionPipeline: cannot import name ‘asr_inference_launch‘ from ‘funasr.bin‘ 解决
以上方法通通没有解决,尝试了半天,然后顺藤摸瓜看到了版本,试一试的态度,想不到竟然可以了。
2024-01-23 15:08:31
1565
原创 语言模型接入应用api<试探二>代码解释器:让代码更简单易懂
导语:代码解释器是一种可以帮助开发者理解和调试代码的工具,它能够实时地展示代码的执行过程和结果,帮助开发者更加直观地了解代码的运行逻辑。代码解释器是一种可以解释和调试代码的工具,它通过对程序进行动态分析和运行时跟踪,提供了实时的代码执行过程和结果展示。- 实时性:代码解释器可以在代码执行过程中实时捕获和展示代码的执行结果,帮助开发者实时了解代码的执行情况。- 可视化:代码解释器通过可视化的方式展示代码的执行过程,使得开发者可以更加直观地理解代码的运行逻辑。你可以在代码解释器中使用这些工具来增强其功能。
2024-01-06 21:02:26
501
1
原创 语言模型接入应用api<试探一>【如何使用Python和Flask构建一个简单的贪吃蛇游戏】
在本文中,我们学习了如何使用Python和Flask框架来构建一个简单的贪吃蛇游戏后端,并提供API接口和页面渲染。我们定义了游戏状态变量、移动逻辑和生成食物位置的函数,并使用Flask路由来处理API请求。我们还使用HTML和JavaScript代码来渲染游戏界面,并向API发送请求来移动贪吃蛇并更新游戏状态。这个项目虽然简单,但它涵盖了很多常见的Web开发技术,包括Python编程、Flask框架、API设计和HTML/JavaScript编程。
2023-12-13 14:07:08
188
1
原创 文心API 接入Autogen【BUG 记录】 TypeError: unsupported operand type(s) for *: ‘float‘ and ‘NoneType‘
错误消息表示在Completion类的cost方法的第1042行,存在一个浮点数和NoneType对象之间的乘法操作,即。要解决此问题,您需要确保price1K[0]price1K[1]和都是有效的非None值。您可以在执行乘法操作之前添加相应的检查或处理None值。以下是修改代码以处理None值的示例:根据您的具体需求适应代码,并适当处理None值。
2023-11-19 17:39:24
890
1
原创 FastChat里的代码解析 2023年10月27日
3. 在控制器(Controller)类的`__init__`方法中,初始化工作节点信息字典(`worker_info`)和调度方法(`dispatch_method`)。13. 实现`worker_api_get_status`方法和`worker_api_generate_stream`方法,用于模拟工作节点的API接口。12. 实现`handle_no_worker`方法和`handle_worker_timeout`方法,用于处理没有可用工作节点和工作节点超时的情况。
2023-10-27 09:15:37
1404
1
原创 本地大模型接入Autogen,多专家Agent帮你处理问题
这个“host localhost",你要改本地的地址,例如:127.0.0.1。开三个终端窗口分别输入。model为模型文件夹名。端口号8000 随意。
2023-10-21 14:39:46
3320
12
原创 ChatGLM-6B模型部署【BUG 记录】AttributeError: ‘ChatGLMTokenizer‘ object has no attribute ‘sp_tokenizer‘. Did
此文为处理时的和模型对话。FastChat的部署 首先,你需要创建AI环境,具体创建过程我不说了,雄哥已经课程里有一张专门讲环境搭建的!第四天!0基础微调大模型+知识库,部署在微信!手把手安装AI必备环境!
2023-10-21 12:47:28
6649
7
原创 ChatGLM-6B模型部署【BUG 记录】ImportError: cannot import name ‘S‘ from ‘sympy‘ (unknown location)
.. # 创建一个随机的张量并将其移动到GPU上。... print("没有可用的GPU。... # 在GPU上进行一些计算。... # 将结果移回CPU并打印。>>> # 检查是否有可用的GPU。这次只是卸载重装了报错模块就好了。
2023-10-11 18:34:53
889
1
原创 Gradio 使用卸载某个模块造成 BUG ModuleNotFoundError: No module named ‘filelock‘
在 Jupyter Notebook 中,点击 "Kernel" > "Change Kernel",确保你选择了正确的内核,它应该与你安装 "filelock" 的环境匹配。特别是,"torch" 要求安装 "networkx",但你的环境中似乎没有安装它。如果你在安装 "networkx" 或 "transformers" 时遇到其他问题,请提供详细的错误信息,以便我可以提供更多帮助。如果问题持续存在,你可能需要更详细的调试或与社区或支持团队联系以获取帮助,因为问题可能涉及到特定于你的环境的问题。
2023-10-11 11:07:14
920
1
原创 ChatGLM-6B模型部署【BUG 记录】AssertionError: Torch not compiled with CUDA enabled
安装完成后,你可以使用以下命令在命令行中验证CUDA是否成功安装:cuda_12.2.2_windows_network和本地有啥区别。
2023-10-08 23:02:47
1033
1
原创 ChatGLM-6B模型部署【BUG 记录】AttributeError: module ‘collections‘ has no attribute ‘Callable‘
在这个修改后的版本中,我用`pyinputplus`的`inputStr()`函数代替了`input()`函数,并使用了`allowRegexes`参数,允许输入满足正则表达式`"^clear$"`和`"^stop$"`的内容,以实现与原来相同的逻辑。如果用户输入了"clear",将会清空对话历史,如果用户输入了"stop",程序会终止。query = pyip.inputStr(prompt="\n用户:", allowRegexes=["^clear$", "^stop$"])
2023-10-08 19:09:51
216
1
原创 GPT生产程序代码,YOLOv3检测视频中的物体,将识别文本输入到GPT4模型,生成与该物体相关的自然语言信息,并使用语音合成系统将其转换为语音。<1> Opencv+python实现实时检测
安装模块时在install 后加上 --user。找到当前环境模块路径找到带~符号开头的文件直接删除。从创建环境到各种模块安装以及报错解决。安装到了卸载原模块的时候报错没有权限。配置环境把3.8改为3.7直接cmd。用以下命令安装ultralytic。报错就不一一列举出来了。安装教程安装4.1.2.30版本。安装好了,进行代码实测报错。我的版本是4.7.0.72。
2023-05-02 08:59:34
462
2
空空如也
多智能体协作如何处理
2024-06-06
TA创建的收藏夹 TA关注的收藏夹
TA关注的人