Tensorflow语法(1)

本文介绍如何使用TensorFlow创建各种类型的张量,并详细解释了索引与切片的操作方法,以及Broadcasting机制的应用。
部署运行你感兴趣的模型镜像


一、创建tensor

1.利用Numpy,list创建
tf.convert_to_tensor(np.ones([2,3])),2行3列全为0的tensor
tf.convert_to_tensor(np.zeros([2,3])),2行3列全为1的tensor
tf.convert_to_tensor([1,2]),利用列表创建tensor
tf.convert_to_tensor([1,2.]),列表中有float型数据,自动将int型转换为float型
tf.convert_to_tensor([1],[2.]),将两个列表创建为tensor
2.tf.zeros([ ])
创建全为0的tensor。 tf.zeros([1]) 、tf.zeros([2,2])、 tf.zeros([2,3,3])
tf.zeros_like(a),复制a,全为0,与tf.zeros(a.shape)效果一样。
3. tf.ones([ ])
创建全为1的tensor。 tf.ones([2])、 tf.ones([2,3])
tf.ones_like(a),复制a,全为1
4.fill
tf.fill([2,2],4),创建2*2值为4的tensor
5.Normal
tf.random.normal([2,2],mean=1,stddev=1)
mean表示均值,stddev表示方差,创建服从正态分布的tensor。
tf.random.truncated_normal([2,2],mean=0,stddev=1)
截取的正态分布。
6.Uniform
tf.random.uinform([2,2],minval=1,maxval=4)
minval与maxval表示取值范围,在范围内均匀分布。
7.Random Permutation
idx = tf.range(10)
idx = tf.random.shuffle(idx),将idx的顺序打散。
8.tf.constant( )
tf.constant(1)、tf.zeros([1]) 、tf.zeros([2,2.])

二、索引与切片

1.[start : end : step]
start:end
2.[ : : -1] 逆向索引
在这里插入图片描述

3.[…] 自动推导出逻辑正确的省略了的维度
在这里插入图片描述
4.tf.gather( )打散索引
tf.gather(a, axis=0,indices=[2,3])
a表示数据,axis避暑维度,indices表示索引号,对于一个三维数据a=[class=4,student=35,subject=8],取维度为0(class),class索引为2,3的班级的学生的成绩。
tf.gather(a, axis=0,indices=[2,1,3,0])
收集4个班级的成绩但是顺序被打散了。
在这里插入图片描述

5.tf.gather_nd( )
tf.gather_nd(a, [3,24,5]),取第0维度索引3的班级,第1维度索引24的学生,第2维度索引5的科目的成绩。(第x个班级的第y个学生的第m科的成绩)
在这里插入图片描述
tf.gather_nd(a, [[0,0,0],[1,1,1],[2,2,2]])
取0号班级0号学生0号科目成绩,1号班级1号学生1号科目成绩,2号班级2号学生2号科目成绩,一共取了三个不同班级的三个学生的某一门科目的成绩。
在这里插入图片描述

6.tf.boolean_mask( ),bool值索引
tf.boolean_mask(a, mask=[True,True,False,False])
索引位置为True取值,为False的不取。
在这里插入图片描述

三、Broadcasting

tf.broadcast_to( )张量维度扩张的手段,对某一个维度重复n次,没有赋值真正的数据,不占用内存。
Feature maps:[4,32,32,3],左边为大维度,右边为小维度,扩张的原理:小维度对齐,没有维度的添加为1,再将1扩充成一样大小。
在这里插入图片描述在这里插入图片描述
在这里插入图片描述
tf.tile(a2,[2,1,1])
表示第0维度复制2次,第1维度复制1次,第2维度复制1次,将a2[1,3,4]复制为了[2,3,4],占用内存。
在这里插入图片描述

您可能感兴趣的与本文相关的镜像

TensorFlow-v2.15

TensorFlow-v2.15

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

Python 中集成 Ollama 可以通过使用 `ollama` 官方提供的 Python 客户端库来实现。Ollama 是一个本地运行的大型语言模型(LLM)工具,它支持多种模型,如 Llama 2、Mistral 等,并且可以通过简单的 APIPython 应用程序集成。 ### 安装 Ollama Python 库 首先,需要确保你已经在本地系统上安装了 Ollama。你可以从 [Ollama 官方网站](https://ollama.com/)下载并安装适用于你操作系统的版本。 接下来,安装 Python 客户端库。Ollama 提供了一个官方的 Python 包,可以通过 `pip` 安装: ```bash pip install ollama ``` ### 使用 Ollama Python 库 安装完成后,可以使用 `ollama` 模块来调用 OllamaAPI。以下是一个简单的示例,展示如何使用 Ollama 的 `generate` 方法来生成文本: ```python import ollama # 生成文本 response = ollama.generate(model='llama3', prompt='为什么天空是蓝色的?') # 打印响应 print(response['response']) ``` 在这个例子中,`model` 参数指定了要使用的模型(例如 `llama3`),`prompt` 参数是用户输入的提示词。Ollama 会根据提示词生成相应的文本,并返回一个包含 `response` 字段的字典。 ### 获取模型列表 如果你想查看当前可用的模型,可以使用以下代码: ```python import ollama # 获取模型列表 models = ollama.list() # 打印模型列表 for model in models['models']: print(model['name']) ``` ### 模型对话(Chat) Ollama 还支持更复杂的对话模式,允许你在多轮对话中保持上下文。以下是一个使用 `chat` 方法的示例: ```python import ollama # 开始对话 response = ollama.chat( model='llama3', messages=[ {'role': 'user', 'content': '你好,你能帮我做什么?'}, {'role': 'assistant', 'content': '你好!我可以帮助你回答问题、提供建议,甚至进行简单的创作。有什么我可以帮你的吗?'}, {'role': 'user', 'content': '你能告诉我关于机器学习的基础知识吗?'} ] ) # 打印响应 print(response['message']['content']) ``` 在这个例子中,`messages` 参数是一个包含多个对话记录的列表,每个记录都有一个 `role` 和 `content` 字段。Ollama 会根据这些对话记录生成相应的回复。 ### 错误处理 在实际应用中,建议添加错误处理逻辑,以应对可能出现的网络问题或模型加载失败等情况: ```python import ollama try: response = ollama.generate(model='llama3', prompt='为什么天空是蓝色的?') print(response['response']) except Exception as e: print(f"发生错误: {e}") ``` ### 相关问题
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值