WV.31-求串联电阻阻值

本文介绍了一个简单的C++程序,用于计算两个电阻串联后的阻值。通过输入电阻值,程序输出串联后的阻值,旨在帮助初学者理解基本的电路原理与编程实践。

问题及代码:

/* 
*Copyright (c)2014,烟台大学计算机与控制工程学院 
*All rights reserved. 
*文件名称:r.cpp 
*作    者:单昕昕 
*完成日期:2015年2月2日 
*版 本 号:v1.0 
* 
*问题描述:输入两个电阻r1和r2的阻值,计算并输出它们串联后的阻值r 
*程序输入:两个整数,代表两个电阻值 
*程序输出:一个整数,代表串联电阻的阻值 
*/ 
using System;
using System.Collections.Generic;
using System.Linq;
using System.Text;


namespace Plus
{
    class Program
    {
        static void Main(string[] args)
        {
            Console.WriteLine("Please Enter r1 and r2:");
            int r1, r2;
            Console.Write("r1 = ");
            r1 = Convert.ToInt32(Console.ReadLine());
            Console.Write("r2 = ");
            r2 = int.Parse(Console.ReadLine());
            int r = r1 + r2;
            Console.WriteLine("串联阻值为:{0}",r);
            Console.ReadKey();
        }
    }
}


运行结果:


知识点总结:

注意数据类型和输出的变量声明。


学习心得:

第一次尝试写出来的程序,题目很简单,但还是很激动啊啊啊~~
你提供的这段输出是一个长度为 **100** 的浮点数数组,它看起来像是一个 **词向量(word embedding)** 或 **句子向量(sentence embedding)** 的表示。 这类向量通常由以下几种模型生成: - **Word2Vec** - **FastText** - **Doc2Vec** - **BERT / Sentence-BERT** - **Gensim** 中的模型 - 或你自己训练/加载的模型生成的向量 --- ## 🧠 一、这段向量的含义 这段输出表示一个 **100 维的向量**,每个值代表该维度上的权重或激活值。例如: ```python [-0.0052772, -0.00601762, ..., 0.00234289] ``` ### 它可以代表什么? | 场景 | 含义 | |------|------| | Word2Vec | 一个词的向量表示,如 "人工智能" | | FastText | 一个词的向量,支持未登录词(OOV) | | Doc2Vec | 一个句子、段落的向量表示 | | Sentence-BERT | 一个句子的语义向量,用于相似度计算 | --- ## 🧪 二、如何使用这个向量 ### 1. 获取相似词或句子(以 Gensim 模型为例) 如果你是从 Gensim 模型中获取的向量,可以使用如下方式查找相似词或句子: ```python from gensim.models import Word2Vec # 加载模型 model = Word2Vec.load("word2vec.model") # 获取某个词的向量 vector = model.wv["人工智能"] # 查找最相似的词 similar_words = model.wv.most_similar("人工智能") print(similar_words) ``` ### 2. 向量相似度计算(cosine similarity) ```python import numpy as np from sklearn.metrics.pairwise import cosine_similarity vec1 = np.array([-0.0052772, ..., 0.00234289]) # 第一个向量 vec2 = np.array([0.00312068, ..., -0.00486073]) # 第二个向量 # reshape 为二维数组 vec1 = vec1.reshape(1, -1) vec2 = vec2.reshape(1, -1) similarity = cosine_similarity(vec1, vec2) print("Cosine Similarity:", similarity[0][0]) ``` --- ## 💾 三、如何保存和加载向量 ### 1. 保存为文件(如 numpy 文件) ```python import numpy as np vector = np.array([-0.0052772, ..., 0.00234289]) # 你的向量 np.save("vector.npy", vector) ``` ### 2. 加载向量 ```python vector = np.load("vector.npy") print(vector) ``` --- ## 🧰 四、常见用途 | 用途 | 说明 | |------|------| | 文本相似度 | 使用 cosine similarity 比较两个句子/词的语义相似性 | | 聚类 | 将多个向量进行聚类分析,如 KMeans | | 分类 | 作为特征输入到分类模型中(如 SVM、MLP) | | 可视化 | 使用 t-SNE 或 PCA 降维后可视化向量空间 | --- ## ✅ 五、总结 你看到的这段向量是一个 **100 维的嵌入向量**,可能是: - 某个词的向量(Word2Vec/FastText) - 某个句子的向量(Doc2Vec) - 某个模型输出的语义向量(如 BERT) 你可以: - 用它做相似度计算 - 用它做聚类或分类 - 用它做可视化分析 --- ##
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值