@4-1 CCF 2020-06-1 线性分类器

本文介绍了如何使用向量优化线性分类器的实现过程,通过样例展示了如何运用`vector`进行数据结构管理和判断点在直线上的分类。重点讲解了向量在代码中的高效操作,包括动态数组、插入、遍历等技巧。

题目描述

在这里插入图片描述

样例

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

源代码

#include<iostream>
#include <vector>
using namespace std;

vector<int> A1, A2;
vector<int> B1, B2;

int main()
{
    int N, M;
    cin >> N >> M;
    while (N--)
    {
        int x, y;
        string C;
        cin >> x >> y;
        cin >> C;
        if (C == "A")
        {
            A1.push_back(x);  //在A1的第一个元素(从第0个算起)位置插入数值5
            A2.push_back(y);
        }
        else
        {
            B1.push_back(x);
            B2.push_back(y);
        }
    }
    while (M--)
    {
        bool judge = true;
        int a, b, c;
        cin >> a >> b >> c;
        int AA = 0, BB = 0;
        if (a + A1[0] * b + A2[0] * c > 0) AA = 1;     //这里先判断第一个数 确定其在直线上方还是下方
        else AA = -1;
        for (int i = 1; i < A1.size(); i++)  //A1.size() 返回A1在内存中总共可以容纳的元素个数  
        {
            if (a + A1[i] * b + A2[i] * c < 0 && AA == 1) judge = false;
            if (a + A1[i] * b + A2[i] * c > 0 && AA == -1) judge = false;
        }

        if (a + B1[0] * b + B2[0] * c > 0) BB = 1;
        else BB = -1;
        for (int i = 1; i < B1.size(); i++)
        {
            if (a + B1[i] * b + B2[i] * c < 0 && BB == 1) judge = false;
            if (a + B1[i] * b + B2[i] * c > 0 && BB == -1) judge = false;
        }
        if (judge)
        {
            if (AA * BB < 0)
            {
                cout << "Yes" << endl;
            }
            else
            {
                cout << "No" << endl;
            }
        }
        else
        {
            cout << "No" << endl;
        }
    }
    return 0;
}

关于这题

思路:把点带到给定参数的直线方程中 与0比较 确定是A类还是B类
这里用一个vector 会简便很多
可以将vector理解为动态数组,是封装好了的类
进行vector操作前应添加头文件#include <vector>
这里简单介绍几种常用的用法

 #include<vector>
vector<int> a,b;
//a含有4个值为2的元素
a.assign(4,2);
//返回a的最后一个元素
a.back();
//返回a的第一个元素
a.front();
//清空a中的元素
a.clear();
//判断a是否为空,空则返回true,非空则返回false
a.empty();
//删除a向量的最后一个元素
a.pop_back();
//在a的最后一个向量后插入一个元素,其值为5
a.push_back(5);
//返回a中元素的个数
a.size();
//返回a在内存中总共可以容纳的元素个数
a.capacity();
//将a的现有元素个数调整至10个,多则删,少则补,其值随机
a.resize(10);
//将a的现有元素个数调整至10个,多则删,少则补,其值为2
a.resize(10,2);
//将a的容量扩充至100,
a.reserve(100);
//b为向量,将a中的元素和b中的元素整体交换
a.swap(b);
//从向量中读取元素
//通过下标方式获取
int a[6]={1,2,3,4,5,6};
vector<int>b(a,a+4);
for(int i=0;i<=b.size()-1;++i){cout<<b[i]<<endl;}

### CCF CSP 考试中的线性分类器实现 尽管在提供的引用中并未提及具体的线性分类器相关内容,但从机器学习的角度来看,可以推测 CCSP 可能会涉及基本的算法设计与实现。以下是关于如何在线性代数和编程框架下实现简单线性分类器的方法。 #### 线性分类器简介 线性分类器是一种基于超平面划分数据集的模型,其目标是最小化错误率或将两类样本分开。常见的线性分类器有感知机 (Perceptron),支持向量机 (SVM) 的线性版本以及逻辑回归 (Logistic Regression)[^4]。 #### 感知机实现 感知机是一个简单的二分类模型,通过不断调整权重来最小化误分类点的数量。其实现如下: ```python import numpy as np class Perceptron: def __init__(self, learning_rate=0.1, max_epochs=100): self.learning_rate = learning_rate self.max_epochs = max_epochs def fit(self, X, y): n_samples, n_features = X.shape self.weights = np.zeros(n_features) self.bias = 0 for _ in range(self.max_epochs): for idx, x_i in enumerate(X): linear_output = np.dot(x_i, self.weights) + self.bias predicted_class = np.where(linear_output >= 0, 1, -1) update = self.learning_rate * (y[idx] - predicted_class) self.weights += update * x_i self.bias += update def predict(self, X): linear_output = np.dot(X, self.weights) + self.bias return np.where(linear_output >= 0, 1, -1) ``` 上述代码实现了感知机的核心功能,其中 `fit` 方法用于训练模型,而 `predict` 则负责预测新数据所属类别[^5]。 #### 支持向量机(SVM)的简化版 对于更复杂的场景,可以通过优化方法求解 SVM 的对偶问题。然而,在竞赛环境中通常不需要完整的库依赖,而是关注核心思想的应用。例如,利用梯度下降法近似解决软间隔 SVM: ```python def svm_loss(w, b, X, y, C): loss = 0 dw = np.zeros_like(w) m = len(y) scores = y * (np.dot(X, w) + b) data_loss = np.maximum(0, 1 - scores) loss += np.sum(data_loss) / m reg_loss = 0.5 * np.linalg.norm(w)**2 total_loss = loss + C * reg_loss dscores = -(scores < 1).astype(float) * y / m dw += np.dot(dscores.T, X) db = np.sum(dscores) return total_loss, dw, db ``` 此函数计算损失并返回梯度更新方向[^6]。 --- ####
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值