从源代码编译带有Laplace核函数的libsvm库(适用matlab,python也可参考)
写在前面
写本文来源于深度学习课中老师的作业要求。
在作业中,老师要求使用LIBSVM 训练高斯核和拉普拉斯核,使用这些核来预测西瓜数据集3.0a ,并比较其支持向量的差别。
可是,我发现libsvm并没有拉普拉斯核。我的第一想法是,既然libsvm提供了多种核函数,而且可以使用参数方便的调整,那么我们也可以在源代码里面加入拉普拉斯的核函数。
百度了一番后,网上并没有明确的文章记载步骤,我相信之前肯定也有人这么干过,不管怎样,我来做第一个记录者吧~更重要的是,掌握了修改再编译这个路子,我们不仅可以以源代码的方式自定义其他的核函数,还可以深入C语言源代码探索libsvm,以便更好的为我们所用!
如果之前还没在matlab安装过libsvm的同学,可以看这篇优快云:
https://blog.youkuaiyun.com/qq_31781741/article/details/82666861
开干
libsvm的文件不多,于是我使用VS code逐个查看了一下,大概理清楚了修改思路。

svm.h中
加入枚举类型:LAPLACE

这将来会对应这-t 5这个参数
svm.cpp中
(1)加入laplace核函数

double kernel_laplace(int i, int j) const
{
return exp(-gamma*sqrt(x_square[i]+x_square[j]-2*dot(x[i],x[j])));
}
(2)在紧接着下面加一个case,并在下面加入LAPLACE

case LAPLACE:
kernel_function = &Kernel::kernel_laplace;
break;
/////////////////////////////////////////////////////////////
if(kernel_type == RBF ||kernel_type == LAPLACE)
{
x_square = new double[l];
for(int i=0;i<l;i++)
x_square[i] = dot(x[i],x[i]);
}
(3)在下面的k_function中加入LAPLACE的case

case LAPLACE:
{
double sum = 0;
while(x->index != -1 && y->index !=-1)
{
if(x->index == y->index)
{
double d = x->value - y->value;
sum += d*d;
++x;
++y;
}
else
{
if(x->index > y->index)
{
sum += y->value * y->value;
++y;
}
else
{
sum += x->value * x->value;
++x;
}
}
}//the same as dot func
while(x->index != -1)
{
sum += x->value * x->value;
++x;
}
while(y->index != -1)
{
sum += y->value * y->value;
++y;
}
return exp(-param.gamma*sqrt(sum));
}
oops~还得改一点
本以为这样就结束了,matlab命令行中敲“make”后,试了一下:

于是我在VS Code里搜索错误语句,发现是这么回事:
还是svm.cpp中


把我画红箭头的地方加入LAPLACE 就可以啦~
可选的修改
(1)matlab/svm_train.c:加一行usage
(2)matlab/svm_train.c:为了验证正确的编译,我加了一行words哈哈

执行效果
可以使用啦~ 只要参数给-t 5即可~

对于python群体
因为本人只是在matlab上进行实验,但是对于python如何修改也进行了研究,未进行实验,大家按照我的参考一下,如果不行,欢迎在下面留言,我再进行修改。
libsvm的python版其实也是c++的套壳。我一看ctypes哈哈~
所以,之前在c++中修改的都要修改
然后,在svm.py里面:


然后按照这篇文章操作:
https://www.cnblogs.com/-ldzwzj-1991/p/5893054.html
应该就没了,大家可以试一试,欢迎给反馈哦~
本文记录了如何在LIBSVM源代码中添加拉普拉斯核函数的步骤,包括在svm.h和svm.cpp中进行修改,并解决编译错误。通过这些修改,可以在MATLAB中使用-t5参数调用拉普拉斯核进行支持向量机训练。此外,还探讨了如何将改动应用于Python环境,虽然未实际验证,但提供了可能的修改路径。
363

被折叠的 条评论
为什么被折叠?



