自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(319)
  • 资源 (1)
  • 收藏
  • 关注

原创 cnn中的dropout技术

编程中犯浑,无意栽柳,我就不必去求证了,辛顿估计也是这样的(前人很感兴趣的研究出了成果),促使他的dropout技术,论文我也没看,我就这个风格,喜欢瞎猜!然而,我没意识到使用序号(6*16)index=i*w+j,在6*18中已经变了,然而没有意识到,训练成绩反而成了佼佼者!我在无意中,把这个connection_table增加了两列=6*18,增加两列使用五合一。按辛顿的意思,dropout是随机丢弃一部分,我想,这是什么意思,有意的安排,变成了乱序,不就是随机吗?,可能给了辛顿灵感!

2025-03-25 22:09:12 542

原创 机器视觉匹配中使用bpnet匹配(补充,形状匹配与bpnet匹配对比)

bpnet也就是这样,在手写数字识别上,还行,训练平均能够97分,一旦放入机器视觉匹配,1024*768的图像,+-45度旋转识别,慢的头大,看看我做实验的数据:(毫秒:小于40毫秒)+-45度搜索匹配,得1分钟,不行啊!得分55,角度-19,匹配位置(464,260),毫秒;得分99.3,角度-19,匹配位置(464,260),45秒;得分66,角度-8,匹配位置(548,184),毫秒;得分64,角度1,匹配位置(504,164),毫秒;得分99.3,角度1,匹配位置(504,164),47秒;

2025-03-25 12:32:41 152

原创 卷积神经网络(cnn,类似lenet-1,八)

/每一个deltacnnx,都对应25个28*28中的数据元素,以及一个5*5的卷积核。Point temppt = 求二维(i, jilumnna[i].Y, jilumnna[i].X);其实公式是没有问题的,问题出在程序中,第一次卷积中,forward方向少了sigmoid!刚好我有彩色相机,不必10个输出,1个就好,在机器视觉中试一试,也不需要什么数据集!但是再往上走,可能性变为0.训练12万次也不行,当时也不知道,就认了!还是那句话,权重参数w就是卷积核,卷积核就是权重w!

2025-02-28 17:11:35 872

原创 卷积神经网络(cnn,He初始化+relu+softmax+交叉熵+卷积核+后更新,七)

是初心,很重要,有一段时间丢了,现在又找回来了!确实效果好,学习率0.2时,不觉察,但是0.02就会很明显!3层bpnet手写上97分。学习率,以前全部0.2.想分数上升,这是必须的!

2025-02-28 16:36:12 222

原创 卷积神经网络(cnn,He初始化+relu+softmax+交叉熵+卷积核,六)

才能推导出he初始化+relu+softmax+交叉熵+卷积核=cnn公式:,这才是cnn。我使用28*28gaos后,获得14*14图像作为网络输入,用了8个5*5 的卷积核!实际上,我们前面卷积核cnn中找x【?】的方法,一模一样,一个代码都不用改!现在w1cnn变成一个卷积核了,x不知道取什么值了,就是这个问题。里边只改动e初始化+relu+softmax+交叉熵即可!先实验1个卷积核,ok,再扩展!只能满足:He初始化+relu+softmax+交叉熵。我是直接在自己的八个卷积核上实验,ok。

2025-02-28 16:09:36 585

原创 He初始化+relu+softmax+交叉熵(五)

(四)中,看了很久,才发出来,原因是有个东西吓我一大跳!经确认,是正确的。毕竟程序已经行云流水了!这个博文中关于交叉熵的推导要注意一点:=p【k】-y【k】,这个公式的推导是ok的,要做一点点修改:针对loss(c)有=p【k】-y【k】;c也是0到9.所以L=loss(c)那么:(p【k】-y【k】),所以我们的程序才能正常跑数学上真不敢马虎啊!否则,程序不是白瞎了嘛!公式已经推导完成,我们再谈he初始化在back中的作用和影响,以做结尾。

2025-02-26 15:47:35 373

原创 He初始化+relu+softmax+交叉熵(四)

X【196】-》HI【80】/HO【80】-》YI【10】/z【10】,z【10】对应的概率p【10】,期望是y【10】X【196】-》HI【80】/HO【80】-》YI【10】/YO【10】,期望是d【10】用笨办法,展开他,当k指定时,对z[k](等同p[k])求偏导!别人程序看不懂,没关系,根据自己推导的公式,码代码!好,这就大功告成了,i,j,k搞清楚了,w1偏导数推导,以及i,j的准确位置和。X,HI之间用w1【196,80】好,我们求w1,这里关键在于烦人的。的偏导数,当j=10,

2025-02-26 12:37:09 408

原创 He初始化+relu+softmax+交叉熵(三)

X【196】-》HI【80】/HO【80】-》YI【10】/z【10】,z【10】对应的概率p【10】,期望是y【10】是relu+softmax+交叉熵的思维导图。X【196】-》HI【80】/HO【80】-》YI【10】/YO【10】,期望是d【10】是bpnet思维导图。X【196】-》HI【80】/HO【80】-》YI【10】/YO【10】,期望是d【10】————————————————(复制过来,乱码,太不厚道)X,HI之间用w1【196,80】X,HI之间用w1【196,80】

2025-02-26 10:47:35 369

原创 He初始化+relu+softmax+交叉熵(二)

恰好,实现了,97界限在一分类的识别和精细定位匹配上,差错很大,这个界限要到达996,997的样子,匹配识别效果,才能显现!其实也不用学六万次,针对十个数字,其实6千次就可以了(精细匹配中我就学5000次,3千,2千次都试过,还是5千次训练学习较好,毕竟一分类嘛!你要cnn,我们就要增加隐层,我用了bpnet的4层网络和5层网络,卷积核也用上了,学习训练6万次,很难上95,平均93,很恼火,去年就是这个情况。实际,在手写数字识别十个数字分类上,人们的视线不在是bpnet,而是卷积核,卷积核神经网络cnn。

2025-02-26 09:05:33 892

原创 He初始化+relu+softmax+交叉熵(一)

另外,F(yl-1)>0,F(yl-1)=yl-1;这个是找到了方差和期望(均值)的关系。下面的F(yl-1)就是relu函数。其他不懂,就翻翻书,概率论上有相关系数,方差,期望和高斯正态分布。dx(这个是书上期望的定义,期望我认为就是均值),这个就是公式8,y1是输入样本,我们归一化处理,即方差var(y1)=1,这个东西的方差,yl= hI固定roi[j]。F(yl-1)<0,就等于0,公式8变公式9.这是一个连锁反应,我们让每层输出方差都为1,则。所以F(yl-1)^2=(yl-1)^2。

2025-02-25 15:32:52 308

原创 机器视觉匹配中使用bpnet匹配(五,转人工智能)

w1固定roi[i, j] = randomNormalDistribution() /(float) Math.Sqrt(size / 2f);当我研究了relu,并发现了he(kaiming)初始化,我才恍然大悟,他在相关系数归一化上下功夫,使用了高斯正态分布n~(0,1)如果你观察到了,并取得好的结果,一定要总结深挖!这里说明,我这种人,属于应用型的,搞出来,就不总结了,反而,失败了,回去总结!因为,我的结果很稳定,很准确了,我就在没有深究!当出现-4,5,3,7之类的值,就要差一些。

2025-02-25 11:47:54 352

原创 机器视觉匹配中使用bpnet匹配,四

而x=1>0,leaky relu=1,当这两个值进入sigmod(x),x最好工作在非线性区域,x在(-10,10)中最好,如果像leaky relu=-10^7这样的值经常进入sigmod,那么sigmod就没有意义了,可能就是他们说的,饱和区域工作!(忽然想起,二极管常工作在饱和区域,很形象)1,我们不能进步,就退步,即站在自己肩上不能前进,那么我就不动,bpnet+异步多线程并发不是很好,很稳定,很快,很准确嘛!2,我们要转人工智能,这里打的败仗,是人工智能学习中最好的经验,总结,就是前进!

2025-02-25 11:11:47 256

原创 机器视觉匹配中使用bpnet匹配,三

做机机器视觉工程师编程好多年,最初学会的线程并发,好多年都不用,觉得应专注机器视觉的问题,让注意力不在编程调试上花时间,近期在思考gpu(显卡),多头注意力实际就是线程并发,一般我们个人编程和处理问题都是单线程,非并发的!今年任务算突破了,剩下就是修修补补,去年突破无海康相机sdk时,“精通“c#的我竟然看不懂别人的程序,里边用了很多的wait,现在看来,自己在编程新技术上,已站在被淘汰边缘,或许人生经常会站在这样的边缘而不觉气(察)!​我们的后代,已长大,这个时代是他们的!​实际就是,感兴趣区域的并发。

2025-02-25 09:47:34 138

原创 机器视觉匹配中使用bpnet匹配,二

然而,当你到达彼岸时,以上犯的错,皆有功德,当你想通大神的想法,并实现时,你发现你犯的错,他们都犯过,而且你很遗憾,你没有深究下去,他们都是从错误中领悟的!+-45度匹配我使用3度间隔,2度间隔,1度间隔,最后用2度间隔,1度间隔太慢,3度准确度下降,而我轮廓形状匹配粗匹配中5度间隔在这里作废!使用relu和relu的斜率代替f(x)=1/(1+exp(-x))及f(x)的导数f(x)(1-f(x))确实是一个好办法。hI固定roi[j] += xxxroi[i] * w1固定roi[i, j];

2025-02-24 18:24:34 843

原创 机器视觉匹配中使用bpnet匹配

bpnet也就是这样,在手写数字识别上,还行,训练平均能够97分,一旦放入机器视觉匹配,1024*768的图像,+-45度旋转识别,慢的头大,看看我做实验的数据:(毫秒:小于40毫秒)有指数运算和阶乘,还不如上面!得分99.3,角度-19,匹配位置(464,260),45秒。第一原则,笨方法,给自己一条路,先能跑,正常稳定,准确的跑!得分99.3,角度-9,匹配位置(548,180),56秒。得分99.3,角度1,匹配位置(504,164),47秒。得分55,角度-19,匹配位置(464,260),毫秒;

2025-02-24 16:44:10 230

原创 杨振宁大学物理视频中黄色的字去掉(机器视觉版本,结束)

tempNode = node.SelectSingleNode("最长线梯度最大X");tempNode = node.SelectSingleNode("最长线梯度最大Y");tempNode = node.SelectSingleNode("中心灰度");最长线梯度最大x = Convert.ToInt32(str);最长线梯度最大y = Convert.ToInt32(str);if (门槛 == 120)

2024-12-15 08:46:52 722

原创 杨振宁大学物理视频中黄色的字去掉(机器视觉版本,六)

/轮廓保存,参数保存以上3个,剩下五个都指定了,w=120,h=60,centrex=60,centrey=30,轮廓点数知道,mch长度除以2。//染色算法黑中白(ref llpgaos12896roi, ref roiImage, ww, hh);if (jiluiitidupos == -1) { MessageBox.Show("序号为负值");//xe = xmlDoc.CreateElement("最长线梯度最大灰度");xe = xmlDoc.CreateElement("中心灰度");

2024-12-14 15:29:29 937

原创 杨振宁大学物理视频中黄色的字去掉(机器视觉版本,五)

我以前很少进行640*480相机匹配处理(大家在机器视觉中选30万的相机几乎没有),这一次也算突破,把megauging的最初0度版本形状匹配移植过来,也算0度版本形状匹配总结。我们的机器视觉,黑白相机用的多,一直没有思考,颜色匹配的突破,其实这是机器视觉一个重要领域,只是你没注意!这相当于30万的相机,如果3000万的相机,显然需要900ms,接近1s,真是太慢了!是司马光写资治通鉴提醒了我,然后发现,写日记的大家还有,王安石,苏轼,几十年如一日的写日记!一点也不晚,抓住机会,十年光阴,一晃而过!

2024-12-14 13:18:42 420

原创 杨振宁大学物理视频中黄色的字去掉(稳定简洁版本,四)

if (j < 找最小) { 找最小 = j;存黄色始末[0].X = 找最小;存黄色始末[1].X = 找最大;for (int j = 黄色中心.Y - 58;j++)//58+60=118=色带矩形高。黄色中心 = new Point(junzhix / 计数, junzhiy / 计数);textBox15.Text = 黄色中心.X.ToString();textBox16.Text = 黄色中心.Y.ToString();Point[] 存黄色始末 = new Point[2];

2024-12-14 09:45:21 885

原创 杨振宁大学物理视频中黄色的字,c#写程序去掉(原版改进,三)

3,利用a竖线和b竖线的起点,各往后退3个像素,往上做垂线,找到色带水平线cd,会找到c.y和d.y值,如果相差小于2个像素,我们就认为色带水平线确认了。for (int xy = 存黄色始末[1].Y - 5;for (int xy = 存黄色始末[0].Y - 5;for (int xy = 向上穿越点[1].Y;for (int xy = 向上穿越点[0].Y;int n = xy * 640 + 向上穿越点[0].X;i < 右侧穿越点[0].X;for (int j = 存黄色始末[0].X;

2024-12-13 12:32:47 915

原创 杨振宁大学物理视频中黄色的字,c#写程序去掉(原版改进,二)

经过一晚的思考,发现一个很好的方法:就是平均灰度色差是50(观察后经验值,我们不必花功夫去寻找了),所以,我们的程序仍然保持上面稳定和最小,只要引入这个常量50就好,把矩形色带填充即可!所以分开问题,分清主要矛盾(去黄色字是主要矛盾,其他是次要的),针对性处理,编程中也很重要!而前面混在一起,看不清稳定的部分成绩,而且异常时,成绩为零,容易打击自信心,很是气馁!打印图像,除去黄色字,到这里,其实就完成了。图像一直稳定如下,可以,但是,并非如此!而,人总是不甘心,想去试试,挑战一下,失败了,也没关系!

2024-12-13 08:43:21 1136

原创 杨振宁大学物理视频中黄色的字,c#写程序去掉(原始代码,一)

void RGB2HSLTest(int r, int g, int b, ref float H)//黄色版本202408301435,只求hue色相。{//这个也不能解决白色问题//虽然找到一个bug//20220927这个版本比0801版本好。//else//认为变化不大,同色,即灰度图//20220801。3,好,抠出图像上200到209这十条线,每条线的平均值都有了,保存在 平均灰度[a]。

2024-12-12 16:50:29 864

原创 杨振宁大学物理视频中黄色的字,c#写程序去掉

5,我们观察,发现在640*480这个截取的图像中,覆盖带y=205左右,x显然不是0,因为黑边很宽,大概在100左右,我们假定就是100,好这个矩形带的(top,left)有了,要消掉他,还得知道(botom,right),为了方便我们right取640.经过测试,发现bottom也是一个定值。即黄色的字框入roi,学习,然后实时匹配这些字,即使黄色的字位置会变化,矩形框带也跟着变也不影响!4,处理黄色字,首先黄色字外有一个覆盖带(显然是个矩形带),看上去,也应该消掉。我的方法是笨方法,也比较刻板。

2024-12-09 14:26:11 1894 1

原创 用ai做机器视觉的事情

4,roicnn已经表现出稳定,准确(位置还行),但速度不行,要3s,这个roicnn要遍历整个1024*768图像,如果训练的roicnn大小32*32,那么匹配遍历大于900*700。显然,我们在工业现场机器视觉粗匹配也是这样,但我们的细匹配还可以执行,甚至感知一度内的偏差,所以这就是工业现场视觉匹配的稳定,准确,显然cnn还不行,但似乎可以代替粗匹配,然后我们可以想其他办法改进。2,指定d【0】=1,其他九个=0,但训练迭代的初始几次,出现类似d【4】=5,这类奇怪的问题,已经搞清楚,ok。

2024-12-08 18:37:28 313

原创 透镜成倒立缩小的实像(一个震惊的发现)

另一个问题,为什么两个高斯函数相加还是高斯函数?即透镜的1面加上透镜的2面还是高斯函数,缩小的实像,我们认为是线性尺度变换的自己。(就像比例尺,相似三角形)如果高斯函数求导成像是代数的,那么,几何和代数合为一体了。函数f(x)'中(-1),表达的就是倒立,符号相反。透镜看作两个高斯几何形状的合并,即是()这个样子。)*f(x)表达的就是,缩小的实像。如果光线穿过透镜()成像,是几何的。以上是一种对比猜想,估计是对的。倒立,我们认为符号相反。函数f(x)'中x/(高斯函数有这样的性质。

2024-12-08 16:36:10 265

原创 微积分还是有用处的(微分电路)

想挑战一下,验证自己的微积分有没有进展,大学时,没有学大学物理,所有的物理都停留在高中无微积分阶段。我们看ir=uo/R,并联电路uo=uc=ur。,L是电感,i是电感电流。,因为R是常量,可以放到微分符号外头。另外:流过电感的电流:=ir+ic。,C是电容,u是电容上的电压。电路中,e=Uo+UL,对吧!证毕,看来大学微积分捡回来了!,这个地方是第一妙处!*C,这个是第二妙处。

2024-12-08 12:33:34 403

原创 时空的变换(勾股定理与土地丈量)

世界上为什么有发现勾股定理这么无聊的人?(r'*r'-cc*t't')*(cc-uu)=rr*(cc-uu)+cc*tt(uu-cc),注意这个”+“号,当时我就错这里了。时空中的表达式是这样的:r*r-cc*t*t=r'*r'-cc*t'*t',这个是洛伦兹发现的,满足这个变换的自然叫洛伦兹变换。静止的(r,t)和运动的(r',t'),好我们开始证明:r*r-cc*t*t=r'*r'-cc*t'*t',高中数学中,坐标(x,y)旋转a,到达(x',y'),证明:x*x+y*y=x'*x'+y'*y'

2024-12-08 09:33:22 360

原创 关于光速的猜想

光速实际也可能是爱因斯坦制造出来的一个量,就像质量(重力=mg,有这个关系在,m起的名字后来就演变成了质量)是牛顿造出的一个量,一个常量,刚开始都叫c,只是习以为常后起了个名字罢了!8,如此,二者确确实实画上了等号,然后光速在介质中变化,与引力中的变化不一样,一个是c变小,一个是c这个矢量直线发生了弯曲!如果我们确认猜出一件事情的结果,是迷信的不科学的,为什么百年来,无人推倒这个理论,而且无人验证伪,他还屡屡获胜?爱因斯坦说,时空是非线性,非连续的,如果你有这样的理论,比如f=ma,一定会被修正。

2024-12-07 13:59:35 381

原创 学习曾国藩

6,设立目标(a,写一个自己的机器视觉软件megauging,4,写日记(贵有恒,想起写日记大家王安石和司马光)2,复盘(编程中debug,该进编程中的笨办法)5,尚拙(编程中首先实现直觉想到的笨办法)b,入门ai,可以辅助megauging。网上看到推崇曾国藩的几点:感觉有共鸣。耕廋田(ai大行其道,坚持机器视觉)1,寸进(慢慢来,积小胜为大胜)c,40岁后,一定学会中医)3,早起(勤字功夫)

2024-12-04 19:23:38 95

原创 海康gige工业相机无驱动取像突破(c#实现,最后更新,你也可以移植到linux下去用)

然后写了一个通用版,害怕有问题,又买了600万的相机,测试果然不及格,花了九牛二虎之力找到一个小问题,就这个 if (changdu > 1000);需要说的是,1,通用版无驱动gige相机突破都是针对海康相机,估计大华可以,都是黑白相机gm(gige mono8)。曾经想,能不能不用国外机器视觉软件visionpro,ni,evisoion,halcon,自己写一个呢?5,程序可以改变曝光,但是有大于55000值时,反而变暗了,不知道是什么鬼!3,海康彩色相机也不行,2000万的测试了,失败!

2024-12-03 16:15:17 409 1

原创 megauging中增加角点匹配,真是如虎添翼

我们限制了最低得分0.4,现在得分0.64,13度,接近60毫秒,这是非角点版本。只是总觉得优化的不够好,最后在megauging中删除,现在又拿回来了,所以后面还得好好优化!可以看出来,我们的匹配又进了一步,形状匹配辅以角点比纯粹的形状匹配效果好!下面是角点版本:结果62分,角度11,52毫秒,还是利用三个角点。先看无角点的结果:得分44.5分,48毫秒完成,这是80万的图像。当我们的canny线条辅以角点,效果翻倍,稳妥的70分以上!有角点的匹配结果:得分100,耗时47毫秒,利用了三个角点。

2024-10-24 10:58:29 244

原创 cnn抠图匹配能否代替形状匹配?

上十次的实验,发现最优有错误的情况,怎么办,办法在找到的坐标位置上,因为,坐标相似会有好几个,我们在这其中选,如果最优成绩,而坐标不在这相似坐标中,我们就否定他,看来,有得分,有位置提供了更多方便!以上移植到megauging上的测试,没事可以玩一玩,你仔细观察找到结果需要3.74秒,我们机器视觉中哪里能等这么长时间,况且我们测试的是80万图像,如果大于80万,肯定更慢!我们昨天工作,做了cnn整图匹配,今天我们像形状匹配一样抠图cnn匹配,很期待!以后我们可以优化试试,万事开头难,我们已经迈进来了!

2024-10-24 08:01:28 271

原创 cnn做整图匹配

其实,给我启发想到这两个方法的是前期学习简单bpnet推导时的收获,我们现在的情况退化后,就是,输入不变总是一副图像,迭代(训练)很多次后,输出只有一个结果的简单bpnet(这个结果可以判定是或不是)。我们换一幅图像,得分降到0.87,所以,我们可以用这个设置筛选,训练后的图像参数来预测下一幅图像,是不是我们想要的结果,这样我们就达到了目的。说明你不动,得分就高,移动图像改变,匹配度降低很快!我的另外一个认识,就是,cnn就是bpnet,一定要有这样的想法,这个很关键!我们先看一看移植后程序的效果!

2024-10-23 17:55:41 276

原创 cnn突破九(我们的五层卷积核bpnet网络就是lenet-1)

/图像28*28是ling,则标签是0,d[]={1,0,0,0,0,0,0,0,0,0};

2024-10-09 08:12:18 680

原创 cnn突破八(两层卷积核bpnet网络扩展)

hicnn【0】来自temphicnn【0】【1】【10】【11】,一一对应池化中的位置(0,0)(0,1)(1,0)(1,1),假定(1,0)最大,即10=(第二行=1,第一列=0),即temphicnn【10=1*10+0】最大,对应x【14=1*14+0】28*28-》12*12-》4*4-》80-》10,显然这是一个5层网络,有扩展了,更复杂了,但我们要简单化:28*28处的卷积核我们记着为:w784【】,那么就有。hicnn是5*5的,temphicnn是10*10的,x是14*14的。

2024-10-08 19:31:58 655

原创 cnn突破七(四层bpnet网络公式与卷积核bpnet公式相关)

这里要注意的是,我们要记录下这25个最大值图像,在10*10图像中的位置,以及在14*14图像中开始卷积的位置,我找到一个公式:如果在25个最大值图像中,i=3;j=4,池化时记录最大位置在(1,0)假定我们给5*5卷积核起名w1cnn,图像第一像素和hi的第一个对应w1cnn【0】,那么5*5卷积核走到第二个像素又用到了w1cnn【0】,w1cnn应该有25个,即w1cnn【0-24】14*14(w1cnn【25】)-》10*10(2*2池化,取最大)-》5*5-》80-》10,期望d【10】

2024-10-06 18:36:13 546

原创 cnn突破六(四层bpnet网络公式)

HO,H2I之间用w12【128,60】X,HI之间用w1【196,128】H2O,YI之间用w2【60,10】

2024-10-06 17:10:50 201

原创 cnn突破五(三层bpnet网络公式)

X【196】-》HI【80】/HO【80】-》YI【10】/YO【10】,期望是d【10】X,HI之间用w1【196,80】HO,YI之间用w2【80,10】

2024-10-06 08:43:03 295

原创 cnn突破四(生成卷积核与固定核对比)

cnn突破三中生成四个卷积核,训练6万次,91分,再训练6万次,95分,不是很满意,但又找不到问题点,所以就想了个办法,使用三个固定核,加上三层bpnet神经网络,看看效果,还别说,固定核效果不错,训练6万次,逼近96分,而且不到十秒就训练完成了,而机器自动生成卷积核要40多秒!

2024-10-05 18:36:13 1078

原创 cnn突破三

所以人能做到的高斯核,机器在不断改进和进化中,一定会生成,更震惊的,他可能生成的卷积核,你都没见过,但他确实效果好,所以,他得到的结果,还有可能超过你!我们训练学习了12万次,达到95分,用鼠标画了个2,识别出来了,得分99,不错,说明四个卷积核有了,我们把mnist原图的2,用学到的卷积核处理后的四个图像也有了,太神奇!所有的启发来自,28*28变14*14的那个常用的高斯卷积核,我们前面的网络实际是:28*28->3*3卷积后,隔行隔列抠图(相当于池化)->14*14->128->10。

2024-10-05 14:44:45 1057

机器之眼(未名之光megauging)

2025第二次稳定版本更新

2025-01-23

机器视觉+gige工业相机新突破+megauging稳定版本20250123更新

工业gige相机无驱动无sdk工作 形状匹配稳定工作 全部集成到机器之眼(未名之光megauing)中

2025-01-20

工业机器视觉软件未名之光megauging2025年第一次稳定更新

hello,机器之眼

2025-01-18

工业j机器视觉设计和实现megauging(未名之光)最新版本

工业j机器视觉设计和实现megauging(未名之光)最新版本

2024-08-09

工业机器视觉设计实现megauging(向光有光),轻量级的visionpro

基于形状匹配,增加了可选项(全搜索),从前都是找到最优一个就搜索结束了

2024-01-03

工业机器视觉设计和实现megauging(向光有光),轻量级visionpro

工业机器视觉设计和实现megauging(向光有光),轻量级visionpro

2023-12-05

megauging(向光有光)机器视觉设计实现

抓线工具保持一致,都有了噪点抑制功能

2023-12-03

工业机器视觉设计实现 megauging(向光有光)

工具组里的第一个工具combox中选中的图像没变化,以及选2和4会崩溃 已经找到原因,已经更正,不再崩溃,图像选中后也会有相应变化

2023-12-02

工业机器视觉设计和开发测试版本,轻量级的visionpro

使用说明书请看csdn的更新

2023-12-02

基于形状轮廓的模板匹配

展示

2022-11-17

GaugMe.sln_20140115_215630.cab

此配合博客机器视觉入门(一)讲义学习之用,以前vs2005下vc++调试通过,最近vs2013下vc++调试通过

2012-08-12

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除