摘要: 一、概念 dilate(膨胀): 取所操作区域的最大值代替中心像素值(锚点),算子的移动与卷积操作相同。 erode(腐蚀): 取所操作区域的最小值代替中心像素值(锚点)。 形态学梯度:morphology gradient,膨胀减去腐蚀。 开操作:先腐蚀再膨胀 闭操作:先膨胀再腐蚀 顶帽:toph 阅读全文
posted @ 2018-11-16 23:01 zarjen 阅读(174) 评论(0) 推荐(0) 编辑
摘要: 说明: 在破解软件时,需要修改系统的hosts文件,但有的系统该文件所在的文件夹不可见,即使设置成隐藏可见, 还是不可见该文件。 遇到该种情况,可以通过CMD命令符打开hosts文件进行修改。 在a56爆大奖在线娱乐个人使用Idea软件破解时、sublime软件破解时,finalshell修改主机映射时,均遇到该问题 阅读全文
posted @ 2018-11-16 20:07 zarjen 阅读(696) 评论(0) 推荐(0) 编辑
摘要: 深度学习框架Caffe: 神奇且强大的Caffe: 在GitHub上有一个小社区:Model Zoo Caffe官网: 可以通过Caffe官网的实例进行Caffe学习的快速入门。 阅读全文
posted @ 2018-11-09 13:52 zarjen 阅读(306) 评论(0) 推荐(0) 编辑
摘要: Data Augmentation 水平翻转(horizontal flips),镜像操作,是数据增强的常用操作; 随机裁剪(实际要检测的部分可能是被遮蔽的、或者光线强度不同、姿势不同等,a56爆大奖在线娱乐训练时采用裁剪某个大小进行训练) 随机大小(大小变换,图像进行放大和缩小,不同大小的也要做随机的裁剪)。 其 阅读全文
posted @ 2018-11-09 11:09 zarjen 阅读(685) 评论(0) 推荐(0) 编辑
摘要: location 对输入图像定位,找到盒子坐标(x,y,w,h);Clssificaion and Location的最后一层是的特征做两件事,一个是分类,一个是定位。 训练时使用已有的模型,也就是最后一层全联接之前所有的参数都用已有模型的,然后在这个基础上进行微调(fine tune),使其向着想 阅读全文
posted @ 2018-11-08 22:13 zarjen 阅读(2721) 评论(0) 推荐(0) 编辑
摘要: 一、递归神经网络RNN 实际属于输入之间可能是存在联系的,a56爆大奖在线娱乐在多次输入x0、x1........中,每次的中间信息A(也称为机器单元)都保存下来传给下次输入的中间信息A,每次输入的计算结果h0、h1......不一定是目标结果可以不使用,只有最终的ht是想要的预测结果。 递归神经网络适合自然语言处 阅读全文
posted @ 2018-11-07 23:07 zarjen 阅读(1108) 评论(0) 推荐(0) 编辑
摘要: 一、下载VS2017社区版 该版本可免费使用 二、OpenCV3.4.1下载及安装 1、下载地址:https://i.cnblogs.com/EditPosts.aspx?opt=1,Download下选择“win pack”版; 2、将下载的opencv-3.4.1-vc14_vc15.exe右键 阅读全文
posted @ 2018-11-06 19:28 zarjen 阅读(1131) 评论(2) 推荐(0) 编辑
摘要: 卷积层和池化层 与神经网络相比,卷积神经网络多了卷积层和池化层,基本顺序为data-conv-ReLU-Pooling-FC(全联接层)-s 一、卷积神经网络的权重共享 经典神经网络:全连接,即a56爆大奖在线娱乐神经元都与每一个数据有对应的参数; 卷积神经网络是权重共享的,就是得到的特征图的a56爆大奖在线娱乐像素点都是原图的一 阅读全文
posted @ 2018-11-05 23:11 zarjen 阅读(261) 评论(0) 推荐(0) 编辑
摘要: 一、激活函数 线性操作分类能力不强,而非线性表达可以分开数据。 神经网络中隐层就是增加了激活函数,使得神经网络表达出更强大的效果。 Sigmoid可作为激活函数,但容易引起梯度消失(导数趋近于0)。 max(0,x)就是ReLU激活函数,可以解决梯度消失问题,导数简单,已经常用的神经网络激活函数。 阅读全文
posted @ 2018-11-02 11:29 zarjen 阅读(431) 评论(0) 推荐(0) 编辑
摘要: 一、前向传播:通过一组w参数得到一组得分值f(x),再做e^x再归一化,再到Loss值。 Bachsize是一次取2的整数倍数(32,64,128)张图片做一次迭代 学习率:过大会来回震荡,找不到最小值;太小,迭代次数过大,效率低。 二、反向传播 由Loss值一步一步往回传,更新权重参数。 先算z对 阅读全文
posted @ 2018-10-31 19:35 zarjen 阅读(548) 评论(0) 推荐(0) 编辑