先写个简略版的笔记..看之后的情况要不要读得更精细一点..
背景
two stage的检测比one stage的检测效果好,原因是啥?
作者认为是正负样本不平衡导致的. two stage的方法在proposal 的时候干掉了大部分负样本,所以效果好.
阅读更多背景
虽然不太care 训练的过程,
但是由于容易看懂的layer都看得差不多了所以打算看一下这些loss function.Euclidean Loss (L2 loss)
一般用于“real-valued regression tasks” 。 比如之前的项目上用的人脸年龄模型,就是用了这个Loss
阅读更多前几天装驱动把笔记本搞崩溃了..重新装了kde桌面环境的manjaro
首先根据 Configure NVIDIA (non-free) settings and load them on Startup
直接装驱动。 装之后mhwd -li命令会显示新安装的驱动,带有nvidia字样的。
阅读更多背景
最近在魔改 tensorRT 的caffe parser 之前caffe模型转到trt模型时,有一个修改是需要将reshape layer的param末尾补1,比较繁琐,于是看了下caffe的reshape layer的实现.
阅读更多caffe中卷积运算的实现
暴力实现的卷积大概是这样子的
1 2for w in 1..W 3 for h in 1..H 4 for x in 1..K 5 for y in 1..K 6 for m in 1..M 7 for d in 1..D 8 output(w, h, m) += input(w+x, h+y, d) * filter(m, x, y, d) 9 end 10 end 11 end 12 end 13 end 14end
这种方式的效率显然很低,不意外地,caffe中 …
阅读更多背景是要把某个caffe model,转换成tensorrt的INT8 模型。 然后遇到如下报错:
1 2E0403 08:54:35.951987 5704 engine.h:62] engine.cpp (572) - Cuda Error in commonEmitTensor: 1 (invalid argument) 3E0403 08:54:35.952157 5704 engine.h:62] Failure while trying to emit debug blob. 4engine.cpp (572) - Cuda Error in commonEmitTensor: 1 (invalid …
阅读更多在看过caffe代码的三个核心部分,blob,layer,net之后,陷入了不知道以什么顺序继续看的困境。
blob,layer,net只是三个最基本的概念,关键还是在于各个layer. 但是layer这么多,要怎么看呢? 想了一下决定把相同作用的layer放在一起分析。 今天打算先分析一下激活函数。
阅读更多