111qqz的小窝

老年咸鱼冲锋!

caffe 源码阅读笔记

blob layer net 激活函数 卷积 reshape slice loss function reduce eltwise argmax

caffe 源码学习笔记(11) argmax layer

背景 似乎没什么背景,继续看caffe代码 argmax的作用是返回一个blob某个维度或者batch_size之后的维度的top_k的inde

caffe 源码学习笔记(10) eltwise layer

背景 这个layer和reduce layer有一些相似,就干脆一起看了. 作用是输入至少两个blob,然后对每个blob中的元素所一些运算,最后

caffe 源码学习笔记(9) reduce layer

背景 其实没什么背景,继续啃caffe代码而已2333 reduce layer其实就是做reduce操作,把一个任意shape的blob通过某种运算变成一

caffe 源码学习笔记(8) loss function

背景 虽然不太care 训练的过程,但是由于容易看懂的layer都看得差不多了 所以打算看一下这些loss function. Euclidean Loss (L2 loss) 一般用于“real-value

caffe 源码学习笔记(7) slice layer

背景 ocr组那边有个shuffle net 的网络,里面有个pytorch op叫chunk,转成的onnx对应的op是 split 作用是: Split a tensor into a list of tensors, along the

caffe 源码学习笔记(6) reshape layer

背景 最近在魔改 tensorRT 的caffe parser 之前caffe模型转到trt模型时,有一个修改是需要将reshape layer的param末尾补1,比较繁琐,

caffe 源码学习笔记(5) 卷积

caffe中卷积运算的实现 暴力实现的卷积大概是这样子的 for w in 1..W for h in 1..H for x in 1..K for y in 1..K for m in 1..M for d in 1..D output(w, h, m) += input(w+x, h+y, d) * filter(m, x, y, d) end end end end end end 这

caffe 源码学习笔记(4) 激活函数

在看过caffe代码的三个核心部分,blob,layer,net之后,陷入了不知道以什么顺序继续看的困境。 blob,layer,net只是三

caffe 源码学习笔记(3) Net

Net 基本介绍 网络通过组成和自微分共同定义一个函数及其梯度。 网络是一些Layer组成的DAG,也就是有向无环图,在caffe中通常由protot

caffe 源码学习笔记(2) Layer

layer 整体介绍 layer是模型计算的基本单元 类似于pytorch或者其他深度学习框架的op layer中的数据流向为,输入若干个blob,称之为&

caffe 源码学习笔记(1) Blob

迫于生计,开始看caffe代码。 会侧重于分析inference部分。 blob 整体介绍 blob的含义及目的 blob在逻辑上表示的就是所谓的tenso

Eigen: C++开源矩阵学习笔记

接触Eigen的原因是最近在看caffe/caffe2源码,caffe2中使用了Eigen库. Eigen 是一个基于C++模板的线性代数库,直接将库下