111qqz的小窝

老年咸鱼冲锋!

caffe 源码阅读笔记

blob layer net 激活函数 卷积 reshape slice loss function reduce eltwise argmax

2020 to do List

就..终于再次出现了to do list. 原因是之前一直不知道如何置顶文章…. 竟然一下子就2020年了… 学习模型量化 学习onn

一次avx2在gcc上core dump的排查经历

背景 起因是同事在实现int4的功能,结果流水线有一条死活过不了(gcc版本为4.8.5),一直core dump 经过初步排查,找出了如下最小可以复现

[施工完成] CSAPP shell lab

背景 动手实现一个简单的Lab,主要依赖于课本第八章的内容 感觉主要是05比较难。。发现执行的顺序不太对。。原因是SIGCHLD里面waitp

(CSE 599W)Reverse Mode Autodiff

背景 怎么算微分。。通常有三种方法。 Symbolic Differentiation Numerical Differentiation Automatic Differentiation (auto diff) auto diff中两种主流的方式分别是forward-mode和reverse-mode 由于fo

[施工完成] CSAPP Malloc lab

背景 动手实现一个memory allocator,体会core到爆炸的乐趣(不是 trace file 结构分析 trace file 是对allocator的输入的描述,可以从m

【推荐系统】Toward the Next Generation of Recommender Systems: A Survey of the State-of-the-Art and Possible Extensions

迫于生计,从今天开始学习推荐系统相关的内容,今天先来读一篇推荐系统领域的综述 Toward the next generation of recommender systems: a survey of the state-of-the-art and possible extensions 由于目前的工作其实是偏向推荐系统的

使用github actions来部署 github pages

目前我的博客是部署在github pages上,源码是一个repo,渲染出来的静态页面是一个repo. 更新的时候是把后者作为前者的submod

2020年终总结

本来不知道写什么所以不打算写了,不过后来觉得可以把今年做的一些重大的决定写出来,把当时的分析和想法记录下来。这样若干年后再回看,就能找到,是

[施工完成] CSAPP Cachelab

背景 CSAPP:3e 的配套实验 地址 分成了两个部分,第一部分是模拟一下cache的miss,hit,evict的规则。第二部分是优化一个矩阵的转置,使得mi

【施工中】torch2trt 学习笔记

前言 偶然发现了 torch2trt 的模型转换方案,思路是直接将pytorch op映射到TensorRT的python api. 在pytorch进行每个op forwar

Jetson Nano踩坑记录

写在前面 主要是需要在jetson nano做模型转换,来记录下踩的坑 目前有两条路径,一条是我们现有的转换路径,也就是pytorch->o

k8s nodes is forbidden user cannot list resource nodes in api group at the cluster scope

继续将k8s用于模型转换和部署的自动化流程…然后发现之前安装k8s的文档不work了.. 时间是2020年5月7日,当前最新的k

caffe 源码学习笔记(11) argmax layer

背景 似乎没什么背景,继续看caffe代码 argmax的作用是返回一个blob某个维度或者batch_size之后的维度的top_k的inde

caffe 源码学习笔记(10) eltwise layer

背景 这个layer和reduce layer有一些相似,就干脆一起看了. 作用是输入至少两个blob,然后对每个blob中的元素所一些运算,最后

caffe 源码学习笔记(9) reduce layer

背景 其实没什么背景,继续啃caffe代码而已2333 reduce layer其实就是做reduce操作,把一个任意shape的blob通过某种运算变成一

Focal Loss for Dense Object Detection(RetinaNet) 学习笔记

先写个简略版的笔记..看之后的情况要不要读得更精细一点.. 背景 two stage的检测比one stage的检测效果好,原因是啥? 作者认为是正负样本

caffe 源码学习笔记(8) loss function

背景 虽然不太care 训练的过程,但是由于容易看懂的layer都看得差不多了 所以打算看一下这些loss function. Euclidean Loss (L2 loss) 一般用于“real-value

caffe 源码学习笔记(7) slice layer

背景 ocr组那边有个shuffle net 的网络,里面有个pytorch op叫chunk,转成的onnx对应的op是 split 作用是: Split a tensor into a list of tensors, along the

thinkpad t430 manjaro系统安装nvidia驱动

前几天装驱动把笔记本搞崩溃了..重新装了kde桌面环境的manjaro 首先根据 Configure NVIDIA (non-free) settings and load them on Startup 直接装驱动。 装之后mhwd -li命令会显示新