111qqz的小窝
Home
ACM-ICPC
深度学习 icon
caffe源码阅读笔记 推荐系统 计算机视觉
公开课 icon
6.828 CS341 CSAPP
工程 icon
cpp cuda levelDB源码笔记 linux 前端 图像处理 容器
随笔杂谈
面试
About
🌐
中文 English
  • 反向传播学习笔记

    2017-09-05 · 1 min read · 反向传播

    先说下自己目前很笼统的理解:

    反向传播是用来快速计算梯度的一种方法;

    过程大概是把计算过程用计算图表示,这样每一个中间步骤都有一个节点,每一个local gradient都会比较容易计算;


    阅读更多
  • MPI 学习笔记

    2017-08-31 · 2 min read · High performance computing MPI Supercomputing 并行计算

    参考资料:

    消息传递接口(MPI)维基百科

    MPI_TUTORIAL

    MPI 在大规模机器学习领域的前景如何?

    因为要和平台组对接工作以及写我们自己的BN同步…所以来了解一下MPI相关…感谢平台组@gyz 菊苣提供指导。


    阅读更多
  • tensorflow input pipline 学习笔记

    2017-08-24 · 5 min read · pipline tensorflow

    参考资料:

    tf_doc_Reading data

    TENSORFLOW INPUT PIPELINE EXAMPLE

    tensorflow:理解tensorflow中的输入管道

    第二个参考资料是第一个的翻译版本,翻译的水平一般,建议看原文,不是很长。

    下面是我挑了文章中重点的部分+自己的理解。

    TL;DR;

    一个适用于不是很大的数据集的pipline input 的例子。


    阅读更多
  • tensorflow 合并模型

    2017-08-21 · 4 min read · tensorflow

    在这里存个备份,还有些问题没有解决。

    raise ValueError(“GraphDef cannot be larger than 2GB.”)

    记录一些思路好了。现在是没有生成.meta文件,爆掉应该是因为所有的变量都加载到了默认图里。

    也就是说我处理完checkpoint 0 之后开始处理checkpoint1,但是checkpoint0的那些变量还是存在的…所以越来越多?


    阅读更多
  • tensorflow checkpoint 学习笔记

    2017-08-21 · 2 min read · tensorflow

    参考资料:

    What is the TensorFlow checkpoint meta file?

    TensorFlow: Restoring variables from from multiple checkpoints

    合并模型的时候发现.meta一直在累加,而其他数据文件没有改变。因此来探究一下checkpoint的几个文件的含义。


    阅读更多
  • tensorflow variable 学习笔记

    2017-08-20 · 7 min read · checkpoint tensorflow

    参考资料:

    programmers_guide/variables

    tf/Variable

    之前感觉对tensorflow 的variable的理解不是很深刻…跑个模型啥的倒不会有什么问题,但是涉及分布式,模型并行之类的,感觉有些地方还是要理解得仔细一点比较好。


    阅读更多
  • 20170819近况

    2017-08-20 · 2 min read · 算法竞赛

    一转眼…暑假就要结束了…

    秋招似乎也可以告一段落了…

    投了蛮多的,但是昨天突然发现我用gmail邮箱发邮件有概率发不出去。。所以我也不知道到底哪些简历根本没有发出去orz


    阅读更多
  • tensorflow Session 学习笔记

    2017-08-20 · 1 min read · tensorflow

    tensorflow-session官方文档

    说下我自己的理解:

    session中文一般叫会话,可以理解成op执行时候需要的一层虚拟化的封装。

    op必须在session中才能执行。

    tensor也是在tensor中才可以存在(tf.variable和tensor几乎是一回事,只是tf.variable的会话不要求session,也可以理解成tf.variable在session中就成了tensor.


    阅读更多
  • leetcode 146. LRU Cache(list+unordered_map)

    2017-08-18 · 1 min read · LRU

    请实现最近最少使用缓存(Least Recently Used (LRU) cache)类,需要支持 get, set,操作。 get 操作,给出 key,获取到相应的 value (value 为非负数),如果不存在返回-1, 如果存在此 key 算作被访问过。 set 操作,设置 key,如果 key 存在则覆盖之前的 value (此时相当于访问过一次)。 如果 key 不存在,需要进行插入操作,如果此时已经 key 的数量已经到达 capacity, 这样需要淘汰掉最近最少使用(也就是上次被使用的时间距离现在最久的)的那 一项。


    阅读更多
  • python只获取当前目录下的文件夹及文件名

    2017-08-16 · 1 min read · python

    list = os.listdir(rootdir)#列出目录下的所有文件和目录

    1for line in list:
    2    filepath = os.path.join(rootdir,line)
    3    if os.path.isdir(filepath):#如果filepath是目录
    4        print "dir:" + filepath
    5    else:
    6        print "file:" + filepath
    

    如果需要遍历文件夹下的所以文件,可以使用os.walk()方法。


    阅读更多
  • Distributed Tensorflow : Cannot assign a device for operation save

    2017-08-14 · 1 min read · tensorflow

    是在使用分布式tensorflow遇到的一个错误

    报错如下:

    InvalidArgumentError (see above for traceback): Cannot assign a device for operation ‘save/Rest│| 2 GeForce GTX 1080 On | 0000:08:00.0 Off | N/A | oreV2_888’: Operation was explicitly assigned to /job:worker/task:0/device:CPU:0 but available │| 24% 39C P8 12W / 180W | 0MiB / …


    阅读更多
  • 面试相关

    2017-08-12 · 5 min read · 面试

    随便记录一下面试中遇到的问题:

    梯度下降和牛顿迭代的区别?为什么常用梯度下降?

    **牛顿法是二阶收敛,梯度下降是一阶收敛,所以牛顿法就更快**。如果更通俗地说的话,比如你想找一条最短的路径走到一个盆地的最底部,梯度下降法每次只从你当前所处位置选一个坡度最大的方向走一步,牛顿法在选择方向时,不仅会考虑坡度是否够大,还会考虑你走了一步之后,坡度是否会变得更大。所以,可以说牛顿法比梯度下降法看得更远一点,能更快地走到最底部。

    根据wiki上的解释,从几何上说,牛顿法就是用一个二次曲面去拟合你当前所处位置的局部曲面,而梯度下降法是用一个平面去拟合当前的局部曲面,通常情况下,二次曲面的拟合会比平面更好,所以牛顿法选择的下降路径会更符合真实的最 …


    阅读更多
  • 分布式 tensorflow 学习笔记(非最终版)

    2017-08-07 · 4 min read · tensorflow

    感觉资料不是很多,先收集资料好了。

    tf-distributed官网文档

    SO-between-graph和in-graph的区别

    inception.README.md

    SyncReplicasOptimizer

    SO_How does ps work in distribute Tensorflow?

    update:在多个nodes(机)上跑。。。tf默认是异步更新的。。。同步的话。。大概需要syncreplicasoptimizer?


    阅读更多
  • tensorflow Supervisor 学习笔记

    2017-08-04 · 2 min read · supervisor tensorflow

    update:supervisor的缺点是遇到问题只会抛异常,所以现在有一个better的管理工具,MonitoredSession

    master,chief worker,Supervisor 这几个概念有点搞不清(我最菜.jpg  因此来学习一下。


    阅读更多
  • k-means clustering 学习笔记

    2017-08-03 · 1 min read · k-means

    其实这算法巨简单。。。。让我想到了均分纸牌(noip200?

    还是大致说一下:

    对于有 features 但是 **没有 **labels 的数据,没办法用监督学习,但是可以使用非监督学习的聚类算法。


    阅读更多
  • TensorFlow Architecture 学习笔记(二)Adding a New Op

    2017-08-02 · 6 min read · tensorflow

    Adding a New Op

      * [目录](https://www.tensorflow.org/extend/adding_an_op#top_of_page)
      * [定义运算的接口](https://www.tensorflow.org/extend/adding_an_op#define_the_ops_interface)
      * [实现运算的核心部分(kernels)](https://www.tensorflow.org/extend/adding_an_op#implement_the_kernel_for_the_op)
    
        * [多线程cpu …


    阅读更多
  • 峰度(Kurtosis)和偏度(Skewness)

    2017-08-02 · 1 min read · 偏度 峰度

    昨天pinduoduo笔试遇到了,看心情蒙的2333,来学习一下

    ** 峰度(Kurtosis)和偏度(Skewness)**

    重点:正太分布的峰度和偏度都是0


    阅读更多
  • TensorFlow Architecture 学习笔记(一)

    2017-08-01 · 5 min read · tensorflow

    这篇文章不会涉及tensorflow的具体使用,而是专注于介绍tensorflow的架构,目的是让开发者能够对tensorflow现有框架进行自定义的扩展。


    阅读更多
  • Long Short-Term Memory (LSTM) 网络 学习笔记

    2017-07-31 · 2 min read · LSTM RNN

    参考资料:

    维基百科_长短期记忆(LSTM)

    Understanding LSTM Networks

    [译] 理解 LSTM 网络

    LSTM笔记

    翻译的比较一般,建议看原文….比如cell还是不要翻译成【细胞】比较好吧…让人以为和生物学的【细胞】有什么关系呢orz


    阅读更多
  • hdu 3078 Network (LCA)

    2017-07-30 · 2 min read · dfs LCA rmq

    题目链接

    题意:

    一棵树,给出点权,问一条树链上第k大的点权,点权可以动态修改。

    思路:

    暴力即可orz(数据是真的水啊。

    求路径上的点的时候需要用到LCA

      1/* ***********************************************
      2Author :111qqz
      3Created Time :2017年07月31日 星期一 01时12分54秒
      4File Name :3078.cpp
      5************************************************ */
      6
      7#include <cstdio>
      8#include …

    阅读更多
    • ««
    • «
    • 11
    • 12
    • 13
    • 14
    • 15
    • »
    • »»

111qqz

ex-ICPCer@HUST, engineer@Tencent
阅读更多

最新文章

  • caffe 源码阅读笔记
  • [施工中] cupy与torch的导入顺序不同对计算结果的影响
  • Build Onnxruntime With Bazel
  • 【施工中】gitlab ci docker executor指定用户执行
  • [施工中]caffe 源码学习笔记(11) softmax
  • 浅谈 Cpp Value Categories
  • redis学习笔记
  • [施工中] levelDB 代码阅读笔记 06 iterator
  • levelDB 代码阅读笔记 05 arena
  • levelDB 代码阅读笔记 04 filter

分类

ACM 913 其他 90 DEEP-LEARNING 68 面试 63 工程 59 随笔杂谈 59 计算机视觉 21 MOOC 15 优化 10 C++ 4

专栏

CAFFE源码阅读笔记 13 LEVELDB代码阅读笔记 9 CSAPP 7 CPP FAQ 1 MODERN CPP 1

标签

算法竞赛 242 DP 73 MATH 49 线段树 43 BRUTE FORCE 39 LEETCODE 39 GREEDY 36 DFS 34 NUMBER THEORY 27 CPP 26 模拟 24 博弈论 22 构造 22 BINARY SEARCH 21 母函数 21
所有标签
01背包9 2-SAT1 6.8284 ACM2 AC自动机3 ANACONDA1 ANCHOR BOX1 ANTI-SG2 ARCHLINUX2 ASYNC1 ATOM1 AVX1 AWK1 BAZEL1 BFS20 BINARY SEARCH21 BINARY SEARCH TREE1 BITSET优化4 BLOG1 BOOST1 BOOSTING1 BRUTE FORCE39 BSGS4 C++7 C++111 CACHE1 CAFFE13 CAFFE21 CALL STACK1 CALL_ONCE1 CDQ分治3 CHECKPOINT1 CHROMEBOOK1 CI1 CMAKE1 CODEFORCES3 CONDITION_VARIABLE1 CONVOLUTIONAL NEURAL NETWORK1 CPP26 CS231N1 CS3411 CSAPP7 CSE599W1 CUDA6 CUMULATIVE MATCH CHARACTERISTI1 CUPY1 D1 DFS34 DFS序1 DIJKSTRA2 DISCOURSE1 DL-SYS1 DOCKER6 DP73 EIGEN1 END-TO-END1 FACTORIAL NUMBER SYSTEM1 FASTER-RCNN3 FEATURE-PYRAMID-NETWORKS1 FEDORA1 FISH1 FLOYD10 FLOYD 判圈2 FPN1 FUTURE2 G++1 GALLIUMOS1 GCC1 GCD2 GDB1 GEDIT1 GEEKOS4 GITHUB1 GITLAB1 GOLANG1 GREEDY36 GRPC2 GRUB1 GRUNDY1 HALIDE2 HAPROXY1 HASH13 HASH MAP1 HASKELL1 HIGH PERFORMANCE COMPUTING1 HUGO2 IMAGE DENOISING1 INCEPTION1 JAVA5 JAVASCRIPT1 JDK1 JETSON NANO2 JSON1 K-MEANS2 K-SUM3 K8S1 KAFKA1 KD-TREE6 KM14 KMP19 KM算法1 LATENT FACTOR MODEL1 LATEX1 LAZY标记9 LCA10 LEETCODE39 LEVELDB10 LINEAR CLASSIFICATION1 LINUX9 LINUX MINT1 LIS5 LOG2 LRU2 LSTM1 LUA1 LUCAS定理3 MANACHER4 MANJARO3 MAP6 MATH49 MEAN AVERAGE PRECISION1 METRIC LEARNING1 MILLER-RABIN素数测试1 MODEL DISTILLATION1 MODEL-CONVERTOR1 MODERN CPP10 MPI1 MST6 MURMURHASH1 MUTUAL LEARNING1 MYSQL3 NERDTREE1 NETWORK1 NIM游戏4 NLP1 NMS1 NON-LOCAL MEANS1 NON-LOCAL NEURAL NETWORKS1 NUMBER THEORY27 NUMPY1 OBJECT DETECTION2 ONCE_FLAG1 ONNXRUNTIME1 PACKAGED_TASK1 PCA2 PERFECT FORWARDING1 PIPLINE1 POSE-DRIVEN1 PRIM1 PROMISE2 PROPERTY_TREE1 PROTOBUF1 PYTHON11 PYTORCH2 QT5 REACT3 REDIS1 REDUX1 REID3 RESNET2 RETINANET1 RMQ17 RNN1 SET8 SG函数12 SHADOWSOCKS2 SIMD1 SIMHASH1 SIMILARITY LEARNING1 SINGLE STATE DETECTOR1 SJ定理2 SLIDING WINDOWS1 SLIM1 SORT1 SORTINGS3 SPFA10 SPRING2 SSD1 STD::ANY1 STD::SHARED_PTR1 STEAM2 STL16 STREAM1 SUPERCOMPUTING1 SUPERVISOR1 TARJAN2 TENSORFLOW12 TENSORRT2 THREADING BUILDING BLOCKS1 THRUST1 TODO2 TREE7 TRIE7 TRIPLET LOSS1 TSP2 TWO POINTER5 TYPESCRIPT1 UNICODE1 VALUE CATRGORY1 VARIADIC FUNCTION1 VARIETY1 VECTOR2 VIM6 VUNDLE1 WHITENING1 WORDPRESS1 YOUCOMPLETEME1 YUV IMAGE FORMAT1 巴什博奕5 百度1 贝尔数2 编译器1 编译原理1 并查集9 并行计算2 博弈论22 差分序列1 拆点6 尺取2 尺取法10 抽屉原理6 传递闭包5 次小生成树2 错排公式2 打表2 单调队列3 单调性优化1 单调栈10 递推2 第二类斯特林数1 动态连通性1 动态线段树1 对拍1 二次剩余4 二分2 二分图5 二分图匹配4 二分图最佳匹配14 二进制1 二维线段树1 二项式定理1 反素数5 反向传播1 斐波那契7 费马点1 费马小定理3 分布式消息系统1 分块12 分类讨论1 分治2 峰度1 符号表1 符号可见性1 概率13 高精度2 高斯消元1 哥德巴赫猜想1 勾股数1 构造22 观察者模式1 光流法1 后缀和1 后缀数组10 后缀自动机13 回文串2 回文自动机7 基础图论1 激活函数1 计数排序2 计数问题10 计算机视觉2 计算几何20 计组1 记忆化搜索2 剪枝1 交叉染色法6 交互题1 结论题1 京东1 局部敏感HASH2 矩形面积交1 矩形周长并1 矩阵20 矩阵快速幂5 康托展开2 康托展开/逆展开1 可持久化数据结构5 快速乘1 快速幂20 快速筛2 扩展BSGS2 扩展欧几里得算法8 括号匹配2 离散化11 连通性2 链式前向星1 路径DP1 路径记录2 乱搞6 曼哈顿距离4 枚举子集4 面试2 面试经历3 模拟24 模拟退火5 模型转换1 莫队算法10 母函数21 内存屏障1 逆序对5 逆元5 欧拉函数4 欧拉路1 爬虫2 爬山法1 排列组合8 裴蜀定理5 偏度1 其他1 前端6 前缀和17 区间DP13 区间第K大2 区间合并1 区间计数1 染色问题1 容斥原理5 三分2 扫描线4 筛法1 设计模式2 射线法1 剩余系3 输入挂2 树的直径9 树套树1 树形DP6 树状数组20 数据结构2 数据压缩1 数论2 数位DP17 数值计算方法2 数字图像处理2 水5 水题7 思维1 思维题7 四叉树1 算法竞赛242 随笔杂谈3 拓扑排序7 泰勒展开3 贪心1 梯度下降1 同构1 凸包1 图论16 图论基础1 图像处理2 推荐系统3 完全背包2 位运算4 文明1 无向图的环3 系统调用1 细节题1 线段树43 协同过滤1 斜率优化3 辛普森积分2 匈牙利算法15 虚点1 蓄水池抽样1 循环节8 循环展开1 一致性哈希1 依赖注入1 优先队列4 游戏1 预处理1 栈1 正则表达式1 指数循环节7 置换群1 中国剩余定理4 重心1 主席树5 状态压缩1 状压DP1 字符串14 字符串DP1 字符串循环同构4 组成原理1 组合模式1 组合数学10 最大独立集1 最大连续和1 最大连续区间和3 最短路5 最小表示法7 最小顶点覆盖2 最小覆盖子串3 最小覆盖子矩形1 最小路径覆盖2 最小生成树2 最长公共字串4 最长路2 最长下降子序列1
[A~Z][0~9]
111qqz的小窝

Copyright  111QQZ的小窝. All Rights Reserved