本章内容主要讲接下目标检测中的损失函数。目标检测的主要功能是定位和识别,损失函数的功能主要就是让定位更精确,识别准确率更高。其中常见的定位损失函数如MSE和Smooth L1,分类损失如交叉熵、softmax loss、logloss、focal loss等。目标分割是像素级的分割即每个点是什么都需要做一个识别的置信度评估,通常于分类相类似。
卷积神经网络模型简述
上篇博客从信号处理的角度解析了卷积计算和卷积神经网络中的卷积卷积操作。本文主要梳理一遍经典的卷积架构,如:ResNet,Inception架构,这些架构在CV任务上的表现十分出色,同时也给众多深度学习提供了新的思路,例如后来的DenseNet、ResNeXt等。以后有时间将扩展,偏功能的卷积架构有,在细粒度特征上可以采用SPPNet以及Few-shot learning 上的SiameseNet,图像分割中的FCN。本文将以LeNet简单介绍卷积基础架构开始,以讲述Blocks演变的形式简单讲解不同网络的特点。
Tensorflow Object Detection API Win10和Ubuntu双系统教程
本实验的Faster RCNN 源代码实现来自tensorflow/models 的 object_detection API ;在COCO2014数据集上完成训练和测试,本教程由我、胡保林大神以及韩博士在win10和Ubuntu16.04上完成并测试通过。
并发编程
首先感谢况老师的指导和潇哥的指点。以下内容来自初学的我,谨防入坑!
促使我对并发/并行操作的关注是我对python同步多线程和异步多线程的理解空白,导致我2个月前的一次失败的同步多线程操作直到昨天改keras的imge处理底层代码时发现还有异步多线程实现的并发操作。在此记录下并发操作相关概念和理解。
理解python的并发操作需要掌握python的全局解释器锁(GIL)以及多进程、多线程操作和协程操作。相关概念的区别如阻塞和非阻塞、并发和并行、同步和异步、计算操作密集和I/O密集的概念和区分。本文重点区分上述概念。
深入boosting经典算法
本文旨在梳理 Boosting方法相关的概念及理论推导。 在介绍Boosting方法之前,我们应该对机器学习模型的误差分析有所了解。从经典的Boosting算法—标准Adaboost的原理入手建立Boosting算法的基本理解,再来分析GBDT的原理(下文的GBDT特指(Greedy Function Approximation:A Gradient Boosting Machine )提出的算法)及其变体XGBoost和Lightgbm后续文章再讲。