深度学习-神经网络模型
恭喜你发现宝藏了,先收藏,在慢慢看吧,看完后相信你会有很大收获。
本文章中若有读者已知内容,可自行阅读其他对自己有帮助的内容部分。
一、写在前面
如果让你设计一个可以识别图像的神经网络,你会怎么做?
我之前问过自己这个问题,思来想去,我的答案是:我可能不知道如何下手,梦还没开始就结束了。
于是,我有了一个大胆的想法。接下来,我会从头开始,聊聊一个图像识别网络是怎么工作的,每一步算法的原理,以及相关的背景知识。
你可能会想,看懂这些需要什么知识呢?其实不需要太深奥的数学知识。我会尽可能把每一步写的通俗易懂,这个过程中我也会搜集一些资料,
也是一个不断完善自己知识体系的过程。文中聊得网络,就是大家都比较熟悉的,被玩烂的、作为各大AI芯片厂商性能标杆的Resnet50。
个人水平有限,文中如有错误,欢迎联系我指正。
二、从像素说起
要实现图像识别,最离不开的,就是像素。
其实我们都知道,图像是由像素组成的。实际上,神经网络计算,算的就是像素之间的关系,以及这些关系背后可能隐藏的图片信息。相机摄像头像素2000万,拍出来的照片肯定比像素1000万的要清晰我们更容易看到图片中的物体是什么。
这是为什么?因为像素越多,像素之间的关系(色彩,轮廓)越丰富,我们所能看到的信息就越多,自然而然获取到的信息就多。
一张1080p的图片,我们可以更容易辨别出图像中的物体是山还是水。这是因为更多的像素会给眼睛更丰富的图片细节
但是,你有没有发现,当我们去看一张图片时,我们绝对不是盯着某一个像素或某几个像素看,而是看了整个图像的大部分区域,或者说,大部分像素!
因为只有看到了大部分的图片,才能知道图中是座山。正所谓,聚沙成山!绝不是少了一粒沙,山就不是山,多了一粒沙,就变成了山。
像素局部性
上图哆啦A梦,虽然不是很清晰,像素点数也很少,但一眼望去,依然可以分清是哆啦A梦,甚至,用手捂住一半的图像,依然可以。
这是因为人眼对于图像信息的识别,是建立在对像素局部性分析的基础上的。
所谓局部性,通俗点说,就是眼睛或大脑会将相邻的像素或大片的像素连接起来分析,从而组合成嘴巴,然后是耳朵,最后是哆啦A梦。
神经网络识别图片大致就是这样的原理,它模拟的,就是人们看到图片之后的信息处理过程。
当我们盯着一个图片看时,我们首先会获取到图片的细节特征。比如哆啦A梦红色的大嘴巴。但是如果仅仅盯着大嘴巴,又反而让人有一种“只缘身在此山中”的感觉,看不到图片的全貌。
因此还需要看一下图像的轮廓。于是,我们的眼睛看图片大致有以下两个过程:
瞳孔放大,盯着某一处细节(如大嘴巴)看
瞳孔缩小,模糊的看一张图片的大致轮廓
两个过程获取的信息叠加。
Bingo,看清楚了,是哆啦A梦!那么神经网络是否可以模拟这种瞳孔放大、缩小的方式呢?
很幸运,可以!
那就是卷积算法。
卷积
卷积的计算示意图
卷积核的设计,就可以很直观的模拟这种获取图片信息的方法。
人们通过调整卷积核的大小,来达到瞳孔张开、缩小的目的。并且大量的实验和论文表明,卷积这一针对图像局部性识别的算法,可以非常有效的模拟人眼识别物体的过程。关于卷积算法以及卷积核的设计原理,后面会专门来讲,因为卷积这一算法,在图像处理领域,太重要了。
我们现在继续沿着像素这一话题讲下去。
色彩分量RGB
三张分别表示R/G/B分量的图片,合成一张彩色图片
对于上面一张RGB的图,我们人眼可以很直观的看到红色和蓝色,可以察觉到一张图片的色彩和轮廓。
那么,如果让计算机来处理图片,他又是如何知道色彩和轮廓的呢?
其实对于计算机来说,一张图片只是一堆数据,计算机是无法知道这堆数据代表的是什么。这就需要人为的给这堆数据一种表示方法,让计算机知道,哦,这1/3的数据是红色分量,这1/3的是蓝色分量,这些数据(像素)组合起来,可能代表的是个“帽子”。
怎么做呢?通过设计数据在计算机中的存储方式来解决。
数据在计算机的存储中,最常见的存储方式是连续存储的。比如C语言,定义一个数组,那么数组在内存中的位置是连续的。
int data[10] = {0,1,2,3,4,5,6,7,8,9};
内存怎么理解,它就是一排连着的门牌号的公寓宿舍。门牌号为101里面住着的,是data的第一个数据0。门牌号102里面住着的,是data的第二个数据1,…,以此类推。
哈利波特的女贞路4号,内存也是类似于门牌号规则,数据就像人一样,存储在以地址为标识的一个个的内存地址上(房子)
只不过,在计算机存储器中,没有门牌号,有的都是地址。这个时候,计算机根本就不关心数据是啥,计算机用到的时候,就把数据从内存对应的地址中取出来用。
计算机是如何取像素数据的
一张图片的抽象数据表示
友好的数据表示方法,可以减少大量的计算复杂度。
虽然这样表示不太利于人们的直观理解,但是计算机处理这种数据是十分方便的。在目前主流的深度学习框架中,对于图片的数据格式,基本都支持了NHWC或NCHW这种数据摆放格式。说到底,都是为了更高效地进行图片数据的处理和运算。
总结一下
加餐
这位女士名叫Lena。
电气电子工程师学会图像处理汇刊(IEEE Transactions on Image Processing)主编曾在1996年1月出版的一期中解释道,Lena的流行,因为她是一张好的测试图片,其中包含了很多细节,平滑区域,阴影和纹理。
三、图像的色彩空间
上一章从像素开始,聊到了RGB 这一常见的色彩空间模型。
之所以还想继续聊聊RGB 以及另一种色彩空间模型-YUV ,不是说想要以后去学摄影,学学如何需要调节色度、曝光和饱和度啥的。
而是在图像识别的深度学习任务中,RGB以及YUV这些概念,总是会时不时的出现一下,让枯燥无味且高度抽象的深度学习算法,突然之间,变得具体一些,光鲜一些。
RGB
平时我们说,分辨率为1920*1080的图片,它代表的是在长宽两个方向上,有 1920 * 1080 个像素,但是,在色彩这个方向上,还有 3 个通道(channel),也就是RGB,往往被我们忽略。
我们看到的一个像素点的颜色,在计算系统中,并不是简单的由一个数值来表示的,而是由RGB三个分量的三个数值来表示的。
一个像素点的 RGB 表示
因此,想要计算一张1920*1080的图片的大小,或者说计算这张图片在计算机内存中所占用的大小时,不能仅仅用图片的长度乘以宽度这么算,还需要考虑通道数。
数值表示和图片大小计算
YUV
仅有Y分量也就是亮度,黑白图片
仅有U分量,只有色度
仅有V分量,只有饱和度
上面的几张图片,除了原图之外,我们可能更加倾向于使用只有Y分量的图片,也就是那张黑白图像。
因为即使没有色彩,但是它的轮廓以及明亮程度,也足以让我们分辨出图片中的物体。其视觉效果远远好于其他两个分量的图片。相反,只有色度和饱和度的图片,反而变得模糊不堪。
这就是问题所在!人眼对于亮度具有更高的敏感度,而对色度和饱和度反而显得迟钝一些。
说到这,有没发现什么?既然人眼对于色度和饱和度的反应不敏感,那就没有必要把所有的色度和饱和度信息都放在图片里了啊。
举个例子,色度和饱和度我隔一个像素放一个,剩下的像素没有饱和度,不就可以了么。没错,是可以,而且效果很好。
这就是YUV的不同编码。
YUV422编码
实际上,YUV的编码方式有很多种,比如YUV444, YUV422等。
大致意思就是,保留全部的Y分量(人眼最敏感的亮度分量),但是只保留部分的U/V分量(人眼不敏感),以此来减少图片的占用,但又不失重要信息。
还记得上面的19201080的RGB图片的内存占用么,为5.9MB。如果用YUV444的编码,结果也同样是5.9MB,因为YUV444也是全采样,所有的亮度、色度、饱和度信息都保留了。而如果采用YUV422的编码,相当于U分量减少一半,V分量减少一半。
那么最终的图片占用大小就变成了1920 1080 * (1 + 0.5 + 0.5) Bytes = 4050KB = 3.9MB
只有3.9MB,减少了1/3的内存占用!是不是好很多?更多关于YUV的编码知识,有兴趣的同学可以Google。如果不做相关课题,可以不用深究。
我们只需要知道,YUV这一色彩编码方法,在保留亮度这一人眼最敏感信息的基础上,通过降低其他人眼不太需要的信息,可以来达到降低图片大小的目的。
就足够了!
YUV编码的用途
总结一下
加餐
潦水尽而寒潭清, 烟光凝而暮山紫。
暮山紫-RGB:163 171 214 |
参考文章
后续内容 -> 初识卷积
知乎
本人时间精力能力有限,也是刚开始学习这方面内容,准备参赛
文中一些表述难免有疏漏,若有错误请联系我进行更正,谢谢
QQ Email邮箱:1795847863@qq.com
- Title: 深度学习-神经网络模型
- Author: 白糖
- Created at : 2023-05-25 20:17:12
- Updated at : 2024-07-08 10:10:53
- Link: https://zhsugar.github.io/2023/05/25/深度学习-神经网络模型/
- License: All Rights Reserved © 白糖