机器学习和深度学习--李宏毅(笔记与个人理解)Day17

ops/2024/10/22 18:32:15/

Day 17Convolutional Neyral Network (CNN)

卷积神经网络一般都用在image 上面比较多一些,所以课程的例子大多数也都是image

Image Classification

the same size

image-20240412211301843

how about for pc?

image-20240412211342138

这里对于tensor 张量这个概念,我还是比较奇怪,在我认为一个矩阵也可以表示三维的空间;为什么引入tensor这个概念;

听完那个课程我悟了,tensor作为多维数组来说,更具有高维空间的特性;就拿上面的图片举例子,extremely case 我们取一维向量来表示(铺开),这样就会丢失一些空间的信息,例如绿色的格子和蓝色的某个格子其实是垂直的,仅仅相差一个垂直距离,但是展开为一根棍就很难找到这种关联

向量中某一个格子的数值表示该种颜色的强度

image-20240412211930832

好了我猜你紧接着就要说,啊啊啊这个什么weight 太大了,更新一次太麻烦啦巴拉巴拉的

Do we need “fully connected” in image processing ?

so we need some observations

Obervation1

image-20240412212206562

so not whole image ,but some patternsimage-20240412212406363

Simplification 1

image-20240412212555144

image-20240412212633482 image-20240412212645343 image-20240412213701721 image-20240412213728428

Typical Setting

image-20240412214032754

Obervation 2

image-20240412214152444
Simplification 2 sharing parameters
image-20240412214342635

Typical

image-20240412214444443

有了两种简化的方式了,我们来总结一下我们学到了什么

image-20240413201443821

CNN 的model 的bias比较大

Fully connected Layer jack of all trades master of none

Another Story

image-20240413201828912

image-20240413201924317 image-20240413202026650 image-20240413202045005 image-20240413202106520 image-20240413202133876

image-20240413202256514

这张ppt好好理解一下, 理解不了的话我给你讲讲:

首先按照Convolution 分为上下两个 part 哈,上面那个是由64个fitter (高度/厚度 =1, 因为原始图像的channel =1 是黑白图像,这里我们考虑typical的情况) 分别对原image做卷积得到的;每一个高度可以作为一个feature Map;ok ,然后我们知道 RGB 其实也是一个图像的三个channel 三个 feature Map;那么我们自然而然的认为这个厚度为64的feature map 叠起来的厚吐司 也是一个64channel 的图像;迭代为原始图像,那么下一次进行卷积的时候我们就需要64个厚度为64的fitter,也就是下面的两个64 的不同含义~ ok,打完收工

一个问题,如果fitter 一直等于 3*3 会不会严重丢失全局信息?为什么?

  • 我认为和stride有关,一直有重叠
  • 更直接的解释 从 3 * 3 到 5 * 5
image-20240413203018839

殊途同归

image-20240413203232320

boy 聪明的,比较颜色就好~ 要学会适度自学哦

image-20240413203338279

image-20240413203429558

Observation 3

image-20240413203530845
Simpification 3(Pooling)
image-20240413203649322 image-20240413203928352

subSampling 会丢失一定的信息,随着 计算机上升,下采样逐渐式微

The whole CNN……

image-20240413204126742

Flatten 拉直

Application-- 阿尔法狗

image-20240413204317466

so why CNN?

image-20240413204451266

当成一个图片,然后48个channel 表示该点处的48种情况

image-20240413204618575 image-20240413204912641 image-20240413204928830

more thinking :

CNN 好像没有办法处理影响放大缩小,或者反转的情况;so we need data augmentation ;

Spatial Transformer Layer


http://www.ppmy.cn/ops/4924.html

相关文章

Stable Diffusion 本地部署教程

截至我的最后更新(2023年),Stable Diffusion 是一个流行的开源深度学习模型,用于生成高质量的图像。由于它的强大功能和开放访问性,很多开发者和爱好者希望能够在本地环境中部署和使用它。以下是一个基本的本地部署教程…

【树莓派学习】hello,world!

系统安装及环境配置详见【树莓派学习】系统烧录及VNC连接、文件传输-CSDN博客 树莓派内置python3,可以直接利用python输出。

sky12笔记

ROM (read only memory)的初始值用系统函数 r e a d m e m b / readmemb/ readmemb/readmemh把文件读进来 parameter READ_PATH "../rtl/lut.mif"; initial begin$readmemb(READ_PATH ,mem); endalways组合逻辑常见错误 1.敏感列表变量不全,会导致RTL s…

数据结构——顺序表

一、线性表概念 线性表(linear list)是n个具有相同特性的数据元素的有限序列。 线性表是一种在实际中广泛使 用的数据结构,常见的线性表:顺序表、链表、栈、队列、字符串... 线性表在逻辑上是线性结构,也就说是连续的…

如何使用 ArcGIS Pro 制作边界晕渲效果

在某些出版的地图中,边界有类似于“发光”的晕渲效果,这里为大家介绍一下如何使用ArcGIS Pro 制作这种晕渲效果,希望能对你有所帮助。 数据来源 教程所使用的数据是从水经微图中下载的行政区划数据,除了行政区划数据&#xff0c…

CSS基础之伪类选择器(如果想知道CSS的伪类选择器知识点,那么只看这一篇就足够了!)

前言:学习CSS就必须要学习选择器,在之前我们已经学习了基本选择器和复合选择器,但是还有几个选择器没有学习,这篇文章主要讲解伪类选择器。 ✨✨✨这里是秋刀鱼不做梦的BLOG ✨✨✨想要了解更多内容可以访问我的主页秋刀鱼不做梦-…

达梦数据库导入导出工具dmfldr

达梦数据库导入导出工具dmfldr 基础信息 OS版本: Red Hat Enterprise Linux Server release 7.9 (Maipo) DB版本: DM Database Server 64 V8 DB Version: 0x7000c 03134284132-20240115-215128-200811 dmfldr工具介绍 dmfldr(DM Fast Loade…

Go语言中通过数据对齐降低内存消耗和提升性能

数据对齐是一种安排数据分配方式以加速 CPU 访问内存的方法。 不了解这个概念会导致额外的内存消耗甚至性能下降。 要了解数据对齐的工作原理,让我们首先讨论没有它会发生什么。假设我们分配两个变量,一个 int32 类型的 (32 B) 和一个 int64类型的(64 B): var i int32…