浅析卷积
- 格式:doc
- 大小:255.50 KB
- 文档页数:3
卷积的物理意义与最简单解释卷积是一个在信号处理、图像处理、机器学习等领域广泛应用的数学概念。
它描述了两个函数在某个特定空间(如时间、频率等)上的相互作用。
下面从多个方面解释卷积的物理意义和最简单的理解。
1. 信号处理应用:在信号处理中,卷积常被用于描述一个信号通过一个线性时不变系统后的输出。
这个输出是输入信号与系统响应函数的卷积结果。
2. 线性时不变系统:对于线性时不变系统,其输出信号是输入信号与系统冲激响应的卷积。
卷积的交换性和分配性使系统具有“叠加性”,即多个信号输入或系统多个冲激响应输出的总和可表示为单一卷积操作。
3. 滤波与平滑操作:卷积可以用于实现滤波操作,例如,卷积一个图像与一个平均滤波器可以平滑图像中的噪声。
这里,滤波器函数描述了如何将邻近像素值结合来产生一个新的像素值。
4. 积分与加权求和:从离散角度理解,卷积操作可以看作是对输入序列与权重序列进行加权求和。
这些权重通常由系统冲激响应或滤波器函数定义,并通过平移与输入序列的对应元素相乘来实现。
5. 反转与平移操作:在进行卷积操作时,通常将其中一个函数反转并沿时间或空间轴平移,这与滑动平均的概念类似,但它是一个更加一般的操作。
6. 响应叠加效应:卷积可以理解为多个响应的叠加。
例如,在图像处理中,一个像素的输出值可能是其周围像素值的加权和,这种加权和是通过卷积操作实现的。
7. 关联与相似性:卷积也被用于测量两个信号之间的关联或相似性。
例如,在卷积神经网络中,卷积操作被用于提取输入数据的局部特征,这些特征通过训练过程与特定任务关联。
8. 简化理解为“叠加”:在最简单的理解下,卷积可以被看作是一种“叠加”操作。
它描述了如何将一个函数(如输入信号或图像)通过另一个函数(如系统冲激响应或滤波器)进行转换。
这个转换是通过将后者在前者的每一个位置上进行加权并求和来实现的。
总之,卷积的物理意义非常广泛,涉及到信号处理、图像处理、机器学习等多个领域。
卷积通俗理解
《卷积通俗理解》
嘿,大家好呀!今天咱来聊聊卷积,这玩意儿其实挺有意思的。
就说我上次去参加一个音乐会吧。
那现场啊,人超多,音乐声也特别响亮。
当第一个音符响起的时候,就好像在平静的湖面上扔下了一颗小石子,泛起了一圈圈的涟漪。
这音乐声啊,就像是那不断扩散的涟漪,它会和周围的环境相互作用。
而卷积呢,就有点像这个过程。
想象一下,音乐声在整个空间里传播,遇到不同的物体,比如墙壁啊、椅子啊,它就会产生不同的效果。
有的声音被反射回来,有的被吸收了,这就好像是在对原始的声音进行一种“加工”。
就像我们在生活中,你说一句话,这句话传出去后,会受到周围各种因素的影响。
可能有的人会很认真地听,有的人可能会没太在意,这就相当于对这句话进行了不同程度的“卷积”。
音乐会进行到高潮部分的时候,各种乐器的声音交织在一起,那场面,简直绝了!这就跟卷积把不同的信号或者数据融合在一起一样,产生出全新的、更丰富的效果。
总之呢,卷积就是这样一个神奇又有趣的概念,它就像是生活中那些看似复杂但又有着奇妙规律的现象一样。
希望我这么说,能让大家对卷积有个更通俗的理解啦!哈哈!
怎么样,是不是有点明白卷积是咋回事啦?下次再听到这个词,就可以想想那场音乐会哦!。
卷积的数学意义
卷积是一种线性变换,广泛应用于信号处理、图像处理、语音识别等领域。
它的数学意义可以从多个角度理解。
从函数的角度来看,卷积可以看作是两个函数之间的积分运算。
具体地,设两个函数f(t)和g(t),它们的卷积h(t)定义为:
h(t) = ∫f(τ)g(t-τ)dτ
从向量的角度来看,卷积可以看作是两个向量之间的加权平均。
具体地,设两个向量a和b,它们的卷积c定义为:
c[i] = ∑a[j]b[i-j]
从矩阵的角度来看,卷积可以看作是一个矩阵与一个向量之间的运算。
具体地,设一个矩阵A和一个向量x,它们的卷积y定义为: y[i] = ∑A[i,j]x[j+k]
其中k为卷积核的大小。
从信号处理的角度来看,卷积可以看作是滤波器对信号的响应。
具体地,设一个信号x和一个滤波器h,它们的卷积y定义为:
y[n] = ∑h[k]x[n-k]
从图像处理的角度来看,卷积可以看作是图像的特征提取。
具体地,设一个图像I和一个卷积核k,它们的卷积J定义为:
J[i,j] = ∑k[m,n]I[i+m,j+n]
其中m和n为卷积核的大小。
总之,卷积是一种非常重要的数学工具,它可以帮助我们理解信号、图像和矩阵之间的关系,从而应用于实际问题的求解。
卷积的定义和物理意义卷积(Convolution)是分析数学中一个重要的运算,很多具体实际应用中会用到这个概念,卷积的数学定义就是一个式子,背后有什么物理背景意义呢?这里做一个分析。
函数卷积的定义:设:f(x),g(x)是R1上的两个可积函数,作积分:可以证明,关于几乎所有的实数x,上述积分是存在的。
这样,随着x的不同取值,这个积分就定义了一个新函数h(x),称为函数f与g 的卷积,记为h(x)=(f*g)(x)。
容易验证,(f *g)(x) = (g * f)(x),并且(f * g)(x)仍为可积函数。
这就是说,把卷积代替乘法,L1(R1)空间是一个代数,甚至是巴拿赫代数。
数列卷积定义:如果卷积的变量是序列x(n)和h(n),则卷积的结果定义:其中星号*表示卷积。
当时序n=0时,序列h(-i)是h(i)的时序i取反的结果;时序取反使得h(i)以纵轴为中心翻转180度,所以这种相乘后求和的计算法称为卷积和,简称卷积。
另外,n是使h(-i)位移的量,不同的n对应不同的卷积结果。
卷积的物理意义(定义的来源思路)如果一个信号是一组历史信号的组合,比如a(0),a(1),a(2)......a(n)......,其中a(i)是i时刻信号的量值,我们要计算在某一时刻n的信号的组合量值f(n), f(n)是a(0),a(1),a(2)......a(n)的组合。
如果是类似f(n)=a(0)+a(1)+a(2)+......+a(n)的简单线性组合就好办了,但是信号会随着时间的变化,不断的在衰减的,也就是说我们只知道0时刻信号量值是a(0),但不知道a(0)变化到n时刻的时候的实际值,所以不能简单用到上面的线性组合式子。
现在假设我们知道信号的衰减规律符合统一规律函数b(n),也就是说所有信号0时刻的衰减剩余率都是是b(0),1时刻的衰减剩余率是b(1)......,如果我们求n时刻的信号组合量f(n),因为n时刻a(n)信号刚出来,它的衰减剩余率应该为b(0)(理解一下),而 n-1时刻的信号衰减了一个时间周期了,它的衰减剩余率是b(1)......,写成式子就是:f(n)=a(0)b(n)+a(1)b(n-1)+a(2)b(n-2)+......+a(n)b(0)=sigma[a(i).b(n-i)],i 取值 from0 ton.上面的式子,就是a(i).b(n-i)乘积形式的由来,作为数学推广,不是一般性,可以把取值范围推广到负无穷到正无穷。
卷积运算的性质
卷积运算是数学和工程领域中一个非常重要的概念,它是一种图像处理技术,也是一种概念上的运算,用于处理和分析信号(信号可以是图像、音频或文本信息等)的属性。
卷积运算是一种基于共卷积定理的数学方法,它的本质是基于一组所谓的卷积核,它是由一组数字组成的矩阵,通过应用这个卷积核来卷积数学表达式和输入信号。
卷积运算有很多有用的性质,可以用来处理图像数据,也可以用来处理文本和声音信号。
目标是通过它来提取信号的特征,从而使我们能够做出更好的决策。
其中最重要的性质有:
1.享性:卷积运算的最大优点就是共享性。
总的来说,卷积运算的某些元素(比如卷积核)可以被用来提取局部信息,这使得不用重复计算,大大减少了计算量。
2.视化:卷积运算得到的结果是可视化的,从而使得我们可以更好地理解和分析信号的特征。
3.效性:卷积运算在计算资源非常有限的环境中也可以取得优秀的表现,这使得它在实时系统中大量使用,比如计算机视觉、自动驾驶汽车等。
4.义卷积运算:在许多情况下,在原来的卷积运算中加入广义卷积可以提升性能,其中一些常见的广义卷积包括“带权重”、“特征融合”和“去噪”等。
卷积运算不仅在计算机视觉和机器学习等领域应用广泛,而且在更多的领域,如图像增强、语音识别和自动驾驶等也有着重要的应用。
卷积运算可以在各个维度上把信号进行特征提取,提取出信号有效的特征,从而使我们的系统更加高效、更加强大。
卷积运算的优点使它在计算机视觉、机器学习和智能设备等技术领域越来越受到重视,它的应用前景非常广阔。
浅析卷积的本质及物理意义卷积这个东东是“信号与系统”中论述系统对输入信号的响应而提出的。
因为是对模拟信号论述的,所以常常带有繁琐的算术推倒,很简单的问题的本质常常就被一大堆公式淹没了,那么卷积究竟物理意义怎么样呢?卷积表示为y(n) = x(n)*h(n)使用离散数列来理解卷积会更形象一点,我们把y(n)的序列表示成y(0),y(1),y(2) and so on; 这是系统响应出来的信号。
同理,x(n)的对应时刻的序列为x(0),x(1),x(2)...and so on;其实我们如果没有学过信号与系统,就常识来讲,系统的响应不仅与当前时刻系统的输入有关,也跟之前若干时刻的输入有关,因为我们可以理解为这是之前时刻的输入信号经过一种过程(这种过程可以是递减,削弱,或其他)对现在时刻系统输出的影响,那么显然,我们计算系统输出时就必须考虑现在时刻的信号输入的响应以及之前若干时刻信号输入的响应之“残留”影响的一个叠加效果。
假设0时刻系统的响应为y(0),若其在1时刻时,此种响应未改变,则1时刻的响应就变成了y(0)+y(1),叫序列的累加和(与序列的和不一样)。
但常常系统中不是这样的,因为0时刻的响应不太可能在1时刻仍旧未变化,那么怎么表述这种变化呢,就通过h(t)这个响应函数与x(0)相乘来表述,表述为x(m)×h(n-m),具体表达式不用多管,只要记着有大概这种关系,引入这个函数就能够表述y(0)在1时刻究竟削弱了多少,然后削弱后的值才是y(0)在1时刻的真实值,再通过累加和运算,才得到真实的系统响应。
再拓展点,某时刻的系统响应往往不一定是由当前时刻和前一时刻这两个响应决定的,也可能是再加上前前时刻,前前前时刻,前前前前时刻,等等,那么怎么约束这个范围呢,就是通过对h(n)这个函数在表达式中变化后的h(n-m)中的m的范围来约束的。
即说白了,就是当前时刻的系统响应与多少个之前时刻的响应的“残留影响”有关。
卷积的介绍先看到卷积运算,知道了卷积就是把模版与图像对应点相乘再相加,把最后的结果代替模版中⼼点的值的⼀种运算。
但是,近来⼜看到了积分图像的定义,⽴马晕菜,于是整理⼀番,追根溯源⼀下吧。
1 卷积图像1.1 源头⾸先找到了⼀篇讲解特别好的博⽂,原⽂为:贴过正⽂来看:---------------------------------------------------------------------------------------------------------------信号处理中的⼀个重要运算是卷积.初学卷积的时候,往往是在连续的情形, 两个函数f(x),g(x)的卷积,是∫f(u)g(x-u)du 当然,证明卷积的⼀些性质并不困难,⽐如交换,结合等等,但是对于卷积运算的来处,初学者就不甚了了。
其实,从离散的情形看卷积,或许更加清楚, 对于两个序列f[n],g[n],⼀般可以将其卷积定义为s[x]= ∑f[k]g[x-k] 卷积的⼀个典型例⼦,其实就是初中就学过的多项式相乘的运算, ⽐如(x*x+3*x+2)(2*x+5) ⼀般计算顺序是这样, (x*x+3*x+2)(2*x+5) = (x*x+3*x+2)*2*x+(x*x+3*x+2)*5 = 2*x*x*x+3*2*x*x+2*2*x+ 5*x*x+3*5*x+10 然后合并同类项的系数, 2 x*x*x 3*2+1*5 x*x 2*2+3*5 x 2*5 ---------- 2*x*x*x+11*x*x+19*x+10 实际上,从线性代数可以知道,多项式构成⼀个向量空间,其基底可选为 {1,x,x*x,x*x*x,...} 如此,则任何多项式均可与⽆穷维空间中的⼀个坐标向量相对应, 如,(x*x+3*x+2)对应于 (1 3 2), (2*x+5)对应于 (2,5). 线性空间中没有定义两个向量间的卷积运算,⽽只有加法,数乘两种运算,⽽实际上,多项式的乘法,就⽆法在线性空间中说明.可见线性空间的理论多么局限了. 但如果按照我们上⾯对向量卷积的定义来处理坐标向量, (1 3 2)*(2 5) 则有 2 3 1 _ _ 2 5 -------- 2 2 3 1 _ 2 5 ----- 6+5=11 2 3 1 2 5 ----- 4+15 =19 _ 2 3 1 2 5 ------- 10 或者说, (1 3 2)*(2 5)=(2 11 19 10) 回到多项式的表⽰上来, (x*x+3*x+2)(2*x+5)= 2*x*x*x+11*x*x+19*x+10 似乎很神奇,结果跟我们⽤传统办法得到的是完全⼀样的. 换句话,多项式相乘,相当于系数向量的卷积. 其实,琢磨⼀下,道理也很简单, 卷积运算实际上是分别求 x*x*x ,x*x,x,1的系数,也就是说,他把加法和求和杂合在⼀起做了。
最通俗易懂的卷积解释在深度学习和计算机视觉领域,我们常常会听到一个词汇:卷积。
那么,卷积到底是什么?如何通俗易懂地解释它?本文将为大家详细解析卷积的概念、原理和应用。
让我们一起来探讨这个有趣且实用的技术。
卷积的概念卷积是一种数学运算,它描述了两个函数相互作用的过程。
在深度学习中,卷积通常用于处理图像、声音等数据。
通过卷积操作,我们可以有效地提取数据中的局部特征,从而实现更高层次的抽象表示。
卷积的应用卷积在许多领域都有广泛的应用,其中最为典型的是图像处理、信号处理和卷积神经网络。
图像处理在图像处理中,卷积可以用于实现边缘检测、模糊、锐化等功能。
通过将图像与特定的卷积核进行卷积操作,我们可以突出或抑制图像中的某些特征,从而达到处理的目的。
信号处理在信号处理中,卷积用于分析和处理信号。
例如,通过卷积可以消除噪声、平滑信号,从而提高信号的质量。
卷积神经网络卷积神经网络(CNN)是一种常用于计算机视觉、语音识别等领域的深度学习模型。
通过使用卷积层,CNN能够在大量数据中自动学习并提取有用的特征,进而实现高效的分类、检测等任务。
卷积的数学原理为了更好地理解卷积,让我们深入探讨一下它的数学原理。
卷积核卷积核是一个小型矩阵,用于在卷积过程中与输入数据进行运算。
根据任务的不同,卷积核的形状和取值也会有所不同。
例如,在图像处理中,我们可以使用不同的卷积核来实现边缘检测、模糊等效果。
卷积过程卷积过程是通过在输入数据上滑动卷积核,并将卷积核与局部数据相乘累加,从而得到输出结果。
这个过程可以用下面的公式表示:输出(x, y) = Σ(卷积核(i, j) * 输入(x + i, y + j)) 其中,Σ表示求和,i和j表示卷积核的坐标。
步长与填充在卷积过程中,我们可以通过调整步长和填充来控制输出结果的尺寸。
步长表示卷积核每次滑动的距离,填充表示在输入数据周围添加额外的元素。
通常情况下,我们使用零填充,即添加数值为零的元素。
浅析卷积神经网络的图像特征提取技术卷积神经网络(Convolutional Neural Network, CNN)是一种用于图像处理和计算机视觉任务的深度学习模型,在图像分类、物体检测、语义分割等领域取得了很好的效果。
它能自动地学习图像特征,从而提高图像分类、物体检测、人脸识别等任务的准确性和鲁棒性。
在本文中,我们将从以下几个方面来浅析CNN的图像特征提取技术。
一、卷积神经网络的基本结构卷积神经网络的基本结构由若干个卷积层、池化层、全连接层等组成。
其中,卷积层通过使用一组可学习的卷积核,对输入图片进行离散卷积操作,生成一个输出特征图。
卷积核能自动地提取输入数据中的特征,例如边缘、角点、纹理等。
池化层能将输出特征图进行缩小操作,并减少特征图的维数,提高计算效率。
全连接层能将池化层的输出特征图映射到具体的类别上,完成分类任务。
在卷积神经网络中,每一层都能提取出不同的图像特征,高层特征则是由低层特征组合而成。
下面我们对卷积神经网络的图像特征提取过程进行详细说明。
(1)低层特征提取卷积神经网络的第一个卷积层能够提取一些基本的边缘特征和纹理特征,例如竖直边缘、水平边缘、斜线、点等。
这些边缘特征和纹理特征可以从具有不同方向和尺度的卷积核中学习得到。
第一个卷积层的输出被称为低层特征。
通过更深的网络结构,中层特征能够用更高级别的特征来描述图像。
例如,第二个卷积层可以通过学习一些具有更高级别的特征,例如角点、曲线等。
第二个卷积层的输出可以看作是第一个卷积层输出的加强版。
随着网络层数的加深,卷积核的大小和数量也会逐渐增加,相应地,中层特征能够描述的图像特征复杂度也逐渐提高。
在得到更高层的特征之后,例如第三、第四个卷积层,能够学习到更加抽象的特征。
例如,第三个卷积层可以学习到一些具有物体特征的复杂结构,例如圆形、三角形、方形等。
这些高级别的特征可以在更高级别的任务中扮演重要的角色,例如物体检测和语义分割。
三、卷积神经网络的特征可视化卷积神经网络学习到的特征可以使用可视化的方式进行可视化。
卷积的物理含义卷积是在信号处理和图像处理中广泛使用的一种数学运算。
它可以在时域或频域中进行计算。
这个运算的物理含义是,它可以用来描述一个信号或图像在空间或时间上的变化。
卷积的定义比较复杂,但其物理含义可以通过以下步骤逐步阐释:第一步:定义卷积运算卷积运算是对两个函数的一种运算。
其中一个函数是输入函数,另一个函数是卷积核(也称作卷积矩阵)。
卷积核对输入函数进行卷积运算,得到一个新的函数,称为卷积输出。
卷积的数学定义可以表示为:$f(t) * g(t) = \int_{-\infty}^{\infty} f(\tau) g(t-\tau) d\tau$这个定义描述了输入函数在卷积核上的移动,并按照一定比例进行加权。
第二步:卷积的物理含义卷积的物理含义是在时域或空间中的信号处理。
它可以用来描述一个系统对于输入信号的响应。
在物理学中,系统描述了一个物理模型,输入信号则可以表示为外部激励。
卷积运算将输入信号映射到输出信号。
为了理解卷积的物理含义,可以考虑一个典型的例子:图像卷积。
第三步:图像卷积图像卷积可以帮助我们识别图像中的模式和特征。
计算机程序可以使用卷积运算来实现图像模糊、边缘检测、锐化、颜色过滤和形态学算法等图像处理技术。
从物理学的角度来看,图像卷积可以描述一种空间域操作。
图像卷积通常使用一个3*3或5*5的矩阵,称为卷积核。
卷积核可以通过不同的数值来控制不同的卷积效果。
例如,一个卷积核的值在边缘检测中可以将边缘变成白色,而在其他区域保持颜色。
图像卷积的物理含义不仅在于其实际操作,还在于其可以描述图像的变化。
它可以帮助我们理解图像的纹理和特征,从而为我们提供更好的处理图像的方法。
第四步:应用卷积在现实世界中,卷积运算有着广泛的应用。
例如在语音识别、自然语言处理和计算机视觉中,卷积可以用来提取特征。
在无线电通信中,卷积可以用来消除通信中的干扰。
在信号处理领域,卷积可以用来重建受噪声影响的信号以及卷积学习等。
“卷积”是什么?
卷积的实质是加权平均,卷积的重要性在于它是频域上的乘积!连续空间的卷积定义是f(x)与g(x)的卷积是f(t-x)g(x) 在t从负无穷到正无穷的积分值.t-x要在f(x)定义域内,所以看上去很大的积分实际上还是在一定范围的. 实际的过程就是f(x) 先做一个Y轴的反转,然后再沿X轴平移t 就是f(t-x),然后再把g(x)拿来,两者乘积的值再积分.想象一下如果g(x)或者f(x)是个单位阶越函数. 那么就是f(t-x)与g(x)相交部分的面积.这就是卷积了.实际上为一个函数对另外一个函数做加权平均。
不过,一个扮演的是权重角色(Filter),另一个则扮演被平均的角色(图像)。
把积分符号换成求和就是离散空间的卷积定义了.那么在图像中卷积卷积地是什么意思呢,就是
图像就是图像f(x),模板是g(x),然后将模版g(x)在模版中移动,每到一个位置,就把f(x)与g(x)的定义域相交的元素进行乘积并且求和,得出新的图像一点,就是被卷积后的图像. 模版又称为卷积核.卷
积核做一个矩阵的形状.(以下两个是动态图,文档没有显示出来效果,详见下面网址)
/s/blog_6819cb9b0100m3rz.html
首先,卷积的定义是如何而来?事实上,卷积命名让人有些疏离之感。
但是,倘若我们将其称之为“加权平均积”,那便容易接受的多。
的确,卷积的离散形式便是人人会用的加权平均,而连续形式则可考虑为对连续函数的加权平均。
假如我们观测或计算出一组数据。
但数据由于受噪音的污染并不光滑,我们希望对其进行人工处理。
那么,最简单的方法就是加权平均。
例如,我们想对数据x_j进行修正,可加权平均为
w/2*x_{j-1}+(1-w)x_j+w/2 *x_{j+1}。
此处,w为选择的权重,如果可选择0.1等等。
这里实际上是用两边的数据对中间的数据进行了一点修正。
上面的公式,实际上是两个序列在做离散卷积,其中一个序列是
......0,0,w/2,1-w,w/2,0,0......,
另一个序列是
.....,x_1,x_2,x_3,......
将上述简单的思想推而广之,便是一般的卷积。
若把序列换为函数,则就是我们通常卷积的定义。
这时候,你可以考虑为一个函数对另外一个函数做加权平均。
不过,一个扮演的是权重角色,另一个则扮演被平均的角色。
但凡对Fourier变换有些了解,便知道一个函数可从两个方面来看:时域和频域。
Fourier变换宛如西游记中的照妖镜,任何函数在其面前都会展现出另外一面。
所以,很多时候我们如果对一个函数看不清楚,那就在照妖镜里看一下,做一下Fourier变换,便会豁然开朗。
而函数的性质,经过Fourier
变换之后,也会有与之相对应的性质。
例如,函数的光滑性经过Fourier变换后,便是其在无穷远处趋向于0的速度。
那么,函数的乘积经过Fourier变换后,便是卷积!因此,卷积实际上是乘积的另外一面,不过这一面需要借助照妖镜才可以看到,所以让我们感觉有些陌生。
卷积,Fourier变换与乘积是紧密联系在一起的。
因此:有卷积的地方,便会有Fourier变换;有Fourier变换的地方,便会有卷积!
形象的小例子来解释一下卷积:
比如说你的老板命令你干活,你却到楼下打台球去了,后来被老板发现,他非常气愤,扇了你一巴掌(注意,这就是输入信号,脉冲),于是你的脸上会渐渐地(贱贱地)鼓起来一个包,你的脸就是一个系统,而鼓起来的包就是你的脸对巴掌的响应,好,这样就和信号系统建立起来意义对应的联系。
下面还需要一些假设来保证论证的严谨:假定你的脸是线性时不变系统,也就是说,无论什么时候老板打你一巴掌,打在你脸的同一位置(这似乎要求你的脸足够光滑,如果你说你长了很多青春痘,甚至整个脸皮处处连续处处不可导,那难度太大了,我就无话可说了哈哈),你的脸上总是会在相同的时间间隔内鼓起来一个相同高度的包来,并且假定以鼓起来的包的大小作为系统输出。
好了,那么,下面可以进入核心内容——卷积了!
如果你每天都到地下去打台球,那么老板每天都要扇你一巴掌,不过当老板打你一巴掌后,你5分钟就消肿了,所以时间长了,你甚至就适应这种生活了……如果有一天,老板忍无可忍,以0.5秒的间隔开始不间断的扇你的过程,这样问题就来了,第一次扇你鼓起来的包还没消肿,第二个巴掌就来了,你脸上的包就可能鼓起来两倍高,老板不断扇你,脉冲不断作用在你脸上,效果不断叠加了,这样这些效果就可以求和了,结果就是你脸上的包的高度随时间变化的一个函数了(注意理解);如果老板再狠一点,频率越来越高,以至于你都辨别不清时间间隔了,那么,求和就变成积分了。
可以这样理解,在这个过程中的某一固定的时刻,你的脸上的包的鼓起程度和什么有关呢?和之前每次打你都有关!但是各次的贡献是不一样的,越早打的巴掌,贡献越小,所以这就是说,某一时刻的输出是之前很多次输入乘以各自的衰减系数之后的叠加而形成某一点的输出,然后再把不同时刻的输出点放在一起,形成一个函数,这就是卷积,卷积之后的函数就是你脸上的包的大小随时间变化的函数。
本来你的包几分钟就可以消肿,可是如果连续打,几个小时也消不了肿了,这难道不是一种平滑过程
么?反映到剑桥大学的公式上,f(a)就是第a个巴掌,g(x-a)就是第a个巴掌在x时刻的作用程度,乘起来再叠加就ok了,大家说是不是这个道理呢?。