卷积模板的翻译 达观数据深度学习资料之卷积神经网络
日期:2023-03-11 12:39:36 / 人气: 512 / 发布者:成都翻译公司
达观数据深度学习资料之卷积神经网络1深度学习背景深度学习是近十年来人工智能领域取得的*重要的突破之一通过建立类似于人脑的分层模型结构对输入数据逐级提取从底层到高层的特征从而能很好大观数据深度学习资料的卷积神经网络 1 深度学习背景 深度学习是近十年来人工智能领域*重要的突破之一。通过建立类似于人脑的分层模型结构,从底层逐步提取输入数据的高层特征,可以很好地建立从低层信号到高层语义的映射关系。近年来,谷歌、微软、IBM、百度等拥有大数据的高科技公司在语音识别、自然语言处理、计算机视觉、图像视频分析、多媒体等诸多深度学习技术研发上投入了大量资源。领域取得了巨大的成功。从对实际应用的贡献来看,深度学习可能是近十年来机器学习领域*成功的研究方向。卷积神经网络是深度学习的一个重要发展分支。资料整理了相关信息并进行了深入介绍。大观数据付汉杰 2 深度学习基础知识 神经网络 在了解深度学习的原理之前,首先要对神经网络有一定的了解。神经网络是生物大脑学习方法的建模。当您尝试执行一项新任务时,会激活一组特定的神经元。你观察结果。然后使用反馈来调整应该激活哪些神经元来多次训练大脑。之后,一些神经元之间的连接会发生变化。强,别人弱。这构成了记忆的基础。*简单的神经网络仅由一个神经元组成。一个神经元由输入截取函数和激活函数组成。当输入进入神经元时卷积模板的翻译,可以得到唯一的输出 hwbxfwxbT 单个神经元实际上是输入的线性组合。许多问题不能很好地解决。所谓的神经网络连接了许多神经元。一个神经元的输出是另一个神经元的输入。元素的多个线性组合得到原始特征的非线性组合,从而获得更好的泛化能力。一般的神经网络由一个输入层、多个隐藏层和一个输出层组成。隐藏层和输出层可以通过前向传播算法得到。它出现于2006年,加拿大多伦多大学机器学习领域教授Hinton和他的学生Salakhutdinov位居榜首。发表在学术期刊《科学》上的一篇文章开启了学术界和深度学习的浪潮。行业。与传统的神经网络相比,深度学习具有更深的层次和更少的参数,并且网络可以自成一体。
主要学习特征在图像和视频识别自然语言处理领域取得了不错的成绩。卷积神经网络,简称CNN,是比较有代表性的网络之一。4 Convolutional Neural Networks Convolutional Neural Networks Convolutional Neural Networks CNNs是第一个真正成功训练多层网络结构的学习算法。它利用空间关系来减少需要学习的参数数量,以提高一般前向BackPropagationBP算法的训练性能。CNN 被提议作为一种深度学习架构,以*小化数据的预处理要求。局部区域用作下一层的输入。每一层都使用数字滤波器来提取图像的局部显着特征,可以对局部区域的重要信息进行采样和保留。41 卷积的概念。卷积神经网络 ConvolutionalNeuralNetworks 的卷积操作是可训练的。filter对上一层的输出进行卷积求和,然后加上偏移量得到特征图作为下一层的输入卷积操作。与传统的神经网络相比,主要有稀疏链接权重共享等。变量表达特征 411稀疏链接卷积神经网络与传统神经网络相比,一个特点是稀疏链接与神经网络的全链接相比大大减少了参数数量。承包建设工程承包,股权转让合同协议、租赁合同模板、购房合同协议,计算效率也可以提高。具有 10×10 个元素的链接减少到原始数据的十分之一。复旦大学的付汉杰和陈韵文普遍认为,人们对外部世界的感知是从局部到全球的。从图像上看,空间连接是局部像素连接比较近。远处像素的连接较弱,所以神经网络中的权重环节只需要上层的局部感知就可以得到整幅图像的全局感知。如上图所示,只有神经元g3和隐藏层h的3个神经元直接连接但间接全链接到层x,所以层 g 具有层 x 412 权重共享的间接全局感知。当所有参数选择不同的值时,层与层之间的参数数量仍然非常巨大,权重共享之后,对每个神经元的输入使用相同的卷积操作,将参数数量减少到卷积核的大小。权重共享可以看作是不同位置的通用特征提取方法。这种有益的效果除了参数数量的减少之外,还具有一定的平移不变性。当物体在图像中有一定的平移时,仍然可以用相同的卷积核提取相应的特征来实现视图数据。上图是利用卷积核提取原始图像的特征。每个像素减去周围环境。可以看出相邻像素值的影响,提取特征得到原图的近似边缘。413 等距表达。在卷积运算中,函数 fx 和函数 gx 等价当且仅当 fgxgfx 表示两个相邻的卷积。操作顺序对结果没有影响。414卷积lxljfxil1kijbljMj的前向传播公式就是上一层的特征图。图为卷积运算 k 为卷积函数 iMj415 卷积 l 的反向传播公式 函数 fx 和函数 gx 等价当且仅当 fgxgfx 表示两个相邻的卷积。操作顺序对结果没有影响。414卷积lxljfxil1kijbljMj的前向传播公式就是上一层的特征图。图为卷积运算 k 为卷积函数 iMj415 卷积 l 的反向传播公式 函数 fx 和函数 gx 等价当且仅当 fgxgfx 表示两个相邻的卷积。操作顺序对结果没有影响。414卷积lxljfxil1kijbljMj的前向传播公式就是上一层的特征图。图为卷积运算 k 为卷积函数 iMj415 卷积 l 的反向传播公式
jlj1f39uljuplj1 是错误敏感项 upxx1nnup 操作是上采样 EljuvbjuvEll1puvjuvilkijuv42 什么是池化?通过卷积得到特征后,分类仍然面临着大量计算的挑战。随着时间的推移,一张 96×96 像素的图片通过 400 个 8×8 的卷积核获得特征。每个特征图有96-81×96-817921维特征,共400×79213768400维特征向量。在此基础上进行分类是一个计算量非常大的过程,这导致了卷积神经网络的池化操作。池化的一个重要步骤是将输入划分为不重叠的矩形。对每个矩形进行池化函数操作,如取*大值取*小值、加权平均等。池化的好处是大大降低了输入的分辨率。降低前一层的计算复杂度。2 具有一定的变换不变性。示例翻译不变性。旋转不变性。这有助于我们关注某些特征是什么,而不是特征的位置。上图反映了pooling的旋转不变性。输入笔迹 5 具有三个过滤器来检测和选择不同角度的笔迹。5 当过滤器匹配到对应的笔迹5时,过滤器会得到一个较大的激活值,然后无论笔迹5是什么,池化都会选择*大的激活值。旋转后的421池化前向传播公式xljfljdownxlj1bljdown是下采样操作422池化后向传播公式ljf39uljconv2lj1rot180klj139fullconv2是matlab中的反向卷积操作神经网络LeNet-5 LeNet-5有一个输入,6个隐藏层和1个输出。输入图像是 32×32 的图像。C1层、C3层和C5层都是具有5个28×28特征的卷积层。图 16 10×10 特征图和 120 1×1 特征图。例子中由于卷积核在卷积计算过程中的步长为1,所以一般得到的特征图的大小为L-n1×R-m1L,R为特征图的行列数上一层。n×m 是卷积核的大小。如图所示,随着层数的增加,卷积层的特征图的数量取决于卷积核和特征的数量。图的大小会逐渐变小。S2S4 是下采样层,有 6 个 14×14 的特征图和 16 个 5×5 的特征图。在例子中,采样窗口的大小为2×2并且采样范围不重叠,所以得到的特征图的大小为L2×R2。分辨率是原来的14下采样层。特征图的数量取决于前一层的数量。可以看出,与卷积层相比,下采样层正在减小特征图的大小。F6的能力更强,但丢失的信息更多。F6层由C5层组成。全链路类似于传统的神经网络。*终输出层由欧洲径向基函数单元组成。输出与参数向量的距离 51 前向传播 1 样本集 取一个样本 XYX 是图像 Y 是图像对应的分类 2 依次计算各层和输出层的特征图
输出分类是根据网络拓扑结构,通过卷积核从输入层的信息中得到C1层的特征图。对第一层进行采样计算得到S2层的特征图。计算从输出层到输入层的每一层的错误敏感项。2 通过每一层的误差敏感项更新每一层的链路矩阵。训练需要多种经验技巧,如网络结构选择神经元数量、设置参数、初始学习率调整等,因此为了便于模型的构建,需要多次训练模型并调整模型的训练速度。需求,但目前,深度学习有以下特点:1 数据量大。在CNN图像处理领域,图像数量往往是数百万级。2 模型的深度比其他模型复杂,参数数量多。大量导致收敛缓慢。对于大规模训练数据,加速模型61 GPU加速矢量化编程提高算法速度主要有以下三个方面。在模型的计算过程中,对于特定的计算操作往往需要进行大量的重复计算,向量线性规划强调在单条指令上对相似数据进行并行操作。但是,单个 CPU 上的向量操作的本质是串行执行。GPU 图形处理器包含数千个流处理器。向量运算可以并行执行。深度学习中的大量运算都是层与层之间的矩阵运算,使用GPU计算可以大大减少计算时间,充分发挥计算的高效并行性。下图显示了矩阵运算次数的增加。GPU的运行速度接近CPU的十倍。62 数据并行在模型的训练过程中。可以对训练数据进行分割,使用多个模型来训练每个分片的数据。随着数据分片数量的增加,每个分片的训练样本大大减少。模型的训练速度可以线性提高。分片的模型训练是相互独立的。培训结束后,需要交换模型参数。参数服务器需要更新模型参数。当分片模型告诉参数服务器参数对的变化时,参数服务器更新*新的模型,然后将*新的模型返回给每个训练的Model 63模型并行CNN,除了特定层的全链接,其他链接关系可以作为模型的平行线。模型的并行可执行部分可以拆分为多个 GPU。多个GPU用于计算每个子模型,大大加快了模型的速度。前向传播和反向传播的时间,例如在多个卷积核中对上采样层的特征图进行卷积运算。每个卷积核共享相同的输入但运算不相互依赖,可以并行计算以提高计算速度。总结 月度工作总结和计划 工作总结和工作计划 图像识别的研究进展突出体现在ImageNetILSVRC和人脸识别上,并且正在迅速推广到与图像识别相关的各种问题。卷积神经网络CNN逐渐与RNN等深度学习模型结合,取得了不错的效果。在未来的深度学习中是可以预见的。算法的应用将产生越来越深远的影响。大观数据也将密切关注深度学习*新技术动态大观数据付汉杰 总结 月度工作总结和计划 工作总结和工作计划 图像识别的研究进展突出体现在ImageNetILSVRC和人脸识别上卷积模板的翻译,并且正在迅速推广到与图像识别相关的各种问题。卷积神经网络CNN逐渐与RNN等深度学习模型结合,取得了不错的效果。在未来的深度学习中是可以预见的。算法的应用将产生越来越深远的影响。大观数据也将密切关注深度学习*新技术动态大观数据付汉杰 总结 月度工作总结和计划 工作总结和工作计划 图像识别的研究进展突出体现在ImageNetILSVRC和人脸识别上,并且正在迅速推广到与图像识别相关的各种问题。卷积神经网络CNN逐渐与RNN等深度学习模型结合,取得了不错的效果。在未来的深度学习中是可以预见的。算法的应用将产生越来越深远的影响。大观数据也将密切关注深度学习*新技术动态大观数据付汉杰 卷积神经网络CNN逐渐与RNN等深度学习模型结合,取得了不错的效果。在未来的深度学习中是可以预见的。算法的应用将产生越来越深远的影响。大观数据也将密切关注深度学习*新技术动态大观数据付汉杰 卷积神经网络CNN逐渐与RNN等深度学习模型结合,取得了不错的效果。在未来的深度学习中是可以预见的。算法的应用将产生越来越深远的影响。大观数据也将密切关注深度学习*新技术动态大观数据付汉杰
相关阅读Relate
热门文章 Recent
- 清华北大英语二翻译模板 转让北大翻译硕士(MTI)考研、英语专业八级及CATTI二级笔译参考书2023-03-11
- 翻译模板爱尔兰签证 爱尔兰留学签证申请条件是什么2023-03-11
- 瑞士护照翻译模板 在英国申请瑞士签证—条件&流程2023-03-11
- 翻译实践报告大纲模板 翻译实践报告撰写说明与翻译实践报告选题汇编2023-03-11
- 著作权证书翻译模板 授予翻译权合同2023-03-11
- 银行流水账户历史明细翻译模板 银行流水翻译2023-03-11
- 西班牙语翻译免费简历模板下载 西班牙语个人简历范文2023-03-11
- 就业协议书模板翻译 大学生就业协议书4篇2023-03-11
- 博士毕业证学位证德文翻译模板 毕业证翻译2023-03-11
- 美国移民证件翻译模板 美国出生证明翻译样稿2023-03-11


