cnn

阅读 / 问答 / 标签

为什么美国的那个叫CNN 英国的那个叫BBC 中国的为什么是CCTV 他们为什么不是XXTVD的

CCTV在英国是监控器的意思

我想要CNN Student News 主播 Carl Aruz 的简介 谁能给我呢 谢谢啊 越详细越好 不胜感激!!

下面是CNN网站的内容,足够权威了。Carl Azuz is the anchor of CNN Student News, a daily news program designed to bring current events into middle and high school classrooms. Having served in roles ranging from package producer, reporter and writer for the program, Azuz has covered every topic from the war in Iraq to the world"s most expensive ice cream sundae. He has also interviewed students for CNN"s "Fix Our Schools" series and explored the impact of technology on teenagers.In addition to his anchoring duties, Azuz appears as a contributor on CNN Newsroom. His focus has been on in-depth explanations of a range of stories, including the U.S. debt limit, the costs of college, the history of the U.S. Postal Service, the factors that drive gold prices, and the Atlanta Public Schools cheating scandal.Azuz has participated in public speaking events across the country. His speeches have been heard at national conventions, workshops, charity events, and graduation ceremonies. Previously, Azuz worked as a writer and associate producer for CNN International, and his original reports have appeared on virtually every CNN platform.Azuz earned his bachelor"s degree in telecommunications arts production from the University of Georgia.

CNN有哪些著名的电视评论节目?节目名称、风格、政治倾向、主持人、制作团队等等。。。谢啦~!

创维的啊我觉得还不错啊,,主要是功能和价位都比较好了。。。

CNN卷积神经网络结构有哪些特点?

局部连接,权值共享,池化操作,多层次结构。  1、局部连接使网络可以提取数据的局部特征;  2、权值共享大大降低了网络的训练难度,一个Filter只提取一个特征,在整个图片(或者语音/文本) 中进行卷积;  3、池化操作与多层次结构一起,实现了数据的降维,将低层次的局部特征组合成为较高层次的特征,从而对整个图片进行表示。

卷积神经网络(CNN)和循环神经网络(RNN)有什么区别?

卷积神经网络(CNN)主要用于处理具有网格结构的数据,例如图像和语音。它通过卷积层和池化层来提取输入数据中的局部特征,并通过全连接层进行分类或回归。CNN的卷积操作可以有效地捕捉到图像中的空间局部特征,并且具有参数共享的特性,减少了模型的参数量。循环神经网络(RNN)则更适合处理序列数据,例如自然语言和时间序列。RNN通过循环单元(如LSTM或GRU)来处理序列中的每个元素,并利用记忆单元来记住之前的上下文信息。这使得RNN能够对序列中的长期依赖关系进行建模,并在生成输出时考虑到先前的信息。

卷积神经网络CNN在图像识别问题应用综述(20191219)

u2003 u2003这两天在公司做PM实习,主要是自学一些CV的知识,以了解产品在解决一些在图像识别、图像搜索方面的问题,学习的主要方式是在知网检索了6.7篇国内近3年计算机视觉和物体识别的硕博士论文。由于时间关系,后面还会继续更新图片相似度计算(以图搜图)等方面的学习成果 u2003 u2003将这两天的学习成果在这里总结一下。你将会看到计算机视觉在解决特定物体识别问题(主要是卷积神经网络CNNs)的基础过程和原理,但这里不会深入到技术的实现层面。 u2003u2003计算机视觉(Computer vision)是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和计算机代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图像处理,用计算机处理成为更适合人眼观察或传送给仪器检测的图像。 u2003u2003 u2003u2003 u2003u2003 u2003u2003 u2003u2003 u2003u2003 u2003u2003 u2003u2003 u2003u2003 u2003u2003 u2003u2003 u2003u2003 u2003u2003 u2003u2003————维基百科 u2003u2003通常而言,计算机视觉的研究包括三个层次: (1)底层特征的研究: u2003u2003这一层次的研究主要聚焦如何高效提取出图像对象具有判别性能的特征,具体的研究内容通常包括:物体识别、字符识别等 (2)中层语义特征的研究: u2003u2003 该层次的研究在于在识别出对象的基础上,对其位置、边缘等信息能够准确区分。现在比较热门的:图像分割;语义分割;场景标注等,都属于该领域的范畴 (3)高层语义理解: u2003u2003这一层次建立在前两层的基础上,其核心在于“理解”一词。 目标在于对复杂图像中的各个对象完成语义级别的理解。这一层次的研究常常应用于:场景识别、图像摘要生成及图像语义回答等。 u2003u2003而我研究的问题主要隶属于底层特征和中层语义特征研究中的物体识别和场景标注问题。 人类的视觉工作模式是这样的: u2003 u2003首先,我们大脑中的神经元接收到大量的信息微粒,但我们的大脑还并不能处理它们。 u2003u2003 于是接着神经元与神经元之间交互将大量的微粒信息整合成一条又一条的线。 u2003 u2003接着,无数条线又整合成一个个轮廓。 u2003 u2003最后多个轮廓累加终于聚合我们现在眼前看到的样子。 u2003u2003计算机科学受到神经科学的启发,也采用了类似的工作方式。具体而言,图像识别问题一般都遵循下面几个流程 u2003u2003(1)获取底层信息。获取充分且清洁的高质量数据往往是图像识别工作能否成功的关键所在 u2003u2003(2)数据预处理工作,在图像识别领域主要包括四个方面的技术:去噪处理(提升信噪比)、图像增强和图像修复(主要针对不够清晰或有破损缺失的图像);归一化处理(一方面是为了减少开销、提高算法的性能,另一方面则是为了能成功使用深度学习等算法,这类算法必须使用归一化数据)。 u2003u2003(3)特征提取,这一点是该领域的核心,也是本文的核心。图像识别的基础是能够提取出足够高质量,能体现图像独特性和区分度的特征。 u2003u2003过去在10年代之前我们主要还是更多的使用传统的人工特征提取方法,如PCALCA等来提取一些人工设计的特征,主要的方法有(HOG、LBP以及十分著名的SIFT算法)。但是这些方法普遍存在(a)一般基于图像的一些提层特征信息(如色彩、纹理等)难以表达复杂的图像高层语义,故泛化能力普遍比较弱。(b)这些方法一般都针对特定领域的特定应用设计,泛化能力和迁移的能力大多比较弱。 u2003u2003另外一种思路是使用BP方法,但是毕竟BP方法是一个全连接的神经网络。这以为这我们非常容易发生过拟合问题(每个元素都要负责底层的所有参数),另外也不能根据样本对训练过程进行优化,实在是费时又费力。 u2003u2003因此,一些研究者开始尝试把诸如神经网络、深度学习等方法运用到特征提取的过程中,以十几年前深度学习方法在业界最重要的比赛ImageNet中第一次战胜了SIFT算法为分界线,由于其使用权重共享和特征降采样,充分利用了数据的特征。几乎每次比赛的冠军和主流都被深度学习算法及其各自改进型所占领。其中,目前使用较多又最为主流的是CNN算法,在第四部分主要也研究CNN方法的机理。 u2003u2003上图是一个简易的神经网络,只有一层隐含层,而且是全连接的(如图,上一层的每个节点都要对下一层的每个节点负责。)具体神经元与神经元的作用过程可见下图。 u2003u2003在诸多传统的神经网络中,BP算法可能是性能最好、应用最广泛的算法之一了。其核心思想是:导入训练样本、计算期望值和实际值之间的差值,不断地调整权重,使得误差减少的规定值的范围内。其具体过程如下图: u2003u2003一般来说,机器学习又分成浅层学习和深度学习。传统的机器学习算法,如SVM、贝叶斯、神经网络等都属于浅层模型,其特点是只有一个隐含层。逻辑简单易懂、但是其存在理论上缺乏深度、训练时间较长、参数很大程度上依赖经验和运气等问题。 u2003u2003如果是有多个隐含层的多层神经网络(一般定义为大于5层),那么我们将把这个模型称为深度学习,其往往也和分层训练配套使用。这也是目前AI最火的领域之一了。如果是浅层模型的问题在于对一个复杂函数的表示能力不够,特别是在复杂问题分类情况上容易出现分类不足的弊端,深度网络的优势则在于其多层的架构可以分层表示逻辑,这样就可以用简单的方法表示出复杂的问题,一个简单的例子是: u2003u2003如果我们想计算sin(cos(log(exp(x)))), u2003u2003那么深度学习则可分层表示为exp(x)—>log(x)—>cos(x)—>sin(x) u2003u2003图像识别问题是物体识别的一个子问题,其鲁棒性往往是解决该类问题一个非常重要的指标,该指标是指分类结果对于传入数据中的一些转化和扭曲具有保持不变的特性。这些转化和扭曲具体主要包括了: (1)噪音(2)尺度变化(3)旋转(4)光线变化(5)位移 u2003u2003该部分具体的内容,想要快速理解原理的话推荐看[知乎相关文章] ( https://www.zhihu.com/search?type=content&q=CNN ), u2003u2003特别是其中有些高赞回答中都有很多动图和动画,非常有助于理解。 u2003u2003但核心而言,CNN的核心优势在于 共享权重 以及 感受野 ,减少了网络的参数,实现了更快的训练速度和同样预测结果下更少的训练样本,而且相对于人工方法,一般使用深度学习实现的CNN算法使用无监督学习,其也不需要手工提取特征。 CNN算法的过程给我的感觉,个人很像一个“擦玻璃”的过程。其技术主要包括了三个特性:局部感知、权重共享和池化。 u2003u2003CNN中的神经元主要分成了两种: (a)用于特征提取的S元,它们一起组成了卷积层,用于对于图片中的每一个特征首先局部感知。其又包含很关键的阈值参数(控制输出对输入的反映敏感度)和感受野参数(决定了从输入层中提取多大的空间进行输入,可以简单理解为擦玻璃的抹布有多大) (b)抗形变的C元,它们一起组成了池化层,也被称为欠采样或下采样。主要用于特征降维,压缩数据和参数的数量,减小过拟合,同时提高模型的容错性。 (c*)激活函数,及卷积层输出的结果要经过一次激励函数才会映射到池化层中,主要的激活函数有Sigmoid函数、Tanh函数、ReLU、Leaky ReLU、ELU、Maxout等。 u2003u2003也许你会抱有疑问,CNN算法和传统的BP算法等究竟有什么区别呢。这就会引出区域感受野的概念。在前面我们提到,一个全连接中,较高一层的每个神经元要对低层的每一个神经元负责,从而导致了过拟合和维度灾难的问题。但是有了区域感受野和,每个神经元只需要记录一个小区域,而高层会把这些信息综合起来,从而解决了全连接的问题。 u2003u2003了解区域感受野后,你也许会想,区域感受野的底层神经元具体是怎么聚合信息映射到上一层的神经元呢,这就要提到重要的卷积核的概念。这个过程非常像上面曾提到的“神经元与神经元的联系”一图,下面给大家一个很直观的理解。 u2003u2003上面的这个过程就被称为一个卷积核。在实际应用中,单特征不足以被系统学习分类,因此我们往往会使用多个滤波器,每个滤波器对应1个卷积核,也对应了一个不同的特征。比如:我们现在有一个人脸识别应用,我们使用一个卷积核提取出眼睛的特征,然后使用另一个卷积核提取出鼻子的特征,再用一个卷积核提取出嘴巴的特征,最后高层把这些信息聚合起来,就形成了分辨一个人与另一个人不同的判断特征。 u2003u2003现在我们已经有了区域感受野,也已经了解了卷积核的概念。但你会发现在实际应用中还是有问题: u2003u2003给一个100 100的参数空间,假设我们的感受野大小是10 10,那么一共有squar(1000-10+1)个,即10的六次方个感受野。每个感受野中就有100个参数特征,及时每个感受野只对应一个卷积核,那么空间内也会有10的八次方个次数,,更何况我们常常使用很多个卷积核。巨大的参数要求我们还需要进一步减少权重参数,这就引出了权重共享的概念。 u2003u2003 用一句话概括就是,对同一个特征图,每个感受野的卷积核是一样的,如这样操作后上例只需要100个参数。 u2003u2003池化是CNN技术的最后一个特性,其基本思想是: 一块区域有用的图像特征,在另一块相似的区域中很可能仍然有用。即我们通过卷积得到了大量的边缘EDGE数据,但往往相邻的边缘具有相似的特性,就好像我们已经得到了一个强边缘,再拥有大量相似的次边缘特征其实是没有太大增量价值的,因为这样会使得系统里充斥大量冗余信息消耗计算资源。 具体而言,池化层把语义上相似的特征合并起来,通过池化操作减少卷积层输出的特征向量,减少了参数,缓解了过拟合问题。常见的池化操作主要包括3种: 分别是最大值池化(保留了图像的纹理特征)、均值池化(保留了图像的整体特征)和随机值池化。该技术的弊端是容易过快减小数据尺寸,目前趋势是用其他方法代替池化的作用,比如胶囊网络推荐采用动态路由来代替传统池化方法,原因是池化会带来一定程度上表征的位移不变性,传统观点认为这是一个优势,但是胶囊网络的作者Hinton et al.认为图像中位置信息是应该保留的有价值信息,利用特别的聚类评分算法和动态路由的方式可以学习到更高级且灵活的表征,有望冲破目前卷积网络构架的瓶颈。 u2003u2003CNN总体来说是一种结构,其包含了多种网络模型结构,数目繁多的的网络模型结构决定了数据拟合能力和泛化能力的差异。其中的复杂性对用户的技术能力有较高的要求。此外,CNN仍然没有很好的解决过拟合问题和计算速度较慢的问题。 u2003u2003 该部分的核心参考文献: 《深度学习在图像识别中的应用研究综述》郑远攀,李广阳,李晔.[J].计算机工程与应用,2019,55(12):20-36. u2003u2003深度学习技术在计算机图像识别方面的领域应用研究是目前以及可预见的未来的主流趋势,在这里首先对深度学习的基本概念作一简介,其次对深度学习常用的结构模型进行概述说明,主要简述了深度信念网络(DBN)、卷积神经网络(CNN)、循环神经网络(RNN)、生成式对抗网络(GAN)、胶囊网络(CapsNet)以及对各个深度模型的改进模型做一对比分析。 u2003u2003深度学习按照学习架构可分为生成架构、判别架构及混合架构。 其生成架构模型主要包括: u2003u2003受限波尔兹曼机、自编码器、深层信念网络等。判别架构模型主要包括:深层前馈网络、卷积神经网络等。混合架构模型则是这两种架构的集合。深度学习按数据是否具有标签可分为非监督学习与监督学习。非监督学习方法主要包括:受限玻尔兹曼机、自动编码器、深层信念网络、深层玻尔兹曼机等。 u2003u2003监督学习方法主要包括:深层感知器、深层前馈网络、卷积神经网络、深层堆叠网络、循环神经网络等。大量实验研究表明,监督学习与非监督学习之间无明确的界限,如:深度信念网络在训练过程中既用到监督学习方法又涉及非监督学习方法。 [1]周彬. 多视图视觉检测关键技术及其应用研究[D].浙江大学,2019. [2]郑远攀,李广阳,李晔.深度学习在图像识别中的应用研究综述[J].计算机工程与应用,2019,55(12):20-36. [3]逄淑超. 深度学习在计算机视觉领域的若干关键技术研究[D].吉林大学,2017. [4]段萌. 基于卷积神经网络的图像识别方法研究[D].郑州大学,2017. [5]李彦冬. 基于卷积神经网络的计算机视觉关键技术研究[D].电子科技大学,2017. [6]李卫. 深度学习在图像识别中的研究及应用[D].武汉理工大学,2014. [7]许可. 卷积神经网络在图像识别上的应用的研究[D].浙江大学,2012. [8]CSDN、知乎、机器之心、维基百科

R-CNN 系列 object detection 算法

在 object detection 领域,近 5 年的突破性进展似乎都与一个名字有关系:Ross Girshick。梳理从 R-CNN,Fast R-CNN, Faster R-CNN 到 Mask R-CNN 等各种经典模型,Ross Girshick 都是作者之一,甚至连 YOLO 的作者中也出现了 Ross Girshick 的名字。 这位大神简历如下: 从算法到实现框架再到数据集,这位大神实现了一条龙的突破~ 本文的目的是整理总结 R-CNN 系列算法的发展历程和模型本身的核心思想,不涉及太多技术细节(例如训练数据预处理,超参数设置等)。 参考文献主要是上述各算法的原文以及下列资源: R-CNN,一般认为全称是 Region-based CNN 或者作者原文中提到的 Regions with CNN features。 概括地说,R-CNN 的步骤如下图所示: 下面详细介绍 R-CNN 中的关键环节。 对于输入的图片,首先利用 selective search 算法 生成约 2000 个 region。关于 selective search 算法可以参考 原文 ,也可以参考 我们之前的博客文章 。原文中提到 R-CNN 对各种 region proposal 算法没有偏好,之所以选择 selective search 算法仅仅是为了方便与前人工作做对比。 这一部分的目的是对于每一个 region,通过 CNN (原文选用 AlexNet) 进行特征提取,得到统一长度的 feature vector,以便后续的分类。 由于每个 region 的大小差别比较大,而 AlexNet 默认接收 227×227 pixel 的图片,这里就需要对 region 做一些预处理,主要是 region 大小的转化。 要把一个任意大小的图片转化成 227×227 像素的图片方法有很多,原文中介绍了 4 种方式: 分别是: 最终作者选择了 warp + padding 的方式,一方面 warp 相对来说是最简单的,直接把任意大小的图片缩放成 227×227 即可,另外 padding 是在原 region 周围稍微添加了一些像素点,从实际效果看提高了检测正确率。 将统一大小的 region 送入 CNN 中,进行特征提取。 如何得到这个 CNN 也是一个问题。 针对目标检测的数据集 ILSVRC detection dataset 包含了 200 类物体,PASCAL VOC (Visual Object Classes) 包含了 20 类物体。相对来说带有标签的训练数据比较少,不足以训练一个大型的 CNN,因此采用了 transfer learning 的技术。原文中并没有提到 transfer learning 这个名词,只是说 fine-tuning 。 首先借用在 ImageNet 上已经训练好的 CNN 模型(最初的文章中用了 AlexNet,后来 arXiv 上新版文章中用了 VGG,效果提升很明显),然后在 PASCAL 数据集上进行 fine-tuning。这里对 AlexNet 网络结构的改变只是将原本对应 ImageNet 1000 类输出的 classification layer 替换成了对应 N+1 类输出的 classification layer,该层权重随机初始化。对于 PASCAL 数据集 N=20,ILSVRC 数据集 N=200,另外 +1 对应 background 类型。 经过 fine-tuning 之后,CNN softmax layer 之前的 4096 维向量即为该 region 的 feature vector. 得到 region 的 feature vector 之后,送入 SVM 进行最后的分类。 这里 SVM 的训练是针对不同类型的物体分开进行的,每一类训练一个 SVM,它只给出针对这一类物体的分类结果。之所以最后用 SVM 分类,而不是直接用 CNN 的 softmax 进行分类,原文作者的解释是尝试过 softmax 之后发现效果比 SVM 差一些,但是同时指出如果调整一些训练策略,softmax 和 SVM 之间的差距有可能缩小。这也为后来基于 R-CNN 的改进埋下了伏笔。 得到所有 region 对应的检测结果(即包含某种类型物体的概率 score)之后,还有一步操作: Non-Maximum Suppression (NMS) 。如果两个 region 检测到同一类物体,比如都检测到了行人,一个 region score 较高,而另一个 score 较低,当这两个 region 的 IoU (intersection-over-union) 超过某个阈值时,即它们重合较多时,只保留那个 score 较高的 region. object detection 的任务除了检测图中的物体,还要给出定位,即用 bounding box 尽量准确的圈出该物体。前边基于 region 的分类过程可能能够正确辨识出 region 中的物体,但是初始的 region 并不一定是一个合适的 bbox。在 R-CNN 最后又添加了一个线性回归模型,基于 feature vector 来预测正确的 bbox 相对于 region 的位置变换,即预测 bbox 应该如何调整。这个训练过程也是 class-specific 的。 在最终使用时,R-CNN 输出包含两部分: 理论上来说,更新 bbox 的位置之后,应该在新的 bbox 中重新进行分类,这样准确度可能更高一些,但是原文作者发现实际上并没有明显改进。因此,实际使用中并没有对新的 bbox 重新分类。 总的来说,上述 R-CNN 的训练是分多步走的:先是 fine-tuning 一个 CNN 得到 feature vector,然后训练 SVM 进行分类,最后还要再训练一个线性回归环节预测 bounding box 的调整。 Fast R-CNN 的改进是不再使用独立的 SVM 和线性回归,而是统一用 CNN 将这三个环节整合起来。Fast R-CNN 在训练时间和检测时间方面比当时已有的其他算法快若干数量级。 Fast R-CNN 整体框架如下: 基本步骤: 在上述各环节中,我认为比较关键的有两个:一是 RoI projection,即将 image 上的 RoI 映射到 feature map 上的 RoI。二是通过 RoI pooling layer 将 feature map 上不同大小的 RoI 转化成统一大小的 sub feature map。而这两个环节都借鉴了 SPPnets ,其中 RoI pooling layer 是 SPPnets 中 Spatial Pyramid Pooling layer 的特例。 原本 R-CNN 是在原图上选取若干RoI,然后经过 CNN 处理,最后提取出 feature vector。对于每个图片上不同的 RoI 来说,从输入到输出没有任何共享的东西。 RoI projection 的作用是将 R-CNN 中对 image RoI 的处理推迟到了 feature map 上,这样可以让一个 image 的所有 RoI 共享从 image 到 feature map 的卷积处理过程。这很显然会加速训练和测试过程。至于如何将 image RoI 映射到 feature map RoI,已经有了 非常细致的讨论 ,这里不再赘述。 如何将 feature map 上不同大小的 RoI 转化成统一大小的 sub feature map? 这里 有非常直观的动画演示。 概括如下: 假设我们已经得到下面的 feature map (只考虑 2D) 其中 RoI 为黑框部分,大小为 。 我们希望将 RoI 转化成 2×2 大小,可以选择一个 2×2 的窗口如下 对每一个格子进行 max pooling 操作,得到如下的 2×2 的 feature map 总的来说,如果 RoI 大小为 ,希望得到的 feature map 大小为 ,则窗口中格子数目为 。可以根据具体情况向上或向下取整。 结合实际应用,如果 CNN 网络选用 VGG16,结构如下: 将最后一个 max pooling layer 替换为 RoI pooling layer。前部的卷积层对输入图片的大小没有严格限制,这一限制主要是在 fully connected layer,所以为了配合 VGG16 网络结构,要确保每个 RoI 输出的 feature map 依然为 。 对于 VGG16 网络结构的修改还包括: 在 Fast R-CNN 中,region proposal 是由 CNN 网络之外的算法提供的,例如 selective search。相对于后续的 region recognition 过程,region proposal 这一步实际上是整个算法的速度瓶颈。 Faster R-CNN 之所以 "Faster",就是因为提出了 Region Proposal Network (RPN) ,加速了 region proposal 过程。Faster R-CNN 本质上就是 RPN + Fast R-CNN. 整个 Faster R-CNN 结构如下: 或者更加详细的结构如下: RPN 和 Fast R-CNN 共享从 image 到最后一层 CNN 输出的 feature map 这一段网络结构。 有些文章 也将 Faster R-CNN 看做三个模块:用于生成 feature map 的 Feature network,用于生成 region proposal 的 RPN,以及用于最终的 object detection 的 Detection network。我们这里还是采用 RPN + Fast R-CNN 的形式。 RPN 的输入是原始 image,输出是 region proposals。在具体实现中,RPN 是 fully convolutional network (FCN),只包含 convolutional layer,原本在分类/回归中常用的全连通层也由卷积操作替代。 有了 region proposals,后边的操作与 Fast R-CNN 是相同的。 原文中采用 alternating training 的方式:

CNN计算原理

CNN编码器与解码器: 神经网络为线性变换,当输入向量维度高于输出向量维度时,神经网络相当于一个编码器,实现高维特征的低维特征提取.反之,输入向量维度小于输出维度,神经网络相当于一个解码器,实现低维特征的高维重建. 在数学中, (f*g)(n) 为 f,g 的卷积,在连续空间定义为: 离散定义为: 将图像看成三维矩阵,卷积操作如下: BN是为了克服神经网络难以训练而提出的,在较深的网络结构中反向传播防止梯度弥散,在遇到train收敛速度很慢或者梯度爆炸等状况可以使用BN,提高模型精度. CNN正向传播: 训练过程通过反向传播更新权重,主要采用chain rule(链式求导法则): 零均值归一化/Z-score标准化 处理后数据变为均值为0,标准差为1的正态分布.通常神经网络和机器学习中很多问题都是基于正态分布的假设.这种参数变化不会改变分布自身形状 数据非标准化的原因可查看这篇文章 here 正态分布Box-Cox变换 将一个非正态分布转换为正态分布,使得分布具有对称性. 直方图均衡化 通过图像的灰度值分布,对图像对比度进行调整,可以增强局部对比度. 缩小features尺寸,实现upsample,减少计算量,防止网络过拟合 Avg Pooling 均值池化: 取卷积核平均值作为输出 Max Pooling 最大值池化操作: 取卷积核中最大值作为输出 一般情况池化区域不重叠 4*4 到 2*2 ,对于max pooling正向计算需要记录最大值所在位置,方向传播将参差传到最大值位置,其余位置补0.Avg pooling反向时将参差均分,传递到每个位置. 模拟人的神经元,只对部分神经元的输入做出反应.加入非线性因子,弥补神经网络的线性映射的不足.增强模型的表达能力. https://www.zhihu.com/question/22298352 https://blog.csdn.net/panglinzhuo/article/details/75207855

cnn里面池化的作用是什么,为什么对于同样的神经网络,我们把sample层去掉之后反而正确率下降了?

cnn里面池化的作用:增大感受野。所谓感受野,即一个像素对应回原图的区域大小,假如没有pooling,一个3*3,步长为1的卷积,那么输出的一个像素的感受野就是3*3的区域,再加一个stride=1的3*3卷积,则感受野为5*5。假如我们在每一个卷积中间加上3*3的pooling呢?很明显感受野迅速增大,这就是pooling的一大用处。感受野的增加对于模型的能力的提升是必要的,正所谓“一叶障目则不见泰山也”。正确率下降的原因:池化层往往跟在卷积层后面。通过平均池化或者最大池化的方法将之前卷基层得到的特征图做一个聚合统计。假设L层的卷积层得到的某一特征图有100*100这么大的尺寸。选一个2*2的区域做不重叠的最大池化,池化层会输出50*50那么大的图,达到降低数据量的目的。采样层的作用可以等效为正则化,可以降低模型的耦合度,所以去掉的话准确率降低是正常的。如果不加池化层应该保留原始数据,只影响模型训练速度是不影响性能的。总结如下:因为图像具有一种“静态性”的属性,这也就意味着在一个图像区域有用的特征极有可能在另一个区域同样适用。例如,卷积层输出的特征图中两个相连的点的特征通常会很相似,假设a[0,0],a[0,1],a[1,0],a[1,1]都表示颜色特征是红色,没有必要都保留作下一层的输入。池化层可以将这四个点做一个整合,输出红色这个特征。可以达到降低模型的规模,加速训练的目的。

CNN网络的pooling层有什么用

你好,最直接的作用是引入了不变性,比如最常见的conv-max pooling,因为取一片区域的最大值,所以这个最大值在该区域内无论在哪,max-pooling之后都是它,相当于对微小位移的不变性。而如果我们对输入pooling前的层做一些精心设计,让pooling region里对应的是设计后的一些性质变化,那么pooling就相当于实现了对这种设计出来的变化的不变性。比如旋转(当然就旋转而言这个方法似乎不是很好)

CNN网络简介

卷积神经网络简介(Convolutional Neural Networks,简称CNN)卷积神经网络是近年发展起来,并引起广泛重视的一种高效识别方法。20世纪60年代,Hubel和Wiesel在研究猫脑皮层中用于局部敏感和方向选择的神经元时发现其独特的网络结构可以有效地降低反馈神经网络的复杂性,继而提出了卷积神经网络(Convolutional Neural Networks-简称CNN)。现在,CNN已经成为众多科学领域的研究热点之一,特别是在模式分类领域,由于该网络避免了对图像的复杂前期预处理,可以直接输入原始图像,因而得到了更为广泛的应用。 K.Fukushima在1980年提出的新识别机是卷积神经网络的第一个实现网络。随后,更多的科研工作者对该网络进行了改进。其中,具有代表性的研究成果是Alexander和Taylor提出的“改进认知机”,该方法综合了各种改进方法的优点并避免了耗时的误差反向传播。 一般地,CNN的基本结构包括两层,其一为特征提取层,每个神经元的输入与前一层的局部接受域相连,并提取该局部的特征。一旦该局部特征被提取后,它与其它特征间的位置关系也随之确定下来;其二是特征映射层,网络的每个计算层由多个特征映射组成,每个特征映射是一个平面,平面上所有神经元的权值相等。特征映射结构采用影响函数核小的sigmoid函数作为卷积网络的激活函数,使得特征映射具有位移不变性。此外,由于一个映射面上的神经元共享权值,因而减少了网络自由参数的个数。卷积神经网络中的每一个卷积层都紧跟着一个用来求局部平均与二次提取的计算层,这种特有的两次特征提取结构减小了特征分辨率。 CNN主要用来识别位移、缩放及其他形式扭曲不变性的二维图形。由于CNN的特征检测层通过训练数据进行学习,所以在使用CNN时,避免了显示的特征抽取,而隐式地从训练数据中进行学习;再者由于同一特征映射面上的神经元权值相同,所以网络可以并行学习,这也是卷积网络相对于神经元彼此相连网络的一大优势。卷积神经网络以其局部权值共享的特殊结构在语音识别和图像处理方面有着独特的优越性,其布局更接近于实际的生物神经网络,权值共享降低了网络的复杂性,特别是多维输入向量的图像可以直接输入网络这一特点避免了特征提取和分类过程中数据重建的复杂度。 1. 神经网络 首先介绍神经网络,这一步的详细可以参考资源1。简要介绍下。神经网络的每个单元如下:其对应的公式如下:其中,该单元也可以被称作是Logistic回归模型。当将多个单元组合起来并具有分层结构时,就形成了神经网络模型。下图展示了一个具有一个隐含层的神经网络。其对应的公式如下:比较类似的,可以拓展到有2,3,4,5,…个隐含层。 神经网络的训练方法也同Logistic类似,不过由于其多层性,还需要利用链式求导法则对隐含层的节点进行求导,即梯度下降+链式求导法则,专业名称为反向传播。关于训练算法,本文暂不涉及。 2 卷积神经网络 在图像处理中,往往把图像表示为像素的向量,比如一个1000×1000的图像,可以表示为一个1000000的向量。在上一节中提到的神经网络中,如果隐含层数目与输入层一样,即也是1000000时,那么输入层到隐含层的参数数据为1000000×1000000=10^12,这样就太多了,基本没法训练。所以图像处理要想练成神经网络大法,必先减少参数加快速度。就跟辟邪剑谱似的,普通人练得很挫,一旦自宫后内力变强剑法变快,就变的很牛了。 2.1 局部感知 卷积神经网络有两种神器可以降低参数数目,第一种神器叫做局部感知野。一般认为人对外界的认知是从局部到全局的,而图像的空间联系也是局部的像素联系较为紧密,而距离较远的像素相关性则较弱。因而,每个神经元其实没有必要对全局图像进行感知,只需要对局部进行感知,然后在更高层将局部的信息综合起来就得到了全局的信息。网络部分连通的思想,也是受启发于生物学里面的视觉系统结构。视觉皮层的神经元就是局部接受信息的(即这些神经元只响应某些特定区域的刺激)。如下图所示:左图为全连接,右图为局部连接。在上右图中,假如每个神经元只和10×10个像素值相连,那么权值数据为1000000×100个参数,减少为原来的千分之一。而那10×10个像素值对应的10×10个参数,其实就相当于卷积操作。 2.2 参数共享 但其实这样的话参数仍然过多,那么就启动第二级神器,即权值共享。在上面的局部连接中,每个神经元都对应100个参数,一共1000000个神经元,如果这1000000个神经元的100个参数都是相等的,那么参数数目就变为100了。 怎么理解权值共享呢?我们可以这100个参数(也就是卷积操作)看成是提取特征的方式,该方式与位置无关。这其中隐含的原理则是:图像的一部分的统计特性与其他部分是一样的。这也意味着我们在这一部分学习的特征也能用在另一部分上,所以对于这个图像上的所有位置,我们都能使用同样的学习特征。 更直观一些,当从一个大尺寸图像中随机选取一小块,比如说 8×8 作为样本,并且从这个小块样本中学习到了一些特征,这时我们可以把从这个 8×8 样本中学习到的特征作为探测器,应用到这个图像的任意地方中去。特别是,我们可以用从 8×8 样本中所学习到的特征跟原本的大尺寸图像作卷积,从而对这个大尺寸图像上的任一位置获得一个不同特征的激活值。 如下图所示,展示了一个33的卷积核在55的图像上做卷积的过程。每个卷积都是一种特征提取方式,就像一个筛子,将图像中符合条件(激活值越大越符合条件)的部分筛选出来。2.3 多卷积核 上面所述只有100个参数时,表明只有1个100*100的卷积核,显然,特征提取是不充分的,我们可以添加多个卷积核,比如32个卷积核,可以学习32种特征。在有多个卷积核时,如下图所示:上图右,不同颜色表明不同的卷积核。每个卷积核都会将图像生成为另一幅图像。比如两个卷积核就可以将生成两幅图像,这两幅图像可以看做是一张图像的不同的通道。如下图所示,下图有个小错误,即将w1改为w0,w2改为w1即可。下文中仍以w1和w2称呼它们。 下图展示了在四个通道上的卷积操作,有两个卷积核,生成两个通道。其中需要注意的是,四个通道上每个通道对应一个卷积核,先将w2忽略,只看w1,那么在w1的某位置(i,j)处的值,是由四个通道上(i,j)处的卷积结果相加然后再取激活函数值得到的。所以,在上图由4个通道卷积得到2个通道的过程中,参数的数目为4×2×2×2个,其中4表示4个通道,第一个2表示生成2个通道,最后的2×2表示卷积核大小。 2.4 Down-pooling 在通过卷积获得了特征 (features) 之后,下一步我们希望利用这些特征去做分类。理论上讲,人们可以用所有提取得到的特征去训练分类器,例如 softmax 分类器,但这样做面临计算量的挑战。例如:对于一个 96X96 像素的图像,假设我们已经学习得到了400个定义在8X8输入上的特征,每一个特征和图像卷积都会得到一个 (96 u2212 8 + 1) × (96 u2212 8+ 1) = 7921 维的卷积特征,由于有 400 个特征,所以每个样例 (example) 都会得到一个 892 × 400 =3,168,400 维的卷积特征向量。学习一个拥有超过 3 百万特征输入的分类器十分不便,并且容易出现过拟合 (over-fitting)。 为了解决这个问题,首先回忆一下,我们之所以决定使用卷积后的特征是因为图像具有一种“静态性”的属性,这也就意味着在一个图像区域有用的特征极有可能在另一个区域同样适用。因此,为了描述大的图像,一个很自然的想法就是对不同位置的特征进行聚合统计,例如,人们可以计算图像一个区域上的某个特定特征的平均值(或最大值)。这些概要统计特征不仅具有低得多的维度 (相比使用所有提取得到的特征),同时还会改善结果(不容易过拟合)。这种聚合的操作就叫做池(pooling),有时也称为平均池化或者最大池化 (取决于计算池化的方法)。至此,卷积神经网络的基本结构和原理已经阐述完毕。 2.5 多层卷积 在实际应用中,往往使用多层卷积,然后再使用全连接层进行训练,多层卷积的目的是一层卷积学到的特征往往是局部的,层数越高,学到的特征就越全局化。 3 ImageNet-2010网络结构 ImageNetLSVRC是一个图片分类的比赛,其训练集包括127W+张图片,验证集有5W张图片,测试集有15W张图片。本文截取2010年AlexKrizhevsky的CNN结构进行说明,该结构在2010年取得冠军,top-5错误率为15.3%。值得一提的是,在今年的ImageNetLSVRC比赛中,取得冠军的GoogNet已经达到了top-5错误率6.67%。可见,深度学习的提升空间还很巨大。 下图即为Alex的CNN结构图。需要注意的是,该模型采用了2-GPU并行结构,即第1、2、4、5卷积层都是将模型参数分为2部分进行训练的。在这里,更进一步,并行结构分为数据并行与模型并行。数据并行是指在不同的GPU上,模型结构相同,但将训练数据进行切分,分别训练得到不同的模型,然后再将模型进行融合。而模型并行则是,将若干层的模型参数进行切分,不同的GPU上使用相同的数据进行训练,得到的结果直接连接作为下一层的输入。上图模型的基本参数为: 输入:224×224大小的图片,3通道 第一层卷积:5×5大小的卷积核96个,每个GPU上48个。 第一层max-pooling:2×2的核。 第二层卷积:3×3卷积核256个,每个GPU上128个。 第二层max-pooling:2×2的核。 第三层卷积:与上一层是全连接,3*3的卷积核384个。分到两个GPU上个192个。 第四层卷积:3×3的卷积核384个,两个GPU各192个。该层与上一层连接没有经过pooling层。 第五层卷积:3×3的卷积核256个,两个GPU上个128个。 第五层max-pooling:2×2的核。 第一层全连接:4096维,将第五层max-pooling的输出连接成为一个一维向量,作为该层的输入。 第二层全连接:4096维 Softmax层:输出为1000,输出的每一维都是图片属于该类别的概率。 4 DeepID网络结构 DeepID网络结构是香港中文大学的Sun Yi开发出来用来学习人脸特征的卷积神经网络。每张输入的人脸被表示为160维的向量,学习到的向量经过其他模型进行分类,在人脸验证试验上得到了97.45%的正确率,更进一步的,原作者改进了CNN,又得到了99.15%的正确率。 如下图所示,该结构与ImageNet的具体参数类似,所以只解释一下不同的部分吧。上图中的结构,在最后只有一层全连接层,然后就是softmax层了。论文中就是以该全连接层作为图像的表示。在全连接层,以第四层卷积和第三层max-pooling的输出作为全连接层的输入,这样可以学习到局部的和全局的特征。

一文看懂卷积神经网络-CNN(基本原理+独特价值+实际应用)

在 CNN 出现之前,图像对于人工智能来说是一个难题,有2个原因: 图像需要处理的数据量太大,导致成本很高,效率很低 图像在数字化的过程中很难保留原有的特征,导致图像处理的准确率不高 下面就详细说明一下这2个问题:图像是由像素构成的,每个像素又是由颜色构成的。 现在随随便便一张图片都是 1000×1000 像素以上的, 每个像素都有RGB 3个参数来表示颜色信息。 假如我们处理一张 1000×1000 像素的图片,我们就需要处理3百万个参数! 1000×1000×3=3,000,000 这么大量的数据处理起来是非常消耗资源的,而且这只是一张不算太大的图片! 卷积神经网络 – CNN 解决的第一个问题就是「将复杂问题简化」,把大量参数降维成少量参数,再做处理。 更重要的是:我们在大部分场景下,降维并不会影响结果。比如1000像素的图片缩小成200像素,并不影响肉眼认出来图片中是一只猫还是一只狗,机器也是如此。 图片数字化的传统方式我们简化一下,就类似下图的过程: 假如有圆形是1,没有圆形是0,那么圆形的位置不同就会产生完全不同的数据表达。但是从视觉的角度来看, 图像的内容(本质)并没有发生变化,只是位置发生了变化 。 所以当我们移动图像中的物体,用传统的方式的得出来的参数会差异很大!这是不符合图像处理的要求的。 而 CNN 解决了这个问题,他用类似视觉的方式保留了图像的特征,当图像做翻转,旋转或者变换位置时,它也能有效的识别出来是类似的图像。 那么卷积神经网络是如何实现的呢?在我们了解 CNN 原理之前,先来看看人类的视觉原理是什么?深度学习的许多研究成果,离不开对大脑认知原理的研究,尤其是视觉原理的研究。 1981 年的诺贝尔医学奖,颁发给了 David Hubel(出生于加拿大的美国神经生物学家) 和TorstenWiesel,以及 Roger Sperry。前两位的主要贡献,是“ 发现了视觉系统的信息处理 ”,可视皮层是分级的。 人类的视觉原理如下:从原始信号摄入开始(瞳孔摄入像素 Pixels),接着做初步处理(大脑皮层某些细胞发现边缘和方向),然后抽象(大脑判定,眼前的物体的形状,是圆形的),然后进一步抽象(大脑进一步判定该物体是只气球)。下面是人脑进行人脸识别的一个示例:对于不同的物体,人类视觉也是通过这样逐层分级,来进行认知的: 我们可以看到,在最底层特征基本上是类似的,就是各种边缘,越往上,越能提取出此类物体的一些特征(轮子、眼睛、躯干等),到最上层,不同的高级特征最终组合成相应的图像,从而能够让人类准确的区分不同的物体。 那么我们可以很自然的想到:可以不可以模仿人类大脑的这个特点,构造多层的神经网络,较低层的识别初级的图像特征,若干底层特征组成更上一层特征,最终通过多个层级的组合,最终在顶层做出分类呢? 答案是肯定的,这也是许多深度学习算法(包括CNN)的灵感来源。 典型的 CNN 由3个部分构成: 卷积层 池化层 全连接层 如果简单来描述的话: 卷积层负责提取图像中的局部特征;池化层用来大幅降低参数量级(降维);全连接层类似传统神经网络的部分,用来输出想要的结果。 下面的原理解释为了通俗易懂,忽略了很多技术细节,如果大家对详细的原理感兴趣,可以看这个视频《 卷积神经网络基础 》。卷积层的运算过程如下图,用一个卷积核扫完整张图片: 这个过程我们可以理解为我们使用一个过滤器(卷积核)来过滤图像的各个小区域,从而得到这些小区域的特征值。 在具体应用中,往往有多个卷积核,可以认为,每个卷积核代表了一种图像模式,如果某个图像块与此卷积核卷积出的值大,则认为此图像块十分接近于此卷积核。如果我们设计了6个卷积核,可以理解:我们认为这个图像上有6种底层纹理模式,也就是我们用6中基础模式就能描绘出一副图像。以下就是25种不同的卷积核的示例: 总结:卷积层的通过卷积核的过滤提取出图片中局部的特征,跟上面提到的人类视觉的特征提取类似。 池化层简单说就是下采样,他可以大大降低数据的维度。其过程如下: 上图中,我们可以看到,原始图片是20×20的,我们对其进行下采样,采样窗口为10×10,最终将其下采样成为一个2×2大小的特征图。 之所以这么做的原因,是因为即使做完了卷积,图像仍然很大(因为卷积核比较小),所以为了降低数据维度,就进行下采样。 总结:池化层相比卷积层可以更有效的降低数据维度,这么做不但可以大大减少运算量,还可以有效的避免过拟合。 这个部分就是最后一步了,经过卷积层和池化层处理过的数据输入到全连接层,得到最终想要的结果。 经过卷积层和池化层降维过的数据,全连接层才能”跑得动”,不然数据量太大,计算成本高,效率低下。 典型的 CNN 并非只是上面提到的3层结构,而是多层结构,例如 LeNet-5 的结构就如下图所示: 卷积层 – 池化层- 卷积层 – 池化层 – 卷积层 – 全连接层 在了解了 CNN 的基本原理后,我们重点说一下 CNN 的实际应用有哪些。卷积神经网络 – CNN 很擅长处理图像。而视频是图像的叠加,所以同样擅长处理视频内容。下面给大家列一些比较成熟的应用:图像分类、检索 图像分类是比较基础的应用,他可以节省大量的人工成本,将图像进行有效的分类。对于一些特定领域的图片,分类的准确率可以达到 95%+,已经算是一个可用性很高的应用了。 典型场景:图像搜索…目标定位检测 可以在图像中定位目标,并确定目标的位置及大小。 典型场景:自动驾驶、安防、医疗…目标分割 简单理解就是一个像素级的分类。 他可以对前景和背景进行像素级的区分、再高级一点还可以识别出目标并且对目标进行分类。 典型场景:美图秀秀、视频后期加工、图像生成…人脸识别 人脸识别已经是一个非常普及的应用了,在很多领域都有广泛的应用。 典型场景:安防、金融、生活…骨骼识别 骨骼识别是可以识别身体的关键骨骼,以及追踪骨骼的动作。 典型场景:安防、电影、图像视频生成、游戏…今天我们介绍了 CNN 的价值、基本原理和应用场景,简单总结如下: CNN 的价值: 能够将大数据量的图片有效的降维成小数据量(并不影响结果) 能够保留图片的特征,类似人类的视觉原理 CNN 的基本原理: 卷积层 – 主要作用是保留图片的特征 池化层 – 主要作用是把数据降维,可以有效的避免过拟合 全连接层 – 根据不同任务输出我们想要的结果 CNN 的实际应用: 图片分类、检索 目标定位检测 目标分割 人脸识别 骨骼识别 本文首发在 easyAI - 人工智能知识库 《 一文看懂卷积神经网络-CNN(基本原理+独特价值+实际应用) 》

上班时间想练英语,准备听CNN,ABC之类的,但是我都听不太懂,这样听有作用吗?还是听一些电影的原声好?

恩这样没什么作用,我经常看美剧也没见我学会英语

哪个英语听力app上面能听CNN student news的,且每天更新

英语100分、学鲸教育

能阅读明白cnn news.yahoo等外国新闻,英语是什么水平?能过那些英语考试?

看得懂跟那些考试是两回事吧。。考试要有很多技巧性的东西。。。能看懂那些东西的好处就是考试技巧会用得比较溜。。

VOA慢速、VOA常速、BBC、CNN、NPR英语听力的词汇量和语速分别是多少?

其他不清楚,只知道VOA,慢V是一分钟大概90个单词,常V是一分钟大概130-150个单词

推荐BBC或者CNN或者OVA的英语听力

上可可英语网或普特英语网

英语BBC和CNN能听懂80%是什么水平?

比较不错,但你是一边听的还是翻来覆去地听的?

可可英语CNN新闻看不明白,有没有高手帮助我看看啊,今天的,看了半天没有看明白啊

你 好厉害啦 好学呀 精神好好啦。

我发现voa标准英语.BBC NEWS .CNN NEW等可以听懂看懂是否能达到 六级水平。

这些你都可以听懂,肯定达到六级水平了!!!

学英语睇CNN还是BBC比较好

BBC标准哦!亲:祝你学习进步,每天都开心V_V!望采纳,thx!

四级英语网考的听力 是BBC? CNN ?VOA?

多听听BBC和VOA。这两个练习听力很好用

能听懂CNN BBC英语听力达到了什么水平

起码ielts听力5分吧,但是要经过些练习,听懂BBC说明你词汇量可以 托福没考过不知道 ,你问的太含糊了,雅思托福都不是就考听力,听力只是一部分,词汇要求也是最低的一部分

常用的英语新闻网站有哪些除了BBC,VOA,CNN,TIMES

还有CRI,全称是china radio international.FM91。5

为什么北京外国语大学的英语系的学生还听不懂CNN?

语感问题,当你听到英语的第一反应是把他翻译成汉语后再理解,那么就是水平不行了,真的,有机会还是出国一下吧,绝对出水平

如何将“美国CNN在线英语广播电台”弄进QQ空间?

设计一个flash播放器,或者别处下载,如果知道修改,把电台url放进去,在把他弄到QQ首页,以后打开,flash播放器就会播放那个电台了,懂?

英语翻译,CNN新闻片段,急急急,跪求高手,我合肥工业大学的,扣扣号码是1725344108,谢谢,急急急急

在那些改变行程计划的人中有美国总统奥巴马,他比原定时间表提早一天飞到了伦敦,还有就是巴塞罗那足球队,他们将会提早到达英国首都,于周六与曼联队进行冠军杯的决赛。这个版本我是意译的,没有逐字对上号。这句话的主干是 Among those changing travel plans have been u.s. president and barcelona"s soccer team. 就是说在那些改变计划行程的人中有美国总统和巴塞罗那队。there have been 是 there be 的现在完成时态early ahead of 是“提早”的意思clash 就是比赛, 这里的组合是 final clash 就是最后的比赛against 是对抗

英语翻译,CNN新闻片段,急急急急急,本人扣扣1097830278,安徽工程大学的,我

给你个全英文网站,http://www.wuhu.me

帮忙看一段英语新闻,来自CNN

....这个蛮简单的么。。。加分加分,加分给你翻

英语大师来 CNN新闻 海地霍乱疫情严重 中的几个问题

1.down表示向下,海地在美国南边2.百度to in at north of,有详细解答3.同1

无意识的坚持听CNN广播对英语听力有帮助么

当然有了 出国之所以可以学好外语 就是因为有环境 这样听 很接近那样的环境了(虽然是暂时的)当然有好处了

要考四级英语考试,练英语听力BBC还是cnn还是VOA好一些

建议听历年真题的音频吧,可以掌握做题技巧 ,如果听力基础较差,可以听VOA慢速

英语翻译,CNN,跪求,句子分析,我合肥工业大学的,求高手,谢谢,我扣扣1725344108,求高手帮助我理解句

找我妈

cnn互动英语和彭蒙惠英语哪个比较难?哪个学起来效果好?

CNN效果看个人

谁有陈冠希接受CNN采访的英语对话呢?

RAO:Let"s talk now specifically about the scandal. Sounds like a simple question, but why did you take the photos in the first place?CHEN:Well, you know, when you"re young you do a lot of things that you don"t quite comprehend. You think it"s fun, you do it, you don"t really think about the outcome or what would happen if this or what would happen if that, and I think that you know, I mean, every every. when you"re a teenager and when you"re young and when you"re a celebrity, and you have this and that, I think maybe you go overboard a little bit. And I think that maybe, you know, I just went a little too overboard, a little too wild I guess maybe. I don"t take those pictures anymore and I had ceased to take those pictures for actually quite a long time. All those pictures that were released were taken pre-2004. It was 2008 when these photos were released so it was like a lot of people were seeing "oh that"s Edison." That was actually the old Edison. Those photos were from 4 years ago. It"s just, you know, I had even.I was in a serious relationship at that time. It was my first serious relationship. ever. I was in love. I"m happy. And, you know, when you respect someone and you really love someone you tend to care about how those people feel and when we had like deep intense talks, we talked about our past and, you know, I had actually told her that some of these things had happened before and she was quite upset and actually told me to delete them.RAO:Why didn"t you?CHEN:I did. I did. I did delete them and.RAO:RAO-All of them?CHEN:Yes, all of them. All of them. 6 months later after I had deleted these photos off my computer, my computer broke down. I had insisted, I mean, I had asked my assistant to go and bring the computer to go and get it fixed. Now, what I actually found out after returning to Hong Kong and assisting the police was that they had copied my whole hard drive and then they had recovered my memory. I had no idea that there was such a thing before. I thought that if I had put it in the trash bin and said empty trash bin and it goes [makes noise] and it"s gone... forever, but no, it wasn"t.It"s strange because I"m actually very happy that I had this talk with my girlfriend before and that she knew that I had deleted them because at least the person that I care for the most in this world knows the truth and will stand by me, because I don"t know if I hadn"t talked to her and I really didn"t do that in front of her face if she would still stand by me through all of this. And, you know, she"s been a very strong and very supportive girl even though she"s very young.RAO:You"re still together?CHEN:Yes yes, it"s amazing.RAO:How has she handled all of this?CHEN: She"s like a warrior.She"s like superwoman, you know, like to me because while I was sitting indoors hiding, I mean, I don"t want to sound like a coward, but it was deeply intense for me, but she"d be going to school every day.RAO:Were there photos of her?CHEN:Umm yes, yes, but very few.RAO:Some 13 hundred were leaked onto the net. Do you know how many there were in total?CHEN:Umm no, I didn"t sit at home and count them, to be honest with you.RAO:Are we talking hundreds? Are we talking thousands?CHEN:I would say there were a few more. There were a few more, but that was already enough. Thirteen hundred is way enough already. I never spoke about these photos to anyone. I never.RAO: You never showed them to anybody?CHEN:No, I never showed them to anyone. The only people that might have seen them were the people who took them, where"d they be like can I look at what you just took? and I"d show them. I would never parade them around.RAO:Did all of the women involved know that their photos were being taken?CHEN:Yes, definitely. Definitely. I have to say that, you know, everything was mutual. It was all consensual, all consensual. I don"t know exactly how they view what had happened or what they tell people, but I know the truth. I"m only here to say the truth because I believe that there"s too much lies going around and too much controversy and too much hearsay. And I"ll tell you right now that, you know, if I have a camera in front of your face and there"s a flash, do you know that I"m taking a photo of you? That"s as simple as it is.RAO: Let me just ask you about the computer technician who was involved. By hacking into your files, it does sound like a deliberate attempt to target you personally. How do you feel about him?CHEN:Umm the way I feel about him today and the way I felt about him 8 months ago is totally different. I"ve forgiven him and he"s going to, you know, he"s going to jail. He"s got judged and he"s passed judgment already and he"s doing what he needs to do to redeem himself, but I don"t exactly know if the person who stole the photos and that distribute and put them on the internet are the same person, but I definitely think that these people had something malicious towards me. It was a malicious act. It was purposefully done to hurt. No money was involved. No nothing was involved. People ask me, the police ask me, have people been blackmailing you? I was like, no. They"re like "wow" are you sure? I say definitely, I would know if someone was trying to blackmail me.RAO:The public was furious at the time. Did you expect that sort of a backlash?CHEN:Uhh...No,No, because I believed I was a victim. I believed that I was hurt by this a lot. I believed that.I knew that I had nothing to do with the spreading of these photos.RAO:You don"t believe you did anything wrong?CHEN:I can"t say I didn"t do anything wrong. I own up to my mistake of being careless and not really, not really understanding something before I would allow something to happen, something to happen you know, I didn"t really understand that. I admit I was wrong. I"ve admitted that I was wrong and I wouldn"t say sorry if I wasn"t wrong.RAO:Tell me about the moment that you realized that these photos were everywhere.CHEN:I was shocked. I was in disbelief. Someone called me. I was sleeping in the morning.RAO: What"d they say?CHEN:She said have you checked the internet yet? You should go check the internet. I go, man, I"m just sleeping please just. you really need to go to this web site and look at it right now. I looked at the website and I almost.I don"t even know how to put it in words. I don"t even know how to put that feeling in words. It was like everything just got sucked out of me and I was like looking and I was like "wow" this is so.Where?! What?! When?! How?! Confusion, like, what to do? Oh my god my family! Oh my god my girlfriend! Oh my god my career! Oh my god the girls! Oh the press is going to have a field day. I have to fix this problem as soon as possible. That was the first day when 2 or 3 photos were out only, so imagine by the 800th photo how I was feeling. It was like a nightmare that never ended. It never ended. I would go to bed and I would pray, I would pray please, please God, today please be the last day. I pray I"ll do anything. You know. Anything. Please today.I"m not the person to ever commit suicide though, so I"ve never been there. I think that committing suicide is giving up on not only yourself, but the people that love you, and at that moment I had so many people caring for me that that was never an option. Never.

英语yahoo,cnn,bbc哪个网站阅读对学英语好?

CNN

从字母音标学英语,学多久才能看懂CNN听懂美国人说话,看电影玩游戏无需字幕呢?

起码要英语过七级

英语听力BBC和CNN总是差一点就懂了,单词都懂就是整体意思抓不到。为什么?

还没有从量变到质变的飞跃,继续坚持,用心,祝好

CNN互动英语电驴下载版怎么打开使用啊?

查看使用说明~~~·

我能听懂CNN 英语电影 美剧 母语人士说话 是什么水平 棒吗

如果仅仅口语和听力的角度来看,这样的英语水平已经很棒了,而且还很实用。但从语法和单词的角度,可能就要另当别论了。

CNN Student News 节目是常速英语吗,还是慢速的呢?

其实很没必要的,我在国外待了一年了,还没听说过有这个东西,看看cnn,看看电影,听听歌,听力一下就起来了,最主要的是一定要每天坚持用嘴标准的英语去读一篇较长的文章,这样可以提高语速,也可以清醒的知道自己的发音的不足,我初中就是这么过来的,学外语要有兴趣和恒心,要有超过别人的决心....还有就是一定要学好语法的....关键中的关键....祝你好运了,加油呀cheers!!

英语翻译,CNN新闻,跪求,急急急急,我安徽工程大学的,急急急,谢谢,本人扣扣1097830278

www.wuhu.me 去这个网站。

英语听力CNN BBC单词常常能听清,但一到整句就不知道意思了,为什么?

你一定是中文不行

能自由看欧美的电影与看外国的新闻,如cnn,英语是何水平?

能听懂或者看懂外国的新闻 说明你能掌握3500到5000词的英语单词 新闻的性质注定新闻作品不可能出现什么高难度词语,汉语也是如此,小学生都能看懂新闻 能听懂电影中的对白,基本上比上面高一个层次,因为很多电影都有很多俚语,如同汉语中的成语,口头语之类的,比如说 NB 说曹操曹操到之类 以上两类相对来说都是比较浅显的,最多能证明英语听力很好. 但是,如果能看懂诸如 经济学家 时代 之类的高端政治经济类杂志,至少要掌握8000到10000个英语单词 也就是常说的 英语专业本科生过的专业英语八级水平.

翻译,英语,CNN,我合肥工业大学的,跪求,英语翻译,我扣扣1725344108,

我觉得应该翻译为不满吧!!

cnn和bbc被笑称为什么

CNN被笑称为“鸡零狗碎”电视台,BBC被笑称作“造谣广播公司”。CNN曾饱受当时美国各大电视网的“白眼”轻蔑之苦,甚至被蔑称为“鸡零狗碎”电视台。1986年美国航天飞机“挑战者”号升空失事爆炸,CNN是唯一进行现场报道的电视网,使ABC、NBC、CBS相形见绌,并确立了CNN独家现场实况报道的地位。BBC长期以来抱守意识形态偏见,多次制播假新闻,在一些问题上散布虚假信息,大肆攻击抹黑,严重偏离新闻职业准则。这样明显预设立场的报道只会加速BBC自身信誉破产,自然不受广大民众的欢迎。希望BBC能够真正遵守职业道德和操守,通过真正客观公正的报道,弥补其在公众心中的信任赤字。英语新闻学习方法听写,认认真真,一词一句地写出来,是加速是听力发育的手段,同时也是检验英语水平和查找自身不足的一个好方法。复述、翻译和复习,把新闻稿听写出来了,实际只完成了工作的一半。要留出时间,进行复述,翻译和复习。听说不分家,听写和复述有助于提高听友的口语能力,而口语能力的提高进一步推动了听力的提升,相辅相成。翻译有助于加深理解。我们认为新闻听力的培养,除了听写外,还一定要和阅读紧密地联系起来。新闻英语是相对书面化的英语,因为新闻需要在限定时间内,把最多的信息提供给听众。即使相对较口语化的CNN和FOX,书面化英语仍然占很大比例。新闻听写和阅读是相互促进的。听友们在听写的同时,要经常阅读时效性强的新闻外刊或阅读国外新闻大站的新闻。

在哪能听cnn10学生英语,要每天更新那种

用龙卷风收音机这个软件就行,可以收听全球电台。我就用的这个。百度搜‘龙卷风"收音机

可可英语的cnn电台是实时直播吗

该软件的cnn电台不是实时直播。根据今日头条资料显示,cnn电台是一个全球性的、24小时播放的新闻和讨论广播电视网,可可英语提供的cnn电台主要是以重复播放和录制版的方式呈现的,不是实时直播,然而,这并不会影响用户在任何时间听取到高品质的新闻、访谈和专题节目内容。可可英语所选用的cnn电台节目通常包含了cnn广播电视网在当天内所发布的最新媒体报道和分析评论,比如政治、经济、科技、文化等领域的内容,因为时差影响,用户可以按照自己的需求,在合适的时间收听之前所播出过的节目。

求高手翻译,跪求,CNN,英语翻译,我合肥工业大学的,扣扣1725344108,跪求,高手,

利比亚海岸警卫队总司令Amran al-Forjani说北约空袭的里波里港以及Al-Khums 和Sirte 的港口违反了联合国决议。他将这次行动称为“疯狂的攻击”

帮我解释一下cnn寻求白宫禁令是啥意思?白宫把他们禁令了。他们为啥要寻求?英语翻译看看。谢谢

解释如下这里是寻求一个法院的临时禁令。让川普作废Acosta 采访通行证的命令作废。

请问中学生百科英语里的CNN是什么?光盘里都有什么?

美国广播公司,是个电台,美国的不错

英语翻译 高手们 来翻译一下 CNN里头的 新闻

波士顿炸弹嫌疑人恳求无罪辩护

我想听英语 天天听 听CNN 还是BBC 还是voa 入口是什么

听VOA吧,CNN是那种正式的英语,相信我,在美国没有正常人像CNN中的人那么说话。

BBC、CNN里面的新闻稿的英语相当于多少级英语的难度?

大概雅思托福了 吧,因为新闻的词汇很专业~可以听VOAspecial,就是比较慢速的,可能更接近四六级吧

无意识的持续听CNN广播对英语听力有帮助么

有帮助1.CNN本身语速快,坚持听有“磨耳朵”的效果,逐渐习惯快语速2.CNN里还有各种各样的英语口音,方言,可以习惯一下3.无意识听也许听不懂什么,但是CNN里有很多重复的新闻词汇,常听可以无意识的记住

英语翻译,急急急急,CNN英语,我安徽工程大学,我扣扣1725344108,急急急急急急急

姆拉迪奇是最高级别的逃犯在逃的冲突后,伴随着20世纪90年代南斯拉夫解体。他的被捕后三年的调查,总统塔迪奇在一个戏剧性的宣布新闻发布会上周四上午

请高手比较VOA、BBC、CNN和英语公共四六级!!

四六级考试的话,如果你想打好听力基础,最好先从VOA慢速开始,每天都练,并且最好是边听边做笔记,效果比较好;但如果你只是想拿个四六级证书的话,就听听模拟题上的听力就行了

急求 CNN新闻英语文本

要这几篇的社会38美国政府。推动阿拉伯文和中文的研究美国政府鼓励人们学习阿拉伯语和汉语社会39美国父母鼓励孩子们学习的语言美国家长鼓励孩子学习中文“美国计划将增加”建立和发展社会35个成功的返回中国海归的成功

练习英语听力 听BBC CNN VOA 这些哪个更好

根据我个人的经验来说,我会先建议你VOA慢速英语。如果你可以听懂也可以写下来慢速英语。你可以试试VOA正常语速的英语。这些都可以了之后可以随便听了,CNN或者BBC都可以。

如何有效利用CNN广播提高英语口语?

在baidu上输入你要听的比如voa,会出现很多网址门户,要去原网址就是mei美guo国之音,其他的比如普特网也不错,里面很多听力资料。直接进网址,就可以收听了,里面都有慢速和常速听力,翻译。

每日英语听力cnn听力怎么播放不了了

每日英语听力cnn听力播放不了的原因是网络故障。根据查询相关公开信息显示:每日英语听力cnn听力无法播放可以更换网络链接或重启手机后,再次打开即可恢复正常。听力常作为一种考试题型,目的在于考察应试者对英语语言的把握,考察考生对英语日常交流的理解能力。通常有听对话选择答案、听句子默写关键字词几种形式。

CNN news 是英式英语还是美式英语啊?先谢啦!

什么英语都有,因为各档新闻不一样,根据时差,各档新闻在美国亚特兰大,纽约,华盛顿, 还有英国伦敦 还有中国香港播报,口音不一样的.还有记者的报道就是全世界各种口音了.

CNN,英语翻译,跪求,谢谢,高手,求翻译,我合肥工业大学的,扣扣1725344108

最早礼拜四就可保释,一位接近辩护律师的消息人士告诉CNN

为什么CNN的讲述人和主持人说的英语不是标准美式的?

因为你只在纽约吧,你要去阿拉巴马看看,说不定都听不懂阿拉巴马人说话……

为什么学了那么多年的英语CNN还是半点看不懂

毕竟不是生活在一个英语为母语的国家中,语言环境决定了你使用英语的频率,当然不能像中文那么顺畅。但是多查查单词是有好处的,渐渐积累这些比较专业的或口语化的的单词,一定会发现有很大进步的!加油啊

英语专业练习听力是VOA好还是CNN?

VOA

英语听力BBC和CNN总是差一点就懂了,单词都懂就是整体意思抓不到.为什么?

其实按照你所说的,如果每个BBC和CNN里面的单词你都能听懂,那么我相信你是不太可能不明白整句是什么意思的。先别急,我并非说你在撒谎,或者你与众不同。基本上来说,能听懂每个单词而整体意思不明白是每一个学习非自己母语语言的人都会遇到的问题,你并不孤独。单就英语来说,BBC和CNN涉及面之广,差异之大可以说基本上天文地理社会百态国际旮旯无所不含,相信你所说的单词都懂并非真正的每一个词都听懂并理解意思了,因为这是连母语为英语的人都做不到的,更别说咱们了。那么问题到底在哪儿呢?举个栗子,作为一个中国人,基本来说,吃着晚饭的同时听新闻联播并且就新闻内容与家人讨论吐槽一番是很简单的,但是一旦把新闻联播换成英语节目,相信咱们中的大部分人如果不全神贯注的去听新闻说的是什么,便会不知所云了。这就是问题的所在,因为不是母语,所以必须要全身心的去听懂每个单词才能理解总体意思。回到前面你说的单词都懂就是整体意思抓不到这个问题,可以说,这可能是人的一种误解,与其说你是每个单词都懂但是整句抓不到意思,不如说是每一个句子你都有能听懂的单词,而整体意思听不懂。因为对你的整体英语水准并不甚了解,但是从能听BBC和CNN来看,应该不再是一个初级阶段。对于处于提高阶段的你来说,我给你提一个小建议,对于任何你要选为作为听力的材料,请一定要先看一遍原文scripts,确保自己至少能全部顺利通读,这样的听力材料才是适合你练习的材料。当然,也可能是我过于武断,你也许是一个十分有天赋的人,就是能听懂每个单词而不明白整体意思。这样的话,我建议你试着听写一篇新闻,找找每个句子的重点词汇,和句子的重音落点以及快速略读过和降低语速强调的单词,作为你以后听相似材料的参考资料。

cnn互动英语在win10上安装完后,却不能使用,该怎么办

解决方案:注册表残留问题如果你的电脑创建过多个账户,并且旧账户已删除(计算机管理里删除并不能删除干净),可能是因为注册表残留导致。按Win+R打开运行,输入Regedit回车打开注册表编辑器,导航至以下位置:HKEY_LOCAL_MACHINESOFTWAREMicrosoftWindows NTCurrentVersionProfileList一定要保留S-1-5-18、S-1-5-19、S-1-5-20以及S-1-5-21-xxxx(后面的xxxx代表一串数字,每个人电脑中都不同。该项代表自己正在使用的账户)。其中S-1-5-21-xxxx的某个项就是未删除干净的账户数据,可以删除,但别把当前账户数据给删除了。

听CNN学英语好还是VOA?主要是想锻炼口语跟写作

两个都听

BBC/CNN/VOA,英语学习者的求助!

首先加油朋友,每个人都有低谷。针对你的情况,在阅读方面,关键看你是用来干什么,如果你经常从事文字方面,阅读需要提高,选BBC/CNN合适,如果阅读用的少,或者不是很深入,如不是专业,语言方面的,选VOA就好了。在写作方面,不用担心自己慢,写作是个循序渐进的过程,你需要自己慢慢改善。如果怕出错,可用拼写语法检查。要写出不错的,地道的稿子,你需要涉猎更多的外文材料,增加语感。也可以看看写作相关的书籍。听力方面,我的建议是相通的。如果你只是和外国人打交道的话,基本没什么关系。如果你想提高你的听力技巧的话,那你需要努力了。目前你可能出于低谷,加油,一切都会过去的。可能你的方法不合适造成了疲倦。这样的话换个方法。总之,一切都会好转的。加油!我不是专业人士,希望这番话对你有帮助,O(∩_∩)O~

CNN,英语翻译,跪求,我合肥工业大学的,扣扣1725344108

我也想对我的同事在基金;在一起我们取得这么棒的事情过去的三年,和更多

如何利用cnn新闻学英语

尽量先以自己熟悉的语言了解新闻内容 在进行当天的英文新闻学习前,先从中文的媒体了解当天主要的国际或国内新闻内容, 在听英文新闻时,就容易多了。当然,这是在学习期间,过了入门的阶段,就不需要了。对自己有信心 一定有人说,讲这个谁都知道,但不少人对自己却是没有信心或信心缺乏,而对自己学 习的进度及成果大打折扣。英文有句话:“We are our own worst enemy.”(最大的敌人, 便是自己),虽然学新闻英语一点都不难,但如果心里想:“我一定学不会。”还没有开始奋 战,已经被自己打败了,要突破自己设下的心里障碍,比实际学习的障碍还更困难。

CNN新闻里面的英语问题

if强调progress

求高手翻译,跪求,CNN英语翻译,急急急急急,跪求,我安徽工程大学的,扣扣1097830278

随着战争愈来愈如火如荼,也门武装力量炸毁了反对派的电台使它中断了广播冲突以政府军与阿尔哈实德部落的激烈巷战形式出现,

请英语高手帮我翻译一下cnn的原话

我不知道中国是不是变了,但是我知道中美的关系肯定是变了。我们看到中美关系变得恶劣了,因为,例如伊拉克战争。他们有用上千亿的美元外汇储备,我们拥有上千亿的贸易逆差。同时,我们依然从中国进口带漆的劣质商品和有毒的宠物食品。然后,众所周知,我们为中国提供大量的就业机会,在中国的某些地方,你甚至可以每月支付1美金,就可以让那些生产沃尔玛出售的商品的人为你工作。所以,我认为,中美的关系的确是变了。我想,他们和50年前一样,依然是一帮暴徒和恶棍。

英语翻译,CNN,急急急急急急急,我会尽快采纳啊

在当天的早些时候,北大西洋公约组织目标的一个军事基地和Gadhafi复合,国家电视台报导。一位发言人说,利比亚政府,至少有31人丧生,包括一大批平民,几十人受伤导弹袭击了60岁以后,首都城市。

CNN英语,今天的英语翻译,急急,有没有英语好的,能帮助我看一下,分析一下,打得好,我会继续加分的

之后and连接的两小句主语都是demonstration我的理解是peaceful unrest是demonstrationa wave of popular 是Mubarak的下台受到人们的欢迎SHIWEI是为了剥夺Mubarak的权利 进行民主改革

新东方CNN互动英语 怎么打开啊?

用虚拟光驱软件。DAEMON TOOL就不错。

CNN英语翻译,急急急急急急,跪求高手翻译,几个句子,谢谢,我会尽快采纳,谢谢啊

described as 被称为operations 这里指军事行动citing..... 一句可以翻译为,引自政府军消息

cnn学英语下载美国版还是国际版

你好,下载国际版。因为美国英语也有口语,就相当于我们的方言一样,所以要下载国际版。
 1 2 3 4 5  下一页  尾页