深度

阅读 / 问答 / 标签

ubuntu16.04 怎么安装深度软件商店

其实ubuntu安装软件的方式非常简单(或者说你掌握了之后就觉得简单了)。通常的我们可以在ubuntu软件中心和新立得软件包管理器找到自己想要的软件,直接选择就可以自动下载并安装到电脑中,不想要的时候随时可以再从那里面卸载。这是第一种方法,也是最简便的方法。因为老大哥是Debain,所以ubuntu也支持deb快捷安装包。如果系统的软件包管理器源里没有你想要的软件,那么你从网上下载的ubuntu专用安装包就是这个格式(Debain的也是)。下载到本地直接双击就可以安装了,不过有时会碰到依赖问题。第三种是下载了一个压缩包,不能双击直接安装,里面都是些散装的文件。解压出来仔细找找通常能看到一个名为configure或者autogen.sh的文件,如果有,那就终端进入目录然后执行./configure或者./autogen.sh,然后照着三楼给出的步骤执行就可以了。加入你解压开文件夹发现没有这两个文件,那么里面应该有一个名为INSTALL的文本文件,没有后缀名,打开有关于安装方式的介绍,照着那上面说的做最保险了。第四种,*.bin文件,比如adobe air这样的软件。这种二进制安装包只有一个文件,双击不会执行,需要到终端下面执行chmod +x [文件名]为其提升权限,然后再./[文件名]执行即可。上面的是安装包的使用方法。但是有的软件没有提供安装包,而是只有一个源码下载选项。需要注意的是这种软件一般都是不稳定版本或者根本就没有后续支持。源码包下载下来解压能看到一个类似cmakelist的文件,如果有,那么就在该目录下终端运行cmake .(注意空格和点都要输入,该命令需要先安装了cmake软件包才可执行),接下来是自动编译,编译完成方法就同tar.gz安装包的一样了。另外还有些软件提供“源”,你只要将这个源添加到软件源里面就可以在包管理器中直接安装了。推荐你使用ubuntu tweak,许多常用源都包含在里面了,下载http://ubuntu-tweak.com/本人了解的就这些了,最后说一下ubuntu是不支持.rpm的,那是fedora使用的安装包格式,效果类似于deb。

 叠前深度偏移技术

叠前深度偏移技术是在深度域对每个共偏移距剖面先用已建偏移速度场进行叠前深度偏移,后从每个偏移后的共偏移距剖面抽取共反射点道集,如道集曲线被拉平,则将各道反射波叠加,这就是在深度域先偏移后叠加的技术。它既克服了地层倾角对叠后偏移叠加或偏移成像不佳的影响,又克服了速度横向变化对反射层形态畸变的影响。在时间域由于速度陷阱的存在,使地震地质解释成果与地下实际地质情况不符,这为正确客观地认识地下地质情况带来巨大困难。特别是对于逆冲构造、盐下构造和复杂的断裂构造,由于地震射线按斯奈尔定理折曲,反射波的时距曲线已非双曲线,叠后偏移在理论和实际上就不能使其正确成像,因此就不能正确地解释。为此,对复杂构造必须进行叠前深度偏移,这是物探界早已形成的共识。10多年前,其方法和算法就已成熟。但由于当时计算机发展水平和运算速度的限制,以及在建立速度深度模型上存在检验和精度问题,叠前深度偏移技术没应用到实际生产中去。1996年到现在,由于计算机技术水平和运算速度大幅度提高,基于RISC技术的并行计算机和微机群及高速计算机网络的应用,计算机运算速度达100×108~1000×108次/s(浮点),且成本大为降低。因而,叠前深度偏移技术为解决复杂构造的油气勘探问题开始投入实际生产。国外的一些大油公司建立了自己的叠前深度偏移系统,为本公司的复杂构造油气勘探目标服务。因此,他们所研制的叠前深度偏移技术软件系统是不出售的,也不具备商品化。以色列PARADIGM地球物理公司的叠前深度偏移交互处理系统Geedepth,是最早推出的商品化的交互叠前深度偏移处理软件包。该软件包具有方法思路先进、完全交互化、高精度、高效率和二维叠前深度偏移可在工作站平台上运行等特点。为解决海上复杂构造的油气勘探问题,1995~1999年,中国海油先后引进二维叠前深度偏移Geodepth软件包和三维叠前深度偏移技术软件(Geovista和SIRIUS)。在引进基础上,通过消化、吸收和结合实际的创新,在中国海域部分层速度强烈横向变化和复杂的断裂构造上,实践了二维或三维叠前深度偏移技术,获得了较好的处理效果。一、叠前深度偏移技术描述该技术是解决地层速度横向变化强烈和地质构造复杂地区的地震反射波正确成像、归位、消除速度陷阱的有效技术手段。但二维叠前深度偏移仍不能解决侧面波和不垂直构造走向剖面反射波正确归位问题。为了阐明叠前深度偏移的主要作用,我们设计了如图6-85(a)的地质模型,它由浅到深由3层层速度界面构成4套不同层速度的地层,其中,第二层为水平层面,之后用自激自收法作图6-85(a)地质模型的正演合成地震叠加剖面图6-85(b)。由图可见,由于受表层下凹加厚的低速层影响,水平层面下凹畸变、平层同相轴及向斜聚焦都出现了绕射波影像。用已知的速度对图6-85(b)的数据进行时间偏移,获时间偏移合成地震剖面图6-85(c),由图可见,最浅的反射层偏移效果最好,因该层的层速度是均匀无横向变化的;第二个反射层面则有下凹畸变,且有残余的绕射影响;而第三个反射层面则存在明显的成像误差。用已知的地层深度-速度模型对图6-85(b)的数据作波动方程深度偏移处理,得图6-85(d)的深度偏移剖面。由图可见,第三个反射层面的成像位置及形态与地质模型非常吻合,绕射影像也都消失。图6-85 模型正演反射剖面的时间与深度偏移剖面比较从以上模型正演数据的处理实例中可直观地看到,深度域偏移技术可以消除速度横向变化对时间域地震剖面造成的构造假象和同相轴的成像误差。(一)二维叠前深度偏移技术与实践1.基本原理和方法基于模型的深度偏移方法,将地震资料成像处理、地震解释及正演模拟技术有机地结合在一起,以便于地震资料处理和解释人员充分地利用地质、钻井、测井及其他有关资料来指导和控制地震深度偏移处理的各个环节。该技术不但对地层速度横向、纵向变化的地质构造复杂区具有较强的适应性,而且采用了先进工作站下的X-Window和Motif环境编写程序和三维可视化技术,实施了处理与解释交互一体化。其主要技术如下。(1)速度-深度模型采用弯曲界面的层状地质模型作为其速度-深度模型,层内介质的速度在纵与横向上均可变化,并支持多值界面。如盐丘、礁和逆掩断层。地质体不再需要延伸到模型的边缘,因而也不必建立零厚度层。所以,它与常规处理中的模型相比,能更准确地反映地下复杂的构造情况。(2)层速度相干反演基于CMP道集的层速度相干反演,是该技术的核心内容。其基本原理为射线追踪技术,运动学射线追踪方程为:中国海洋石油高新技术与实践式中:中国海洋石油高新技术与实践τ为射线时间;V为射线速度。产生射线为:dxi/ds=Vpi(xi为射线轨道)。dpi/ds=1/V2·u2202V/u2202xi(pi为射线参数)。其具体实施是通过速度扫描。先从水平叠加剖面上拾取层位,或从时间偏移剖面上拾取层位,再反偏到叠加剖面上,对每一层在确定速度扫描间隔和范围后,每一速度扫描程序执行以下运算:①将叠加剖面上解释的时间局部层位的射线偏移到深度域;②射线追踪计算非双曲线走时曲线;③定量计算射线追踪非双曲走时曲线与实际走时曲线之间的相干值的大小。所有扫描速度完成以上计算后,相干值的峰值对应的速度,即为该点所求的层速度。速度扫描可在选定的控制点上执行,也可顺层连续执行。但整条剖面必须自上而下完成速度扫描,最后得出整条剖面的速度-深度模型。(3)基于模型动校叠加根据所求得的速度-深度模型作射线追踪,计算CMP道集的实际时距曲线,沿该时距曲线对CMP道集进行动校叠加。因它按实际走时进行动校,而不按理论双曲线动校,从而实现了真正的同相叠加。这必使地震剖面的信噪比和分辨率优于常规地震剖面,而在速度横向变化较大和构造复杂的地区,效果会更加显著。(4)叠前深度偏移有如下4种技术。a.基于模型的叠前深度成像:该技术根据速度反演所求的初始模型进行射线追踪,以求出CMP道集的实际时距曲线,然后,根据该时距曲线将CMP道集转换为CRP道集进行叠加,从而实现叠前深度偏移。该方法是用在速度求取的叠代过程中,具有占用内存少、计算速度快的优点,但不能保持振幅。b.以Eikonal方程为基础的叠前深度偏移:该技术建立在克希霍夫积分求和偏移方法基础上,并用Eikonal方程的数值解计算其旅行时,在偏移时要提供常数或模型控制的偏移孔径。该方法成像精度高,但耗时较多,一般用在最终成像上。c.以Turbo Eikonal为基础的叠前深度偏移:该法只是在计算旅行时时采用了插值技术,节省了大量计算时间,其他方面与Eikonal偏移方法相同。d.波前重建叠前深度偏移:该法同样建立在克希霍夫偏移法的基础上,只是采用了不同的射线追踪方法计算旅行时。它适用于具有强首波的地区,如近盐体区。(5)层析成像该技术可很好地进行速度深度模型的修正,使叠前深度偏移后的CRP道集内的同相轴完全拉平。其数学模型为:中国海洋石油高新技术与实践式中:SL(x,y)为介质的慢度;δ5。为慢度的变化;δzi为射线交点的垂直坐标变化; 为第i界面上下点之间射线的垂直慢度变化。该方程有两个方面的重要应用:①沿CRP射线将偏移深度误差转换为时间误差;②加快叠前深度偏移的运算速度(只计算以反射层为中心一段时窗内的数据)。2.处理的基本技术环节(1)DMO处理对于复杂构造区存在不同反射层倾角同相轴交叉,使速度能量团在速度谱上的分布分散,难于解释拾取准确速度。而DMO处理则消除了倾斜同相轴的剩余时差,从而使水平与倾斜同相轴皆能同相叠加,提高叠加质量,消除地层倾角对速度的影响,以求取更准确的速度。(2)建立速度-深度模型a.建立时间模型:即在叠加剖面上对比追踪解释反射层,当地质构造复杂,叠加剖面上绕射、回转波、断面波较为发育时,可在时间偏移剖面上进行反射层位对比、追踪解释,后再将解释的反射层位反偏到水平叠加剖面上。但解释的层位要按以下原则进行:·要选取界面两侧速度差异明显的层位,同一速度层的底界面进行对比追踪。海底面、不整合面及其向外延伸的整合面则构成统一的速度底界面。·应选取反射品质好,即反射层的能量强又可连续对比追踪的速度界面进行时间模型的建立。为进行综合分析,要尽可能与常规地震解释的层位一致。·层位拾取应作平滑。在断层处可沿断层面自然过渡到另一盘。对于剖面上发育的前积层系、河道、大套泥岩中连续性差的褶皱层等可包含于可靠对比追踪的大套层中,以消除人为解释的影响。b.单点层速度反演及顺层连续层速度反演:每层层速度反演分两步进行。第一步沿层等距或非等距选取一些控制点做单点速度反演,并通过对“速度分布直方图”、“实际道集动校图”、“理论时距曲线与实际道集叠合图”及“射线路径分布图”等各种图的综合分析,确定速度反演结果的正确性及合理性,并经试验选取相干函数分析时窗及参加运算的偏移距范围。第二步顺层进行连续反演,对浅层取CMP间隔为5,深层CMP间隔为10。顺层分析成果表明,每层的层速度分布均有一定规律,即使在时间剖面的杂乱反射地带,仍可根据变化趋势确定其分布情况,如图6-86所示。图6-86 顺层连续层速度反演c.建立深度-速度模型:根据所建的时间模型和层速度反演结果,逐层用射线追踪方法,把时间界面转化为深度界面,最终计算产生速度-深度模型或地质模型。d.快速叠前深度偏移:它以速度-深度模型和经过偏移距归一处理的CMP道集为输入,并依据主力射线的分布范围确定偏移孔径而进行偏移。在处理迭代过程中,反复使用该法成像,以达修正速度-深度的目的。e.速度-深度模型的修正:它是叠前深度偏移处理中最重要和工作量最大的处理作业。因深度偏移的结果是否准确直接依赖于速度-深度模型是否符合地下客观实际情况,因此,除按深度域成像原理,检查叠前深度偏移后沿线的CRP道集是否拉平外,还依赖以下原则:·反射同相轴的接触关系是否合理,断面波是否归位,绕射波、回转波是否收敛。·速度-深度模型与本地区的速度和地层深度是否吻合,其变化趋势是否合理。·根据地震地质解释人员对本区地质构造等地质特征的认识,判断其成像结果是否正确。根据以上原则,对速度-深度模型按从浅到深的顺序逐层修改,并将上一次深度偏移结果作为下一次偏移的模型,进行数次迭代,直到最终确定出最佳速度-深度模型和深度域偏移成果。图6-87是最终模型,用它得到符合实际情况的叠前深度偏移剖面。f.最终叠前深度偏移:规则的Eikonal深度偏移用于处理的最后阶段。其偏移精度高于Turbo Eikonal法,但后者运算速度比它快9倍。图6-87 乐东22-1构造泥底辟速度-深度模型3.处理流程如图6-88所示。图6-88 二维叠前深度偏移处理流程由处理流程可见,二维叠前深度偏移技术采用了模型正、反演相结合的反复迭代技术,整个处理流程是模型正、反演技术反复迭代的运算过程。体现了叠前偏移处理技术是由一系列配套技术所构成的一环套一环、一扣套一扣、缺一不可的系统处理技术。(二)三维叠前深度偏移技术与实践如设地震记录波场为M(x,y,0,t);地震波的传播速度为V(x,y,x);地下地质属性(界面反射系数)为E(x,y,z);W(x,y,z)为地震子波,则可建立如下数学模型。岩性属性中国海洋石油高新技术与实践地层形态属性中国海洋石油高新技术与实践由上述数学模型可知,三维叠前深度偏移的基本原理是:在三维立体空间通过建立其速度-深度模型,并用克希霍夫积分法进行深度域的偏移处理,以使三维地震数据体反演为三维立体空间深度域地层分布形态的地质构造数据体。其具体实施方法是,使用已知地震反射层位和常规处理的叠后时间或深度偏移速度场,由浅层到深层逐层根据已知反射层的时间和速度,用射线追踪方法生成共反射点道集,然后,解释共反射点道集,并依据共反射点的剩余时差,修改速度和反射层,使共反射点道集的同相轴拉平。这样经过多次对速度和反射层深度的修改即迭代处理,最终可求得反射层的速度 V(x,y,z)和深度H(x,y,z)模型。使用这两个模型和深度域克希霍夫积分法作波动方程偏移,即完成三维叠前深度偏移处理。得处理结果E(x,y,z),它可正确地反映复杂构造的形态。其处理流程如图6-89所示。图6-89 三维叠前深度偏移处理流程由图可见,我们所实践的三维叠前深度偏移技术系列包括如下几项。1.三维地震资料常规处理配套技术叠前深度偏移前处理技术系列,采用了三维地震资料常规处理配套技术。这些技术主有定位与地震数据道合并、振幅补偿、海平面校正、子波反褶积、面元均化、NMO速度分析、DMO速度分析和叠加、三维叠加速度场、叠前时间偏移叠加、建三维偏移速度场、三维插值、三维最终偏移、滤波、动平衡、去噪和多次波等。上述处理的目的是为三维叠前深度偏移提供较高质量的偏移数据体、速度场和地层构造的初始模型。2.建立地层的深度和速度模型技术该技术是叠前深度偏移的核心和关键技术,它决定叠前深度偏移是否能解决复杂构造清晰成像和准确归位的问题。我们实践了图6-90所示的叠前深度偏移速度-深度模型建立方法。该速度分析技术适用于较复杂的地下介质,对反射波时距曲线没有双曲线的假设条件,但只用了反射波的时间信息,信噪比低时其旅行时难于准确拾取,以及由于反射波旅行时等于深度/速度,使层析的解具有多解性。因此,对地震数据体在叠前必须将噪声和多次波削弱,使其信噪比大于1。同时要用地质、钻井等先验知识对解进行约束,实施处理、解释,与地质人员有机结合,以实现地震资料处理解释与地质一体化。图6-90 三维叠前深度偏移速度-深度模型建立方法流程由图6-90可见,在建立叠前深度偏移速度场的技术中,主要用了如下技术。(1)射线跟踩方法该方法不仅是波场研究的基础,而且是地震资料叠前深度偏移的有力工具。它以精确射线跟踪为基础,随波阵面运行而自动生成计算单元,无需事先对模型进行剖分,也无需求解射线路径与计算单元数值边界的相交点,从而省去了大量的非线性迭代过程,具有较高的计算精度和计算效率。(2)偏移速度分析方法基于Kirchhoff积分理论的偏移速度分析,其基本原理是:若在叠前深度偏移中使用了正确的速度-深度模型,则在偏移后的共反射点道集上反射同相轴位于同一深度,呈水平形态;反之在偏移后的共反射点道集上反射同相轴必出现深度不一的弯曲形态。如图6-91和图6-92所示。图6-91 初始速度-深度模型叠前深度偏移的输出图6-92 最终速度-深度模型叠前深度偏移的输出由两图可见,速度不准的初始速度模型,其叠前深度偏移剖面成像不佳,地质构造形态不清,难于解释,且CRP道集上的同相轴深度不一,呈弯曲形态。而用射线跟踪层析法所获较准确的速度模型所作的叠前深度偏移剖面则成像清晰,地质构造形态和逆掩断层易于解释,其CRP道集上的同相轴基本上都拉平了。因此,利用上述特征可判断所求速度是否准确。速度-深度模型建立实现的过程可分为如下3步:①对选定的位置点给出一系列的层速度,进行共炮检距剖面段的叠前深度偏移,并以该位置点的共反射点道集一致性来确定层速度的取值;②对多个位置点进行A的处理,可获多个位置点的层速度,并对这些层速度作平滑处理可得层速度分布;③根据层速度分布进行叠前深度偏移,并从偏移结果中拾取深度分布,从而完成速度-深度模型的建立。3.叠前深度域偏移成像技术在高精度速度-深度模型基础上,利用Kirchhoff积分偏移方法进行最终的叠前深度偏移,后抽取共反射点道集叠加成像,从而获得高质量的深度域地震偏移叠加剖面。但目前这种方法是不保持振幅的,所以,叠前深度偏移产生的CRP道集还不能用于AVO分析和地层属性的反演处理。4.处理参数选取(1)层位拾取要以主要速度层的反射同相轴作为模型的速度界面,实践证明,这样选取的层位其可靠性高,稳定性好。而要做到正确的选取,必须在地震资料地震地质解释专家指导下进行。(2)速度模型选取在建模过程中,要特别注意的是,横向速度的梯度变化或界面形态的梯度变化不能很大,即两者的梯度变化不能出现锯齿形态,否则偏移后的剖面波组很乱,无真实感。因此,要对速度模型作适当的修饰性处理。(3)速度的精确拾取由深度域的CRP道集图6-93可见,叠前深度偏移对速度是很敏感的,在550ms附近有一反射层,其速度为99%时反射同相轴基本拉平,成像最佳。而其速度为98%和100%时,反射同相轴拉不平,成像不佳。这说明速度相差1%,其成像结果差别较大,因此,精确地拾取速度是提高深度偏移质量的技术保证。图6-93 深度域的CRP道集图(4)偏移孔径的选取该参数是叠前深度偏移处理中的主要参数之一,它的大小直接影响偏移噪声和成像如何。如偏移孔径过小,陡度大的层位得不到正确成像,而偏移孔径过大就要降低信噪比。因而,要通过认真地试验选取最佳的偏移孔径。在渤中28-2构造通过多种偏移孔径的试验,确认在inline方向上使用500,在Crossline方向上使用20°效果最好。二、应用效果分析(一)南海莺歌海盆地泥底辟应用为解决南海莺歌海盆地泥底辟在时间域偏移地震剖面上,地震反射层杂乱,成像不好,有速度陷阱,其中深层反射同相轴明显下拉,从而形成构造圈闭等地质问题,在乐东22-1构造区作了二维叠前深度偏移处理,处理结果如图6-94所示。由图6-94(a)和(b)的对比可见,深度偏移反射层成像大大地优于时间偏移的反射层成像,且塔形泥底辟构造两翼在时间偏移剖面上的下凹已基本消除,这说明叠前深度偏移消除了速度陷阱而形成的地质构造假象,较正确地反映了泥底辟构造的真相。图6-94 乐东22-1构造叠前时间与深度偏移成果比较(二)渤海锦州27-33构造应用为解决渤海锦州27-33构造,其基底隆起右翼的大断层及其与下降盘地层的接触关系和构造形态在时间偏移剖面上不清楚的问题,用二维深度偏移技术作了处理,处理成果如图6-95(b)。由时间偏移剖面图6-95(a)与深度偏移剖面图6-95(b)的对比可见,在深度偏移剖面上,其隆起右翼大断层成像清晰了,归位准确合理了,其与下降盘地层正牵引的接触关系和断崖扇体的外形都清楚了。图6-95 锦州27-33构造叠前时间与深度偏移成果比较(三)渤海渤中28-2断裂构造应用为解决渤中28-2断裂构造在三维时间偏移剖面上,其中深层反射层和断层成像及归位问题,以确定落实渤中28-2的断裂构造形态,用三维叠前深度偏移技术作了80km2的处理,处理剖面如图6-96(b),水平切片如图6-96(d)。由图6-96(b)与(a)和图6-96(d)与(c)的对比分析可见,三维叠前深度偏移数据体具有中深反射层成像清晰、断面波强而归位合理的特点,特别改善了基底及其下内幕大倾角反射层的成像清晰度,使基底及其下地层结构、构造形态易于对比追踪解释、断裂构造形态和断层的分布更加清楚了。图6-96 渤中28-2断裂构造三维叠前时间与深度偏移成果比较图6-97 渤中25-1三维叠前深度偏移技术处理图(a)inline190测线三维时间偏移剖面;(b)inline190测线三维叠前深度偏移结果经转换得到的时间偏移剖面(四)渤中25-1断裂构造应用为解决渤中25-1断裂构造在三维时间偏移剖面上,其中深层反射层和断层成像和归位问题,以更精确落实该构造的形态,为开发可行性研究提供可信的依据,用三维叠前深度偏移技术作了约80km2的处理。其处理剖面如图6-97(b),水平切片如图6-98。由图6-97(b)与(a)的对比分析可见,三维叠前深度偏移剖面具有中深层信噪比较高、反射层和断面波成像清晰、归位合理等特点,特别改善了基底及其下内幕反射层的可对比追踪性。由图6-98(a)与(b)对比分析可见,三维叠前深度偏移的水平切片,信噪比高所反映的主断层和沙河街组二段主力含油气砂岩储集体——扇三角洲的分布形态十分清楚。总之,实践和模型验证,叠前深度偏移技术是解决因速度横向变化,在时间域造成的地质构造假象和改善复杂断裂构造、地层和断层反射成像、正确归位的有效技术手段。图6-98 扇三角洲的分布形态图

子弹以v1=200米每秒的速度水平射进土墙,射进深度为4cm。诺子弹以速度v2=500米每秒的速度射

可利用动能定理来求解:由“子弹以v1=200米每秒的速度水平射进土墙,射进深度为4cm(0.04m)”由动能定理得: -F×S1=0-(mv1^2)/2=-(mv1^2)/2 带入数据得:-F×0.04=0-(m×200^2)/2 (1)假设能射穿,并令子弹的出射的速度v,由动能定理得:-F×0.09=mv^2/2-(m×500^2)/2 (2)(2)除以(1)得:0.09/0.04= (v^2-500^2 )/(-200^2) 整理得:v^2=250000-9×40000/4解得:v=400m/s 这说明能射穿,且子弹的出射速度为400m/s

有人用过Quadro系列显卡做过深度学习吗?相比其它显卡有啥优缺点

优点:对于图像识别方面的深度学习网络,成相质量好,渲染速度比较快。缺点:效率低下。低到令人发指。计算精度不够。数据不准确。总结:跑深度学习还是用专业卡来跑吧,或者用GTX系列凑合一下,做一个初步的学习也是可以的。

百度Paddle会和Python一样,成为最流行的深度学习引擎吗

百度 PaddlePaddle在和几款最常用的深度学习框架TensorFlow、Torch、Caffe比较之前,我们先重点介绍新出现的PaddlePaddle。Paddle其实已经有多年历史了。早在 2013 年,百度就察觉到传统的基于单GPU的训练平台,已经无法满足深度神经网络在搜索、广告、文本、语音、图像等领域的训练需求,于是在徐伟的带领下开始搭建Paddle——一个多机并行的CPU/GPU混布的异构计算平台。Paddle从最早的开发到如今的开源,就一直以大规模数据处理和工业化的要求不断改进。我们可以看到PaddlePaddle有很多优异的特性。Github上介绍,PaddlePaddle有以下特点:· 灵活PaddlePaddle支持大量的神经网络架构和优化算法,支持任意复杂RNNs结构,高效处理batch,无需数据填充。简单书写配置文件即可实现复杂模型,比如拥有注意力(Attention)机制、外围记忆层(External Memory)或者用于神经机器翻译模型的深度时序快进网络。· 高效为了利用异构计算资源的能力,PaddlePaddle中的每一级都会进行优化,其中包括计算、内存、架构和通信。以下是几个例子:1.使用SSE/AVX内联函数、BLAS数据库(例如MKL、ATLAS、cuBLAS)和定制化的CPU/GPU Kernal来优化数学运算。2.高度优化RNNs网络,在没有Padding的情况下,也能处理不同长度的序列。3.优化的本地和分布式训练,同时支持高纬稀疏模型。· 可扩展有了PaddlePaddle,使用多个CPU和GPU以及机器来加速训练可以变得很轻松。 PaddlePaddle能通过优化通信,获得高吞吐量和性能。· 与产品的连接PaddlePaddle的部署也很简单。在百度,PaddlePaddle已经被用于产品和服务中,拥有大量用户。应用场景包括预估外卖的出餐时间、预判网盘故障时间点、精准推荐用户所需信息、海量图像识别分类、字符识别(OCR)、病毒和垃圾信息检测、机器翻译和自动驾驶等等。在PaddlePaddle简单、可扩展的逻辑下,徐伟评价说:“这将使工程师们能够快速、轻松地将深度学习技术应用到他们的产品当中,我们想让更多的人使用人工智能,人工智能对于我们的未来生活是非常重要的。”

深度35厘米的柜子可以放什么

深度35厘米的柜子可以放什么   深度35厘米的柜子可以放什么,家家户户都是有很多柜子的,而且板材是柜子的主要材料,如果柜子品质不好的话,那将严重影响到家居健康。下面看看深度35厘米的柜子可以放什么及相关资料。   深度35厘米的柜子可以放什么1    可以当鞋柜,书柜来用。   柜子,拼音:guì zǐ,英文名:cabinet。释义:收藏衣物、文件、书籍等用的器具,方形或长方形,一般为木制或铁制。柜子是一种长方形家具或办公用品,形体较高大,可存放物品。   柜子的使用始于夏商周时期,那时称为“椟”。到了明清时期,柜子成为室内必备的家具,且形制已定型。明清柜子按形制可分为方角柜、圆角柜、亮格柜,形制不同,其构成部件也有不同。柜类家具主要是指以木材、人造板或金属等材料制成的各种用途不同的柜子。   柜内挂衣空间深度不小于530mm,挂衣棍上沿至底板内表面距离不小于1400mm,用于挂大衣及存放衣物的柜子。   立式的木柜,用以贮物。方角柜的柜顶没有柜帽,故不喷出,四角交接为直角,且柜体上下垂直,柜门采用明合页构造,简称“立柜”。   柜内挂衣空间深度不小于530mm,挂衣棍上沿至底板内表面距离不小于900mm,用于挂短衣及存放衣物的柜子。   深度35厘米的柜子可以放什么2    一、衣柜里放什么可以防潮防霉防虫   可以在衣柜里放一些柑橘皮、樟脑丸、小苏打等,这些都可以起到防潮防霉防虫的效果。柑橘皮具有吸湿的作用,除湿效果非常好,樟脑丸气味刺鼻,具有防虫、防霉的效果,而小苏打具有除臭、除湿的作用。    二、衣柜板材有哪些    1、实木   用实木做衣柜板材非常合适,环保健康、稳定性好,而且使用寿命长,深受许多消费者的欢迎,但是价格比较贵,颜色单一。    2、大芯板   大芯板是拼接而成的板材,这种板材表面平滑、稳定性好、加工简单,一般板材越厚,价格越贵,承压力和强度也更强。另外,大芯板在生产过程中,需要使用大量粘胶剂,因此加强含量比较高,环保性较差。    3、高密度板   高密度板是通过木碎压制而成的板材,这种板材的密度比较均匀,加工比较容易、价格较低,缺点是生产时需要加入很多的粘胶剂,环保性比较差,容易吸水、防潮性不好。    4、实木颗粒板   实木颗粒板是经高温、除菌处理,然后用粘胶剂制作而成的,这种板材没有节子、虫眼等缺陷,可以设计成各种造型,质地比较轻、承重能力强,性价比高,用来做家具板材非常合适。    5、实木多层板   实木多层板强度比较高、稳定性好,采用多层1mm左右的实木单板压制而成,这种多层板的板芯一般是杨木、杂木等。   深度35厘米的柜子可以放什么3    衣柜里放什么既可以防潮又可发香味   1、我们可以去购买一些比较便宜的茶叶,建议是绿茶,茶叶是可以除湿的,而且可以有去异味的,效果将它放在一个不密封的盒子里面,如果是密封的盒子,那么就不要盖上盖子放在衣柜当中,可以去除衣柜里面的一些异味,既可以防潮也可以散发出一种茶叶的清香。   2、也可以将茶叶包在一个报纸上面,放在衣柜的每一个角落,一点点的茶叶是不建议放在衣柜当中的,需要大量茶叶,为了节省价格,可以买一些茶叶渣也是有用的.。   3、也可以放一些活性炭,活性炭是有去除异味的作用的,还可以防止潮湿,但是活性炭并不能够散发出清香,建议同时我们可以放一些固体的清香剂衣柜当中,这样既可以除湿也可以散发出香味。   4、还有一个最常见的办法就是放一些樟脑丸,樟脑丸也是有一定香气的,但是有些人不能够接受樟脑丸的香气,这个需要根据个人的接受能力来选择要不要放樟脑丸。    衣柜里放什么既可防潮又可发香味   在衣柜内放置吸湿器;把茶叶,可买些便宜的干燥茶叶,如绿茶,把石灰装在容器或者盒子里,不要封盖。   1、在衣柜内放置吸湿器;一般超市都有买,几时块钱一盒。竹炭效果也很好,不过放衣柜里面要避免弄脏衣服。   2、把茶叶(可买些便宜的干燥茶叶,如绿茶,为节省钱,不需要买那些太贵的)用宣纸或报纸包成一包包,放在衣柜每个角落,能起到吸湿除味作用,且对人体没有副作用。然后,若想让衣服芳香,可买些衣物固体芳香剂放在衣柜。(可要先等干燥茶叶吸湿除味后再放芳香剂哦,切记!)   3、把石灰装在容器或者盒子里(不要封盖,除非不要用的时候)放在衣柜里角,天气潮湿的时候,石灰吸潮很厉害的。    衣柜防潮小技巧   1、吸湿盒这是市面上比较常见的吸湿用品,一般由氯化钙颗粒作为主要成分,大部分产品还添加了香精成分,所以集除湿、芳香、抗霉、除臭等功能于一体,多用于衣柜、鞋柜的吸湿。   2、活性炭吸附效果也很好,不过放衣柜里面要避免弄脏衣服;另外使用一段时间后记得拿到太阳下暴晒继续使用。   3、茶叶吸湿法把茶叶(可买些便宜的干燥茶叶,如绿茶,为节省钱,不需要买那些太贵的)用宣纸或报纸包成一包包,放在衣柜每个角落,能起到吸湿除味作用,且对人体没有副作用。然后,若想让衣服芳香,可买些衣物固体芳香剂放在衣柜。   4、土方法:把石灰装在容器或者盒子里(不要封盖,除非不要用的时候)放在衣柜里角,天气潮湿的时候,石灰吸潮很厉害的。   衣柜潮湿会让衣物被单等物品发霉,所以衣柜一定要做好防潮措施,衣柜里放什么既可防潮又可发香味,上面我给朋友们介绍了,衣柜如果太潮湿,我们可以看看是不是衣柜靠墙的位置防水没有做好等等,上面我也给朋友们介绍了衣柜防潮小技巧,这些都是日常生活中能帮助到大家的好办法。

深度学习图像处理中的Patches什么意思

Patches:中文的意思是补丁。图像处理基于补丁的分割,其基本思路是首先定义一个生长准则,然后在每个分割区域内寻找一个种子像素,通过对图像进行扫描,依次在种子点周围邻域内寻找满足生长准则的像素并将其合并到种子所在的区域,然后再检查该区域的全部相邻点,并把满足生长准则的点合并到该区域,不断重复该过程直到找不到满足条件的像素为止。该方法的关键在于种子点的位置、生长准则和生长顺序。

深度游西班牙、葡萄牙一般需要多少天,有哪些线路行程推荐?

西班牙葡萄牙一起游览的话,大概需要12天左右的样子才能把一些主要的景点逛完。旅行时间其实可以在1-3月,因为可以避开欧洲的 旅游 旺季,酒店便宜,景点也人少,这个时候如果天气好的话,只需要穿一件薄外套,在大西洋拥抱暖洋洋的阳光。下面推荐一条12天10晚的“经典打卡和小众探秘”深度游路线。全程赏风光、品当地人文、吃蛋挞、坐热气球来个轻松又深度的旅行。 DAY1 在里斯本做回“海上贵族” 贝伦塔 是里斯本的象征,曾是航海家的起点,见证了葡萄牙港口500年的繁华。参观距离贝伦塔约一公里的 热罗尼莫斯修道学院 ,洁白肃穆,卡蒙斯和达迦马的灵魂都长眠于此。品尝 贝伦蛋挞 ,这是世界上第一家蛋挞店,1.1欧一只。然后入住 五星级皇宫酒店 ,让你恍惚觉得自己置身于18世纪的欧洲宫廷。 DAY2 打卡贝伦的“伊甸园”,海滨漫步 前往拜伦心中的“伊甸园”,辛特拉小镇sintra。玩转“辛特拉+罗卡角”,罗卡角是全球最值得去的50个景点之一;顺便去趟海边的卡斯凯什小镇,领略007的风采,这是欧洲富豪最爱的度假地。参观佩纳宫,它如彩色积木拼成的城堡,漫步在此仿若置身童话之中。 DAY3 塞维利亚 斗牛+弗拉明戈 乘火车到塞维利亚,参观皇家骑士俱乐部斗牛场,它有12000个座位,是西班牙最重要最传统的斗牛场。然后在弗拉明戈私人博物馆看专业的表演。 DAY4 解锁“天空之城”,“地下花园”寻踪 西班牙的龙达小镇,这是被海明威称赞为“最适合私奔的地方”。一座98米高的拱桥横跨峡谷,漂浮在云端,连接起了小镇的新城和老城。站在观景台眺望小镇,如见到了天空之城。镇里面的摩尔王之家是一座18世纪的地下花园。 DAY5 打卡“权利的 游戏 ”同款 16世纪建成的 塞维利亚教堂 ,是世界上最大的哥特式建筑之一,从里到外都是金碧辉煌。《权利的 游戏 》中,多恩马泰尔家族的皇宫庭院,就在欧洲最古老的皇家宫殿 塞维利亚王宫 取景。 DAY6 打卡不可思议的马德里 可以像当地人一样在马约尔广场骑单车、晒太阳、喂鸽子,悠然自得。然后看马约尔广场西边的 圣米格尔市场 体验地道小吃 tapas, 吃饱喝足后再去大牌云集的 格兰大道 shopping。 DAY7 环游古城,探秘风车小镇 乘坐小火车,历时5分钟,有中文讲解,带你环游融汇了基督教、伊斯兰教、犹太教三种文化的 托莱多古城 。再去探秘 堂吉可徳里面的风车小镇 consuegra。 DAY8-9 进入高迪的幻想世界 热辣的巴塞罗那,连西班牙鬼才建筑师高迪都拜倒在此。高迪喜欢变废为宝,外表五彩斑斓的 古埃尔公园 其实是高迪用瓷砖碎片、玻璃碎片、粗糙石块打造而成。打卡 巴特罗之家、圣家堂、波浪形的米拉之家。 DAY10 在热气球上喝香槟、购物村里买买买 最后一天在热气球上喝香槟,在 加泰罗尼亚 感受日出风采。1-3月是西班牙一年中最大的 打折季, 去欧洲最大最有名的 拉罗卡购物村 买买买。这里的购物店都有中文店员,完全不用担心交流的问题。 DAY11 自由活动+乘机返回国内。 欢迎各位评论一起交流! 我和我的朋友们,去年9月底-10月初,刚去过西班牙和葡萄牙,一共行程13天,全程都是自驾,我来回答一下如果自驾多少天,以及行程。1、我们行程包含葡萄牙是因为正好有首都航空开通了北京-里斯本的直飞航线,且在10.1长假附近价格也没多贵。 如果考虑葡萄牙和西班牙都去的话,不妨考虑一下直飞里斯本的这个航班。 2、我们是分别在西班牙和葡萄牙做了2段自驾,里斯本——马德里是买的往返机票,这么做的原因是如果飞到里斯本后,就直接租车开去西班牙的话,里斯本租车价格太高了(算下来里斯本租车一周价格,有可能是到西班牙后在马德里租车价格的3倍) 3、天数:自驾的话,全程建议12-14天,且仅包含葡萄牙的里斯本周边,西班牙的马德里+安达卢西亚地区,如果想包含巴塞罗那就建议单独飞到巴塞罗那再住3晚。 葡萄牙建议至少3天:里斯本2晚+罗卡角-辛特拉(住辛特拉或卡斯卡伊斯)。 马德里+安达卢西亚地区,建议8-10天:可住的城市有:马德里,托莱多,科尔多瓦,塞维利亚,龙达,格拉纳达。 4、行程建议: 别错过一些小地方,说不定会有惊喜。例如: 1)9月底我们在塞维利亚正好赶上周六有斗牛,现在斗牛越来越少了,能遇到别错过。 2)小城龙达虽然白天游客多,但住一晚会好很多。 3)葡萄牙海边小城卡斯卡伊斯值得住一晚。 我们2019/12去的,是按照这个路线走的。基本上都到了。 上海—马德里—卡塞雷斯—埃武拉—罗卡角—里斯本—辛特拉—塞维利亚—龙达—米哈斯—格拉纳达—瓦伦西亚—锡切斯—巴塞罗那—萨拉戈萨—蒙特拉山—马德里—上海 西班牙是一个充满热情,一个挥洒艺术气息的乐土,素以斗牛、舞蹈、吉它名重天下。拥有十分优越的 旅游 资源,其大部分国土气候温和,山青水秀,阳光明媚,风景绮丽。拥有许多王宫、教堂和城堡,还有许多古老的、独特的民族的文化传统和别具一格的民族文化 娱乐 活动有很多非常著名的 旅游 城市巴塞罗那,马德里,塞维利亚,格拉纳达,托莱多市,科尔多瓦,赛哥维亚,马拉加,米哈斯,孔佩塔,阿尔卡拉德埃纳雷斯,阿兰惠斯,巴达洛纳,比利亚努埃瓦-赫尔特鲁,宾纳戴斯,丰希罗拉,格拉诺莱斯,瓜达拉玛,卡拉多维拉巴,萨莫拉,塔拉戈纳,韦尔瓦,萨拉曼卡,帕伦西亚,卢戈,莱昂,拉斯帕尔马斯,卡斯特利翁,卡赛雷斯,加的斯,布尔戈斯,瓦伦西亚,巴利亚多利德,巴达霍斯,阿维拉,阿尔梅里亚,桑坦德省等,你可以根据自己的游玩时间来规划一下每个城市的景点线路最佳 旅游 时间 6月—8月天气温暖、干燥,阳光明媚。 3月—5月天气温和、晴朗,游客较少。 11月—2月中部寒冷,北部和西部多雨。 主要语言是: 百分之十加利西亚语,百分之十加泰罗尼亚语,百分之八十西班牙语 啤酒:4欧元(约为28元人民币)咖啡: 5欧元(约为35元人民币)汉堡:7欧元(约为50元人民币)T恤:20欧元(约为140元人民币)游玩10-12天的话大约需要花费15000-25000人民币给你一个简单的线路参考,希望对你有帮助 第1天中国、马德里 第2天马德里 第3天马德里、塞哥维亚、马德里 第4天马德里、塞维利亚 第5天塞维利亚、格拉纳达 第6天格拉纳达、马拉加 第7天马拉加、龙达、马拉加 第8天马拉加、巴塞罗那 第9天巴塞罗那 第10天巴塞罗那 第11天巴塞罗那、中国 第12天抵达中国以我在西班牙工作了二十年的时间,我个人觉得你最好自由行,西班牙巴雷阿里斯群岛,由三个组成部分,马略卡,尹比萨,梅诺卡,其中马略卡最大,游玩的风景线和 美食 是根据你的喜好来决定,时间要一个星期左右,非常的漂亮,我发几张照片给你看。看看还可以吧? 我在葡萄牙就自驾玩了18天,葡萄牙太多值得游玩的地方了。5天在马德拉群岛,马德拉群岛的自然景色美如仙境,各种档次的酒店林立,但只能自驾游,可能是语言关系,岛上基本见不到东方面孔。葡萄牙本土从南到北的名胜古迹就更多了,除了里斯本周边外,波图、科因布拉、花地玛、埃武拉都有很出名的很值得参观的景点。找机会想去看看亚速尔群岛。 西班牙和葡萄牙如果有时间最好用一个月的时间漫漫游,我2019年2月用了56天(我退休了)游了西欧南欧7个国家时间有些赶,西班牙和葡萄牙消费都不高,我全程住青旅15欧元以下就已包早餐(干净卫生),交通火车、 汽车 都好方便,安全方便要注意有色人种不要随便和他们搭讪。钱财证件保管好,我刚到葡萄牙就被两个年轻女扒手把钱偷走,好在我的钱是分开放的损失不算大,线路可以从马德里,里斯本,塞维利亚,巴伦西亚,巴塞罗那,建议游一下安道尔(ANDORRA)小公国,在巴塞罗那 汽车 站座大巴3小时就到。起点可以看那里的机票便宜就从那里出发。两个国家都值得漫游。 2015年20多天游西班牙,2016年又花了大约20天左右游葡萄牙和西班牙。共计40多天吧。很喜欢这二个南欧国家。消费比西欧便宜。可看可玩的也很多。 美食 特别喜欢。西班牙可以玩的城市更多。发几张照片吧! 这是我的西班牙葡萄牙自驾12日线路 路线概览 马德里 塞戈维亚 萨拉曼卡 波尔图 科英布拉 托马尔 卡斯凯什 里斯本 拉戈斯 塞维利亚 龙达 塞维利亚 巴塞罗那 DAY1 马德里 在【太阳门广场】寻找西班牙全国公路的中心-零公里标志及马德里市徽熊和草莓树雕塑;打卡马德里必吃必游的-【圣米盖尔市场】,这里聚集了多种当地特色小吃、生猛海鲜、奶酪火腿等等,一定会让你大快朵颐。最后在马德里最繁华的地区-【格兰维亚大街】和【马约尔广场】自由逛街。 DAY2 塞戈维亚 萨拉曼卡 自驾前往塞戈维亚,参观闻名于世的塞哥维亚城堡,迪士尼白雪公主城堡的设计灵感就源于此地。这座混合着罗马和阿拉伯双重建筑风格的城堡建在塞戈维亚最西边的山坡上,周围是碧绿的田野、蜿蜒的小路、还有蔚蓝的天空,让你仿佛置身于童话世界。之后游览被联合国列入世界文化遗产的塞哥维亚渡槽。中午推荐在百年老店坎迪多餐厅,品尝一顿当地最著名的烤乳猪宴。下午前往阿尔德亚德洛维斯波,晚上住在萨拉曼卡附近。 DAY3 波尔图 驱车前往葡萄牙第二大城市-波尔图。这是一个依山伴海而建的古老城市,色彩缤纷的老房子、青花瓷的墙饰、蓝色的杜罗河和浓醇的葡萄酒都是她的标志。首先我们打卡葡萄牙最古老的书店之一【莱罗书店】,《哈利波特》的作者就经常来此构思写作,你可以在这里寻找《哈利波特》电影中那一幕幕熟悉的场景。之后参观波尔图市中心的地标性建筑【牧师塔】和波尔图最古老的建筑之一-【波尔图主教堂】,这些精美、典雅的中世纪建筑定会让你为之赞叹。下午在【里贝拉广场】喝一杯咖啡,欣赏风景如画的里贝拉码头;在【博良市场】体验当地人的生活,了解到最真实的波尔图。夜宿波尔图。 DAY4 波尔图 科英布拉 早上继续游览波尔图。之后参观【泰勒波特酒庄】,品尝地道的波特酒。当地人都说,要想了解波尔图,就要了解波特酒,它就像血液一样流淌在每一个波尔图人的身体里。下午前往【布萨科皇宫酒店】,这间古老的酒店位于布撒科国家森林(Bussaco National Forest)内,坐落于葡萄牙最后一任国王的狩猎行宫之中。 DAY5 托马尔 卡斯凯什 前往托马尔,参观建于12世纪的托马尔的基督会院,它最初为圣殿骑士团的大本营,象征着骑士团的征服历程。之后前往奥比都斯,它的城墙、鹅卵石小路以及14世纪的古朴风貌都使奥比都斯成为葡萄牙最浪漫的场所之一。下午抵达葡萄牙首都-里斯本,入住近郊海滨度假圣地卡斯凯什 。 DAY6 里斯本 来到里斯本最古老的建筑之—圣若热城堡,这里可以俯瞰城市全景。随后在老城区参观代表大航海时代辉煌过往的标志性建筑航海纪念碑和贝伦塔。下午步行到葡萄牙乃至世界最有名、 历史 最悠久的贝伦蛋挞店,推荐来一杯浓缩咖啡,尝一尝最正宗、最地道的葡式蛋挞。最后前往里斯本西郊的海边,在有欧洲版的“天涯海角”之称的罗卡角欣赏美丽的日落,度过完美的一天。 DAY7 拉戈斯 离开里斯本,前往葡萄牙的黄金海岸拉戈斯。这里拥有全葡萄牙壮观和美丽的海岸线,水晶一样晶莹剔透的海水、柔软的沙滩、迷人的岩洞让人流连忘返。 DAY8 拉戈斯 前往神秘的【贝纳吉尔海蚀洞】感受大自然的鬼斧神工。由于海水对岩石的冲击作用很大,所以就形成了被海浪掏空的洞穴。大多数海蚀洞都很黑暗幽深,而贝纳吉尔海滩洞穴却不一样,洞顶的圆形裂口将阳光引入,使洞内细软的沙粒闪闪发光,给人的是一种无比梦幻的感觉。之后在海边休闲放松。 DAY9 塞维利亚 离开葡萄牙,前往西班牙南部的艺术、文化与金融中心塞维利亚。抵达后参观欧洲最古老的皇家宫殿塞维利亚王宫,之后在西班牙最美的城市广场西班牙广场逛街;打卡世界上规模最大的木结构建筑都市阳伞。 DAY10 龙达 塞维利亚 前往建在云端的“天空之城”龙达,在这里,我们还可以参观西班牙最古老的斗牛场之一龙达斗牛场。下午返回塞维利亚,晚上推荐看一场地道的弗拉明戈表演~ DAY11 巴塞罗那 上午还车后,乘坐高铁前往世界著名的 历史 文化名城巴塞罗那。在余秋雨笔下的流浪者大街-兰布拉大道游玩,邂逅来自世界各地的行为艺术家;在格拉西亚大街,一边欣赏两边高迪最经典的建筑,一边购物;参观哥伦布纪念广场,了解哥伦布发现新大陆的过程。最后来到美丽的奥林匹克港,吹吹海风,欣赏眼前如画的景色。 DAY12 巴塞罗那 在【圣家堂】及【巴特略公寓】欣赏天才高迪的旷世奇作,大师对几何原理的娴熟运用和对光线的掌控令他的作品显得如此超前而又独一无二。打卡巴塞罗那的网红景点-【圣十字圣保罗医院】,明艳的色彩,别致的外观,颇有置身童话世界的感觉。 既然是深度游,可以考虑更小众一点,游人不多,还各具特色。真正走起来,最少二十天。其实我是觉得时间越长越好,欧洲文明和阿拉伯文明在这里碰撞出的火花,真的让人流连忘返。 我更喜欢 美食 和自然风光。所以,葡萄牙阿威罗和埃武拉这样的小地方比较适合我,南部法鲁周边的一些小城市壮丽的大西洋海景能让你美哭。西班牙最美的地方集中在一些小镇,你可以选择安达卢西亚和地中海沿线,白天在大城市走走,晚上回小城镇居住,别有一番风味。

《TERA》职业前瞻PVP玩法深度解析

《TERA》的无锁定战斗系统,让战斗体验更上一个台阶。游戏拥有完善的三权分立制度,因此在选择职业的时候,一定要明确自己的定位:一夫当关的坦克、开天辟地的输出、还是力挽狂澜的治疗。7月16日,《TERA》国服将开启不删档测试,两大全新职业弓箭手和狂战士登场,在PVP中玩家们又多了两个耍帅的选择。枪骑士枪骑士在PVE中是碉堡般的存在,PVP战场更堪称是翻盘利器。最强的群控技能能够将6个敌人拉倒制定位置。独一无二的群体伤害吸收、立竿见影的防御buff、鬼魅般的近身能力,枪骑士承担后排骚扰,扛旗,团战发起人的作用。团战指数:★★★★★小规模战斗:★★★★★单挑指数:★★★★☆难度:★★★剑斗士灵活敏捷的剑斗士可以发挥优势,将对方的后排打乱,在小规模战斗中甚至让敌人的治疗连个技能都释放不出来。整体来说,剑斗士这个职业容易上手,而且输出高,眩晕效果和打断效果都非常出色,适合新手来挑战。团战指数:★★★小规模战斗:★★★★★单挑指数:★★★★★难度:★狂战士在国服初次亮相的狂战士特点鲜明,背后一把巨斧异常瞩目。在独立的情况下,斧头君可以做到无限击倒,无限打断。这也就意味着一旦被狂战士攻击,大半管血就没了,可以说是招招毙命。速度不够灵活是狂战士的短板,因此在PVP的时候需要和队友协同作战。团战指数:★★☆小规模战斗:★单挑指数:★★★★难度:★★★★★魔导士如同是团战中的原子弹,找对了切入时机,魔导士一个大招就可能让对手团灭。高输出也意味着体力的缺失,特别是在小规模战斗中,很容易成为“众矢之的”。所幸,魔导士的控制能力很强,有多套连招搭配,扬长避短才能更快锁定胜局。团战指数:★★★★★小规模战斗:★单挑指数:★★★☆难度:★★★★☆(单挑、小规模)★★(大规模)屠杀者将一柄重剑舞得虎虎生风,屠杀者重输出而轻控制,一套全暴击可以直接秒人,奶妈如果稍不留神很有可能命丧大剑之下。PVP过程中,屠杀者基本属于切后排的存在,虽然上手不太容易,但运用得当的话会非常出彩。团战指数:★★★小规模战斗:★★★☆单挑指数:★★★★难度:★★★☆弓箭手佩戴轻甲的弓箭手,在PVP战场中被成为“人头收割机”,因为他有着强力的AOE与单体技能,超远的攻击距离和灵活机动性,能给予队伍极大的帮助。在群架的时候,更多承担主力输出,而不是一击必杀的爆发。团战指数:★★★★★小规模战斗:★★★★单挑指数:★★★★难度:★★祭司作为治疗,是生存的保证,是立于不败之地的基本。祭司的各种BUFF使他拥有额外的生存能力,配合奶量和群奶能力,确实可以保证队友的安全。但是在进攻方面,技能就显得有限单薄。而他最大的天敌,就是降低治疗的各种DEBUFF。团战指数:★★★★小规模战斗:★★单挑指数:★★★难度:★元素使元素在团战中,靠着可以穿人的闪现会显得比较飘忽,所以很难抓死。但是在竞技场和小规模的战斗中被集火的时候,生存能力就会比较薄弱。加上回复能力只能靠能被轻易击倒击晕的蝴蝶宝宝和15%的放球回血,虽然这些治疗不受减治疗效果影响,但是还是一个比较脆弱的存在。团战指数:★★★小规模战斗:★★★单挑指数:★★★难度:★★最新一手资讯,最热玩家互动,敬请关注《TERA》官方平台:客户端下载l官方贴吧:http://tieba.baidu.com/f?kw=terafr=index论坛:http://tera.bbs.kunlun.com/新浪微博:http://weibo.com/tera2013腾讯微博:http://t.qq.com/tera2013官方微信:tera_kunlun关于《TERA》:“韩国第一性感网游”《TERA》(中文名《神谕之战》),是由韩国顶尖团队Bluehole Studio历时7年,不间断研发优化,总投资800亿韩元打造的世界级MMO。游戏采用次世代虚幻3引擎,还原4K高清画面,史上最大无缝地图,应用纳米微纹理技术,构建不设限的魔幻世界,多层级立体还原真实的社交体系。《TERA》是全球首款无锁定动作MMORPG,重新定义网游时代的“狠动作”!应用物理演算技术,模拟物体真实碰撞效果,让战斗极具真实紧张感,彻底摆脱传统网游依靠装备数值定胜负的模式,大幅提高了对玩家手眼反应、跑位技巧与技能释放时机等因素的要求,真正达到了见招拆招、招招入肉的效果。

《TERA》八大职业深度解析之枪骑士

韩国第一性感网游《TERA》即将于7月16日开启不删档测试,当大家都把注意力集中在捏脸上的时候,有心计的玩家已经在了解游戏内容了,能够独当一面大杀四方才是王道,跟漂亮的脸蛋比起来,做服务器霸主才是资深玩家追求的游戏体验,那么在进入游戏之前,赶快随我们来了解一下《TERA》的全部职业吧,因为这是你霸业的第一步。枪骑士(Lancer)——用强大的防御为同伴承担伤害的守护者!枪骑士是队伍的灵魂,是最可靠的守护者定位:坦克职业宣言:钢铁般的意志,才是最强大的防御。职业综合能力:防御能力★★★★★/攻击能力★★/辅助能力★★/上手难度★★职业特色:配戴重甲的枪骑士使用巨大的长枪和盾牌,依靠强大的防御和控制能力,扮演着队伍防御核心的角色。职业介绍:枪骑士是个标准的坦克,自身强大的格挡能力,除拥有优秀且大范围的挑衅技能外,还具备很多牵制技能。不过枪骑士的攻击力比较低,MP消耗比起其他职业要高出许多,其突刺型直线攻击方式在独自面对大量怪物时也会比较吃力。单人战斗:枪骑士的单人战斗重点是积极的攻击和适当的防御,如果掌握好怪物的攻击套路可以做到无伤战斗,但因为武器本身较低的攻击力,枪骑士的战斗效率不是很理想。除了增加仇恨值的挑衅技能外,枪骑士还具备限制敌人攻速、移速的debuff技能用以削弱敌人的战斗力,“捕获”技能可把单个敌人拉到近前战斗,相对的技能消耗MP也比较高,因此需要玩家适当的进行普通攻击回蓝。组队战斗:在打野外中型精英怪和副本BOSS战时枪骑士的作用是无可替代的,只有枪骑士拉住BOSS其他职业才可以进行稳定的输出和辅助战斗,为了维持较高的仇恨值枪骑士需要不停的使用仇恨技能牢牢的吸引BOSS的注意力。枪骑士的防御技能盾牌格挡会有一定MP的消耗,对于MP吃紧的坦克来说,如何平衡 MP的消耗和恢复是枪骑士的必修课。

《TERA》八大职业深度解析之屠杀者

韩国第一性感网游《TERA》即将于7月16日开启不删档测试,当大家都把注意力集中在捏脸上的时候,有心计的玩家已经在了解游戏内容了,能够独当一面大杀四方才是王道,跟漂亮的脸蛋比起来,做服务器霸主才是资深玩家追求的游戏体验,那么在进入游戏之前,赶快随我们来了解一下《TERA》的全部职业吧,因为这是你霸业的第一步。屠杀者 (Slayer)——利用强大的连续技攻击的战斗达人!屠杀者在杀戮时从不给敌人喘息的机会定位:伤害输出者职业宣言:杀戮的浪漫在于敌人死亡的刹那。职业综合能力:攻击能力★★★★/辅助能力★★/上手难度★★★职业特色:配戴轻甲的屠杀者使用沉重的大剑,其重量让敌人无法承受,且屠杀者独有的反击技,令他成为了翻盘的高手。职业介绍:屠杀者是个攻击力与速度兼具的爆发性攻击职业,牺牲防御换来的是攻击力与爆发性的机动力,如果能活用这些机动力,在大型怪物的对战中可以说是如虎添翼,相反的若是无法掌握,屠杀者的死亡率也是很惊人的。与同样是挥舞巨大武器的狂战士相比,屠杀者的攻击方式偏向连续攻击,借由某些攻击来触发技能的攻击方式,同时拥有着更多的牵制技能与击倒敌人的几率。单人战斗:手拿巨剑的屠杀者攻击速度偏慢,但由于攻击力较高所以打怪效率还是不错的。非战斗状态下MP会慢慢消耗直至0,打怪时需要结合普通攻击回蓝后使用技能输出伤害。屠杀者具有一些击倒、昏厥目标对象的技能,战斗要领是普通攻击回蓝→战斗技能伤害输出→状态技能打断怪物反击使其硬直→普通攻击回蓝→战斗技能伤害输出→继续状态技能如此连续不断的进行攻击而不给对方还手的余地,因此该职业也是公认的PK最强职业之一。组队战斗:在副本战斗时屠杀者作为DPS职业需要在BOSS的后方进行输出,因为后方攻击属于弱点攻击,所以又一定的伤害加成效果。屠杀者穿戴轻甲,所以防御力不是很理想,因此要需要对BOSS的反击进行适当的躲闪回避,同时不断的施展状态技能打断BOSS的强力攻击,给队友创造更多的输出机会。

《TERA》八大职业深度解析之魔导师

韩国第一性感网游《TERA》即将于7月16日开启不删档测试,当大家都把注意力集中在捏脸上的时候,有心计的玩家已经在了解游戏内容了,能够独当一面大杀四方才是王道,跟漂亮的脸蛋比起来,做服务器霸主才是资深玩家追求的游戏体验,那么在进入游戏之前,赶快随我们来了解一下《TERA》的全部职业吧,因为这是你霸业的第一步。魔导师 (Sorcerer)——使用华丽魔法的远程全能攻击手!魔导师是个不折不扣的毁灭者,强力的魔法攻击足以摧毁敌人的战斗意志定位:伤害输出者职业宣言:优雅华丽的魔法,蕴含着毁灭一切的力量。职业综合能力:攻击能力★★★★★/辅助能力★/上手难度★★职业特色:魔导师使用华丽的魔法,攻击大片的敌人,也可以将力量集中在一点,一举击败敌人。职业介绍:魔导师的攻击大多具备不小的范围,且也拥有着为数不少的牵制技能,在打怪时可以安心放出范围法术,在单体技能层面的输出也不输狂战,可是在魔力消耗上算是偏高的,在面对大型怪物时的持久战,第一个要面临的问题就是MP不足。单人战斗:魔导师在战斗时需要提前计算攻击距离和范围,之后才能组合不同的伤害输出技能暴风骤雨般攻击敌人,这会让魔导师在战斗开始初期打掉目标大半HP 而获得先发优势。但魔导师在战斗时对于技能的依赖度较高,MP消耗自然也很大,所以对MP的控制以及常备一些恢复药水是一个合格的魔导师必须掌握的战斗技巧。组队战斗:在副本中魔导师的操作比较简单,坦克把群怪集中到一起时可使用多种AOE迅速A掉,在BOSS战时可远距离进行稳定的输出,只需注意躲避一些 BOSS的远程技能即可。魔导师虽然也有控制技能但,因MP吃紧的原因使用率不是很高,同时法师也具有回避、瞬移等多种自保技能,这可以帮助魔导师在战斗中游刃有余。

《TERA》八大职业深度解析之剑斗士

韩国第一性感网游《TERA》即将于7月16日开启不删档测试,当大家都把注意力集中在捏脸上的时候,有心计的玩家已经在了解游戏内容了,能够独当一面大杀四方才是王道,跟漂亮的脸蛋比起来,做服务器霸主才是资深玩家追求的游戏体验,那么在进入游戏之前,赶快随我们来了解一下《TERA》的全部职业吧,因为这是你霸业的第一步。剑斗士 (Warrior)——兼具攻击和防御的双面手!定位:坦克,伤害输出者职业宣言:舞蹈于刀尖之上,为敌人带来最华丽的死亡。职业综合能力:防御能力★★★★/攻击能力★★★★/辅助能力★★★/上手难度★★★★职业特色:配戴轻甲的剑斗士使用双剑进行敏捷又华丽的连击,超高速的战斗还能吸引敌人的注意,从而保护自己的同伴。职业介绍:剑斗士的定位是DPS,拥有着仅次于枪骑士的仇恨技能,利用这些仇恨技能,即使没有枪骑士的存在,也能牢牢的吸引怪物,虽然没有格挡,不过剑斗士有着比其他职业多出许多的回避技能,可以说剑斗士玩起来是比较需要技术性和操作手法的。单人战斗:剑斗士SOLO特性是“削苹果”战斗方式,利用职业本身攻击速度快、攻击范围广的特点可以边移动边战斗,因为战斗技能以多攻击次数、持续伤害的 “无双乱舞”式技能居多,因此要想完整的进行输出必须在敌人攻击的瞬间进行闪避施展技能。剑斗士还具有消耗自己HP进行输出的技能和HP较低时发挥较高输出的技能,因此如果玩家操作熟练后打怪的效率是非常高的。组队战斗:剑斗士的定位是闪避型肉盾,通过给怪物增加仇恨值的技能拉怪,再通过回避技能闪躲怪物的攻击同时进行输出。然而身穿轻甲的剑斗士在副本里是扛不住BOSS几次攻击的,所以巧妙利用自身的回避技能,将BOSS尽量稳定在一个范围之内是剑斗士需要反复练习的课程。一味的乱跑会导致BOSS也跟着进行大范围移动,在与拥有许多AOE技能的BOSS战斗时,这会令队伍中其他恢复、DPS职业倍感压力。

高玩深度解析TERA屠杀者职业新手向指南

TERA中的TU杀者这个职业的武器就是【剑】,虽然TU杀有很长的一段灰色时期,一度被TERA中的玩家黑成大剑宠(捡宠),但依旧掩盖不了TU杀后期的光芒,以及玩家们对【剑】的热爱。【TU杀者在TERA中的定位】TU杀者是轻甲近战职业,防御:中等,攻击:前期中等,后期也是一线输出,控制能力:高,机动性:高,BaoMing能力:最低(没有之一),首先说下为什么楼主为什么要说TU杀BaoMing能力最低了,因为TU杀者前期就【闪避】一个无敌技能用于闪躲BOSS的技能,而且是所有近战职业中唯一一个不能格挡的职业,虽然后期TU杀的【后擒术】也有很短的一段时间是无敌的,但是这段时间短到几乎感觉不到(这是技术流对时机的把握了),所以在大部分副本中,TU杀是最容易死的职业,然而没到58级,没有绿纹章的TU杀输出实在不给力,所以曾经的TU杀在台服一度被黑为捡宠,然而,虽然TU杀前期攻击不突出,但是TU杀的控制却很牛,TU杀的击倒率是所有职业中最高的,这也是TU杀的亮点之一,因此,对于想玩TU杀的新手玩家们我在这里有两个建议,一、电脑配置要好(电脑配置低了,在游戏中会出现顿卡的情况,对于TU杀的BaoMing能力...除了归西,我真不知道还能怎么样活着)二、TU杀这个职业手残勿入。【TU杀着对于种族的选择】对于出入TERA的新玩家们,我相信大部分玩家首先是想了解TERA中职业与种族的搭配,然而我想说的是,喜欢哪个种族就用哪个,因为种族对游戏里的影响真的不大,当然了,虽然影响不大,但是还是有影响的,喜欢PVP的玩家可以选择【人类】来搭配TU杀这个职业,人类的抗击到对于热爱PVP的玩家还是很有用的,喜欢PVE的玩家可以选择【卡斯塔尼克】这个种族,俗称【羊角】,羊角对背爆有加成,当然了,曾经有人跟我说过艾琳的出招速度快于其他种族,虽然楼主也玩过艾琳大剑,但是真没感觉出招比其他职业快。【TU杀者的技能详解与纹章选择】由于国服才出到38级,TU杀后期的技能与不重要的技能就不做过多的解析了。TU杀的灵魂技能【一刀两段】:一刀是TU杀的灵魂技,TU杀所有的攻击技能都能接一刀两断,从而来减短一刀前置释放时间,再配合一刀两段重置冷却的纹章能大大增加TU杀的输出,而一刀另一个攻击回复3%HP的纹章,楼主不建议大家佩戴,用处太小了。【要害攻击】:TU杀者打BOSS与精英的主要输出技能,攻击很高,但是攻击范围太小,在打小怪与 PK的时候慎用,一、命中低(这也是考验个人的技术),二、前置时间太长(在PK的时候容易被对手反制),这个技能的纹章选择全部佩戴(重置冷却时间,攻击+25%伤害,增加暴击率 这三个纹章)。【回旋砍击】:主要输出技能,有两次攻击效果,唯一的缺点还是前置攻击时间长,纹章选择:攻击+25%伤害,增加暴击率。【连续攻击】:这个就是TU杀的平砍,但在TERA这个游戏中,平砍也是技能,只是没有冷却时间而已,用于其他输出技能冷却的时候,纹章选择:攻击加攻速,攻击+25%伤害。【重击斩】:主要控制技能,超高的击倒率,一般用于前期副本里的BOSS,野外精英与PK,然后后期很多FB里的BOSS是免疫击倒的,所以纹章的佩戴也不同,PK,单刷精英与前期FB里可以佩戴增加击倒率的纹章,后期打本的时候就取消这个纹章的佩戴。【刀背打击】:主要控制技能,攻击命中后,有一定的几率眩晕目标,在副本里用于对BOSS释放技能时的打断,PK是打断对手的技能,当然后期FB里对那些免疫眩晕的BOSS,这个技能也是完全没什么用处,攻击平平,攻击后的僵硬时间太长,容易被 BOSS揍到,纹章选择:技能+25%伤害(一般PK的时候才用)【后退踢击】:控制技能,位移技能,命中目标有一定的几率眩晕目标,向后跳出一段距离,在FB中,一般用于打断BOSS技能,拉开BOSS距离,在PK中一般在其他攻击技能冷却时用于拉开其他近战的距离和打断对手的技能,纹章选择:增加施放速度(可以可不用,看个人喜好)。【真空三段斩】:次要攻击技能,伤害普攻差不多,TU杀唯一远距离攻击技能,攻击距离15M,一般在打不到BOSS、PK中和对手拉开距离时用来小小的消耗一下的。【愤怒一击】:前期高输出技能,血量越少,攻击越高,前期单刷野外精英与PK神技,但是到了刷本的时候用处不是很大,奶妈们基本在你少血的时候就马上帮你补满了,但是这个技能到了后期就没什么作用了,只有PK的时候有点用,不过伤害相比前期就弱了很多。【回避】:TU杀主要的闪避技能,犹豫能算是TU杀唯一BaoMing技能,小伙伴们要慎用,4秒的冷却时间虽然看起来不长,但是4S的时间也是很容易发生意外的!纹章选择:百分之二十几率重置冷却(几率太低,楼主一般不用,对新手和手残们可以用,赌一赌自己的RP吧)。技能就说这些吧,其他的技能也没什么要解析的。【TU杀者的技能链接与PK事项】其实这些也没什么固定的组合,主要是自己去掌握技能施放的时机,打本的时候基本都是用了技能后连个一刀两段,然后就是去熟悉BOSS的技能,用自己的控制技能去控制BOSS,还有就是躲BOSS的大招,这些都是靠自己去了解的与研究的,别人说了也没什么用,每个人都有每个人对技能的用法,在PK中也是,主要看技能施放的时机,楼主基本都是冲锋速度接近对手,接重击斩击倒对手,然后接一刀两段,回旋砍击,之后后踢拉开距离,后擒到对手背后接要害,再接一刀两段,刀背攻击用于打断对手技能,其实这些也不是固定的,主要还是自己在实战中,自己去掌握技能施放的时机。本贴纯手打,也是楼主自己玩过TERA台服后,个人对TU杀者这个职业的看法,大神们发现有什么误导大家的地方,欢迎指出不足。

《TERA》八大职业深度解析之元素使

韩国第一性感网游《TERA》即将于7月16日开启不删档测试,当大家都把注意力集中在捏脸上的时候,有心计的玩家已经在了解游戏内容了,能够独当一面大杀四方才是王道,跟漂亮的脸蛋比起来,做服务器霸主才是资深玩家追求的游戏体验,那么在进入游戏之前,赶快随我们来了解一下《TERA》的全部职业吧,因为这是你霸业的第一步。元素使(Mysti)——能够召唤强大的精灵伙伴,是精通多种治疗和攻击魔法的多面手。元素使可以治愈友军,弱化敌人,在多变的战场上从容应对一切战事定位:治疗者,伤害输出者职业宣言:元素精灵无处不在,时而温柔,时而肆虐,掌握它们,便掌握了整个世界。职业综合能力:攻击能力★★/治疗能力★★★★/辅助能力★★★★/上手难度★★职业特色:元素使可以用元素之力治愈友军,弱化敌人,也可以召唤出精灵协助战斗。拥有多样的攻击和治疗手段,可以灵活应对多种场合。职业介绍:元素使的定位算是具有少数攻击能力的辅助职业,能使用与祭司类似的治愈、_活能力,比较特殊的是元素使可以直接制作出恢_HP的“红球”与恢_MP的“蓝球”,这种需要玩家自行去捡取才会恢_的补血方式并不会产生仇恨,也是元素使的最大特色之一。单人战斗:元素使可以召唤出精灵辅助自己战斗,因此在面对单体怪时很少会受到攻击,而面对中型精英怪时需要注意的是不能被击倒,因为脆弱的布甲很难承受住精英怪的几次攻击。组队战斗:在副本中元素使作为辅助DPS参加战斗,而在BOSS战前可以在地面铺设一定数量的红蓝球,这样坦克可以尽情地使用嘲讽技能而不担心MP的消耗,不必冒着被攻击的风险使用普通攻击回蓝。元素使还可以消除对手的增益状态,同时也有着瞬间移动与增加移动速度的技能,这些技能让元素使在存活能力上完胜祭司

想深度了解一下跳汰机的分选过程和工作原理?谢谢了,大神帮忙啊

跳汰机属于深槽型中选设备。所有的跳汰机均具有跳汰室。鼓动水流运动的作机构和产品排出机构。跳汰室内筛板由冲孔钢板、编织铁筛网或箅条做成,水流通过筛板进入跳汰室应使床层升起不大的高度并略呈松散状态,密度大的颗粒因局部压强及沉降速度较大而进入底层,密度小的颗粒则转移到上层。当水流下降时,密度大的细小颗粒还可通过逐渐紧密的床层间隙进入下层,补充按密度的分层鼓动水流运动的机构在早年采用活塞,活塞室设在跳汰室旁侧,下部连通,由偏心连杆机构带动活塞上下运动。 跳汰机的工作原理大体上讲是按矿物比重(密度)分层,然后轻重矿物分别排出,但是从各种跳汰假说评论中可以看出,目前还没有一套完整而统一的跳汰理论,因此根据各种假说和我国的生产实践经验,可将跳汰过程的实质归纳如下: (1)矿粒在跳汰机中主要是按比重分层。跳汰机不仅可以分选窄级别的矿粒,而且也可以有效分选宽级别和不分级的矿粒。 (2)在跳汰过程中,介质的比重越高,矿粒间的比重差越大,则分选效率越高。 (3)保持床层具有必要的松散度是分层的先决条件。床层松散度不足,则矿粒难以互相转移,因而也就失去了分层的可能性。因此在跳汰过程中尽量延长床层处于松散状态的时间,以提高跳汰机的处理量和改善分选效果。 (4)、矿粒的粒度及形状对分层的影响主要发生在矿粒与介质间相对运动速度较大的时期。因此分选不分级物料时,在跳汰周期中应尽可能缩短相对运动速度较大的时期并延长相对运动速度较大的时期保持床层具有较大的紧密度。 (5)上升水流应具有较大的正加速度和较小的负加速度;下降水流则应具有较小的正加速度和较大的负加速度。 (6)下降水流的吸入作用是跳汰分层的一个方面,它能够改善窄级别及不分级矿粒的跳汰效果,但是吸入作用的强度及延续时间应根据原料的性质来选择。 (7)跳汰细粒矿时,适当增加跳汰机中水流运动的频率能改善分选效果。 (8)在床层中适当加入一些高比重细矿粒,能够改善不分级矿的跳汰效果,但必须重新调整跳汰机,以便加强吸入作用。 www.fwzghgj.com www.zzhanda.net www.jcks.cn www.jcks9.com

一款液压尾座的原理图,那个电磁继电器的作用?其余阀体的作用?突然断电能否保压?钻孔的话深度怎么保证

把原理图发上,这样才能准确的帮到你

深度学习如何和管理学结合发论文

当然这个深度信息化管理可以结合着一些实际情况出发

绞吸式挖泥船的吃水深度和浮力怎么算

根据浮力=重力=ρ液*g*V排=m*gV排=船体底面积*吃水深度这两个公式就能算出来,当然理论跟现实略有差异,误差,杂质影响等

旋转粘度计对转子浸入液体的深度有何要求?

对于转子浸入液体的深度,旋转Brookfield粘度计使用中必须注意的几个问题?请阅读本内容。旋转Brookfield粘度计对转子浸入液体的深度有严格要求,必须按照粘度计说明书要求操作.在粘度计转子浸入液体的过程 中往往带有气泡, 在粘度计转子旋转后一段时间大部分会上浮消失, 附在转子下部的气泡有 时无法消除, 气泡的存在会给测量数据带来较大的偏差, 所以倾斜缓慢地浸入粘度计转子是 一个有效的办法.七,粘度计转子的清洗 测量用的转子要清洁无污物,一般要在测量后及时清洗,特别在测油漆和胶粘 剂之后.要注意清洗的方法,可用合适的有机溶剂浸泡,千万不要用金属刀具等硬刮,因为 粘度计的转子表面有严重的刮痕时会带来测量结果的偏差。

想进入大厂做深度学习方面的工作,在中公学习深度学习行吗?

为了让同学们更好的掌握深度学习技术,成为人工智能领域的高级人才,中公教育联合中科院自动化所专家,研发推出了深度学习课程。优质师资+前沿技术+服务保障,课程一经上线就受到了很多同学的关注和欢迎。有的小伙伴可能会好奇,中公教育的深度学习课程有什么优势?为什么吸引了这么多的关注和学习?主要有以下三个方面1) 直面人工智能行业标准制定者,由中科院自动化研究所专家团队全程直播教学,亲自指导授课和实践。主讲老师曾主持国家自然科学基金基金,参与多个国家级科研项目,并出版人工智能专著。2) 真实企业级项目实操,直面复杂开发环境,摆脱开源项目理想化开发,更加符合企业真实需求,六大项目循序渐进,以实操贯穿理论,避免纸上谈兵,助力跻身人工智能领域专家3) 技术紧跟市场需求,落地领域宽泛,不限于语音识别、图像识别、机器对话等前沿技术 ,涵盖行业内75%技术要点,契合各类就业需求。在为期5周的课程学习中,你将全面了解AI深度学习的相关知识,掌握人工神经网络及卷积神经网络原理、循环神经网络原理、生成式对抗网络原理和深度学习的分布式处理,并应用于企业级项目实战。同时,赠送课程中企业级项目的源码,帮你无缝对接课程重点,分分钟掌握大厂人才必备技能。

那些人或者那几类人适合参加深度学习的培训?

伴随着深度学习技术的发展,人工智能领域再次兴起。近年来,越来越多的小伙伴想加入深度学习的队伍,提升个人的核心竞争力。哪些人适合参加深度学习培训呢?主要有以下几类1.计算机/人工智能相关专业的本科生在就业时,人工智能其实是个很不错的发展领域,是目前国家大力支持的热门行业,尤其是近几年,国家以及各个省份出台了一系列的支持政策,比如《关于促进人工智能和实体经济深度融合的指导意见》、《新一代人工智能治理原则——发展负责任的人工智能》等,进入这个行业,未来的发展还是很可期的。在考人工智能方向的研究生或者公务员时,如果你对人工智能方向的前沿技术很是了解,很容易在复试过程中脱颖而出,并且较好的人工智能院校会有关于专业技术知识的相关复试,学习了深度学习这种人工智能热门技术也是一大助力。2.计算机/人工智能相关方向的研究生2020年企业对应届生的招聘需求规模同比下降22%,但是人工智能这样的战略新兴行业的应届生岗位需求却有所增长,面向应届生的岗位规模较去年同期普遍有1-5个百分点的提高,应届生岗位占比也高于全行业均值。岗位需求大,研究生就业竞争压力也会更小。如果想继续在人工智能领域深造,读博最重要的一项技能是读Paper写文章,这里面比较重要的一个环节就是复现论文中的一些方法,很多方法都是在基础方法上的改进或变种。深度学习领域常见的模型方法和技术框架,不仅能快速复现相关论文,还能帮助自己论文方法提供技术支撑。3.高校讲师近几年,国家很重视人工智能领域人才的培养,包括建设人工智能相关学科、促进人工智能领域本科生、研究生的培养,但是目前除小部分顶尖高校师资力量较雄厚外,更多高校老师在该领域的专业知识还是比较薄弱的,还需要进一步去提升,去接触学习人工智能国家甚至国际前沿技术还是很有必要的。4.对AI感兴趣的在职人员如果你是对人工智能领域感兴趣的IT领域从业者或是人工智能领域的初级从业者,了解当前人工智能领域最热门的技术深度学习,用于助力自己的职业进阶,将会有很大帮助。最近中公教育联合中科院自动化所专家合作推出了AI深度学习的在线课程,受到很多同学的关注和好评。课程由中科院自动化研究所专家亲自传授,结合行业发展情况,带你逐一攻破大厂级项目难题。课程期间贴心答疑,加强巩固训练,全方位保证学习效果。在为期5周的课程学习中,你将全面了解AI深度学习的相关知识,掌握人工神经网络及卷积神经网络原理、循环神经网络原理、生成式对抗网络原理和深度学习的分布式处理,并应用于企业级项目实战。同时,赠送课程中企业级项目的源码,帮你无缝对接课程重点,分分钟掌握大厂人才必备技能。

从深度神经网络到物理过程

深度学习是这么一个过程,它将节点分解为输入层、输出层以及中间的隐藏层,且同一层之间的节点不能相连,只能与相邻层的节点相连。 如果我们将输入层的序号定为0而将输出层的序号定位N,那么节点也可以赋予一个序号列,记为$x_{i,n}$,其中n表示层的序号,i表示x在层中的序号。激活函数记为f,连接权重记为$omega^i_{i,n}$,表示从n层的第i个节点连接到n+1层第j个节点的连接。这样一个多层神经网络中的数据流转过程就可以记为下述方程: 这里采用Einstein约定,相同指标自动求和。 上述方程可以通过如下符号形式改写: 我们将原来层内指标i改记为x,每个节点的输出值从x改记为$phi$,层序号用t标记,连接权重改成了函数G。 这只是符号的改变,意义并没有发生丝毫变化。 但这个方程的形式却值得玩味,因为如果忽略激活函数f,那么下述方程的形式其实是量子力学中用两点关联函数(Green函数)改写的离散本征态系统的波函数演化方程: 因此,一个很直接的想法,就是如果x是连续,会怎么样? 也即,如果我们将离散的每一层节点构成的空间,连续化为一维空间,会得到什么? 答案很直接: 第二步直接取了反函数,这对于sigmoid激活函数来说不成问题,但对于ReLU激活函数来说恐怕不能这儿干,因为其在负半轴是常值函数0,反函数不存在。对于基于ReLU改造的Swish激活函数也不好用,因为它在负半轴非单调,会出现双值,所以也没有反函数。 因此,这个写法颇为形式性。 对空间(神经元节点指标)的连续化挺“顺利”的,如果我们忽略反函数不存在所带来的问题的话。 而对于时间(神经元层指标)的连续化则有点麻烦。 我们先来对上面的结果做一些形变: 然后就可以做很强硬的形式上的连续化: 这里其实就等价于引入了一个隐形的归一化条件: 或者可以写得对激活函数更加“普适”一点: 更准确地说,由于这里无论是节点输出值$phi$还是激活函数f还是两点连接函数G,都是已知的,所以上式的归一化要求事实上是对G的一次归一化调整,即: 我们可以取归一化调整之后的两点连接函数为新的两点连接函数,从而有最终的运动方程: 从形式上来说,可以看做是非相对论性哈密顿量显含时的薛定谔方程,或者,更加类似的其实是热扩散方程(因为没有关键的虚数单位i)。 我们可以将两点关联函数做一个分离。两点关联函数我们归一化到1,那么此时动力学方程为: 对最后的方程再做一次形变: 由于现在两点关联函数是归一化的,我们可以很任性很形式化地认为它是运动项与非定域的包含了波函数与波函数的动量项的非定域势(原因下面会说),而后面减掉的那一项则可以认为是一个定域的势能项与质量项的结合。 让我们对比一下非相对论性薛定谔方程: 是不是感觉形式上很像? 主要的区别就在于中间的积分那一项。 所以下面我们就来处理这一项。 将积分的部分做一下形变(同时我们这里直接取层内指标为坐标的形式,从而为矢量): 其中,第一步是将全空间分解为一系列以x为圆心的同心球,第二步中的$vec n$是同心球上的单位径向量,第三步利用了Stokes定理,第四到第六步则利用了D维空间中的散度的特性。 最后的结果,第一部分是一个径向梯度,加上一个中心势,从而就是前面所说的“运动项与非定域的包含了波函数与波函数的动量项的非定域势”。 接下来,我们取无穷小曲面,即r只在0的邻域范围内,宏观范围的两点关联函数为0,这么一种特殊的情况,其对应的深度神经网络稍后再说,那么此时就有: 假如我们取G的对称部分为$hat G$而反对称部分为$ ilde G$,则有: 第二部分,将G看做是一个Finsler度量函数,从而这里给出的就是Finsler度量下的二阶微分算符$ abla^2_G$,乘上一个Finsler度量下指标球相关的常数系数$g_G$。 而第一项则是Finsler度量的反对称部分诱导的类纤维丛联络与波函数梯度的矢量积,乘上另一个指标球相关的常数系数$A_G$。 这方面可以看以前写的老文: 《从弱Finsler几何到规范场》 。 因此,在无穷小连接函数的约束下,上面的方程就是: 形式上是不是很简洁? 而每一项的意义也都明确了: 连接系数给出了Finsler度量,其反对称部分给出了类似纤维丛联络的规范力,其全局变更给出了类时空曲率变化的引力;而激活函数要求的连接系数的归一化系数则是时空上的全局势。 因此深度神经网络的整个学习过程,就是通过输入与输出的散射矩阵,来逆推整个时空的Finsler联络和全局势。 所谓的无穷小邻域内才有效的两点关联函数,在连续化之前,其实对应的就是卷积神经网络中的最小卷积核(3*3卷积)。 假如我们继续引入卷积神经网络的另一个要求,即卷积核是同一层内相同的,那么就等于将Finsler度量限定为只是时间t的函数: 很明显,整个结构被简化了许多。 如果这个卷积网络还是所有层都共享参数的,那么等于把上述方程中的时间t也取消了,那就更简单了。 而假如我们取激活函数为f(x)=nx,那么就等于取消了全局势。最关键的是,如果两个这样的函数在原点处拼接起来,得到的也是取消全局势的激活函数,这样的激活函数中最著名的就是ReLU函数了,其在负半轴(当然$phi$的取值也不可能到负半轴……)$Gamma$恒为0,而在正半轴$Gamma$恒为1,从而等效的势能函数V恒为0。 从而,ReLU对应的可以认为就是某Finsler时空中的“自由”量子系统或者“自由”热扩散系统了,吧………… 对于不是无穷小邻域的情况,其实可以通过无穷小邻域的情况在有限区间内做积分来获得,从而实际上是一个关于一阶与二阶导的非定域算符。 同样的,残差网络引入了不同间隔的层之间的连接,可以看做是将原本对时间的一阶导替换为一阶导的(时间上)非定域算符。 至于说循环神经网络,因为引入了与层数n不同的“时间”,所以这里暂不考虑——或者可以认为是引入了虚时间??? 如果我们采用量子场论的视角(虽然很显然不是量子场论),那么深度学习的就是这么一个过程: 首先,我们通过实验知道系统的初态(输入层)与末态(输出层的目标值),而我们不知道的是系统所处的时空的度量(连接系数)与时空上的势能(激活函数)。 于是,我们通过大量的实验(通过大量输入与输出的学习素材)来分析这个时空的特性,通过选择恰当的系统能量函数(Hinton最早给出的RBM与热统中配分函数的相似性,用的就是一维Ising模型的能量函数来类比输出层的误差函数),使得整个系统的最低能态对应的时空就是我们要找的目标时空——这个也容易理解,时空上的测地线一般就是最低能态,而测地线在有相互作用的时候对应散射矩阵,散射矩阵刻画的就是末态与初态的关联,所以反过来知道末态初态就可以设法找出散射矩阵,从而可以设法得到测地线,从而可以设法获得测地线为最低能态的时空,从而得到时空的属性,这个逻辑很合理。 最终,我们利用找到的时空来预测给定初态对应的末态——利用神经网络学习到的结果来进行预测与应用。 所以,训练神经网络的过程,完全可以看做是物理学家通过实验结果来反推时空属性的过程。 很科学。 最后需要说明的是,虽然上面的推导很High,但实际上对于我们解决神经网络的学习这类问题来说,一点帮助都没有。 充其量,只能算是换了一个角度看待神经网络,吧………… 本文遵守 创作共享CC BY-NC-SA 4.0协议

卷积神经网络和深度神经网络的区别是什么

作者:杨延生链接:来源:知乎著作权归作者所有,转载请联系作者获得授权。"深度学习"是为了让层数较多的多层神经网络可以训练,能够work而演化出来的一系列的 新的结构和新的方法。新的网络结构中最著名的就是CNN,它解决了传统较深的网络参数太多,很难训练的问题,使用了逗局部感受野地和逗权植共享地的概念,大大减少了网络参数的数量。关键是这种结构确实很符合视觉类任务在人脑上的工作原理。新的结构还包括了:LSTM,ResNet等。新的方法就多了:新的激活函数:ReLU,新的权重初始化方法(逐层初始化,XAVIER等),新的损失函数,新的防止过拟合方法(Dropout, BN等)。这些方面主要都是为了解决传统的多层神经网络的一些不足:梯度消失,过拟合等。---------------------- 下面是原答案 ------------------------从广义上说深度学习的网络结构也是多层神经网络的一种。传统意义上的多层神经网络是只有输入层、隐藏层、输出层。其中隐藏层的层数根据需要而定,没有明确的理论推导来说明到底多少层合适。而深度学习中最著名的卷积神经网络CNN,在原来多层神经网络的基础上,加入了特征学习部分,这部分是模仿人脑对信号处理上的分级的。具体操作就是在原来的全连接的层前面加入了部分连接的卷积层与降维层,而且加入的是一个层级。 输入层 - 卷积层 -降维层 -卷积层 - 降维层 -- .... -- 隐藏层 -输出层简单来说,原来多层神经网络做的步骤是:特征映射到值。特征是人工挑选。深度学习做的步骤是 信号->特征->值。 特征是由网络自己选择。

哪些算法通常用于解决深度学习问题

深度学习算法有哪些深度学习常见的3种算法有:卷积神经网络、循环神经网络、生成对抗网络。卷积神经网络(ConvolutionalNeuralNetworks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(FeedforwardNeuralNetworks),是深度学习的代表算法之一。常见的深度学习算法有三种:来卷积神经网络、循环神经网络、生成对抗网络。深度学习算法是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。简述深度学习的基本方法。深度学习算法以下三种:回归算法。回归算法是试图采用对误差的衡量来探索变量之间的关系的一类算法,是统计机器学习的利器。基于实例的算法。深度学习常见的3种算法有:卷积神经网络、循环神经网络、生成对抗网络。卷积神经网络(ConvolutionalNeuralNetworks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(FeedforwardNeuralNetworks),是深度学习的代表算法之一。深度学习的具体过程可简述为:挖掘所给样本数据的内在规律与联系,提取、分析样本的特征信息,如图像、文本和声音,处理数据信息并发出指令,控制机器的行为,使机器具有类似于人类的学习、分析、识别、处理等能力。)机器学习(MachineLearning)是一个大的方向,里面包括了很多种approach,比如deeplearning,GMM,SVM,HMM,dictionarylearning,knn,Adaboosting不同的方法会使用不同的模型,不同的假设,不同的解法。深度学习是一类模式分析方法的统称,就具体研究内容而言,主要涉及三类方法:(1)基于卷积运算的神经网络系统,即卷积神经网络(CNN)。深度学习是机器学习领域中对模式(声音、图像等等)进行建模的一种方法,它也是一种基于统计的概率模型。深度学习的应用领域有哪些?无人驾驶汽车:深度学习在无人驾驶领域主要用于图像处理,可以用于感知周围环境、识别可行驶区域检测、以及识别行驶路径识别。图片识别及分类:识别出图片中的对象,并建立关键词,对图片进行分类。谷歌利用深度学习算法使自动驾驶汽车领域达到了一个全新的水平。现在谷歌已经不再使用老的手动编码算法,而是编写程序系统,使其可以通过不同传感器提供的数据来自行学习。比如家居行业,智能家居的应用也用到了深度学习技术,比如智能冰箱通过图像识别等技术记录食材种类和用户日常饮食数据,进而分析用户的饮食习惯,并根据多维度给出最全面的健康膳食建议。主要应用有:推荐系统,计算机视觉,自然语言处理等。目前我国的大学学科设置里面,最接近目前学术界意义的人工智能专业是控制工程与科学下的:模式识别与智能系统。深度学习是基于机器学习延伸出来的一个新的领域,由以人大脑结构为启发的神经网络算法为起源加之模型结构深度的增加发展,并伴随大数据和计算能力的提高而产生的一系列新的算法。本项目主要关注深度学习在自然语言处理中的应用,利用循环神经网络及长短时记忆网络来实现该领域中的词嵌入学习和上下文推断。项目将选取部分文学作品文本,依次实现词嵌入特征提取和基于长短时记忆的上下文推断。哪个是深度学习中常用的优化算法1、MBGD每一次利用一小批样本,即n个样本进行计算,这样它可以降低参数更新时的方差,收敛更稳定,另一方面可以充分地利用深度学习库中高度优化的矩阵操作来进行更有效的梯度计算。2、深度学习常见的3种算法有:卷积神经网络、循环神经网络、生成对抗网络。卷积神经网络(ConvolutionalNeuralNetworks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(FeedforwardNeuralNetworks),是深度学习的代表算法之一。3、经验上,RMSProp已被证明是一种有效且实用的深度神经网络优化算法。目前它是深度学习从业者经常采用的优化方法之一。4、梯度下降是非常常用的优化算法。作为机器学习的基础知识,这是一个必须要掌握的算法。借助本文,让我们来一起详细了解一下这个算法。深度学习中的神经网络编写需要设计到哪些算法?涉及到的算法有很多,比如反向传播算法、前向传播、卷积算法、矩阵远点的算法、梯度优化的算法、评估算法等等。单纯用算法来描述过于笼统,一般都是直接用对应的数学原理和公式去描述神经网络的编写过程的。常见的深度学习算法有三种:来卷积神经网络、循环神经网络、生成对抗网络。深度学习常见的3种算法有:卷积神经网络、循环神经网络、生成对抗网络。卷积神经网络(ConvolutionalNeuralNetworks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(FeedforwardNeuralNetworks),是深度学习的代表算法之一。BP算法是迄今最成功的神经网络学习算法,现实任务中使用神经网络时,大多是在使用BP算法进行训练[2],包括最近炙手可热的深度学习概念下的卷积神经网络(CNNs)。其实神经网络也称之为人工神经网络,简单就是ANN,而算法是80年代机器学习界非常流行的算法,不过在90年代中途衰落。现在,随着深度学习的发展,神经网络再次出现在大家的视野中,重新成为最强大的机器学习算法之一。这种模型一般采用计算机科学中的图模型来直观的表达,而深度学习的“深度”便指的是图模型的层数以及每一层的节点数量,相对于之前的神经网络而言,有了很大程度的提升。目前深度学习的模型有哪几种,适用于哪些问题对抗生成网络GAN,是一种概率生成模型transformer注意力模型,用来做序列到序列计算的更多的是他们的变种。在深度学习中,计算机模型学习直接从图像、文本或声音中执行分类任务。深度学习模式可以达到新的精确度,有时甚至超过人类的表现。大多数深度学习方法使用神经网络的架构,这也是深度学习模型通常被称为深度神经网络的原因。无人驾驶汽车:深度学习在无人驾驶领域主要用于图像处理,可以用于感知周围环境、识别可行驶区域检测、以及识别行驶路径识别。图片识别及分类:识别出图片中的对象,并建立关键词,对图片进行分类。语音识别深度学习的发展使语音识别有了很大幅度的效果提升,类似于在计算机视觉中处理图像数据一样,深度学习中将声音转化为特征向量,然后对这些数字信息进行处理输入到网络中进行训练,得到一个可以进行语音识别的模型。深度学习模型是一种人工神经网络模型,通过多层非线性变换来实现高级别的抽象表达和学习。深度学习模型是机器学习的一种,并在人工智能领域中得到广泛应用。

深度学习中的神经网络编写需要设计到哪些算法?

涉及到的算法有很多,比如反向传播算法、前向传播、卷积算法、矩阵远点的算法、梯度优化的算法、评估算法等等。单纯用算法来描述过于笼统,一般都是直接用对应的数学原理和公式去描述神经网络的编写过程的。常见的深度学习算法有三种:来卷积神经网络、循环神经网络、生成对抗网络。深度学习常见的3种算法有:卷积神经网络、循环神经网络、生成对抗网络。卷积神经网络(ConvolutionalNeuralNetworks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(FeedforwardNeuralNetworks),是深度学习的代表算法之一。BP算法是迄今最成功的神经网络学习算法,现实任务中使用神经网络时,大多是在使用BP算法进行训练[2],包括最近炙手可热的深度学习概念下的卷积神经网络(CNNs)。其实神经网络也称之为人工神经网络,简单就是ANN,而算法是80年代机器学习界非常流行的算法,不过在90年代中途衰落。现在,随着深度学习的发展,神经网络再次出现在大家的视野中,重新成为最强大的机器学习算法之一。这种模型一般采用计算机科学中的图模型来直观的表达,而深度学习的“深度”便指的是图模型的层数以及每一层的节点数量,相对于之前的神经网络而言,有了很大程度的提升。

深度学习具体要学哪些东西?

深度学习是一类模式分析方法的统称,就具体研究内容而言,主要涉及三类方法:(1)基于卷积运算的神经网络系统,即卷积神经网络(CNN)。(2)基于多层神经元的自编码神经网络,包括自编码( Auto encoder)以及近年来受到广泛关注的稀疏编码两类( Sparse Coding)。(3)以多层自编码神经网络的方式进行预训练,进而结合鉴别信息进一步优化神经网络权值的深度置信网络(DBN)。

卷积神经网络卷积的目的是什么?深度学习神经网络学习的是什么?

卷积的目的是提取特征,学习特征,深度学习的模型很多,比如RNN,CNN,ResNet,DenceNet等等,各种模型的功能也不同,主要应用在图像分类,目标识别,自然语言处理,预测等。

深度卷积网络

LeNet网络的结构如下图所示,可以看出,LeNet网络并没有使用padding,每进行一次卷积,图像的高度和宽度都会缩小,而通道数会一直增加。在全连接层中有400个节点,每个极点都有120个神经元,有时还会从这400个节点抽取一部分节点构建一个全连接层,即有两个全连接层。在该网络中,最后一步就是利用84个特征得到最后的输出,该网络刚开始使用的是 sigmoid 函数 tanh 函数,而现在常常倾向于使用 softmax 函数。需要注意的是,LeNet-5网络进行图像分类时,输入的图像是单通道的灰度图像。 AlexNet是以论文第一作者的名字命名的,该网络的结构,如下图所示,该网络的输出层使用了 softmax 函数。AlexNet网络比LeNet网络规模更大,大约有6000万个参数,用于训练图像和数据集时,能够处理非常相似的基本构造模块,这些模块中包含着大量的隐藏单元,并且与LeNet网络不同的是,该网络使用了ReLu的激活函数。VGG-16网络没有太多的超参数,这是一种专注于构建卷积层的简单网络。如下图所示,该网络首先利用64个过滤器进行了两次卷积,接着在池化层将输入图像压缩,接着又是128个过滤器进行两次卷积,接着载池化。继续用256个过滤器进行3次卷积,再池化,接着再利用512个过滤器卷积3次,再池化,将稍后得到的特征图进行全连接操作,再进 softmax 激活。 由于存在梯度消失和梯度爆炸的原因,深层次的神经网络是很难训练的,如果采用一种跳跃连接的方式,即从某一层网络层获取激活,然后迅速反馈给另外一层,甚至是神经网络的更深层。这种利用跳跃连接构建的深度神经网络ResNets,深度能够超过100层 一个简单的两层神经网络示例,如下图所示: 常规的输出和输出之间的关系可以用如下的公式表示:如上公式所述,这是一条神经网络的主路径。如果将 的输入直接到深层的激活函数之前,此时,神经网络有了一条副路径,其对应输出将有公式(5)变成如下所示的公式(6)此时的输入除了原先的输入 外,多了一个 项,即由于 产生了一个残差块。 构建一个ResNet网络就是将很多这样的残差块堆积在一起,形成一个深度神经网络,如下所示: 使用传统的标准优化算法训练一个网络,随着网络深度的增加,训练误差会先减小再增加,随着网络层数的增加,优化算法会越难以训练,训练误差也会越来越多。但是,使用ResNet网络,能够有效地避免这种情况。 如上所述,加入残差网络之后,其输出计算公式如公式(6)所示,展开这个公式,则有:如果使用L2正则化或者权重衰减,则会压缩权重参数 的值,如果参数 和参数 等于0,其输出将由公式(7)变成 ,假定使用ReLU激活函数,则有: 由于残差网络存在的这种跳跃连接,很容易得出以上等式,这意味着,即使给神经网络增加两层,但是其效率并不逊色与更简单的神经网络。并且由于存在以上恒等式,使得网络学习隐藏层的单元的信息更加容易。而普通网络,随着网络层数的增加,学习参数会变得很困难。 此外,关于残差网络,如公式(6)所示,假设 与 具有相同的维度,由于ResNets使用了许多same卷积, 的维度等于输出层的维度。如果输入和输出具有不同的维度,可以再增加一个矩阵 ,使得 和 具有相同的维度。而 的维度可以通过0值填充调节。 在卷积网络的架构设计中,一种有趣的想法是会使用到1×1的过滤矩阵,实际上,对于单通道的图像而言,1×1的过滤矩阵,意义不大,但是,对于多通道的图像而言,1×1的过滤矩阵能够有效减少图像卷积之后的通道数量。 根据卷积和池化的基本知识,随着神经网络层数的增加,图像的通道数量会逐渐增加,采用1×1的过滤矩阵卷积之后,可以有效减少图像的通道数量,一个简单的示例,如下所示: 假设有一个6×6×32的图片,使用1×1×32的过滤矩阵进行卷积运算,整个运算过程将会遍历36个单元格,并计算过滤矩阵所覆盖区域的元素积之和,将其应用到ReLu非线性函数,会得到一个输出值。此计算过程中,可能会用到多个1×1×32的过滤器,那么,通过以上计算会得到一个 6×6×过滤器数量 的矩阵。 构建卷积神经网络时,有时会很难决定过滤器的大小,而Inception网络的引入,却能很好的解决这个问题。 Inception网络的作用就是代替人工确定选择卷积层的过滤器类型。如下图所示,对于一个多通道图像,可以使用不同的过滤矩阵或者池化层,得到不同的输出,将这些输出堆积起来。 有了如上图所示的Inception块,最终输出为32+32+64+128=256,而Inception模块的输入为28×28×192,其整个计算成本,以5×5的过滤矩阵为例,其乘法的计算次数为:28×28×32×5×5×192,整个计算次数超过了1.2亿次。而如果使用如下所示的优化计算方法,则可以有效减少计算量。 如果利用1×1的过滤器,将输入矩阵的通道减少至16,则可以有效减少计算量,如下所示: 如上图所示的价格中,整个网络的运算次数为:28×28×192×16+28×28×32×5×5×16=1240万,整个计算成本降低至原来的十分之一。而,通过1×1×192过滤器卷积得到的这个网络层被称之为瓶颈层。 如上,所示,可以给每一个非1×1的卷积层之前,加入一个1×1的瓶颈层,就可以构建一个基本的inception模块了,如下图所示: 而一个inception网络就是多个Inception模块连接起来,如下图所示: 事实上,以上网络中,还存在一些分支,如编号1所示,这些分支就是全连接层,而全连接层之后就是一个softmax层用于预测。又如分支2所示,包含一些隐藏层(编号3),通过全连接层和softmax进行预测。这些分支结构能够确保,即使是隐藏层和中间层也参与了特征计算,并且也能够预测图片的分类。这种做法能够有效避免网络过拟合。 对于计算机视觉领域而言,神经网络的训练可能需要大量的数据,但是当数据量有限时,可以通过数据增强来实现数据量的扩充,以提高系统的鲁棒性,具体的数据增强方法如下所示: 除了以上三种数据增强的方法外,更多的数据增强方法和实现可以参考 图像数据增强 数据增强可以利用计算机多线程实现,一个线程用来实现加载数据,实现数据增强,其他线程可以训练这些数据以加快整体的运算速度。

深度学习之卷积神经网络经典模型

LeNet-5模型 在CNN的应用中,文字识别系统所用的LeNet-5模型是非常经典的模型。LeNet-5模型是1998年,Yann LeCun教授提出的,它是第一个成功大规模应用在手写数字识别问题的卷积神经网络,在MNIST数据集中的正确率可以高达99.2%。 下面详细介绍一下LeNet-5模型工作的原理。 LeNet-5模型一共有7层,每层包含众多参数,也就是卷积神经网络中的参数。虽然层数只有7层,这在如今庞大的神经网络中可是说是非常少的了,但是包含了卷积层,池化层,全连接层,可谓麻雀虽小五脏俱全了。为了方便,我们把卷积层称为C层,下采样层叫做下采样层。 首先,输入层输入原始图像,原始图像被处理成32×32个像素点的值。然后,后面的隐层计在卷积和子抽样之间交替进行。C1层是卷积层,包含了六个特征图。每个映射也就是28x28个神经元。卷积核可以是5x5的十字形,这28×28个神经元共享卷积核权值参数,通过卷积运算,原始信号特征增强,同时也降低了噪声,当卷积核不同时,提取到图像中的特征不同;C2层是一个池化层,池化层的功能在上文已经介绍过了,它将局部像素值平均化来实现子抽样。 池化层包含了六个特征映射,每个映射的像素值为14x14,这样的池化层非常重要,可以在一定程度上保证网络的特征被提取,同时运算量也大大降低,减少了网络结构过拟合的风险。因为卷积层与池化层是交替出现的,所以隐藏层的第三层又是一个卷积层,第二个卷积层由16个特征映射构成,每个特征映射用于加权和计算的卷积核为10x10的。第四个隐藏层,也就是第二个池化层同样包含16个特征映射,每个特征映射中所用的卷积核是5x5的。第五个隐藏层是用5x5的卷积核进行运算,包含了120个神经元,也是这个网络中卷积运算的最后一层。 之后的第六层便是全连接层,包含了84个特征图。全连接层中对输入进行点积之后加入偏置,然后经过一个激活函数传输给输出层的神经元。最后一层,也就是第七层,为了得到输出向量,设置了十个神经元来进行分类,相当于输出一个包含十个元素的一维数组,向量中的十个元素即0到9。 AlexNet模型 AlexNet简介 2012年Imagenet图像识别大赛中,Alext提出的alexnet网络模型一鸣惊人,引爆了神经网络的应用热潮,并且赢得了2012届图像识别大赛的冠军,这也使得卷积神经网络真正意义上成为图像处理上的核心算法。上文介绍的LeNet-5出现在上个世纪,虽然是经典,但是迫于种种复杂的现实场景限制,只能在一些领域应用。不过,随着SVM等手工设计的特征的飞速发展,LeNet-5并没有形成很大的应用状况。随着ReLU与dropout的提出,以及GPU带来算力突破和互联网时代大数据的爆发,卷积神经网络带来历史的突破,AlexNet的提出让深度学习走上人工智能的最前端。 图像预处理 AlexNet的训练数据采用ImageNet的子集中的ILSVRC2010数据集,包含了1000类,共1.2百万的训练图像,50000张验证集,150000张测试集。在进行网络训练之前我们要对数据集图片进行预处理。首先我们要将不同分辨率的图片全部变成256x256规格的图像,变换方法是将图片的短边缩放到 256像素值,然后截取长边的中间位置的256个像素值,得到256x256大小的图像。除了对图片大小进行预处理,还需要对图片减均值,一般图像均是由RGB三原色构成,均值按RGB三分量分别求得,由此可以更加突出图片的特征,更方便后面的计算。 此外,对了保证训练的效果,我们仍需对训练数据进行更为严苛的处理。在256x256大小的图像中,截取227x227大小的图像,在此之后对图片取镜像,这样就使得原始数据增加了(256-224)x(256-224)x2= 2048倍。最后对RGB空间做PCA,然后对主成分做(0,0.1)的高斯扰动,结果使错误率下降1%。对测试数据而言,抽取以图像4个角落的大小为224224的图像,中心的224224大小的图像以及它们的镜像翻转图像,这样便可以获得10张图像,我们便可以利用softmax进行预测,对所有预测取平均作为最终的分类结果。 ReLU激活函数 之前我们提到常用的非线性的激活函数是sigmoid,它能够把输入的连续实值全部确定在0和1之间。但是这带来一个问题,当一个负数的绝对值很大时,那么输出就是0;如果是绝对值非常大的正数,输出就是1。这就会出现饱和的现象,饱和现象中神经元的梯度会变得特别小,这样必然会使得网络的学习更加困难。此外,sigmoid的output的值并不是0为均值,因为这会导致上一层输出的非0均值信号会直接输入到后一层的神经元上。所以AlexNet模型提出了ReLU函数,公式:f(x)=max(0,x)f(x)=max(0,x)。 用ReLU代替了Sigmoid,发现使用 ReLU 得到的SGD的收敛速度会比 sigmoid快很多,这成了AlexNet模型的优势之一。 Dropout AlexNet模型提出了一个有效的模型组合方式,相比于单模型,只需要多花费一倍的时间,这种方式就做Dropout。在整个神经网络中,随机选取一半的神经元将它们的输出变成0。这种方式使得网络关闭了部分神经元,减少了过拟合现象。同时训练的迭代次数也得以增加。当时一个GTX580 GPU只有3GB内存,这使得大规模的运算成为不可能。但是,随着硬件水平的发展,当时的GPU已经可以实现并行计算了,并行计算之后两块GPU可以互相通信传输数据,这样的方式充分利用了GPU资源,所以模型设计利用两个GPU并行运算,大大提高了运算效率。 模型分析 AlexNet模型共有8层结构,其中前5层为卷积层,其中前两个卷积层和第五个卷积层有池化层,其他卷积层没有。后面3层为全连接层,神经元约有六十五万个,所需要训练的参数约六千万个。 图片预处理过后,进过第一个卷积层C1之后,原始的图像也就变成了55x55的像素大小,此时一共有96个通道。模型分为上下两块是为了方便GPU运算,48作为通道数目更加适合GPU的并行运算。上图的模型里把48层直接变成了一个面,这使得模型看上去更像一个立方体,大小为55x55x48。在后面的第二个卷积层C2中,卷积核的尺寸为5x5x48,由此再次进行卷积运算。在C1,C2卷积层的卷积运算之后,都会有一个池化层,使得提取特征之后的特征图像素值大大减小,方便了运算,也使得特征更加明显。而第三层的卷积层C3又是更加特殊了。第三层卷积层做了通道的合并,将之前两个通道的数据再次合并起来,这是一种串接操作。第三层后,由于串接,通道数变成256。全卷积的卷积核尺寸也就变成了13×13×25613×13×256。一个有4096个这样尺寸的卷积核分别对输入图像做4096次的全卷积操作,最后的结果就是一个列向量,一共有4096个数。这也就是最后的输出,但是AlexNet最终是要分1000个类,所以通过第八层,也就是全连接的第三层,由此得到1000个类输出。 Alexnet网络中各个层发挥了不同的作用,ReLU,多个CPU是为了提高训练速度,重叠pool池化是为了提高精度,且不容易产生过拟合,局部归一化响应是为了提高精度,而数据增益与dropout是为了减少过拟合。 VGG net 在ILSVRC-2014中,牛津大学的视觉几何组提出的VGGNet模型在定位任务第一名和分类任务第一名[[i]]。如今在计算机视觉领域,卷积神经网络的良好效果深得广大开发者的喜欢,并且上文提到的AlexNet模型拥有更好的效果,所以广大从业者学习者试图将其改进以获得更好地效果。而后来很多人经过验证认为,AlexNet模型中所谓的局部归一化响应浪费了计算资源,但是对性能却没有很大的提升。VGG的实质是AlexNet结构的增强版,它侧重强调卷积神经网络设计中的深度。将卷积层的深度提升到了19层,并且在当年的ImageNet大赛中的定位问题中获得了第一名的好成绩。整个网络向人们证明了我们是可以用很小的卷积核取得很好地效果,前提是我们要把网络的层数加深,这也论证了我们要想提高整个神经网络的模型效果,一个较为有效的方法便是将它的深度加深,虽然计算量会大大提高,但是整个复杂度也上升了,更能解决复杂的问题。虽然VGG网络已经诞生好几年了,但是很多其他网络上效果并不是很好地情况下,VGG有时候还能够发挥它的优势,让人有意想不到的收获。 与AlexNet网络非常类似,VGG共有五个卷积层,并且每个卷积层之后都有一个池化层。当时在ImageNet大赛中,作者分别尝试了六种网络结构。这六种结构大致相同,只是层数不同,少则11层,多达19层。网络结构的输入是大小为224*224的RGB图像,最终将分类结果输出。当然,在输入网络时,图片要进行预处理。 VGG网络相比AlexNet网络,在网络的深度以及宽度上做了一定的拓展,具体的卷积运算还是与AlexNet网络类似。我们主要说明一下VGG网络所做的改进。第一点,由于很多研究者发现归一化层的效果并不是很好,而且占用了大量的计算资源,所以在VGG网络中作者取消了归一化层;第二点,VGG网络用了更小的3x3的卷积核,而两个连续的3x3的卷积核相当于5x5的感受野,由此类推,三个3x3的连续的卷积核也就相当于7x7的感受野。这样的变化使得参数量更小,节省了计算资源,将资源留给后面的更深层次的网络。第三点是VGG网络中的池化层特征池化核改为了2x2,而在AlexNet网络中池化核为3x3。这三点改进无疑是使得整个参数运算量下降,这样我们在有限的计算平台上能够获得更多的资源留给更深层的网络。由于层数较多,卷积核比较小,这样使得整个网络的特征提取效果很好。其实由于VGG的层数较多,所以计算量还是相当大的,卷积层比较多成了它最显著的特点。另外,VGG网络的拓展性能比较突出,结构比较简洁,所以它的迁移性能比较好,迁移到其他数据集的时候泛化性能好。到现在为止,VGG网络还经常被用来提出特征。所以当现在很多较新的模型效果不好时,使用VGG可能会解决这些问题。 GoogleNet 谷歌于2014年Imagenet挑战赛(ILSVRC14)凭借GoogleNet再次斩获第一名。这个通过增加了神经网络的深度和宽度获得了更好地效果,在此过程中保证了计算资源的不变。这个网络论证了加大深度,宽度以及训练数据的增加是现有深度学习获得更好效果的主要方式。但是增加尺寸可能会带来过拟合的问题,因为深度与宽度的加深必然会带来过量的参数。此外,增加网络尺寸也带来了对计算资源侵占过多的缺点。为了保证计算资源充分利用的前提下去提高整个模型的性能,作者使用了Inception模型,这个模型在下图中有展示,可以看出这个有点像金字塔的模型在宽度上使用并联的不同大小的卷积核,增加了卷积核的输出宽度。因为使用了较大尺度的卷积核增加了参数。使用了1*1的卷积核就是为了使得参数的数量最少。 Inception模块 上图表格为网络分析图,第一行为卷积层,输入为224×224×3 ,卷积核为7x7,步长为2,padding为3,输出的维度为112×112×64,这里面的7x7卷积使用了 7×1 然后 1×7 的方式,这样便有(7+7)×64×3=2,688个参数。第二行为池化层,卷积核为3×33×3,滑动步长为2,padding为 1 ,输出维度:56×56×64,计算方式:1/2×(112+2×1?3+1)=56。第三行,第四行与第一行,第二行类似。第 5 行 Inception module中分为4条支线,输入均为上层产生的 28×28×192 结果:第 1 部分,1×1 卷积层,输出大小为28×28×64;第 2 部分,先1×1卷积层,输出大小为28×28×96,作为输入进行3×3卷积层,输出大小为28×28×128;第 3部分,先1×1卷积层,输出大小为28×28×32,作为输入进行3×3卷积层,输出大小为28×28×32;而第3 部分3×3的池化层,输出大小为输出大小为28×28×32。第5行的Inception module会对上面是个结果的输出结果并联,由此增加网络宽度。 ResNet 2015年ImageNet大赛中,MSRA何凯明团队的ResidualNetworks力压群雄,在ImageNet的诸多领域的比赛中上均获得了第一名的好成绩,而且这篇关于ResNet的论文Deep Residual Learning for Image Recognition也获得了CVPR2016的最佳论文,实至而名归。 上文介绍了的VGG以及GoogleNet都是增加了卷积神经网络的深度来获得更好效果,也让人们明白了网络的深度与广度决定了训练的效果。但是,与此同时,宽度与深度加深的同时,效果实际会慢慢变差。也就是说模型的层次加深,错误率提高了。模型的深度加深,以一定的错误率来换取学习能力的增强。但是深层的神经网络模型牺牲了大量的计算资源,学习能力提高的同时不应当产生比浅层神经网络更高的错误率。这个现象的产生主要是因为随着神经网络的层数增加,梯度消失的现象就越来越明显。所以为了解决这个问题,作者提出了一个深度残差网络的结构Residual: 上图就是残差网络的基本结构,可以看出其实是增加了一个恒等映射,将原本的变换函数H(x)转换成了F(x)+x。示意图中可以很明显看出来整个网络的变化,这样网络不再是简单的堆叠结构,这样的话便很好地解决了由于网络层数增加而带来的梯度原来越不明显的问题。所以这时候网络可以做得很深,到目前为止,网络的层数都可以上千层,而能够保证很好地效果。并且,这样的简单叠加并没有给网络增加额外的参数跟计算量,同时也提高了网络训练的效果与效率。 在比赛中,为了证明自己观点是正确的,作者控制变量地设计几个实验。首先作者构建了两个plain网络,这两个网络分别为18层跟34层,随后作者又设计了两个残差网络,层数也是分别为18层和34层。然后对这四个模型进行控制变量的实验观察数据量的变化。下图便是实验结果。实验中,在plain网络上观测到明显的退化现象。实验结果也表明,在残差网络上,34层的效果明显要好于18层的效果,足以证明残差网络随着层数增加性能也是增加的。不仅如此,残差网络的在更深层的结构上收敛性能也有明显的提升,整个实验大为成功。 除此之外,作者还做了关于shortcut方式的实验,如果残差网络模块的输入输出维度不一致,我们如果要使维度统一,必须要对维数较少的进行増维。而增维的最好效果是用0来填充。不过实验数据显示三者差距很小,所以线性投影并不是特别需要。使用0来填充维度同时也保证了模型的复杂度控制在比较低的情况下。 随着实验的深入,作者又提出了更深的残差模块。这种模型减少了各个层的参数量,将资源留给更深层数的模型,在保证复杂度很低的情况下,模型也没有出现梯度消失很明显的情况,因此目前模型最高可达1202层,错误率仍然控制得很低。但是层数如此之多也带来了过拟合的现象,不过诸多研究者仍在改进之中,毕竟此时的ResNet已经相对于其他模型在性能上遥遥领先了。 残差网络的精髓便是shortcut。从一个角度来看,也可以解读为多种路径组合的一个网络。如下图: ResNet可以做到很深,但是从上图中可以体会到,当网络很深,也就是层数很多时,数据传输的路径其实相对比较固定。我们似乎也可以将其理解为一个多人投票系统,大多数梯度都分布在论文中所谓的effective path上。 DenseNet 在Resnet模型之后,有人试图对ResNet模型进行改进,由此便诞生了ResNeXt模型。 这是对上面介绍的ResNet模型结合了GoogleNet中的inception模块思想,相比于Resnet来说更加有效。随后,诞生了DenseNet模型,它直接将所有的模块连接起来,整个模型更加简单粗暴。稠密相连成了它的主要特点。 我们将DenseNet与ResNet相比较: 从上图中可以看出,相比于ResNet,DenseNet参数量明显减少很多,效果也更加优越,只是DenseNet需要消耗更多的内存。 总结 上面介绍了卷积神经网络发展史上比较著名的一些模型,这些模型非常经典,也各有优势。在算力不断增强的现在,各种新的网络训练的效率以及效果也在逐渐提高。从收敛速度上看,VGG>Inception>DenseNet>ResNet,从泛化能力来看,Inception>DenseNet=ResNet>VGG,从运算量看来,Inception<DenseNet< ResNet<VGG,从内存开销来看,Inception<ResNet< DenseNet<VGG。在本次研究中,我们对各个模型均进行了分析,但从效果来看,ResNet效果是最好的,优于Inception,优于VGG,所以我们第四章实验中主要采用谷歌的Inception模型,也就是GoogleNet。

如何更好的理解分析深度卷积神经网络

作者:杨延生链接:来源:知乎著作权归作者所有,转载请联系作者获得授权。"深度学习"是为了让层数较多的多层神经网络可以训练,能够work而演化出来的一系列的 新的结构和新的方法。新的网络结构中最著名的就是CNN,它解决了传统较深的网络参数太多,很难训练的问题,使用了逗局部感受野地和逗权植共享地的概念,大大减少了网络参数的数量。关键是这种结构确实很符合视觉类任务在人脑上的工作原理。新的结构还包括了:LSTM,ResNet等。新的方法就多了:新的激活函数:ReLU,新的权重初始化方法(逐层初始化,XAVIER等),新的损失函数,新的防止过拟合方法(Dropout, BN等)。这些方面主要都是为了解决传统的多层神经网络的一些不足:梯度消失,过拟合等。---------------------- 下面是原答案 ------------------------从广义上说深度学习的网络结构也是多层神经网络的一种。传统意义上的多层神经网络是只有输入层、隐藏层、输出层。其中隐藏层的层数根据需要而定,没有明确的理论推导来说明到底多少层合适。而深度学习中最著名的卷积神经网络CNN,在原来多层神经网络的基础上,加入了特征学习部分,这部分是模仿人脑对信号处理上的分级的。具体操作就是在原来的全连接的层前面加入了部分连接的卷积层与降维层,而且加入的是一个层级。 输入层 - 卷积层 -降维层 -卷积层 - 降维层 -- .... -- 隐藏层 -输出层简单来说,原来多层神经网络做的步骤是:特征映射到值。特征是人工挑选。深度学习做的步骤是 信号->特征->值。 特征是由网络自己选择。

深度访谈论文写作格式

深度访谈论文写作格式   深度访谈是社会科学质性研究的一种主要方法,写作有什么要求?下面是我整理的深度访谈论文写作格式,欢迎阅读!   一、访谈提纲   1、 你平时大概多长时间会去逛一次街?通常会去哪里逛街呢?是和朋友一起吗?   2、 你在购买商品时,若有朋友在场,会听取朋友的意见吗? 你觉得在最近这一年里,你买过的最贵的东西是什么?怎么会想到去买它呢?当时的情景是怎样的呢?在后来使用的过程中,你觉得它值不值呢?以后还会买吗?   3、 在你能自由支配自己的钱的时候,有没有奢侈过一回呢?当时是消费了什么?怎么会想到去消费这个了呢?   4、 你在买一个生活必需品时,比如说牙膏,你会怎样去买它?买一个非生活必需品时,比如说化妆品,你会怎样去买它?   5、 这两样东西在购买时,会有什么不同的想法吗? 现在我们来做一个词语联想,我说“奢侈”这个词,你会想到什么呢?为什么会想到这个呢?   6、 他们说买一个比较奢侈的东西,是想要得到别人的赞赏,你同意这个观点吗?   7、 你现阶段有没有想要买的奢侈品呢?   8、 你对“奢侈化消费”的看法是什么?   二、要点记录   1、买东西时,会和朋友讨论,偶尔听取朋友的意见。   2、但是看自己的需要程度来听取朋友的意见。   3、买东西时,品牌和质量同时看重。   4、买手机受家人和朋友的影响比较大。   5、家庭经济情况比较好,经常逛专卖店,比如以纯。   6、有比较心理,240元 和260元的东西会同时和250元作比较, 然后240元的东西购买时不会犹豫,而260元的东西购买时,会有心理挣扎。   7、生活必需品的购买,看其功效;非生活必需品的购买,看重经济与实惠的中档商品。   8、对于非生活必需品的购买,受朋友影响较弱,因为觉得这些东西是根据个人需求的不同而购买的。   9、由“奢侈”一词的联想到的有“华丽”、“暴发户”、“炫耀”。奢侈品不会搭配,或是搭配不到点上,便会有暴发户的感觉。   10、比较希望别人注意到自己,有自己漂亮的东西时,希望得到别人的赞赏,独乐乐不如众乐乐。   11、对于“奢侈化消费”的观点是因人而异。   三、结果分析   1、从访问者方面分析   (1)在访谈过程中,问题比较杂乱,不是完全按照提纲进行访谈,但是当访谈者意识到一个话题没有深究的意义时,便会又回到提纲上。   (2)某些提问不清晰,误导受访者,还有一些关键的信息点可以再深究下去,但是访问者并没有持续下去,受访者的心理并没有被充分挖掘。   (3)访问者在进行访谈时,缺乏经验,控场能力不强,表现得很被动。   2、从受访者方面分析   (1)受访者在购买非生活必需品时,会受到朋友或家人的影响,但是这种影响是潜意识的,当事人并没有注意到。比如,买手机时,受家人和朋友的影响比较大,但在回答非必需品购买这一问题时,却说不受影响。   (2)够买物品时注重品牌,一方面是家庭经济条件允许,另一方面是个人爱好比较休闲。   (3)受访者在对奢侈的看法上,觉得奢侈带来的后果有两面性,一种是,搭配的好,用到点上就会比较华丽,让别人羡慕,受到认同;一种是搭配的不好,用不到点上,会给人一种暴发户的感觉,是一种比较令人反感的炫耀。   (4)对于购物后的感觉,受访者认为,不论是不是奢侈化的东西,都比较希望别人注意到自己;自己觉得漂亮的东西,希望得到别人的赞赏;以及独乐乐不如众乐乐,自己喜欢的东西别人也喜欢时,自己会很高兴。   (5)对于“奢侈化消费”的观点是因人而异。对于家庭条件好的人来说,便不会觉得买一件贵的东西是奢侈化消费,他们会觉得很平常,或是这是一件显示身份的必需品。对于家庭条件不好的人来说,购买比较贵的东西会考虑很多因素,首先是经济因素。   扩展:硕士论文写作格式   一、 硕士毕业论文的基本要求   1.封面   硕士毕业论文的封面由论文题目、指导教师、学科门类、专业名称/研究方向、日期、封面颜色等部分组成,其中:   (1)论文题目   论文题目字数不应超过26个汉字,可以分两行排列,及中英文对照。   (2)指导教师   填写论文作者的指导教师。没有经过学校相关规定批准的合作指导教师,是不允许在论文上署名的,且署名的合作指导教师人数不超过2人。   (3)学科门类:论文编写者的专业所属的学科门类,例如工学、文学、哲学、经济学、法学、理学、管理学等。   (4)专业名称/研究方向:必须与论文作者的专业目录表和培养方案书一致。   (5)日期:毕业论文的完成时间。   (6)封面颜色:论文的封面颜色可由各个专业自行拟定,每个专业可以选择不同的颜色以示区别。   2.独创声明及授权说明   独创性声明及授权说明页附于论文的摘要之前,需要由研究生和指导教师本人签字后方可有效。   3.摘要   硕士论文的`摘要由中外摘要和英文摘要两部分组成。其中中外摘要一般为500-1000字。内容包括本论文的课题的研究目的、研究方法、研究成果及得出的结论。摘要应本着突出本论文的创造性成果或创新点,语言精炼,言简意赅。摘要应当具自我解释性,在不阅读论文全文的前提下,读者就能够获取论文所阐述的主要论点及提供的信息。   英文摘要与中外摘要对应,它是是以英文形式对文章的概述,需要注意的是,英文摘要不是对中文摘要的简单翻译,英文摘要页置于中文摘要页之后。   在论文摘要后,另起一行用于标明本论文的关键词(3-5个)。用以表示全文主题内容信息款目的单词或术语,便于文献标引工作从论文中选取。关键词间用逗号分隔,最后1个词后不打标点符号。以显著的字符排在同种语言摘要的下方,尽量以《汉语主题词表》等词表提供的规范词作为依据。   4.目录   目录一般列至二级标题,即列出到三级目录。目录的内容必须与正文标题及各个章节的标题一致。目录页由论文的章、节、条、附录、题录等的序号、名称和页码组成,需要另起1页排在摘要页之后,章、节、小节分别以1、1.1、1.1.1、1.1.2、2、2.1等数字依次标出,一二级目录用小四宋体,三级目录用5号宋体,数字及英文字符采用times new roman格式。   5.插图及表格   论文中如果涉及到较多的图、表,可以给出一个清单,附于目录页之后。图表的清单应有序号、图表名称和页码。   6.正文   论文正文的字数一般至少3万,它是文章的主体,分为标题、文字叙述、图表、公式和数据等部分,文章组织形式可结合学科实际的要求和研究课题的特点而定。   7.参考文献   参考文献是在研究本课题的过程中,对某一著作或者论文的整体参考与引用。   8.附录   在论文的编写过程中,对于不适宜放入正文中的部分,但确实与本论文研究有关的过程或资料均应该放在附录中,以免影响到论文主体的结构或者论点。   9.致谢   致谢部分主要用于答谢对课题研究、毕业论文完成等方面有较重要帮助的人员。   二、 硕士毕业论文的基本格式   1.标题   (1)论文的标题一般分为三级,具体的格式要求为:   1级标题:中文黑体,三号(21px),段前、段后间距均为1行;英文为times new roman.2级标题:中文黑体,四号(19px),段前、段后间距为1行;英文为times new roman.3级标题:中文黑体,小四号或(16px),段前、段后间距为1行;英文为times new roman。   段前、段后的间距可根据文章的实际情况做适当的调节,以便于控制正文合适的换页位置。   (2)标题的表述可以用“章、节”、“一、(一)”、“1、1.1”等形式。其格式如下:“第一章□□□□□(一级标题,居中,单列一行)”“第一节□□□□□(二级标题,空两格左对齐,单列一行)”“一、□□□□□(三级标题,同二级标题)”对于其他样式的格式,要求不变。   对于其他级次的标题或者需要突出的重点部分,可用五号黑体字体进行标示,也可单列一行,或者放在段首。   2.正文字体   (1)硕士论文的正文中,如无特殊要求中文一律采用简体,特殊情况可用繁体,字号为五号宋体,行间距为18磅;   (2)图、表标题采用小五号黑体;表格中文字、图例说明采用小五号宋体;表注采用六号宋体;   (3)英文、罗马字符一般采用Times New Roman字体,按规定应采用斜体的采用斜体;   (4)阿拉伯文、日文等其他文字使用该文字的惯用字体。   3.图表、公式   (1)硕士论文中的表格均采用标准表格形式。表中的参数应标明量和单位。表序、标题居中置于表的上方。表的备注置于表的下方。表格一般放在同一页内显示,一般不要分页显示。   (2)图中的术语、符号、单位等应与正文中的表述一致。图序、标题、图例说明居中置于图的下方。图形不能跨页显示。照片不得直接粘贴,须扫描后以图片形式插入。   (3)论文中的公式为居中对齐,编号用小括号括起,右对齐,其间不需要加线条。   (4)文中的图、表、公式、附注等一律用阿拉伯数字按章节连续编号,例如:图1-1,表2-2,公式(3-10)等。   4.注释   注释一律采用页下注(脚注)的形式。注释的序号形式为①,②,③……类型的标识,每页需要重新排序,不得与上页累计。   5.参考文献   参考文献页一律放在正文后面,可不编序号,但不得放在各章之后。参考文献编号项目及次序与引文注释的格式基本相同,但不不要标注页码。   中文参考文献的排列顺序按照引用著作、论文、电子文献的作者姓氏的汉语拼音升序排列,外文按作者姓氏的英文字母升序排列。外文著作、论文用原文罗列,无需翻译。   6.页眉、页脚文字   页眉、页脚均采用小五号宋体,页眉左侧为论文题名,右侧为一级标题名称;页眉下横线为上粗下细文武线(3磅);如果论文采用单面印刷,则页码排在页脚居中位置。   7.页码   页码的起始编码页为第一章,按按阿拉伯数字连续编排。第一章之前的页码用罗马数字单独编排。所有的页码均置于右下脚。   三、 硕士毕业论文的页面设置要求   1)开本   页面采用210mm×297mm(A4纸)。   (2)版芯   页面的边距设置:左边距:30mm,右边距:25mm,上边距:30mm,下边距:25mm,页眉边距:23mm,页脚边距:18mm。 ;

第一代图卷积网络:图的频域网络与深度局部连接网络

本文需要的前置知识:傅里叶变换与谱图理论基础 链接: ① 傅里叶级数与傅里叶变换 ② 图神经网络中的谱图理论基础 CNN在机器学习领域内的一些问题上取得了比较成功的效果,这主要得益于它处理的底层数据通常有一个坐标网格结构(在1,2,3维度上),因此这些数据就存在平移不变性( translational equivariance/invariance)。图像、语音、视频就属于这一类数据。由于网络不具备平移不变性(网络中的每个节点的邻居数量是不固定的),因此在网络上直接应用CNN是比较困难的。 对于常规的网格数据,CNN能够利用以下几个很好地结合在一起的结构来大大减少系统中的参数数量: ①平移结构(translation structure),使用滤波器在数据的网格结构上平移处理数据,从而实现参数共享,并没有使用线性映射; ②网格上的度量,使用紧凑支持滤波器(compactly supported filters),紧凑支持滤波器是指与输入数据大小无关的滤波器,它的大小可能远小于输入数据的大小; ③网格的多尺度二元聚类(multiscale dyadic clustering),是指CNN应用了跨步卷积(stride convolution)和池化(pooling)来进行下采样(subsampling)。 如果网格数据有 个坐标,数据的维度为 (举例来说,图片的坐标数就是像素点数,维度就是图片的通道数,彩色图为 ,灰度图为 ),如果使用有 的输出节点的全连接网络就需要 个参数,相当于 的参数复杂度。使用任意的滤波器(也就是①)而非全连接网路能将参数复杂度降低到 ,使用网格上的度量结构(也就是②)来构建局部连接网络也可以。而如果两种一起使用能够将复杂度降低到 ,这里的 代表数据feature map的数量, 代表卷积核的数量,此时复杂度与 无关。最后使用网格的多尺度二元聚类(也就是③)可以进一步降低复杂度。 然而某些数据并不具备上述几何结构,比如表面张力或温度、从一个气象台网络中观测到的数据、来自社交网络或协同过滤的数据,这些数据都不能直接应用CNN。虽然CNN可以应用于多层,但是在特征维度上没有假设任何几何属性,导致一个4-D tensor只能沿其空间坐标进行卷积,即对于一个4-D的tensor而言,其有 四个维度,典型的CNN只能对 三个维度(即空间维度)进行卷积操作(通过3D convolution 操作),而不能对 维度(特征维度)进行操作。 网络提供了低维网格数据的一种泛化的框架,也就是GCN是CNN在domain上的推广,推广的方式是通过推广卷积的概念。在本文中将会讨论将深度卷积应用于网络数据的方法。本文一共提供两种架构。第一种为空域架构(spatial construction),这种架构能够对网络数据应用上述②和③,应用它们可以构建网络数据的局部连接网络,参数复杂度为 而非 。另一种架构称为频域架构(spectral construction),能够在傅里叶域内应用卷积。频域架构对于每一个feature map最多需要 的参数复杂度,也可以构建参数数量与 无关的架构。这两种架构都可以应用高效的前向传播并且能够应用在有多个坐标的数据的数据集上。 网络数据将由一个加权图 来表示, 是一个离散的节点集合,大小为 , 是一个对称半正定矩阵,也就是加权邻接矩阵。将CNN泛化到网络数据的最直接想法是应用多尺度的、层级的局部感受野。 在网络上可以轻松的定义局部性(locality)的概念。边的权重决定了节点的局部性,举例来说,可以设置一个阈值 来决定一个节点的邻居节点集合: 我们可以将注意力限制在稀疏的滤波器上,这些滤波器通过节点的邻居节点集合来定义感受野,以此来构建局部连接网络,这样可以将参数量降低为 ,这里的 代表平均邻居节点数量。 CNN通过池化和下采样来降低网格的大小,这一操作也就是网格的多尺度聚类( multiscale clustering):为每个cluster输入多个特征,输出一个特征。在图上被证明更为有效的聚类方法仍然有待研究,在本文中选择了一种比较朴素的聚类方法。如下图所示,下图中有两层聚类,灰色的点为数据中的无向图节点,然后进行聚类得到下一层带颜色的节点,然后再对这些带颜色的节点进行聚类,第一层为12个节点,第二层6个节点,第三层3个节点: 本文提出的空域架构也叫做深度局部连接网络(Deep Locally Connected Networks)。在这个架构中使用了网络的多尺度聚类,事实上这里的尺度可以认为是下采样的层数,在这里我们考虑 个尺度,实际上也就是说这个架构由 个卷积层,每个卷积层后面都有一个池化层(也就是进行一次聚类),因此这个架构中总共有 层,每层包括一个个卷积层和一个池化层。 我们设置 ,也就是输入层的节点集合,可以认为是第0层,每一层的节点集合记作 ,这里 , 可以认为是将 聚成 个簇的一个划分,因此 就表示第 层的节点个数,有 。另外定义 的节点的邻居节点集合的表示: 注意这里 的下标虽然为 ,但它代表的是第 的节点集合 的每个节点的邻域的表示,里面的每个 都是一个集合。 有了上述定义现在我们可以定义网络的第 层。假设输入信号是 上的实值信号,以 来代表第 层的卷积核的数量,也代表了第 层feature map的数量和信号的维度(类比CNN,卷积核的数量等于feature map的数量,也就是卷积后的信号特征的维度)。每一层都会将 上的 维的信号转换成 上的 维的信号,这一过程会权衡空间分辨率和新创建的特征坐标,也就是说,虽然经过每一层的节点数量降低了,但是卷积核的数量会逐层增加以保证特征的维度会增加,也就是说每层有两个结果: ①空间分辨率降低(loses spatial resolution),即空间点数减少; ②滤波器数目增加(increases the number of filters),即每个点特征数 增加。 第 层的输入用 来表示,这里的 是一个 的矩阵, 可以认为是一个列向量, 也就相当于第 个feature map的信号。那么第 层的输出 就被定义为: 这里的 代表第 层的第 个卷积核对第 层的第 个feature map进行卷积的部分,注意由于图的节点的邻居分布情况不同,所以卷积核不像CNN那样是共享的。这里的 是一个 的稀疏矩阵,矩阵的第 行的非零值都只会存在于 所指定的第 个节点的邻居节点位置。 代表非线性激活函数。 代表对卷积的结果进行之前所述的池化操作来降低节点的数量, 相当于聚类的结果,是一个 的稀疏矩阵,每一行指示一个簇的分布,如果采用平均池化,那么 的一个例子( )可以是: 整个过程可以用下图来表示: 另外通过以下过程构建第 层的 和 : 这里 的计算过程是指:由于 中的节点来自 中的节点的聚类,所以 之间的权重是 和 对应的聚类之前的 中节点之间所有权重的累加。 是对 的聚类,图聚类的方法是多种多样的,可以自行选取,这里的方法是采用 的 - covering,使用核函数 的 的 - covering是一个划分 ,满足: 以 代表平均节点数量,那么第 层用来学习的参数量为: 实践中通常有 , 是下采样因子,满足 。 这种架构的优点在于不需要很强的前提假设,只需要图具备邻域结构即可,甚至不需要很好的embedding向量。但是缺点在于没办法进行参数共享,对于每一层的每一个节点都要有单独的参数进行卷积而不能像CNN那样使用同一个卷积核在数据网格上进行平移。 在这里,以 代表图的度矩阵, 代表图的加权邻接矩阵,常用的图的拉普拉斯矩阵有三种: ①Combinatorial Laplacian,也就是普通形式的拉普拉斯矩阵: 其中的元素为: ②Symmetric normalized Laplacian,也就是对称归一化的拉普拉斯矩阵: 其中的元素为: ③Random walk normalized Laplacian,也就是随机游走归一化拉普拉斯矩阵: 其中的元素为: 为简便起见,本文应用的是第①种。对于一个固定的加权邻接矩阵 ,不同的节点信号列向量 (也就是说网络有 个节点)有不同的平滑性(smoothness)度量 ,在节点 处的平滑性度量为: 所有信号的平滑性度量为: 其实 也就是 ,关于拉普拉斯矩阵与信号平滑性的关系已经在本文开头给出的文章链接里介绍过了,这里不再赘述。 有了上面的公式我们可以得出最平滑的信号 其实是一个归一化的全 向量: 事实上 空间中最平滑的 个相互正交的单位向量其实就是 的特征向量: 每个特征向量 的平滑性度量的值其实也就是特征值 ,这一点只需要代入计算一下就可以得出,拉普拉斯矩阵的谱分解为 ,这里的 为特征值构成的对角矩阵, 为特征向量构成的正交矩阵, 的每一列都是一个特征向量,那么 计算一下就可以得到等于特征值 ,因此最平滑的信号向量就是特征值最小的特征向量,拉普拉斯矩阵的特征值就代表了特征向量的平滑度。 上面提到的一组特征向量其实就是 空间的一组基,前面的文章里说过图傅里叶变换其实就是将信号向量投影到拉普拉斯矩阵的各个特征向量上: 特征值的大小表示平滑程度,它对应传统傅里叶变换中的频率,频率高表示短时间内变动多,和这里的相邻节点变动大(变动越大越不平滑)能对应起来。因此图傅里叶变换就是在将一个图信号分解到不同平滑程度的图信号上,就像传统傅里叶变换将函数分解到不同频率的函数上一样。 一个任意信号向量 分解到所有的特征向量上对应的每个系数用 ( ,这些系数也就是图傅里叶变换后的系数)表示, 可以表示为 ,也就是 ,那么 的平滑性度量的值可以用这些系数和特征值表示: 两个函数 和 进行卷积可以应用卷积定理,用公式表达卷积定理就是: 应用卷积定理可以在频域上进行图的卷积操作,具体的方法是将滤波器 和图信号 都通过图傅里叶变换转换到频域然后计算转换后的结果的乘积(哈达玛积,也就是向量对应元素相乘),然后将相乘的结果再通过图傅里叶逆变换转换回空域,整个过程如下: 这里将 组织成对角矩阵 , 也就是神经网络要学习的参数。 在这里我们仍然使用 来代表网络的第 层, , 仍然代表卷积核的数量。这种架构的卷积的过程主要依照卷积定理,首先来描述卷积的过程,之后再描述如何进行下采样,因此现在假设第 层和第 层的节点数都是 ,那么第 层的输入 就是一个 的矩阵,输出 就是一个 的矩阵。第 层的计算过程可以表示为: 这里的 仍然相当于第 个feature map的信号。 也就是第 个卷积核中对第 个feature map进行卷积的部分,每一个 都是一个对角矩阵,其实就是前面的 ,这里之所以有一个连加号是因为要将多个feature map的结果累加起来, 仍然表示非线性激活,另外这里的 的每一列的特征向量是按照特征值的大小依次排列的(降序)。 通常只有拉普拉斯矩阵的前 个特征向量是有意义的,因为后面的特征向量对应的特征值比较小,特征向量非常的平滑,因此在实际中可以取拉普拉斯矩阵的前 列构成的矩阵 代替 ,这个过程就相当于频域架构的下采样的过程,这里的 就相当于空域架构中的 ,每一层可以取不同的值。按照目前这种架构所需的参数复杂度为 。 本文中提出的两种架构在两个数据集上进行了实验验证效果。具体实验设置参看原论文,这里不做赘述。 这个数据集是从MNIST数据集的每张图片( )上采样 个样本点构建图。实验样本如下图: 实验结果如下图所示: 这个数据集将MNIST数据集中的样本提升到3维空间中。实验样本如下图: 实验结果如下图所示: ref: 图傅里叶变换 ref: paper reading:[第一代GCN] Spectral Networks and Deep Locally Connected Networks on Graphs

如何深度理解《哈尔的移动城堡》

说实话,这部电影我看不懂是想表达个啥子意思,哈尔的人设就是个花花公子,而苏菲却是个普通善良的女孩子,苏菲去了哈尔的童年出来为什么会说他一直在等我,而我现在才来,他们不是才认识没多久吗?

高性能StellarX如何使用 深度学习NVIDIA CloudXR 实现无线流式传输?

蓝海大脑深度学习液冷服务器研究人员表示:StellarX 是一款由 OVA 驱动的元宇宙创建软件,无需任何编程知识便可使用该软件。该 3D 创作解决方案由 AI 驱动,目前可在电脑桌面上和扩展现实(XR)中使用。非编程人员可以利用该软件,通过简单的拖放操作,构建沉浸式工作场景。StellarX 目前可在 Steam/Steam XR* 上使用,并且即将在 Meta Quest Store 发布。NVIDIA CloudXR 赋能 StellarX 进行无线流式传输,可助力各行业的业务团队不受线缆束缚,持续在元宇宙中进行创作、协作和互动。StellarX 首席执行官 Harold Dumur 表示:“‘无线自由"如同手套适合戴在手上一般,适用于需要进行持续或者突然移动的沉浸式培训。我们在为魁北克市的警察、医疗和消防单位开发高保真 XR 模拟后,意识到无线模式可助力改进此类培训课程。因此,在测试了各种 XR 流式传输解决方案后,我们最终决定使用 CloudXR 作为我们的流式传输方案。”此前,StellarX 与合作伙伴 LCI LX 共同进行了无线流式传输测试。双方为 ENCQOR 5G 开发了一个以时尚史为内容的 XR 教育课程,学生可以通过与 3D 博物馆内的道具进行互动来学习相关内容。借助 NVIDIA CloudXR SDK,基于强大的 NVIDIA RTX GPU 的驱动,StellarX 开发的这门课程在 5G 网络上实现了流式传输。CloudXR 支持功能将持续赋能 StellarX,例如通过头显提供高端 XR 体验、降低本地硬件要求、保持低网络延迟等。

深度记忆(十)回忆的原理·下·记忆失真和虚假记忆

每次回忆时,记忆系统都会发生某种程度的改变,有趣的是,我们的原始记忆也有可能被记忆行为篡改。人类的记忆系统并不像电脑硬盘一样是一个静态的存储库,我们的记忆是十分灵活多变的,我们可能记得整体情况和关键信息,但是细节常常会被弄错。 在细节不够清晰的情况下,当我们试图回想某段记忆时,我们的回忆过程会涉及情感偏见和推理过程。情感偏见可能带来的影响是,当我们回忆起一场宴会中我们不喜欢的某个客人时,可能会在潜意识中丑化他的真实表现。而在记忆中模糊缺失的片段,我们会通过添加一些细节,来让记忆场景看起来更加真实合理。 有一类戏剧性的记忆失真,我们会相信一些从未发生过的,完全虚构的记忆。 加州大学的伊丽莎白·洛夫斯特曾经做过一个实验。她告诉参与实验的大学生,想要探知他们对童年的记忆。在征得学生同意的情况下,她的团队通过访问学生亲属来确认其童年发生过的事情,随后再让学生本人对这些事情的细节进行回忆。每个学生需要回忆四件童年发生的事,他们不知道的是,在这四件事中,有一件事完全捏造的从未发生过的事情。这件事被捏造的具体而详细,比如五岁的某学生在商场迷路了,被一位路过的好心老太太帮助才回到家人身边。实验对象需要对这四件事进行尽可能详尽地回忆,大多数学生能够准确想起发生过的真实事件,但是有四分之一的学生也“回忆起”了完全捏造的事件,有时还附带详尽的细节。事实上,实验结束后被告知真相时,一部分参与对象很难接受捏造的事件从未真实发生过。 记忆失真和虚假记忆反映了回忆过程的活跃性,我们在回忆过去时,是利用碎片化的信息,经由我们的常识和推断来塑造合理的记忆场景。除了外界验证以外,我们并没有什么可靠的办法法去辨别自己的记忆是否真实准确。

物理题:科学工作者为了探测海底某处的深度,向海底垂直发射超声波,这种方法能否

世界认为了。但准确率不是百分100

某炼油厂采用吸附进行深度处理,处理量为X m3d,废水COD=120 mgL,出水要求低于30 mgL,要求设计该吸附塔

设计任务书一、 设计题目活性炭吸附废水的吸附塔设计二、 设计任务及操作条件1、处理水量Q=200m3/h2、原水COD平均120mg/L3、出水COD小于30mg/L4、活性炭吸附量q=(0.12~0.2)g COD/g炭5、活性炭与水接触时间10~30min6、污水在塔中的下降流速5~10m/h7、反冲洗水的线速度28~32m/h8、反冲洗时间4~10min9、冲洗间隔时间72~144h10、炭层冲洗膨胀率30%~50%11、水力输炭管道流速0.75~1.5m/s12、水力输炭水量与炭量体积比例10:1三、设计内容1、设计方案的确定及流程说明2、吸附塔的面积、塔径、高度、容积、活性炭质量、再生周期等计算3、吸附塔附属结构的选型与设计4、吸附塔工艺流程图5、吸附塔计算图6、设计说明7、参考文献设计方案和流程的说明 由于电镀废水中Cr6+属于有毒重金属离子,不能直接排放。根据国家环境标准对废水的处理要求,考虑经济性与实用性,选用活性炭吸附,采用二塔并联降流式固定装置。 吸附是一种物质在另一种物质表面上进行自动累积或浓积的现象,可以发生在气-液,气-固,液-液两相之间。在污水处理中,吸附则是利用多孔性固体物质的表面吸附污水中的一种或多种污染物,从而达到净化水质的目的。活性炭是常用吸附剂之一。 固定床吸附器最大的优点是结构简单、造价低、吸附器磨损少、使用方便。它是污水处理中常用的吸附装置。污水连续地流过装有吸附剂的固定床层,被吸附后的污水连续排出。当出水水质不符合要求(即床层被穿透)时,则停止进水,将吸附剂再生。固定床根据水流方向又分为升流式和降流式两种。降流式水流自上而下,出水水质较好,但水头损失大,需对床层定期进行反冲洗。而升流式水流由下而上流动,这种床型水头损失增加较慢,运行时间较降流式长。 根据处理水量、原水水质及处理要求,固定床可分为单床和多床系统,单床一般用于处理规模小的工艺。多床层又分并联、串联两种,该设计根据实际要求选择大规模处理,出水要求低的并联方式。设计参数选择及计算1、设计参数选择 处理水量200m3/h、原水COD平均120mg/L、出水COD=30mg/L、活性炭的吸附量q=0.14gCOD/g炭、活性炭与水接触的时间30min、污水在塔中下降的流速V=8m/h、反冲洗水的线速度28m/h、反冲洗时间6min、反冲洗间隔时间80h、炭层冲洗膨胀率45%、水力输炭管道流速0.8m/s、水力输炭水量与炭量体积比例10:1、炭层密度ρ=0.43t/m3。计算①吸附塔的面积:2②每个塔的面积:2③吸附塔直径:④吸附塔炭层的高度:⑤每个吸附塔的炭层容积:3 ⑥每塔填充活性炭质量:⑦每塔每天应处理的水量:⑧每个吸附塔每天应吸附的值:⑨活性炭再生周期:三、吸附塔附属结构的选型和设计 ⒈活性炭 活性炭是最常用的非极性吸附剂,由木炭、坚果壳、煤等含碳原料经炭化与活化制得的一种多孔性含碳物质,有大的比表面积(600~1500m2/g),吸附容量大,吸附能力强,该设计属于液相吸附,一般用孔径为(210-3~0.1)的活性炭。它有稳定的化学性质,易再生与再利用,来源广、价格低。它对铬阳离子也有还原作用;在选用活性炭处理装置设备时应选不锈钢材料,防止活性炭与普通钢材接触发生严重的化学腐蚀。 2. 支撑装置 位于填料底部,安装平稳,既要保证能够支撑填料层的质量,又要保证液体能通畅的流动,具有耐腐蚀性,耐压,耐冲击。根据以上要求我们常选用不锈钢作为支架材料。 液体分布装置 让液体分布装置设在塔顶,让废水均匀的分布在填料表面,设备的耐腐性强。考虑易于维修又使布水均匀,且具有一定的水力冲刷强度及直径大小,选用不锈钢材料的可拆卸多孔管布水装置。 4.液体出口装置 沉降式,出口位于塔底。管与塔接触部分密封性好,防止出现液封现象,保证出水通畅流出,还要防腐蚀,耐压,耐冲击。选排水管的直径为100mm,多用价格低、容易得的铸铁。 5.反冲洗设备 防止堵塞,设在吸附层的下方,孔管布水,孔径为10mm,使冲洗水在整个底部平面均匀分布,冲洗时间为6min,每80h冲洗一次。以长久利益来看,选用费用高,操作简单,能较长时间向塔内输水,泵小、耗电较均匀的冲洗水塔来排冲洗后的水。 四、吸附塔工艺流程图 吹出气 A、B并联吸附,C再生; 加料 下一个阶段是:A再生,B、 C并联吸附;再下一个阶段 是:A、C并联吸附时,B再 生。这样以此类推。 A B C产品 部分产品用作再生气吸附塔计算图 设计说明 1、设计要求: ①处理水量大、出水水质高、可回收、吸附剂可再生、设备耐腐性强。 ②采用柱状活性炭进行吸附,不易堵塞。若用粉末活性炭吸附,要防火防爆,而且对设备要求也高,投资高,麻烦。 ③反冲洗时要让冲洗水均匀分布,有足够的冲洗时间,冲洗后的水要及时排出。 ④活性炭的再生:吸附剂在达到吸附饱和后,必须进行脱附再生才能重复使用。所谓再生,及在吸附剂本身不发生或很少发生变化的情况下,用某种方法把吸附质从吸附剂空隙中除去,恢复它的吸附能力,这样就可以大大的减少水处理运行成本。再生分为:加热再生法,化学氧化再生法,溶剂再生法。我们选用加热再生法,它是目前最常用最有效的一种再生方法。其再生步骤如下: a. 脱水:使活性炭和含铬电镀废水进行分离。 b. 干燥:加热到100~150℃,将吸附在活性炭细孔中的水分蒸发出来,同时使一部分低沸点的有机物也够挥发出来。 c. 炭化:加热到300~700℃,使高沸点有机物热分解,一部分低沸点有机物挥发,另一部分被炭化留在活性炭细孔中。 d. 活化:加热到700~1000℃,将炭化阶段留在活性炭细孔中的残留物用活化气体(如水蒸汽、CO2及O2)进行氧化反应,反应产物以气态形式逸出,达到重新造孔的目的。 e. 冷却:把活化后的活性炭用水急剧冷却,防止氧化。 主要设计参数:参 数 内容 吸附塔面积A 每个塔面积A" 吸附塔直径D 吸附塔炭层高度h 每个塔炭层的容积V 每塔填充活性炭质量M 每塔每天应处理水量Q1 每个吸附塔每天吸附COD值 活性炭在生周期T数 值 25m2 12.5m2 4m 4m 50m3 21.5t 2400t 216kg/d 14d影响吸附的因素:①吸附剂的种类:一般来说,极性吸附剂易吸收极性吸附质,非极性吸附剂易吸收非极性吸附质。②活性炭的比表面积:比表面积(600~1500m2/g)越大,吸附能力越强,吸附量越大。③孔结构:孔径越大,比表面积越小,吸附能力差。该设计属于液相吸附,孔径一般为(210-3~0.1)。④ 温度:其他条件不变的条件下,低温有利吸附,升温有利脱附。⑤pH值:在酸性溶液中,活性炭的吸附率要比在碱性溶液中高一些。⑥接触时间: 在进行吸附操作时,应保证吸附质与活性炭有一定的接触时间,使吸附接近平衡,以充分利用活性炭的吸附能力。吸附速度越大,吸附时间就越短。七、参考文献 《环境工程原理》 化学工业出版社 主编:张柏钦,王文选 2003,7《水污染控制技术》 化学工业出版社 主编:王金梅,薛叙明 2004,3

声呐测量海底深度的原理是什么?

现在军用和民用技术中应用非常广泛的声呐,便是根据声音在水下传播的原理设计的,被称为“水下的雷达”。不同的是,雷达波是电磁波,适合在空气中传播,而电磁波在水下会很快衰减,只有声音可以在水下传播,而且传得很远。由于水下我们无法用眼睛看到,因此对水下地貌的研究只有用先进的声呐来探测。回声探测仪,也就是今天已经广为使用的声呐。它测量海底深度的原理就是从船上发出声脉冲至洋底,通过测算接收,然后将接收到的回声所经历的时间自动转换为深度值显示出来。我们平常看到的海底结构图就是根据声呐提供的数据绘制的。可以这样说,我们就是通过它去了解人类所未知的海底世界。

深度体验M家族最新成员,赛道

今天为大家带来两台M-Power,宝马全新的高性能中级SUV——创新BMW X3 M、BMW X4 M。先来说价格,创新BMW X3 M的指导价区间为83.99-89.99万元,创新BMW X4 M的指导价区间为86.99-92.99万元。M-Power,有钱真好。对于车辆的舒适性,如果你要以一款城市SUV的标准去要求它们的话,那这两款车恐怕很难让你满意,虽然它们的悬挂不至于硬到像『 M4 』那样,将压过的每一个石子都传递到你的屁股上,但在通过路面上的接缝或者小坑洼时,还都是能够感觉到的。不过X3 M和X4 M毕竟是一台M-Power,如果真的把悬挂调成普通『X3』那样,恐怕它们会被骂的很惨。基于宝马X3和X4打造出的X3 M和X4 M车型在外观上的变化并不是很大,相信接下来又会有一众文章标题用上"扮猪吃老虎"这样的词汇,但实际上,它们与普通版车型之间还是比较好区分的。在车头部分,M-Power车型使用了黑色的进气格栅,并且下方的空气动力学套件也更夸张。来到车侧,在前翼子板后端有一个黑色的通风口,轮毂内部装配有巨大的打孔通风刹车盘和蓝色的刹车卡钳。轮胎使用的是前255/40 R21和后265/40 R21规格的鸳鸯胎。车尾部分,后备厢盖末端凸起的扰流板并非装饰,下方双边双出的排气和扩散器十分显眼,并且还采用熏黑的设计。X3 M和X4 M在内饰上的变化,更多体现在细节上,比如时速表的表底变成了330km/h。方向盘上增加了M-Power车型专属的M1和M2按钮。挡把换成了与宝马M5同款的等等,当然还有无处不在的"M"标识。相比于这些肉眼可见的变化,在那些看不见地方的改变,才是X3 M和X4 M强大的关键。搭载在X3 M和X4 M上的这台代号S58B30A的3.0L双涡轮增压发动机,是目前宝马最强大的6缸发动机,它能够爆发出510Ps的马力和600N·m的扭矩。这样的参数直接秒杀上一代S55的全部机型,甚至已经快看齐搭载在奔驰 AMG GLC 63上的那台代号M177的4.0T V8发动机了。与这台全新发动机配备的变速箱同样也是全新的,代号为M8HP76的8挡手自一体变速箱,对内部的液力变矩器进行了优化,提升了锁止速度,使动力传递更加直接。为了给这套动力总成更好的散热,宝马工程师还在X3 M和X4 M的前进气格栅内安装了2个中冷和2个油冷。如此大量的冷却器为两台车提供了很好的散热效率,保证了它们能够有一个持续稳定的发挥。最后再来说一下这两台车,的确就像我们大多数人所想的一样,"SUV"和"运动"本身就是一对矛盾,即便它们是一台M-Power,但论极致的操控体验,依旧不如『 M2 』、『M3 』或者『M4』这样的车型,但试问又有多少M3的车主会天天下赛道呢?个人觉得X3 M和X4 M带给我了一种对M-Power全新的认识,它们的出现恰好满足了那些对操控有一定追求,但在日常生活中,更多还是以代步为主的消费者的需求。前一秒,我可能刚刚把儿女送到学校,而现在我已经在去往赛车场的路上准备释放自我了,这就是X3 M和X4 M能够带给你的奇妙体验。

用激光位移传感器测量燃气表内部薄膜深度怎么测

激光位移传感器的工作原理:激光位移传感器可精确非接触测量被测物体的位置、位移等变化,主要应用于检测物体的位移、厚度、振动、距离、直径等几何量的测量。按照测量原理,激光位移传感器原理分为激光三角测量法和激光回波分析法,激光三角测量法一般适用于高精度、短距离的测量,而激光回波分析法则用于远距离测量,下面分别介绍激光位移传感器原理的两种测量方式。1、三角测量法激光发射器通过镜头将可见红色激光射向被测物体表面,经物体反射的激光通过接收器镜头,被内部的CCD线性相机接收,根据不同的距离,CCD线性相机可以在不同的角度下“看见”这个光点。根据这个角度及已知的激光和相机之间的距离,数字信号处理器就能计算出传感器和被测物体之间的距离。同时,光束在接收元件的位置通过模拟和数字电路处理,并通过微处理器分析,计算出相应的输出值,并在用户设定的模拟量窗口内,按比例输出标准数据信号。如果使用开关量输出,则在设定的窗口内导通,窗口之外截止。另外,模拟量与开关量输出可独立设置检测窗口。采取三角测量法的激光位移传感器最高线性度可达1um,分辨率更是可达到0.1um的水平。比如ZLDS100类型的传感器,它可以达到0.01%高分辨率,0.1%高线性度,9.4KHz高响应,适应恶劣环境。2、回波分析法激光位移传感器采用回波分析原理来测量距离以达到一定程度的精度。传感器内部是由处理器单元、回波处理单元、激光发射器、激光接收器等部分组成。激光位移传感器通过激光发射器每秒发射一百万个激光脉冲到检测物并返回至接收器,处理器计算激光脉冲遇到检测物并返回至接收器所需的时间,以此计算出距离值,该输出值是将上千次的测量结果进行的平均输出。即所谓的脉冲时间法测量的。激光回波分析法适合于长距离检测,但测量精度相对于激光三角测量法要低,最远检测距离可达250m。

3d深度相机特点是什么

3d深度相机特点是什么?一起来了解一下吧一、3d深度相机特点1、结构光技术,根据光信号的变化计算物体的位置和深度等信息,快速复原抓取物件的三维空间,实现高精度识别。2、高帧率+智能算法,采用高帧率相机和特有的处理算法,能在小幅抖动下快速获取准确的三维信息。3、3d相机组采用MEMS编码光栅结构光进行扫描,根据图像恢复算法重建出物体的真实三维点云数据。4、满足工业级高分辨率、亚毫米测量的三维视觉应用需求。5、该设备体积小、景深大、测量精度高、成本低、操作简单。6、3d深度相机可应用于生物识别场景。目前市场上主流的有四种3d视觉技术:双目视觉、TOF、结构光3d成像和激光三角测量。1、双目视觉双目技术是目前较为广泛的3d视觉系统,它的原理就像我们人的两只眼睛,用两个视点观察同一景物以获取在不同视角下的感知图像,然后通过三角测量原理计算图像的视差,来获取景物的三维信息。由于双目技术原理简单,不需要使用特殊的发射器和接收器,只需要在自然光照下就能获得三维信息,所以双目技术具有系统结构简单、实现灵活和成本低的优点。适合于制造现场的在线、产品检测和质量控制,不过双目技术的劣势是算法复杂,计算量大,而且光照较暗或者过度曝光的情况下效果差。2、3d结构光技术它通过一个光源投射出一束结构光,这结构光可不是普通的光,而是具备一定结构(比如黑白相间)的光线打到想要测量的物体上表面,因为物体有不同的形状,会对这样的一些条纹或斑点发生不同的变形,有这样的变形之后,通过算法可以计算出距离、形状、尺寸等信息从而获得物体的三维图像。3、激光三角测量法它基于光学三角原理,根据光源、物体和检测器三者之间的几何成像关系,来确定空间物体各点的三维坐标。通常用激光作为光源,用CCd相机作为检测器,具有结构光3d视觉的优点,精准、快速、成本低。4、TOF飞行时间法成像技术TOF是TimeOfFlight的简写。它的原理通过给目标物连续发送光脉冲,然后用传感器接收从物体返回的光,通过探测光脉冲的飞行时间来得到目标物距离。TOF的核心部件是光源和感光接收模块,由于TOF是根据公式直接输出深度信息,不需要用类似双目视觉的算法来计算,所以具有响应快、软件简单、识别距离远的特点,而且由于不需要进行灰度图像的获取与分析,因此不受外界光源物体表面性质影响。典型的TOF3d扫描系统每秒可测量物体上10,000至100,000个点的距离。不过TOF技术的缺点是:分辨率低、不能精密成像、而且成本高。总的来说,无论是立体视觉、结构光、激光三角测量还是TOF,没有哪种技术是更好的,只有哪种技术是更适合的。

为什么som建筑方案设计深度要高

建筑设计领域SOM公司因其为商业集团、公共社团和投资商所设计的高品质的公楼而著称于世,工作项目涵盖了从个体建筑功能、结构设计到社区、城市规划等的各个领域。SOM能够设计和建造的工程类型包括公司公楼、银行及金融建筑、政府大楼、公共设施、医疗健康建筑、宗教建筑、机场、商贸设施、文体娱乐建筑、学校教育建筑、住宅小区及私人住宅项目等等。在过去的69年中,SOM的作品为全世界的公楼设计树立了标准和规范。SOM的设计始终引领着国际流行风格的变迁,站在建筑设计浪潮的最前沿。城市规划领域SOM的城市设计与规划包括新城规划、小区规划和城市肌理规划等方面。多年以来,SOM在美国和世界各地都积极投身于城市、郊区和乡村的规划建设当中。项目领域广、规模差别大,从华盛顿特区商业街重建,到纽约城最大的开发区的南河岸集合住宅,再到欧洲目前最大的商贸工程英国伦敦金丝雀码头,体现了SOM在城市规划领域的权威地位。SOM所提供的设计与规划服务包括:基地选址研究、方案可行性分析、场地设计、环境分析与研究等。工程类型包括:城市计划与发展、城郊规划与发展、新兴区域与土地规划、环境处理与分析、城市交通问题解决、公共开放空间、滨水区域设计、基地规划等等。室内设计领域在1956年SOM创之初,室内设计业务就被确定为重点发展的项目之一,其目的是为了让客户享受到和SOM所做的建筑设计一样高品质的室内设计。虽然室内设计是一个相对独立的工作领域,但是在SOM公司内部,室内设计部门常常会得到建筑设计和结构设计专家的鼎力支持。室内设计部负责为SOM公司的所有建筑工程包括金融中心、零售商店、陈列室、酒店、医院、住宅工程、公中心以及许多专业性很强的区域,如会议中心、培训中心、自助餐厅、敬老院、礼堂和健康俱乐部进行内部空间的设计与装饰。SOM目前已经成为了国际公认的室内设计潮流的引领者。SOM与许多国际知名的客户并肩合作,创造出了与他们的地位相一致的典范设计。SOM室内设计的哲学体系建立在对完美的不断追求上,同时尽最大努力满足客户的需求和想法。SOM室内设计工作室的追求就是要保证达到和SOM的其他类型工程相同的优秀品质,众多才华横溢的设计师和专家们聚集在一起,保证了SOM的每一个作品都是唯一而独特的。SOM所提供的室内设计服务项目包括:室内设计、概念分析、规划、建筑体系分析和空间规划等。结构工程领域SOM早在建立之初,就坚守着一个信条,那就是建筑在满足人类需求的基础上应该在形式和结构两方面都提高效率。从那时起,结构工程组就承担了建造世界上最高的建筑——460万平方英尺109层高的伊利诺斯州芝加哥西尔斯大厦的任务。之后,他们又建造了世界上最高的10座建筑中的3座,最高的100座建筑中的20座。这些工程都经历了严酷的、变幻莫测的环境的考验,包括来自于墨西哥湾和南中国海的频繁的飓风以及美国西海岸和亚洲的严重地震。SOM的结构工程服务包括:结构体系设计、高层建筑结构体系设计、大跨度结构体系设计、建筑执行标准设计及负荷计算、防火工程、抗震结构设计、基础设计、爆破分析、历史建筑结构及外立面翻新、建筑估价、运输计划编制、环境工程科学、地形地势测绘、水力资源工程等。MEP工程学领域SOM的建立是建筑师与工程师分工协作的产物,反映了建筑学与工程学在房屋建造过程中密不可分的关系。翻开SOM公司的历史,我们可以看到多年以来SOM因为工程学领域的出色表现而赢得了世界性的赞誉。SOM在许多久经考验的MEP建筑工程、节能建筑工程及智能建筑中显示了自己的责任心。各类国际组织授予的三十多个MEP工程设计奖项证明了SOM公司在这一领域内令人信服的技术能力。SOM的MEP工程设计服务包括:工程可行性研究、效用规划与下部基础设计、能量分析与守恒研究、防火逃生工程、热力工程、通风工程、电力系统设计、能量分配体系设计、采光与照明体系研究、建筑通信体系、建筑管理体系、垃圾废物处理体系、计算机信息控制系统研究等等。环保设计领域1979年以来,SOM公司已经从美国采暖、制冷与空调工程师协会(ASHRAE)获得了三十多个荣誉奖项,这些荣誉旨在表彰SOM在建筑节能与环保领域做出的突出成就与卓越贡献及其杰出的技术科研能力。SOM是可持续发展技术工业领域的先锋,不断地将可持续利用的原材料及结构体系引入建筑设计与公共环境中。SOM的可持续发展理念是,要从每一个方案的开端开始贯彻执行,从选址到基础设计,再到建筑中所摆放的每一件家具,都要保证使居住者充满健康与活力。1993年,美国绿色建筑委员会(USGBC)规定了环保建筑设计的若干标准等级体系(LEED)。LEED体系被证明是行之有效的建筑节能标准,通过它可以改善业主和员工的健康状况,并显著降低对环境的破坏和成本消耗。SOM是USGBC的最初创立者之一并始终以积极的姿态投身其中,同时也是LEED2.0(现行标准)的专家。SOM环境工作室(SOMEnvironment)聚集了众多的环保设计方面的建筑师和工程师以及LEED标准鉴定专家。环保研究与设计是SOM所做的各项工程中必不可少的一个环节。SOM是忠实的环保主义者,在满足客户利益与需求的前提下,SOM会尽最大努力将环保科技引入其中。SOM的环保设计服务包括:建筑环保标准执行、采光模型分析、材料周期分析、经济指标分析等。

深度ramos 抓不出高们内存:我是2条内存,分别为1条2G,1条4G,用ramos制作2.74G镜像,进入ramos系统后,

星的DDR2667内存前几天卖了100呢

电动自行车的EABS刹车原理,刹车深度大好还是小好?

无刷EABS系统充分利用了无刷系统电子换向的特点,通过编程控制电机的不同运动状态。无刷电机系统成熟的控制方式为三相六状态PWM驱动方式,检测电机定子和转子相对位置的3个霍尔元件产生的8个信号:001、010、011、100、101、110、111、000,控制器程序自动删除两个非法状态:000、111,从六个状态信号产生电机驱动信号。EABS系统的主要特点(1)与以往的机械刹车断电方式不同,EABS系统应用了全新的制动控制思想,当有刹车信号时,电动轮毂立即制动,并且速度越快制动效果越明显。(2)EABS电子刹车系统不会消耗蓄电池电能,相反,在制动瞬间和下坡制动时会对电池产生短时返充电,虽然作用时间短,但对于电池极板却可以起到一定的维护效果,有利于延长电池的使用寿命。

水下直升机下潜深度突破1千米,什么是水下直升机?有何工作原理?

水下直升机跟潜水艇的工作原理是一样的,它潜入到海底深处之后,也像直升机一样的操作前进后退上升下降

激光传感器在轮胎检测(轮胎胎纹深度、轮胎磨损)中有哪些优势?

激光检测技术就是主要是激光三角法原理,也就是半导体激光器发出一束激光照射在被测物体表面上,通过漫反射,在CMOS阵列上成像。物体表面位置改变时,阵列上成像也发生相应位移。如英国真尚有的线激光传感器ZLDS202和点激光位移传感器ZLDS10X就是激光三角发射原理的传感器。激光传感器是采用非接触式检测,可以避免对轮胎产生额外磨损,同时提供提供高度精确的轮胎胎面深度、轮廓和表面信息。

深度烘焙咖啡特点是什么?

  深度烘焙的咖啡豆颜色更重,也就是冲泡的颜色更黑,口感上因为烘焙程度重所以酸度会降低但是味道会更苦。中度烘焙会口感适中,酸度和苦味中等。同理如果是轻度烘焙那么口感一定很酸,酸度强,但是苦味不强烈。也就是说咖啡豆烘焙的程度会影响它的酸度和苦度,越重越苦越轻越酸。  专业咖啡的烘焙方式通常分为下例八个阶段:  1、极浅烘焙(LIGHTRoast):  烘焙程度;极浅度烘焙,又名浅烘焙。  所有烘焙阶段中最浅的烘焙度,咖啡豆的表面呈淡淡的肉桂色,其口味和香味均不足,此状态几乎不能饮用。一般用在检验上,很少用来品尝。  2、浅烘焙(CINNAMONRoast):  烘焙程度;浅度烘焙,又名肉桂烘焙。  一般的烘焙度,外观上呈现肉桂色,臭青味已除,香味尚可,酸度强,为美式咖啡常采用的一种烘焙程度。  3、微中烘焙(MEDIUMRoast):  烘焙程度;中度烘焙,又名微中烘焙。  中度的烘焙火候和浅烘焙同属美式的,除了酸味外,苦味亦出现了,口感不错。香度、酸度、醇度适中,常用于混合咖啡的烘焙。  4、中烘焙(HIGHRoast):  烘焙程度;中度微深烘焙,又名浓度烘焙。  属于中度微深烘焙,较微中烘焙度稍强,表面已出现少许浓茶色,苦味亦变强了。咖啡味道酸中带苦,香气及风味皆佳,最常为日本、中欧人士所喜爱。(蓝山咖啡)  5、中深烘焙(CITYRoast):  烘焙程度;中深度烘焙,又名城市烘焙。  最标准的烘焙度,苦味和酸味达到平衡,常被使用在法式咖啡。(巴西、哥伦比亚)  6、深烘焙(FULL-CITYRoast):  烘焙程度;微深度烘焙,又名深城市烘焙。  较中深烘焙度稍强,颜色变得相当深,苦味较酸味强,属于中南美式的烘焙法,极适用于调制各种冰咖啡。  7、极深烘焙(FrenchRoast):  烘焙程度;深度烘焙,又名法式烘焙。  又称法式或欧式烘焙,属于深度烘焙,色呈浓茶色带黑,酸味已感觉不出,在欧洲尤其以法国最为流行,因脂肪已渗透至表面,带有独特香味,很适合咖啡欧蕾,维也纳咖啡。  8、极深烘焙(ItalianRoast):  烘焙程度;极深度烘焙,又名意式烘焙。  又称意式烘焙,烘焙度在碳化之前,有焦糊味,主要流行于拉丁国家,适合快速咖啡及卡布基诺。多数使用在Espresso系列咖啡上。  

深度烘焙咖啡特点是什么?

深度烘焙咖啡特点主要是焦味重一些。应该说苦味也加重一些,香味淡了一些。酸味,本来就是咖啡特有的风味之一,深度烘焙的咖啡在酸味上有所降低。

有一点java基础,然后怎么深度学习?

学以致用才有用,最好的方法是以实际开发学习为最佳路径

我要英语句子越多越好 要有深度的 不一定是名言

1.Honesty is the best policy.诚实为上策.2.Wise are silent,fools talk.智者沉默寡言,愚者滔滔不绝.3.Far water does not put out near fire. 远水救不了近火4.Good advice is harsh the ear.忠言逆耳5.The best proof of love is trust.爱的最好证明是信任6.Art is long,but life is shot.人生有限,学海无涯7.You can decide the future 你可以把握你的未来 8.Devote your youthful power to this world 为世界贡献你年轻的力量 <<Tomorrow will be better>>歌词

激光焊接机的焊接深度是多少?

功率不同,焊接深度不一样啊,具体还是根据自身产品加工要求

请问粗糙度对比块,内径百分表,深度尺,米尺的英文名称是什么?谢谢解答。

Meter Stick 米尺Depth Gauge 深度尺Inner Diameter Gauge 内径百分表Roughometer 粗糙度仪

Maya 分析衰减深度帖图阴影

我们可以用使用深度帖图阴影来模拟柔和的光线追踪 (RayTracing) 的效果 .衰减 (ATTENUATED) 这个词的含义是消减和柔化阴影 . 在以下的例子中 , 我们通过调整阴影的颜色来减弱阴影的亮度 . 我们这里所演示的技巧在某些场景中是十分有效的 . 他能极大的减少渲染时间 . 但是在某些场合慊故潜匦胧褂霉庀咦纷?. 例如当光线通过使用了透明帖图的物体或有颜色的透明表面时 , 就要必须使用光线追踪 .( 但即使是后面两种情况有时也可以用深度帖图模拟光线追踪 . 可以参考我翻译的另一篇教程。下面两图是左边用光线追踪右边是衰减深度帖图渲染 . 效果差不多但是光线追踪的渲染时间要多 2.6 倍 .Section1打开场景 attenuatedDmapShadow.mb 这个场景包含一个椅子模型和一个加上了 attenuated dmap shadow 效果的聚光灯 , 其名称为 dmapSoftShadow.Section2 .在 Hypershade 窗口中的 light 选项卡下选择 dmapSoftShadow, 并点击 Show Upstream Connections 按钮 . 便可以看到这个聚光灯的网络节点 . 这个网络是为了从最近点到最远点淡化阴影而设置的 . 它包含 3 个 Locators, 一个灯光信息节点以及一些能驱使两个 Ramp textures 调整阴影的过滤尺寸和颜色属性的数学节点 .Section3Locator 的作用是在空间里标定位置 . 第一个 Locator 的位置就是聚光灯的位置 , 他和聚光灯之间有 constrained 的联系 . 另外两个 Locator 分别在阴影的开始和结束的位置 .Section4这 3 个 locators 与 2 个 Distance Between 节点连接 .Distance Between 节点是用来计算聚光灯和另外两个 locator 的距离的 .Distance Between 节点输出的是 3D 空间上两点间的距离 . 是通过下面的公式计算的 .(x1,y1,z1) 和 (x2,y2,z2) 分别是两个 locator 的坐标 .注意 : 必须用 MEL 命令来创建 Distance Between 节点 , 输入 createNode distanceBetween; 命令 . 这个节点不会在 Hypershade 出现 . 你必须在 Outliner 中用鼠标中键把它拖到 Hypershade 中去 .Section5然后把聚光灯到两个 locator 的距离连接到 plusMinusAverage Utility 节点上 . 并将此节点设为 Subtract 方式 . 这是一个将聚光灯到两个 locator 的距离相减的工具 . 我们可以了解到两个距离之差 ( 注意这里是遵循矢量加减法则 )这个距离上的差值将决定两个 Ramp texture 节点如何影响 dmap shadow 的 Filter Size 和 Shadow Color.Section6为了确定聚光灯到某个点的距离 , 必须使用 Light Info Utility 节点 . 和 Sampler Info 节点相似 ,Light Info 节点与其他节点连接时能提供某个被渲染点的信息 .Light Info 与 Sampler Info 不同之处在于需要将一个灯光信息连接到 Light Info 上 . 你会注意到在渲染网络中 dmapSoftShadow 聚光灯的 worldMatrix[0] 属性连接到了 Light Info 节点的 worldMatrix 属性上 . 它告诉了 Light Info 从场景中的什么地方计算输出属性 Sample Distance.Sample Distance 是从聚光灯中心到某个被渲染点的距离 .注意 :Light Info 节点在确定 Sample Distance 时十分有用 .#p#副标题#e#Section7 和 section5 的方法类似 , 我们用另一个 plusMinusAverage 节点来确定 Sample Distance 和聚光灯到 startShadow locator 的距离差 . 为方便起见 , 这个差值命名为 sample point difference.Section8上一步中得到的 sample point difference 是用来调整阴影的 . 如果这个值比较小 , 那么被渲染的点就离 startShadow locator 比较近 . 如果这个值比较大 , 那么被渲染的点就离 startShadow locator 比较远 .但是这个 sample point difference 地值可以是从 0 到一个很大的数 . 这个无限的范围不太适合用于 Ramp 节点 .Ramp 节点适合于 0-1 的范围 . 为了解决这个问题 , 需要使用一些数学手段来把这个距离差值转化到 0-1 的范围内 .我们把 Section5 中得到的聚光灯到 startShadow locator 和 endShadow locator 的距离之差称为 total difference.使用 Multiply Divid 节点 , 计算出 sample point difference 与 total difference 的比值 . 即 sample point difference 在 total difference 所占百分比 . 这样就把 sample point difference 转换到了 0-1 范围内 .注意 : 对于位预 startShadow locator 与聚光灯之间和 endShadow locator 之外的点的返回值将不在 0-1 之间 . 我们将在下一个节点 Clamp 中调整 . 因此 locator 的位置并不需要十分精确的位于阴影开始和结束的地方 . 我们可以以后在做调整 .Section9Clamp 节点能把输入值限制在一定范围内输出 .Multiply Divide 节点在被连接到 Ramp 节点的 vCoordinate 属性之前 , 将通过先 Clamp 节点来限制范围 .Clamp 的 Min 和 Max 分别设为 0 和 1. 这意味这从 Multiply Divide 节点过来的输入值在 0-1 之间的保持不变 . 小于 0 的按 0 输出 , 大于 1 的按 1 输出 .注意 : 在 clamp 节点中只使用 x-channel. 这是因为距离这个属性是单值的 . 当输入的是 3 值类型的数据时 ( 例如颜色的 RGB 值 ) 就要用到其他的 channel.在这个渲染网络中 ,clamp 节点的输出值将连接到 Ramp 节点的 vCoordinate 属性上 .0 表示 vCoordinate 在底部 .1 表示 vCoordinate 在顶部 .我们可以通过调整 ramp 的位置和数值来控制输出 . 最后 ramp 将连接到聚光灯的 Filter Size 和 Shadow Color 属性上 . 注意 : 如果输入的数据没有经过 clamp 节点 , 在 0-1 范围之外的数据将重复 coordinate 的值 . 会导致一些不可预料的结果 .( 如下图 )#p#副标题#e#Section10最终将用 2 个 ramp 节点来控制 dmap shadow 的 Filter Size 和 the Shadow Color 属性 .Filter Size 将影响 dmap shadow 的柔化和模糊效果 . 本例中它被 blurInterpolationRamp 节点控制 . 这个节点有两个 color entries. 在底部设为 2, 在顶部设为 32.这意味着 Filter Size 的最小值为 2, 这个值用于渲染离 startShadow locator 最近的点 . 而最大值 32 将用于渲染离 endShadow locator 最近的点 . 这能给 dmap shadow 产生柔化的衰减效果 .下图是将 Filter Size 设为 1 和不设置的比较 .为了加强最终效果 , 我们把另一个 ramp 节点连接到 Shadow Color 属性上 . 这个 ramp 的两个 color entries 的值分别设为 0.5 和 -0.5. -0.5 将 startShadow locator 附近的阴影变暗 . 而 0.5 使 endShadow locator 附近的阴影变亮和透明 .结论以上例子证明了我们可以用一个衰减深度帖图的渲染网络来节省渲染时间 , 在许多情况下能代替光线追踪的方式 .#p#副标题#e#

一般养锦鲤鱼池的面积和深度要多少?

水深至少的50公分以上,而且过滤得做好不然会影响水质用下西普技术还可以

养锦鲤水的深度应该要多少才合适?

养锦鲤水的深度应该要多少才合适? 饲养锦鲤,水深最好是在50厘米以上,80厘米左右比较合适。 此外锦鲤是高污染的鱼,需要处理能力很强的过滤系统。至少有要满足三个条件:1能够把缸底的粪便吸清。2能够有效地过滤水体里的粪便,饲料等杂质。3生化容积不小于水体的15%。 养锦鲤盐水浓度应该多少? 锦鲤是淡水鱼,如果鱼没有病的话根本不用放盐,如果有病鱼的话可以放一点,浓度在千分之五以下,锦鲤淡水鱼,多了它耐受不了。 户外锦鲤鱼池的深度是多少才合适 锦鲤的话一般水深80公分左右就可以,但是北方城市池子在1.5米水深左右,好过冬。还有就是深水养大鱼,看你养的鱼是什么品种,养鱼的专业程度,都是不一样的。 养锦鲤的池子要多大的合适? 池子大小与放养锦鲤的大小,密度有关,也与鱼池装置有关。 你是观赏性饲养,还是生产、养殖性饲养? 如果只是观赏性饲养,就不用管池子大小,而是根据整体的景观设计好池子的大小,深度。然后再根据水量、装置反推放养量比较好。 不管怎么样,养锦鲤水量不要低于1立方。 养锦鲤的温度多少适宜 你是说,问一的你养的这种鱼不怕冷汔。只要冻不著就可以养。这个温庋在5度以上就可以的。只不过温度太低了。他活动的量也不会太大的呀。 真心求教鱼缸养锦鲤,冬季多少度合适 十厘米以下幼鱼冬季保证十度以上即可,主要防止少数体质弱的鱼生病。有的幼鱼会因为冷身上起水泡。如果在室内水族缸,三龄鱼就可以不用加热棒了,没有暖气的地方,室内最低温度一般是5度以上,锦鲤是可以过冬的。如果是室外,就要深挖,深度至少一米以上,防止冬季结冰,鱼在浅层会不抗冻的。冬季要少喂食,一天一次少量喂食或者两三天一次,因为温度低,消化慢,喂多了会得肠炎和污染水质。 养锦鲤水位多高比较合适? 鱼高度的5~10倍 养锦鲤池深多少? 水深养大鱼,室外鱼池1.5-2米 是最好的 阳台鱼池50公分以下 因为要考虑承重的问题,然后根据鱼池大小水量配置相对应的卡利净系统就行了 大家养锦鲤水深多少 养殖锦鲤一般水深是1-1.5米 然后根据池子的水量配置卡利净过滤系统就行了

leep刀手术环切的手术深度多少

一般认为是leep手术深度在4毫米左右,本手术主要适用于治疗宫颈疾病,如宫颈糜烂,宫颈息肉,有利于身体健康,所以需针对性的治疗。需去医院做个详细检查,来明确疾病的诊断,需明确引起的原因,然后针对性使用合适的药物治疗,都可以好转的。

HEVC基础知识讲解(1)-LCU 模式选择过程分析(CTU的深度选择及CU的分割)

1.率失真代价计算模型 HEVC 的最大编码单元为 LCU,即 64×64 的 CU(认为是数据单元,也就是编码单元); 下面就需要对LCU进行CU的划分;步骤如下: 1、对一个 LCU 选择最佳 CU编码深度,需要遍历所有 64×64 到 8×8 的分割,一共 85 个 CU,通过计算率失真代价选择此 LCU 的最佳分割方式。 PS:首先先看这一步,一个LCU = 1个64CU+4个32CU+16个16CU+64个8CU = 1+4+16+64 = 85; 然后有一个问题,我们为什么在cu划分的时候,最小是8x8,而不是4x4? 因为我们划分LCU也只是第一步,因为后面还要去看PU的划分以及TU的划分;因为PU和TU得到划分都是要基于CU来进行;后面会分析到PU和TU的划分;这里我们要明白的是,因为PU和TU的划分,所以CU只能最小到8x8(!!!!CU最小的划分单元就是8x8,切记!!!!); 2、对于每一个 CU,遍历帧内和帧间所有可选的预测模式,根据率失真代价选择最佳 PU(预测单元,做像素值的预测) 预测模式。 PS:PU有8种模式;它是针对于CU来进行划分的,而且针对于不同的预测模式(skip,帧间,帧内),划分的方式是不一样的;如下: 3、对于每一种 PU 预测模式,TU的分割方式由当前 CU 的大小、PU 的预测模式以及最大 TU 分割深度等因素决定,选择过程也需要计算率失真代价。 PS:TU的分割是与PU无关的,可以跨越多个PU的界限,也可以不跨越;还是依赖于的是CU的划分 可以看出,在 HEVC 编码过程中,任何一个划分方式或预测模式的选择,都需要计算率失真代价, HM 的编码器中,率失真代价的计算模型有以下两种: 1、非 RDO 模型 非 RDO 模型可用于帧内预测、运动估计、最佳 MVP 的选择 及 merge 模式中最佳运动参数集的选择等。 2、RDO 模型 所有有关分割方式的选择都采用 RDO 模型计算率失真代价。 当 LCU 的大小为 64×64,最大编码深度为 3,则 LCU 编码深度的选择过程可如下图表示。 第一步,如图 a),对大小为 64×64 深度为 0 的编码单元 a 遍历所有帧间和帧内预测模式,得到深度为 0 时的最优预测模式和率失真代价 Ra。 第二步,如图 b),对 a 进行一次 CU 划分,得到四个子 CU:b0,b1,b2,b3,此时编码深度为 1,并对编码单元 b0 遍历所有帧间和帧内预测模式,得到 b0的最优预测方式和率失真代价 Rb0。 第三步,如图 c),对 b0 进行进一步的 CU 划分,得到四个子 CU:c0,c1,c2 和 c3,此时编码深度为 2,并对编码单元 c0 遍历所有可能的预测模式,得到 c0的最优预测模式和率失真代价 Rc0。 第四步,如图 d),对 c0 做进一步 CU 划分,得到四个子 CU:d0,d1,d2和 d3,此时编码深度为 3,已达到最大编码深度,不能再进行 CU 划分。依次对d0、d1、d2 和 d3 进行预测模式选择,得到各自对应的最优预测方式和率失真代价Rd0、Rd1、Rd2以及 Rd3,计算四个 CU 的率失真代价之和,并与 Rc0进行比较,选择较小的值作为 c0 的最优率失真代价(记为 Min-Rc0),其对应的预测方式以及分割方式即为 c0 的最优预测方式和分割方式。 第五步,仿照第四步,依次对 c1、c2 和 c3 进行划分与预测模式选择,分别得到各自对应的最优预测方式和率失真代价 Min-Rc1、Min-Rc2、Min-Rc3,并计算当前编码深度的四个 CU 的率失真代价之和,与 Rb0比较,得到较小的率失真代价(记为 Min-Rb0),其所对应的预测模式以及分割方式即为 b0 的最优预测模式和分割方式。 第六步,仿照第二步到第五步,依次对 b1、b2 和 b3 进行划分与预测模式选择,分别得到各自对应的最优预测方式和率失真代价 Min-Rb1、Min-Rb2、Min-Rb3,计并计算当前编码深度的四个 CU 的率失真代价之和,并与 Ra 比较,得到较小的率失真代价(记为 Min-Ra),找出该 LCU 的最佳划分方式以及最优预测模式。 在 LCU 的最佳划分方式的选择过程中,对于每一个编码深度的 CU,做 PU 预测模式选择,一个大小为 2N×2N 的 CU,PU 帧间预测模式有 skip、2N×2N、2N×N、N×2N、N×N、2N×nU、2N×nD、nL×2N 以及 nR×2N。 1)其中 skip 模式对应的 CU划分方式为 2N×2N; 2)帧内模式 PU 的大小可以为 2N×2N 或 N×N,N×N 只能适用于深度为最大编码深度(8x8)的 CU。 3)帧间预测模式有八种,后四种模式统称为 AMP 模式,AMP 模式可以根据需要在参数配置中直接关闭。在 AMP 模式打开的情况下,这四种模式的选择与前面的选择结果相关。对于每一个 PU,共有 35 种帧内预测模式。 PU 的模式选择过程如图 3.3 所示: 第一步,计算 skip 模式的率失真代价,skip 模式运用到了 HEVC 中的新引入的运动合并技术。运用运动参数候选列表中的每个运动参数集找到预测块,与原始块做差值并进行变换,量化和熵编码。最后用编码的比特数和重构块以及原始块的失真计算出率失真代价,找到最佳的 merge-index。 第二步,计算 2N×2N 模式的率失真代价,首先运用 AMVP 技术得到 MVP 列表;然后运用非 RDO 方法计算率失真代价得到最佳 MVP;最后做运动搜索,找到预测块,与原始块做差值并进行变换、量化和熵编码,运用编码比特数以及重构块和原始块的 SSD 计算出率失真代价。与 skip 模式的率失真代价进行比较,在skip 和 2N×2N 中找出最佳 PU 模式。 第三步,计算 2N×N 和 N×2N 模式的率失真代价,首先运用 AMVP 技术,找到最佳 MVP 并作运动搜索找到预测块;然后运用运动合并技术技术,得到最佳merge-index 对应的率失真代价,根据率失真代价确定最佳预测模式;最后对最佳模式得到的残差做变换量化和熵编码运用RDO计算出当前PU模式的率失真代价,并与第二步得到的最佳 PU 模式的率失真代价做比较,得到最佳 PU 模式。 第四步,计算 AMP 模式的率失真代价,AMP 模式包括四种分割方式,但是为了减我码复杂度,编码过程中并没有遍历所有的模式,而是根据前三步选出的最佳PU模式以及上一层的CU的最佳分割模式以及预测模式选择部分做模式判决。具体选择如下表: 第五步,帧内预测模式选择,对于 I_SLICE 或非 I_SLICE 中需要编码的量化系数不全为 0 的 CU,需要做帧内预测的分割方式和帧内预测模式选择,选择过程如下: 1、预测单元 PU 大小与 CU 大小一致为 2N×2N,用非 RDO 模型计算率失真代价,从 35 种帧内预测模式中找到率失真代价较小的 n 中预测模式作为候选模式,n 的大小与 PU 的大小相关,如表 3-2 所示。 2、将当前 PU 上侧和左侧相邻 PU 采用的帧内预测模式,即当前 PU 最有可能的预测模式(MPM)加入到该步骤的候选模式中,此时候选模式 k 最多为(n+2)。 3、运用 RDO 模型计算率失真代价在 k 种最佳候选模式中选出最佳亮度的帧内预测模式。 4、根据亮度的帧内预测模式选择结果,做色度的帧内预测模式选择。 5、如果当前编码单元的编码深度为最大编码深度,将当前编码单元分为 4 个N×N 的 PU,对于每一个 PU 重复 1~4 步,找到每一个 PU 的最佳帧内预测模式以及最佳预测模式对应的率失真代价。 6、根据前几步得到率失真代价的值,决定当前 CU 的最佳划分方式及帧内预测模式。 第六步,计算 PCM 模式的率失真代价。 由上述描述可知,对于一个 LCU 想要得到最佳 CU 划分方式,需要遍历其所有的 CU,对每个 CU 还需要遍历各种预测模式,得到其最小的率失真代价。为加快编码速度,模式选择过程的优化可从 CU 编码深度的选择,PU 模式选择和 TU分割方式的选择三个方面进行研究和分析。因为 PU 模式选择和 TU 分割方式选择都是为了计算当前深度下,编码 CU 的率失真代价,减少 CU 遍历的次数,同时也减少了 PU 模式选择的次数和 TU 分割方式选择的次数。因此,基于 CU 编码深度选择过程做算法优化是最有效的。

求有深度的女英文名!

Melody

桂林到贵阳,500多公里深度体验阿维塔11的豪门实力

一周多以前,阿维塔11单电机版上市,起售价31.99万元引起了不小轰动。作为出身豪门的品牌,阿维塔背靠华为、长安和宁德时代,起售价进一步降低,也让更多消费者有了购买的冲动。3月27日,本报作为首批受邀参加阿维塔11单电机版高速NCA智驾领航接力长测的媒体,开启了一段从桂林到贵阳全程长500多公里的深度试驾体验。既然是阿维塔11单电机版高速NCA智驾领航接力长测,那么稿件重点自然是阿维塔11的高速NCA智能驾驶表现,一些想了解新车型的外观、内饰和具体参数的请自行官网看图。先说结论,阿维塔11的高速NCA智能驾驶水平表现不凡,能够自动换道超车、识别岔道口,高速临时设置的路障也都能很好识别,并且大部分情况能提前做出识别,做到平稳过渡,毕竟有华为技术,阿维塔11的高速NCA表现应该属于目前国内的第一梯队了。何为NCA?字母缩写可能不好懂,翻译过来其实就是智能导航辅助。而NCA这个词,据目前笔者的了解应该是阿维塔品牌自己取的智能驾驶名字,跟小鹏的NGP和特斯拉的智能驾驶一样,只不过是换了个名字而已。主要是通过超强硬件+先进算法+海量数据仿真,实现A点到B点的全程导航辅助驾驶。它能够做到大车风险偏移避让、加塞识别与处理、交通锥识别避让、自动上下匝道、主动变道超车等功能,在目前国内大部分的高速上或者有高精地图的城区,都能帮助司机实现一定程度的智能辅助驾驶。本次试驾桂林到贵阳段,因为两个城市都没有开通城区的高精地图,所以体验不了城区复杂路况的NCA表现,只能体验高速NCA。而本站结束后的下一站重庆段,据工作人员介绍说就能体验城区NCA了。在一个号称本地司机来了都会绕晕的城市里体验城区NCA,不得不说阿维塔对于自己的NCA技术有着天生的自信。当然,小编跟网友们一样很期待,有最新消息小编也将第一时间告知大家。比亲儿子还亲关于阿维塔NCA的介绍,小编从公开信息查到,这套NCA基于华为首创智驾交互博弈算法,在2021年4月一经亮相技惊四座,已成为行业共识。这项发明解决了智能驾驶在人车混杂复杂场景中的疑难问题,并解决超过70%的交互场景接管难例,缩短40%通行时间。同时减少200倍存储开销,降低85%算力消耗。基于人因工程学理论,华为对男女老幼等不同人群的体感进行研究和标定,并以此为基础对智驾状态下刹停、起步、转向等场景的运动控制进行打磨,让“点头、推背、拉把手”成为过去,为乘客带来礼宾车般丝滑平顺的乘坐体验。而为了让华为的这一套智驾算法完美匹配到阿维塔11身上,阿维塔11在硬件方面砸下血本,车辆标配34颗智驾传感器,含激光雷达3颗,毫米波雷达6颗,高清摄像头13颗,超声波雷达12颗;同时,从智能硬件到软件算法的全栈高阶智驾系统与双电机车型保持一致。要知道,华为的这套高阶智驾系统就连自己“亲儿子”问界都不舍得给用,最新消息要到这个月才能用到问界M5 EV版车型身上,可以说阿维塔在华为的智驾上,比亲儿子还亲。阿维塔11的豪门实力当然,给你用了,就不能砸了亲爹的招牌,毕竟华为两个字喊出去,就已经能够让不少消费者得到天生的信赖感。而500多公里的深度体验下来,阿维塔11的高速NCA表现也对得起华为这两个金字招牌。高速上,阿维塔开启NCA后,不仅能轻松应对加塞、换道超车,还能主动避让各类动、静态障碍物,并在大部分的路况下能够做到提前介入和识别,不会采取急刹、急转向的办法,给驾驶时带来不好的体验。值得一提的是,阿维塔11在变道超车时,还可以设置灵敏模式,开启后,阿维塔通过算法识别前后车距,在安全情况下,第一时间就驶入超车道,完成超车。整个过程行云流水,犹如一个真正的老司机一样。此外,阿维塔11的悬架结构采用的是前铝合金双叉臂、后五连杆独立悬架,其中副车架、转向节、控制臂均采用铝合金材质,高速上行驶能隔绝大部分噪音,让整车保持一个较为安静的状态。匹配这套高速NCA系统,让小编一度在试驾的过程中,感觉到什么才是真正的“车”领神会,人车合一。可以说,阿维塔11的这次高速NCA体验,堪称惊艳。体验过多款车的智能驾驶,阿维塔11的高速NCA表现堪称第一梯队。虽然行驶过程中,我们也发现一些隧道口不主动减速,个别岔道口识别错误的情况,但依旧不影响整个体验。特别是在长距离的高速体验NCA后,通过几个小时的熟悉,你会觉得它真正是一个值得信赖的朋友,能够让整个高速驾驶轻松和愉快很多。而基于华为的研发和技术实力,我们也不难预测,经过更长时间的算法学习后,未来的阿维塔NCA表现将更加成熟和完美。最后,提醒大家,智能驾驶目前只能作为辅助,行驶过程决不能疏忽大意,才能保证自己的行驶安全。【本文来自易车号作者江南汽车周刊,版权归作者所有,任何形式转载请联系作者。内容仅代表作者观点,与易车无关】

深度技术 GHOSTXP SP3 快速装机专业版 V2011.04 好用吗?

使用CD(或DVD)光驱和CD-R光盘,这类光盘标准容量是700MB,正好在一张盘上刻一个完整的XP系统,买时要买质量好一点的,质量好的光盘不但能保证刻700MB以内的文件,还能超刻一些,质量差的有的只能刻650MB。刻Vista系统文件因版本不同,但一般都要在1.3GB以上,要使用DVD光驱和DVD光盘,DVD光盘容量是4.7GB。二、Nero是一个由德国公司出品的光盘刻录程序,支持ATAPI(IDE)的光盘刻录机,支持中文长文件名刻录,可以刻录多种类型的光盘片,是一个相当不错的光盘刻录程序,从网上下载“Nero9.0.9.4简体中文版”,安装Nero。三、从网上下载系统文件要完整无误,什么也不要动,存放到D分区。四、刻录XP系统光盘过程1、启动NeorBurningROM软件。2、设置刻录在“新编辑”窗口左窗格左上角下拉列表中选定“CD”,点击“CD-ROM(ISO),设置选项:(1)信息(2)多重区段:点选“启动多重区段”(3)ISO:数据:数据模式—选模式1文件:文件系统—选ISO9600+文件名长度—选11极大值=8+3字符字符集—选ISO9600(标准);宽带限制:勾选1、2、4选项。(4)标签:自动(5)日期:选“使用源文件的日期和时间”(6)其它:勾选“从硬盘或网络缓存文件”(7)刻录:操作:勾选“写入”写入:写入速度—16/24写入方式—光盘一次刻录刻录份数13、打开刻录文件点击“打开”按钮,打开“打开“窗口“查找范围“下拉列表中选定存放ISO文件的磁盘,从下边的列表中选定ISO文件夹,点击“打开”按钮,打开“刻录编辑”窗口。4、写入光盘在刻录编辑窗口打“刻录”标签,显示刻录进度,刻录完毕自动弹出光盘。

化学平衡移动的勒夏特列原理的深度解释

压力有分压和总压两个含义。故压力对化学平衡的影响应分为组分气体分压对化学平衡的影响和系统总压对平衡的影响两个方面来讨论。上面我们讨论的浓度对平衡的影响完全适用于分压对平衡的影响,因为由理想气体方程可导出p=cRT的变式,说明分压与浓度是成正比的,而总压对平衡是否有影响,须看反应前后气体分子的总数是否变化。为加深理解这一关系,我们可以利用分压pi与总压p的关系式——xip=pi——将分压平衡常数表达式作适当变形如下:Kp= ∏pivi= ∏(xip)vi=p∑v·∏xivi定义∏xivi≡Jx ,上式可改为:Kp= Jx·p∑v这表明:在一定温度时,若反应前后气体分子总数不变,∑vi=0,则Jx·p0=Jx=Kp ,Jx是一个常数,表明平衡不会随系统总压的改变而发生改变;若反应前后气体分子总数有变化,∑vi≠0,Jx的变化就与p∑v的变化有关:若∑vi 〉0,即反应后气体分子总数增加,总压p增大时,p∑v的值将变大,由于Jx·p∑v是一个常数,Jx就应变小;以及∑vi 〈 0,p增大以及p减小平衡移动的方向。例如,对于合成氨反应N2(g)+3H2(g)〈==〉2NH3(g),∑vi 〈 0,增大总压,平衡向右移动。下表是按方程式计量系数配比的氮气和氢气反应合成氨的体积分数受系统总压影响的热力学计算结果:总压对反应N2(g)+3H2(g)〈==〉2NH3(g)的影响(200℃,[N2]:[H2]=1:3)总压p/pΘ 10,501,003,006,001,000NH3的体积分数φ(NH3)/% 50.7 74.4 81.5 90.0 95.4 98.3 勒夏特列原理定性地概括了温度对化学平衡的影响。下面我们给出定量计算的方程。温度对化学平衡的影响主要是改变平衡常数,因为平衡常数是温度的函数,随温度变化而变化(温度变化引起气体体积的变化的效应应当归如上一小节进行讨论)。由 △rGmΘ=-RT㏑KΘ;△rGmΘ=△rHmΘ-T△rSmΘ得 -RT㏑KΘ=△rHmΘ-T△rSmΘ△rHmΘRT△rSmΘR㏑KΘ= -设T1下平衡常数为K1,T2下平衡常数为K2,且T1 〉T2,记住我们假设焓变和熵变不随温度变化而变化,我们可得到:△rSmΘ(298K)R△rHmΘ(298K)RT1㏑K1Θ≈ -△rSmΘ(298K)R△rHmΘ(298K)RT2㏑K2Θ≈ -用后式减前式即得:K2ΘK1Θ-△rHmΘ(298K)勒夏特列:RT1–T2T1T2㏑≈或K2ΘK1Θ△rHmΘ(298K)RT2–T1T1T2㏑≈此式表明,温度对平衡常数的影响与反应的焓变的正负号是有关的,对于吸热反应,反应焓为正值,温度升高,平衡常数增大,对于放热反应,反应焓为负值,温度升高,平衡常数减小。下面是两个具体反应的例子:从热力学数据表中可查获,氮气和氧气化合为NO的反应N2(g)+O2(g)〈==〉2NO(g)的焓变为180kJ/mol(298K),是一个吸热反应,温度升高,平衡常数增大:反应温度/℃ 1538 2404平衡常数 0.86×10-4 64×10-4相反,合成氨反应是一个放热反应,N2(g)+3H2(g)〈==〉2NH3(g)的焓变为-92.22 kJ/mol(298K),温度升高,平衡常数减小:T/K 473 573 673 773 873 973KΘ 4.4×10-2 4.9×10-3 1.9×10-4 1.6×10-5 2.8×10-6 4.8×10-7在讨论温度与平衡常数的关系时,常常会引起初学者的如下疑惑:由吉布斯-亥姆霍兹方程的一般式△GΘ=△HΘ-T△SΘ可见,对于放热熵增大反应,△HΘ是负值,-T△SΘ也是负值,随温度升高,T△SΘ增大,将导致反应的-△GΘ增大,这不是意味着反应向右进行的趋势增大吗?而放热反应的平衡常数随温度升高下降,这不是意味着反应向右进行的趋势减小吗?两者岂不是矛盾了吗?需知:△GΘ和KΘ各自的意义是不同的。一个反应的-△GΘ越大,表明当反应系统中各物质都处于热力学标准状态下时,平衡点是否更靠近产物一方,或者说反应是否更彻底,而后者却是KΘ的物理意义。由-△GΘ=RT㏑KΘ,当温度升高,-△GΘ、T、KΘ同时在变化,-△GΘ和KΘ的变化不一定成正相关性,由此可以看 出:放热熵增大反应,温度升高,-△GΘ变大,KΘ变小放热熵减小反应,温度升高,-△GΘ变小,KΘ变小吸热熵增大反应,温度升高,-△GΘ变大,KΘ变大吸热熵减小反应,温度升高,-△GΘ变小,KΘ变大△GΘ只能判断系统中各物质均处于标准状态时反应的方向,用它来判断一个在标态下的反应能否发生。而要判断反应物变成产物在理论上最高转化率多大,反应才会停止(达到平衡),只能用KΘ来判断

地下金属探测器一般探测的深度是多少?

1、手持金属探测器一般是1—40CM左右。(看型号,看品牌,不同地下金属探测不同)2、探盘式地下金属探测器一般是1—15M左右。(看型号,看品牌,不同地下金属探测不同)3、远程地下金属探测器是1—50M深。(看型号,看品牌,不同地下金属探测不同)4、有些商家给的地下金属探测器的参数都是夸大的了。基本都是只能达到三分之二。具体还得看型号了和品牌。地下金属探测器采用声音报警及仪表显示,探测深度跟被探金属的面积、形状、重量都有很大的关系,一般来说,面积越大,数量越多,相应的探测深度也越大;反之,面积越小,数量越少,相应的深度就越小。扩展资料:地下金属探测器原理:金属探测器利用电磁感应的原理,利用有交流电通过的线圈,产生迅速变化的磁场。这个磁场能在金属物体内部能感生涡电流。涡电流又会产生磁场,倒过来影响原来的磁场,引发探测器发出鸣声。金属探测器主要有三大类:电磁感应型,X射线检测型,微波检测型,是用于探测金属的电子仪器,可应用于多个领域。1、在军事上:金属探测器可用于探测金属地雷;2、在安全领域:可以探测随身携带或隐藏的武器与作案工具;3、在考古方面:可以探测埋藏金属物品的古墓,找到古墓中的金银财宝与首饰或其他金属制品;4、在建筑工程中:可用于探测地下金属埋设物,例如管道、管线等;在矿产勘探中,可用来检测和发现自然金颗粒;

深度无盘里如何执行NBP

深度给玩家们提供一个“深度远程启动管理器”,可以自己定义N多个自己的NBP,也内置了多个主流的NBP ; 比如 GPXE ,GRUG4DOS ,PXELINUX.0 ,dosimg( DOS98启动盘 ) 等等都支持你如果实在想改深度无盘的NBP ,可以找他们的SERVER 目录中的NBP 文件备份一下,替换文件后,重启IO 服务就可以了,因为NBP 与IO 是有通讯的,不保证可以正确执行。如果你自己想玩玩网启,建议你用“深度远程启动管理器”, 有问题可以问我。

建筑设计里,初步设计图与施工图在深度上有怎么样的区别

建筑设计中,初步设计图和施工图在深度上存在着明显的区别。初步设计图主要是为了体现建筑的整体概念和基本布局,侧重于建筑的外观形态和空间体量,同时也会考虑到建筑的功能性和用户需求等因素。而施工图则更加注重细节和技术性,包括具体的尺寸、结构细节、材料选用、施工方法等内容。在初步设计图中,设计师会更加注重建筑的整体效果和空间感受,通过对建筑的总体规划和布局进行调整来达到理想的效果。而在施工图中,则需要更加具体地考虑每一个细节问题,例如门窗的尺寸、各个楼层之间的连接方式等。在初步设计图中,设计师会更加注重建筑的外观形态和风格定位,通过对建筑立面、造型等方面进行概念性设计来达到理想效果。而在施工图中,则需要更加具体地考虑材料的选用和施工方法,确保实现初步设计图所确定的效果。在初步设计图中,考虑到时间成本等因素,往往只会涉及到建筑的基本布局和总体规划,而在施工图中则需要更加具体地考虑每一个细节问题,确保实现初步设计图所确定的效果。初步设计图和施工图在深度上存在着明显的区别。初步设计图主要侧重于建筑的概念性设计和整体效果,而施工图则更加注重细节和技术性问题。通过对这两种图纸进行合理分工和协调配合,才能最终实现建筑设计的理想效果。

深度解析:prince2与PMP哪个含金量高

 PMP全面描述了项目管理知识体系,它从理论上涵盖了项目管理技术的方方面面,是一部项目管理百科全书,同样也是项目管理沟通的“通用语言”。PMP解决的问题是“做什么”。  而PEINCE2突出说明了如何将项目管理知识结构化,并付诸应用,它强调了项目管理的时效性,是一套项目管理实践方法论。PRINCE2解决的问题是“如何做”。  将二者用一句老话来比对,更形象,“授人以鱼不如授人以渔”,其中PMP是“鱼”,是理论;而PRINCE2则是“渔”,是套路。

请问潜水艇能够悬浮于任意深度的原理

2 是潜水艇的原理

为什么抖音是单列快手是双列,深度拆解抖音与快手的区别

短视频行业在过去一年展现了极其迅猛的发展态势,在 2020 年春节期间,短视频行业在移动互联网典型行业使用时长占比达到了 17.3%,远超去年同期的 11.8%。 其中,抖音和快手的竞争是推动短视频行业发展的核心因素之一。抖音日活用户突破 4 亿,快手的日活也突破 3 亿,除了挖掘增量用户,它们之间的用户重合度早在 2019 年 5 月就达到了 46.5%。即便竞争激烈,这两个产品的本质区别依然明显。 快手的CEO宿华说,“ 是用户找到了快手,而不是快手找到了他们 。”为什么几亿老铁都选择了快手? 1、老铁们需求的本质是什么? 我们所说的“老铁”,一般指下沉市场人群。他们有三个特点。 下沉市场人群来自三线以下城市、县镇与农村地区。这群人中本科及以上学历占比不到10%。 下沉市场用户上班路途短,睡眠时间越来越晚,可支配时间更长。而且超七成用户有手机依赖症。根据腾讯企鹅智库数据显示,下沉市场人群偏好短视频和段子超过综艺和游戏。 这些用户喜欢带烟火气,有现场感,充满“人味”的视频。他们除了作为一个内容消费者以外,很多用户喜欢成为内容贡献者。 由此我们发现,他们需要更多展示、连接、赚钱的机会。 老铁们的需求总结一个词就是:被看见。 2、为什么其他平台没有满足? 每一个人都希望被看见,而在下沉市场里的人群却很少被主流媒体看见,这是为什么?让我们从中国内容平台的演进讲起。我将互联网内容平台分为三种类型。 天涯、BBS 等平台类似于纸媒,编辑觉得哪个内容好,才会给你推荐上头条。 以微博为代表的平台,以 kol、网红形成头部流量势能为主。 豆瓣、知乎等平台内容门槛高。一是对创作者自身文化水平和表达能力有一定要求,毕竟在知乎上写一个回答也需要一定的文字表达能力和某一领域的知识储备。 其次这些平台用户比较挑剔,导致内容生产门槛高。 我从中提炼出一个关键词“审美鸿沟”。 少数的精英群体,掌握了社会几乎 90%以上的声量。 中国大部分内容平台的注意力其实是由编辑决定的,背后是其审美水平的体现。社会的主流声量并没有给到看不到的世界。 换句话说,即使下沉市场的人群创作了一些内容,也没有机会露出。因为他们活在一个主流媒体看不见的世界里。 老铁们的需求是被看见,其他内容平台不能满足的原因是审美鸿沟。快手做对了什么? 1.创作便利,露出机会 在短视频生产和消费便捷这一点上抖音和快手其实都是一致的。并且两者都把人工智能技术、机器学习技术引入平台, 带来内容的精准匹配。快手不一样的地方在于,它始终在思考怎么给普通创作者多一些流量。 快手为了避免流量过于集中在头部,把经济学里的基尼系数引入社区生态调控里。这个词来自宏观经济学,是衡量一个国家或地区收入差距的一个指标。 其数值在 0-1 之间,这个指标越趋近于 1,说明该地区贫富差距特别严重,如果趋近于 0,说明贫富差距很小。 快手进行内容分发的时候,每一个策略都有基尼系数的约束性考核,避免生产者之间贫富差距过大。 另外,快手抑制极端的头部导向,确保普通作者的流量。所以它在功能设置上没有明星榜、红人榜等,对于网红达人也没有特殊的政策和扶持。头部视频的流量不超过总流量的30%。 而抖音则对于优质的意见领袖或者优质的内容给予流量扶持和自动加权。 内容适用期限是指,用户将内容上传放到平台内容池中留存时长。一段时间内会让某个内容在头部露出,过一段时间再淘汰掉,换上新内容。 快手加快了内容适用期限,不断给新内容创造机会。快手的一般内容召回期限 24-48 小时。 抖音对于内容的适用期限一般高达 90 天。而且还有精品召回策略,一个特别好的内容,甚至会给一个更长的曝光期。这就是为什么我们有时候在抖音上能够刷到去年的视频内容。 在快手的价值观里,投稿率指标是第一位的,其次才是人均视频浏览率。抖音恰恰相反,抖音非常看重人均视频浏览率。 快手更倾向于内容创作者,给予更多鼓励。抖音更多侧重内容消费者。这就决定了两家公司的调性,一个偏社区导向, 一个偏媒体导向。 快手选择让那 87%的人能够更好的表达和被关注。普惠最根本的逻辑就是每个人都值得被记录。 这样的价值观、考核指标和普惠算法带了一个结果,由于快手不断激励普通作者,带动了更多人创作作品。 2、创作者与粉丝紧密相连 仅仅给予创作者曝光是不够的。如果没有正反馈和互动,创作者就没有持续生产的动力。如果一个创作者与粉丝和社群建立连接,会不断受到激励,生产好内容。 快手如何在创作者和消费者之间建立社群连接呢? 我们常说“刷抖音”和“玩快手”,两者区别何在? 首先,对比一下两款产品的 UI 界面。当你在抖音上看完一个视频,向上滑动的时候出现的是另一个视频;而在快手上,呈现的是评论区。 作为一个日活几亿的软件,任何 UI 界面的微小设计影响都非常大。而且一家公司的第一性原理也正体现在这些细节的地方。 UI 界面设计背后传递出两家公司不同的策略意图。抖音下滑内容切换,说明抖音鼓励用户赶紧看下一个视频,最大降低获取内容的成本。刷抖音就像嗑瓜子,手停不下来。 而快手的意图是,用户看完内容不要马上走,最好在评论区 聊一聊,激励创作者和消费者建立起某种社交关系。 我们再通过快手发布视频的流程图来描述其策略背后的意图。 当在快手上发布一个视频,经过后台内容审核之后提取标签,会分别出现在关注和同城两个界面上。 一方面关注你的粉丝能够马上看到新作品,另一方面让你在同城乡里乡亲面前曝光。 如果你视频数据特别好,击穿了阈值,平台会给予更多的曝光机会。 绝大多数创作者的内容都无法走到黄线以上进一步放大势能,但这部分用户也获得了自己的社交关系沉淀,建立自己的小圈层。 任何一个人,即使我们不能站在舞台中央,但总有一束光。粉丝给予你足够的注意力,你就会持续创作下去。 互联网领域有两种社群结构,中心化和去中心化。 抖音是偏中心化的网络,集中力量干大事。快手相对平民化,流量普惠,加强老铁连接,若干个小型社交网络组成一个去中心化的网络。 这给快手带来了一个竞争优势。去中心化的网络往往是反脆弱的。如果在快手社区有一个网红离开,其实对于平台来说并没有伤筋动骨的影响。 快手的社交氛围显著强于抖音。内容评论率快手是抖音的 3倍,内容互动率快手是抖音的 2.5 倍。 内容的粉丝分发比例, 抖音是 8%-12%, 快手为 30%- 40%。抖音内容分发主要靠系统算法推荐。而快手内容更多是由喜欢我的老铁帮助分发。 3、消费者对内容宽容度高 作为一个普通人创作的平台,一般内容质量不会特别高。如果用户特别挑剔,这样创作者活不下去,一定会退出。 所以这个平台必须有一个调性,内容消费者对于内容宽容度高。无论你创作什么东西,我都能接受。这一点背后依赖算法和交互界面设计。 我们来看一个细节,抖音视频是单列陈列,一次只能看一个视频;快手是双列陈列,在主界面上能够看到好几个小视频。 打个比方,走进一家餐馆,抖音不许你点菜,我给你什么就吃什么。它的逻辑是“我懂你”,我推荐的你肯定喜欢,依靠强大的算法,抖音做到了。而快手给你一个菜单,你可以选择自己喜欢的东西。 不同是使用方式带来用户不同的宽容度。抖音模式下用户是被动的,不给用户选择的机会,用户心里宽容度低,一旦用户觉得你不理解我,就会退出。 快手的双列模式,给了用户主动选择的机会。所以他的心里宽容度相对较高。 这就导致了一个有意思的现象,我们平时总觉得快手内容比抖音“low”。其原因恰恰在于抖音用户对内容宽容度低, 倒逼抖音一定要提供确定性很高的精品内容。这也是为什么抖音内容召回期特别长的原因。 快手用户对内容宽容度高,所以快手可以在界面类别上多做一些尝试,更多真实、粗糙的内容出现在用户眼前。 有这样一种描述,抖音媒体化,快手社区化。抖音相对来说头部内容集中,适合全民性的内容,更多受到了媒体、网红、机构的喜欢。快手内容更丰富,容得下普通人的生活日常,人格化的社区氛围强。

有没有人是研究光纤激光器的,尤其是可饱和吸收体方面的调制深度怎么测量,希望能交流交流!

光源一般都是飞秒脉冲,需要衰减器,双通功率计,就按照你图画的那样来测两个输出端口的功率就好了,,测完了之后算出透过率,有一个公式,在origin中用哪个公司将数据处理拟合一下就好了。。我就是这个方向的额,太坑了,顺便问一下,你工作找哪里了~

深度麻醉中打氯化钾真的没有感觉吗?

你老公已经很认真的告诉了你,他是最让你放心的人,放心好啦。

深度解析:次氯酸钠消毒和氯气消毒的区别

次氯酸钠消毒原理:次氯酸钠液是一种非天然存在的强氧化剂。它的杀菌效力同氯气相当,属于真正高效、广谱、安全的强力灭菌、杀病毒药剂。已经广泛用于包括自来水、中水、工业循环水、游泳池水、医院污水等各种水体的消毒和防疫消杀。同其他消毒剂相比较,次氯酸钠液非常具有优势。它清澈透明,互溶于水,彻底解决了象氯气、二氧化氯、臭氧等气体消毒剂所存在的难溶于水而不易做到准确投加的技术困难,消除了液氯、二氧化氯、臭氧等药剂时常具有的跑、泄、漏、毒等安全隐患,消毒中不产生有害健康和损害环境的副反应物,也没有漂白粉使用中带来的许多沉淀物。正因为有这些特性,所以,它消毒效果好,投加准确,操作安全,使用方便,易于储存,对环境无毒害、不产生第二次污染,还可以任意环境工作状况下投加。氯气消毒原理:氯在常温下为黄绿色气体,具强烈刺激性及特殊臭味,氧化能力很强。在6、7个大气压下,可变成液态氯,体积缩小457倍。液态氯灌入钢瓶,有利于贮存和运输。除氯外,漂白粉[Ca(clO)Cl)和漂粉精][Ca(ClO)2]等也能用于消毒。含氯化合物中,氯的价数大于负一者,称为有效氯,具有杀菌作用。漂白粉含有效氯约为30%,漂粉精约含60-70%。氯消毒原理:氯溶于水后起下列反应:Cl2+H20=HCl+HClOHClO=H+ +OCL-漂白粉在水中也能水解成次氯酸,氯的杀菌作用,主要是次氯酸体积小,不荷电,易穿过细胞壁;同时,它又是一种强氧化剂,能损害细胞膜,使蛋白质、RNA和DNA等物质释出,并影响多种酶系统(主要是磷酸葡萄糖脱氢酶的巯基被氧化破坏),从而使细菌死亡。氯对病毒的作用,在于对核酸的致死性损害。上述反应是可逆反应,因而一氯胺和二氯胺的杀菌原理仍是次氯酸的作用,只是在次氯酸被消耗后,反应才向左进行;氯胺本身也有杀菌作用,但需较高的浓度和接触时间。HCIO(次氯酸)或CIO-(次氯酸根)形态的氯被称之为游离性残余氯。对细菌的杀灭能力而言在较低的PH值条件下存在的HCIO更有效。

激光测距仪可以测水的深度么?结果会不会受到影响

建议激光测距仪不要对着水面或者镜面,类镜面测量,激光测距仪的原理其实就是反射和接收这么一个过程的时间差,算出距离,如果有折射或者其他情况,基本上都是不准确的数据。通常都是间接测量,以上,供参考!

京东面试题:ElasticSearch深度分页解决方案

Elasticsearch 是一个实时的分布式搜索与分析引擎,在使用过程中,有一些典型的使用场景,比如分页、遍历等。 在使用关系型数据库中,我们被告知要注意甚至被明确禁止使用深度分页,同理,在 Elasticsearch 中,也应该尽量避免使用深度分页。 这篇文章主要介绍 Elasticsearch 中分页相关内容! 在ES中,分页查询默认返回最顶端的10条匹配hits。 如果需要分页,需要使用from和size参数。 一个基本的ES查询语句是这样的: 上面的查询表示从搜索结果中取第100条开始的10条数据。 「那么,这个查询语句在ES集群内部是怎么执行的呢?」 在ES中,搜索一般包括两个阶段,query 和 fetch 阶段,可以简单的理解,query 阶段确定要取哪些doc,fetch 阶段取出具体的 doc。 如上图所示,描述了一次搜索请求的 query 阶段:· 在上面的例子中,coordinating node 拿到 (from + size) * 6 条数据,然后合并并排序后选择前面的 from + size 条数据存到优先级队列,以便 fetch 阶段使用。 另外,各个分片返回给 coordinating node 的数据用于选出前 from + size 条数据,所以,只需要返回唯一标记 doc 的 _id 以及用于排序的 _score 即可,这样也可以保证返回的数据量足够小。 coordinating node 计算好自己的优先级队列后,query 阶段结束,进入 fetch 阶段。 query 阶段知道了要取哪些数据,但是并没有取具体的数据,这就是 fetch 阶段要做的。 上图展示了 fetch 过程: coordinating node 的优先级队列里有 from + size 个 _doc _id ,但是,在 fetch 阶段,并不需要取回所有数据,在上面的例子中,前100条数据是不需要取的,只需要取优先级队列里的第101到110条数据即可。 需要取的数据可能在不同分片,也可能在同一分片,coordinating node 使用 「multi-get」 来避免多次去同一分片取数据,从而提高性能。 「这种方式请求深度分页是有问题的:」 我们可以假设在一个有 5 个主分片的索引中搜索。当我们请求结果的第一页(结果从 1 到 10 ),每一个分片产生前 10 的结果,并且返回给 协调节点 ,协调节点对 50 个结果排序得到全部结果的前 10 个。 现在假设我们请求第 1000 页—结果从 10001 到 10010 。所有都以相同的方式工作除了每个分片不得不产生前10010个结果以外。然后协调节点对全部 50050 个结果排序最后丢弃掉这些结果中的 50040 个结果。 「对结果排序的成本随分页的深度成指数上升。」 「注意1:」 size的大小不能超过 index.max_result_window 这个参数的设置,默认为10000。 如果搜索size大于10000,需要设置 index.max_result_window 参数 「注意2:」 _doc 将在未来的版本移除,详见: Elasticsearch 的From/Size方式提供了分页的功能,同时,也有相应的限制。 举个例子,一个索引,有10亿数据,分10个 shards,然后,一个搜索请求,from=1000000,size=100,这时候,会带来严重的性能问题:CPU,内存,IO,网络带宽。 在 query 阶段,每个shards需要返回 1000100 条数据给 coordinating node,而 coordinating node 需要接收 10 * 1000 ,100 条数据,即使每条数据只有 _doc _id 和 _score ,这数据量也很大了? 「在另一方面,我们意识到,这种深度分页的请求并不合理,因为我们是很少人为的看很后面的请求的,在很多的业务场景中,都直接限制分页,比如只能看前100页。」 比如,有1千万粉丝的微信大V,要给所有粉丝群发消息,或者给某省粉丝群发,这时候就需要取得所有符合条件的粉丝,而最容易想到的就是利用 from + size 来实现,不过,这个是不现实的,这时,可以采用 Elasticsearch 提供的其他方式来实现遍历。 深度分页问题大致可以分为两类: 「下面介绍几个官方提供的深度分页方法」 我们可以把scroll理解为关系型数据库里的cursor,因此,scroll并不适合用来做实时搜索,而更适合用于后台批处理任务,比如群发。 这个分页的用法, 「不是为了实时查询数据」 ,而是为了 「一次性查询大量的数据(甚至是全部的数据」 )。 因为这个scroll相当于维护了一份当前索引段的快照信息,这个快照信息是你执行这个scroll查询时的快照。在这个查询后的任何新索引进来的数据,都不会在这个快照中查询到。 但是它相对于from和size,不是查询所有数据然后剔除不要的部分,而是记录一个读取的位置,保证下一次快速继续读取。 不考虑排序的时候,可以结合 SearchType.SCAN 使用。 scroll可以分为初始化和遍历两部,初始化时将 「所有符合搜索条件的搜索结果缓存起来(注意,这里只是缓存的doc_id,而并不是真的缓存了所有的文档数据,取数据是在fetch阶段完成的)」 ,可以想象成快照。 在遍历时,从这个快照里取数据,也就是说,在初始化后,对索引插入、删除、更新数据都不会影响遍历结果。 「基本使用」 初始化指明 index 和 type,然后,加上参数 scroll,表示暂存搜索结果的时间,其它就像一个普通的search请求一样。 会返回一个 _scroll_id , _scroll_id 用来下次取数据用。 「遍历」 这里的 scroll_id 即 上一次遍历取回的 _scroll_id 或者是初始化返回的 _scroll_id ,同样的,需要带 scroll 参数。 重复这一步骤,直到返回的数据为空,即遍历完成。 「注意,每次都要传参数 scroll,刷新搜索结果的缓存时间」 。另外, 「不需要指定 index 和 type」 。 设置scroll的时候,需要使搜索结果缓存到下一次遍历完成, 「同时,也不能太长,毕竟空间有限。」 「优缺点」 缺点: 「优点:」 适用于非实时处理大量数据的情况,比如要进行数据迁移或者索引变更之类的。 ES提供了scroll scan方式进一步提高遍历性能,但是scroll scan不支持排序,因此scroll scan适合不需要排序的场景 「基本使用」 Scroll Scan 的遍历与普通 Scroll 一样,初始化存在一点差别。 需要指明参数: 「Scroll Scan与Scroll的区别」 如果你数据量很大,用Scroll遍历数据那确实是接受不了,现在Scroll接口可以并发来进行数据遍历了。 每个Scroll请求,可以分成多个Slice请求,可以理解为切片,各Slice独立并行,比用Scroll遍历要快很多倍。 上边的示例可以单独请求两块数据,最终五块数据合并的结果与直接scroll scan相同。 其中max是分块数,id是第几块。 Search_after 是 ES 5 新引入的一种分页查询机制,其原理几乎就是和scroll一样,因此代码也几乎是一样的。 「基本使用:」 第一步: 返回出的结果信息 : 上面的请求会为每一个文档返回一个包含sort排序值的数组。 这些sort排序值可以被用于 search_after 参数里以便抓取下一页的数据。 比如,我们可以使用最后的一个文档的sort排序值,将它传递给 search_after 参数: 若我们想接着上次读取的结果进行读取下一页数据,第二次查询在第一次查询时的语句基础上添加 search_after ,并指明从哪个数据后开始读取。 「基本原理」 es维护一个实时游标,它以上一次查询的最后一条记录为游标,方便对下一页的查询,它是一个无状态的查询,因此每次查询的都是最新的数据。 由于它采用记录作为游标,因此 「SearchAfter要求doc中至少有一条全局唯一变量(每个文档具有一个唯一值的字段应该用作排序规范)」 「优缺点」 「优点:」 「缺点:」 SEARCH_AFTER 不是自由跳转到任意页面的解决方案,而是并行滚动多个查询的解决方案。 分页方式性能优点缺点场景 from + size低灵活性好,实现简单深度分页问题数据量比较小,能容忍深度分页问题 scroll中解决了深度分页问题无法反应数据的实时性(快照版本)维护成本高,需要维护一个 scroll_id海量数据的导出需要查询海量结果集的数据 search_after高性能最好不存在深度分页问题能够反映数据的实时变更实现复杂,需要有一个全局唯一的字段连续分页的实现会比较复杂,因为每一次查询都需要上次查询的结果,它不适用于大幅度跳页查询海量数据的分页 参照:https://www.elastic.co/guide/en/elasticsearch/reference/master/paginate-search-results.html#scroll-search-results 在 7.* 版本中,ES官方不再推荐使用Scroll方法来进行深分页,而是推荐使用带PIT的 search_after 来进行查询; 从 7.* 版本开始,您可以使用 SEARCH_AFTER 参数通过上一页中的一组排序值检索下一页命中。 使用 SEARCH_AFTER 需要多个具有相同查询和排序值的搜索请求。 如果这些请求之间发生刷新,则结果的顺序可能会更改,从而导致页面之间的结果不一致。 为防止出现这种情况,您可以创建一个时间点(PIT)来在搜索过程中保留当前索引状态。 在搜索请求中指定PIT: 分别分页获取 1 - 10 , 49000 - 49010 , 99000 - 99010 范围各10条数据(前提10w条),性能大致是这样: 对于向前翻页,ES中没有相应API,但是根据官方说法(https://github.com/elastic/elasticsearch/issues/29449),ES中的向前翻页问题可以通过翻转排序方式来实现即: Scroll和 search_after 原理基本相同,他们都采用了游标的方式来进行深分页。 这种方式虽然能够一定程度上解决深分页问题。但是,它们并不是深分页问题的终极解决方案,深分页问题 「必须避免!!」 。 对于Scroll,无可避免的要维护 scroll_id 和 历史 快照,并且,还必须保证 scroll_id 的存活时间,这对服务器是一个巨大的负荷。 对于 Search_After ,如果允许用户大幅度跳转页面,会导致短时间内频繁的搜索动作,这样的效率非常低下,这也会增加服务器的负荷,同时,在查询过程中,索引的增删改会导致查询数据不一致或者排序变化,造成结果不准确。 Search_After 本身就是一种业务折中方案,它不允许指定跳转到页面,而只提供下一页的功能。 Scroll默认你会在后续将所有符合条件的数据都取出来,所以,它只是搜索到了所有的符合条件的 doc_id (这也是为什么官方推荐用 doc_id 进行排序,因为本身缓存的就是 doc_id ,如果用其他字段排序会增加查询量),并将它们排序后保存在协调节点(coordinate node),但是并没有将所有数据进行fetch,而是每次scroll,读取size个文档,并返回此次读取的最后一个文档以及上下文状态,用以告知下一次需要从哪个shard的哪个文档之后开始读取。 这也是为什么官方不推荐scroll用来给用户进行实时的分页查询,而是适合于大批量的拉取数据,因为它从设计上就不是为了实时读取数据而设计的。

钻地弹深度有多深?

钻地弹最深能钻大约60m。钻地炸弹主要可以分为两种类型,一种为钻地航弹,另一种则是钻地导弹。其中钻地航弹的钻地深度根据目标工事的不同而有所差别。对于一些普通的混凝土结构,它的钻深为60m,如果是加固型的建筑,它也可以达到地下40m的深度。而钻地导弹的打击深度大约为20m。钻地弹的工作原理:钻地炸弹要想穿过地面,深入到底下,首先要能够钻进地里。通常情况下,钻地炸弹的弹头是经过了特殊的设计的,要比一般的炸弹更加尖锐,同时子弹外壳也要比攻击目标的材料更加坚固。其次,要想让钻地炸弹成功穿透地面进入地下,需要炸弹具备足够的动能。只有拥有强大的能量才能使得炸弹靠近地下的目标。另外,从物理学上分析,速度也是钻地弹发挥作用的很大一个影响因素,当两个物体高速地碰撞在一起时,才会产生巨大的破坏力。除此之外,钻地弹的研制还有一个重要的问题,那就是引信装置。普通的炸弹碰撞到地面的时候就会立即爆炸,可是钻地弹不行,它必须要等到接触到地下目标的时候,才能够爆炸。因此如何控制引信的引爆时间,不让它提前爆炸,是钻地弹的研制重点。

钻地弹的深度是多少?

钻地弹最深能钻大约60m。钻地炸弹主要可以分为两种类型,一种为钻地航弹,另一种则是钻地导弹。其中钻地航弹的钻地深度根据目标工事的不同而有所差别。对于一些普通的混凝土结构,它的钻深为60m,如果是加固型的建筑,它也可以达到地下40m的深度。而钻地导弹的打击深度大约为20m。钻地弹的工作原理:钻地炸弹要想穿过地面,深入到底下,首先要能够钻进地里。通常情况下,钻地炸弹的弹头是经过了特殊的设计的,要比一般的炸弹更加尖锐,同时子弹外壳也要比攻击目标的材料更加坚固。其次,要想让钻地炸弹成功穿透地面进入地下,需要炸弹具备足够的动能。只有拥有强大的能量才能使得炸弹靠近地下的目标。另外,从物理学上分析,速度也是钻地弹发挥作用的很大一个影响因素,当两个物体高速地碰撞在一起时,才会产生巨大的破坏力。除此之外,钻地弹的研制还有一个重要的问题,那就是引信装置。普通的炸弹碰撞到地面的时候就会立即爆炸,可是钻地弹不行,它必须要等到接触到地下目标的时候,才能够爆炸。因此如何控制引信的引爆时间,不让它提前爆炸,是钻地弹的研制重点。

《老人与海》深度解读

1.老人与男孩的亲密关系折射出老人对逝去青春的怀恋。唯一陪伴这位孤独老人的,就是男孩马诺林。老人总想带着男孩一起闯荡,在出海遇到困难时,他多次自言自语:“要是那男孩在就好了”。男孩之于老人,不仅是陪伴和慰藉,更能勾起老人对自己英勇健壮的青春的回忆。在男孩身上,他看到了生命力和希望,在他用年老的身躯与海洋抗争时,男孩成为了他的精神动力。2.文中多次提到非洲的狮子,狮子象征着老人勇敢、无畏的精神。老人非常喜欢狮子,他年轻时在非洲见过狮子,年老后在梦里也经常梦到它们出现在海滩上。狮子是勇猛的百兽之王,而老人对狮子的喜爱,更多的是因为他喜欢狮子的品格。这就从侧面反映出老人具有不被困难打垮的坚强意志,从而让我们理解了他为什么会屡遭厄运还永不言败,凭借单薄的力量执着地与大鱼和鲨鱼决一死战。3.对那条大鱼,老人的情感是复杂的,既想杀死它,又由衷地赞美它。本书的很大篇幅都在描写老人与大鱼周旋的情况。精彩的博弈是势均力敌的,这条鱼绝不仅仅是可以卖个好价钱的商品。老人是不屈不挠的英雄,他遇到的这条鱼也是如此。老人多次对鱼表达了歉意和赞赏,但他毕竟是渔夫,他要捍卫自己的尊严,完成自己的使命,不得不结束鱼的生命。鱼所具有的力量和顽强抗争让老人在伤痕累累的情况下激发了无限的潜能和爆发的意志,可以说,他们彼此成全了对方。这真是一本跌宕起伏的作品,处处紧扣人心。除了老人与大海的博弈,还有哪些你所不知道的故事呢?1. 老人的原型是格雷戈里奥·富恩斯特。他在年轻时移民古巴,成为一名渔民。1930年,海明威经历了一场海难,正是富恩斯特搭救并转移了船上的人。海明威很欣赏他作为一名渔民的经验和他的为人,他们成了无话不谈的好朋友。富恩斯特曾陪同海明威在加勒比海追猎纳粹潜艇,还与他一起出海捕鱼或探险,他们之间的友谊持续了30多年。1961年,海明威自杀后,这位老人便不再出海。2002年1月13日,104岁高龄的富恩斯特与世长辞。2.本书带有浓厚的宗教意味,海明威有意识地把老人比作基督的化身。为什么这样说呢?原来,老人的名字“圣地亚哥”其实是“圣雅各”的西班牙语拼法,“圣雅各”是耶稣四门徒之一,也是一名渔夫。老人把钓索背在背上,喻指耶稣扛着十字架;最后,老人回到家躺在床上的姿势,是两臂笔直、手掌向上的,与基督受难的姿势十分相似。在《旧约》中,人类因为原罪而受到上帝的惩罚,但耶稣基督经受住了苦难的考验,最终得到救赎。而小说同样表达了这种基督精神——老人许久都没有捕到鱼,遭受着无常的命运带来的打击和失意,但他依然直面这一切,毫不退缩,最后完成了作为一名渔夫的“自我救赎”。3.海明威本人认为,《老人与海》是自己“这一辈子所能写的最好的一部作品”。这部作品的写作运用了“冰山原理”。什么是“冰山原理”呢?“冰山原理”是海明威于1932年在他的纪实性作品《午后之死》中提出来的,他把文学创作比作浮在大洋上的冰山,认为:“冰山运动之雄伟壮观,是因为它只有八分之一在水面上。”同样的道理,文学写作也应该以客观叙事为主,不添加过多的枝节和形容,让人在质朴的语言下挖掘和感受深刻的内涵。

梯级压滤深度脱水机的工作原理是什么?为什么能实现污泥的二次深度脱水,将污泥含水率降至50%以下?

这个工作原理就是在进料结束后,对污泥进行二次挤压,就相当于吹气球一样把滤板吹开,然后是污泥滤板滤板之间的空隙再次的变小而挤压污泥使污泥的水分再次被挤出,这样就会更有效的降低含水率。

深度学习要学哪些?

至少要学Python语言。

深度学习是学什么内容?

深度学习是学很多内容,比如说数学就会学习数学的运算单位呀什么的什么的。

深度学习和机器学习的区别是什么

《智能问答与深度学习》ChatoperaCEO王海良著,对学习智能问答的朋友很有用!强烈推荐!
 1 2 3 4 5  下一页  尾页