barriers / 阅读 / 详情

attention 可数吗?

2023-07-23 06:11:10
共4条回复
南yi

不可数

S笔记

作名词 命令时可数,是attentions

nicehost

不可数,有短语pay attention

cloudcone

有抽象含义,是不可数名词

相关推荐

ATTENTION是什么意思

(请)注意
2023-07-22 22:19:424

attention(lnitialized)翻译

  attention英 [u0259u02c8tenu0283n] 美 [u0259u02c8tu025bnu0283u0259n]  n.注意,注意力; 照料,关怀; 殷勤;  int.[口令] 立正;  [网络]注意; 注意力; 引起注意;  [例句]You have my undivided attention.  我专心听你所讲。  [其他]复数:attentions 形近词: distention retention detention  ---  initialized英 [u026a"nu026au0283lau026azd] 美 [u026a"nu026au0283lau026azd]  [词典]已初始化的;  [网络]初始化; 初始化的; 初始化状态;  [例句]A is initialized with a tuple containing a and a_paras list.  用包含和paras列表的元组进行了初始化。  [其他]形近词: spatialized initialisms bestialized
2023-07-22 22:20:271

attention用法归纳分点回答

attention. n. 注意力;关心;立正!(口令) 复数 attentions. 例句:My shoes caught his attention. 我的鞋子引起了他的注意。 扩展资料   attention的用法:   使用名词attention的三点注意:   1、表示“注意”“专心”等,是不可数名词,因此不能与不定冠词连用,也没有复数形式。如:   Pay great attention to these points. 要特别注意这几点。   He talked loudly, but no one paid him any attention. 他大声说话,但没有听他。   2、在 pay attention to, give attention to, bring attention to 等结构中的" to 是介词,所以若接动词,应用动名词。如:   We should pay more attention to uniting and working with   the comrades who differ with us. 我们应该更注意团结那些与自己意见不同的同志工作。   He gives all his attention to making money. 他的注意力完全集中在赚钱上。   3、口语常用句:   May [Could] I have your attention, please? 请各位注意。   Attention, please. 请注意   Thank you for your attention. 谢谢。(发言或演讲结束时用)
2023-07-22 22:20:341

attention读音

attention是一个名词,意思是注意力、关心、口令立正,attention这个单词可以划分为几个音节呢?我们一起来看一看,这个单词一共可以划分为三个音节【at】【ten】和【tion】,第一个音节at的发音为【?】,而第二个音节ten的发音为【ten】,而第三个音节tion的发音为【?n】,合在一起的话这个单词的发音就是【??ten?n】,我们再看一下用法,attention作为注意力、关心、立正的意思来使用;例如在下面这两个句子里,I couldn"t give the programme,my undivided attention . 我不能一心一意地关注这个方案,If we don"t keep bringing,this to the attention of the people,nothing will be done.如果我们无法让公众保持对此事的关注,那就将一事无成,在这两个句子中,attention都指的是注意力,attention还有一个短语,pay more attention to,指的是更加注意,These tours may awaken people,to pay more attention to long standing poverty,or the effects of war. 这些旅行可能会唤醒人们,来更多地关注长期的贫困或战争的影响,attention这个单词你学会了吗?
2023-07-22 22:20:411

attention的相关语法

pay attention to注意某事 pay attention 专心;集中注意力 pay more attention to更加注意 pay close attention to 密切注意 be paid attention to 关心 give one"s attention to v.注意 注:这里的to 是介词,后面只能加名词或者动词的现在分词形式.attention的具体含义:attention [u0259"tenu0283u0259n] n. 1. 专心;留心;注意;精神集中 专注;注目 2.注意力 3.关心;照料;考虑;思考;特殊处理 4. 关怀,体贴(别人) 礼貌,客气 [通常用于复数] 款待;热心;(尤指求爱时表现的)殷勤 5.【军事】 立正姿势 立正口令 6.检修,修理 7.【心理学】注意 8.【计算机】注意,留心(来自外部的处理要求) interj. 1.(口令)立正! 2.(有要事当众宣布时说)注意!
2023-07-22 22:21:061

attention歌词

attention歌词如下:You"ve been runnin" "round runnin" "round runnin" "round,Throwin" that dirt all on my name你总在四处兜圈到处撒野,还把所有污名都扣我头上"Cause you knew that I knew that I knew that I"d,Call you up因为你我都知道这样的话,我就会给你来电You"ve been going "round going "round going "round,Every party in LA你总是混迹在混迹在混迹在,洛杉矶的各个派对"Cause you knew that I knew that I knew that I"d,Be at one oh因为你我都明了我也会,同时出现I know that dress is karma perfume regret,You got me thinking "bout when you were mine那身衣服是祸之源头而香水引来罪恶歉疚,你总让我不断想起那些你属于我的时候And now I"m all up on ya what you expect,But you"re not coming home with me tonight而现在我亦是悉听尊便随你所愿,反正今晚你也不愿意跟我回家You just want attention you don"t want my heart,Maybe you just hate the thought of me with someone new你只是想引人注意并不是真想俘获我心,你只是不愿去想到我和别人会在一起Yeah you just want attention,I knew from the start你只是想引起我的注意,从一开始我便心知肚明You"re just making sure,I"m never gettin" over you你只是想确信,我还是依然忘不掉你扩展资料attention的相关明细这首歌曲由美国男歌手Charlie Puth所演唱,发行于2017年4月21日,收录于Charlie Puth2018年5月11日发行的录音室专辑《Voicenotes》中。这首歌曲的歌词写得很好,入心入肺,触动情怀。 歌词旨在表达从开始到结束,感受到爱情本身的无可奈何,那是苍凉而美丽的,在命运面前如此渺小的自己别无选择。
2023-07-22 22:21:131

电脑开机出现attention字样是什么故障

电脑开机出现attention no video input 是说没有视频信号输入。attention entering sleep mode是说进入睡眠模式,意味着电脑没有正常运转。  可尝试将电脑主机侧盖打开,开启电脑电源的同时,观察散热风扇是否转动,再检查各部件是否接触不良,最好是将显卡,内存条等拔下再重新插上,检查的同时将机箱内部进行灰尘清理。  1:检查显示器数据连接线和主机的连接线,看看是否有错;  2:检查主机各插槽的硬件(如显卡、硬盘等)并重新拔插 ,显卡为重点检查对象;  3:如果以上都检查后没有问题的话,那么就应该是显示器出了问题。
2023-07-22 22:21:291

Attention(注意力)机制

Attention(注意力)机制其实来源于人类的认识认知能力。比如当人们观察一个场景或处理一件事情时,人们往往会关注场景的显著性物体,处理事情时则希望抓住主要矛盾。注意力机制使得人类能够关注事物的重要部分,忽略次要部分,更高效的处理所面临的各种事情。 注意力机制在NLP领域被真正的发扬光大,其具有参数少、速度快、效果好的特点,如2018年的BERT、GPT 领跑各项 NLP 任务效果。由此在此领域,transformer和attention结构受到了极大的重视。第二步:使用权重对Value进行加权求和从而得到Attention Value。 注意力是一种机制,或者方法论,并没有严格的数学定义。比如,传统的局部图像特征提取、显著性检测、滑动窗口方法等都可以看作一种注意力机制。在神经网络中,注意力模块通常是一个额外的神经网络,能够硬性选择输入的某些部分,或者给输入的不同部分分配不同的权重。 根据权重在特征空间和通道上的应用方式不同,主要可分为其增加了一个通道注意力模块,学习每个通道的权重,通过抑制无关特征提升卷积特征的表示性能。SENet通过Squeeze模块和Exciation模块实现所述功能,首先通过Squeeze模块对卷积特征进行进行压缩,即在通道维度上执行全局池化操作,在SENet中采用的是全局平均池化,作者提到该操作能够使得靠近数据输入的特征也可以具有全局感受野,这一点在很多的任务中是非常有用的。然后是通过全连接网络进行Exciation操作,作者在全连接网络中降维操作的目的是一方面降低了网络计算量,一方面增加了网络的非线性能力。最后将得到通道attention应用到原始卷积特征上,即通过乘法加权的方式乘到先前的特征上,从而提升重要特征,抑制不重要特征。从图中可以看出,首先将输入张量进行降维到C通道,与SENet不同的是采用二阶pool的方式,计算得到C*C的协方差矩阵,这种计算方式引入了通道之间的相互关系,然后进行线性卷积和非线性激活的两个连续运算,得到通道注意力。除此之外,还有很多的注意力机制相关的研究,比如残差注意力机制,多尺度注意力机制,递归注意力机制等。
2023-07-22 22:22:251

attention的短语

  attention表注意,注意力; 照料,关怀的意思,那么你知道attention的 短语 有哪些吗?接下来我为大家整理了attention的短语搭配,希望对你有帮助哦!   attention的短语:   动词+~   attract sb"s attention 引起某人注意   bring to sb"s attention 引起某人的注意   call attention 注意某事   catch sb"s attention 引起某人注意   demand attention 要求注意,需要注意   devote one"s attention to 专心   形容词+~   close attention 密切注意   entire attention 全神贯注   further attention 进一步的注意   great attention 特别注意,极大关注   immediate attention 立即注意   international attention 国际上的关注   介词+~   with attention 专心,注意地   ~+介词   attention of the general public 公众的注意   attention to 对u2026的注意   attention的短语例句:   1. No detail was too small to escape her attention.   再小的细节都逃不过她的眼睛。   2. He was waving his arms to draw their attention.   他正挥手以引起他们的注意。   3. You may feel unworthy of the attention and help people offer you.   你可能会觉得自己不值得别人关心和帮助。   4. She stood preening in their midst, delighted with the attention.   她得意洋洋地站在他们中间,为受人瞩目而高兴。   5. Fix your attention on the practicalities of financing your schemes.   重点考虑为你的计划融资是否可行。   6. The painting had been executed with meticulous attention to detail.   画这幅画的时候,画家非常注意细节。   7. As the era wore on, she switched her attention to films.   随着这个时代慢慢过去,她把目光投向了电影业。   8. While this conver-sation was going on, I was listening with earnest attention.   这场对话进行的时候,我聚精会神地听着。   9. The learner"s attention needs to be directed to the significant features.   需要将学习者的注意力引向那些着重点上。   10. Outside each door a guard sprang to attention as they approached.   当他们走近时,每扇门外都有一名卫兵肃身立正。   11. Any dog bite, no matter how small, needs immediate medical attention.   被狗咬后,不管伤口多小,都必须立即就医。   12. He had unmistakably been waving his flag to attract the referee"s attention.   他显然一直在挥舞旗子吸引主裁判的注意。   13. He felt a heavy bump, but paid no attention to it.   他觉得起了个大包,但是没有理会。   14. You can propagandize just by calling attention to something.   你只要通过唤起人们对某事的注意就能起到宣传的作用。   15. They never learned skills to engage the attention of the others.   他们从未学过吸引他人注意的技巧。
2023-07-22 22:22:331

电脑开机黑屏他弹出ATTENTION

1)先软后硬,重新安装操作系统,不要安装软件、补丁、驱动等,看看开机还有问题吗?如果没有在逐步的安装驱动、补丁、软件,找出不合适的东西就不要安装了。请注意:如果还原系统或重装后,安装驱动、补丁、软件等东西时,一定要将影响你这次出事的东西不要在安装上去了,否则就白还原或重装了。2)如果是硬件问题引起的,建议检修一下去。3)另外就是与您关机前的不当操作有关系吧?比如:玩游戏、看视频、操作大的东西、使用电脑时间长造成的卡引起的吧?或下载了不合适的东西,故障不会无缘无故的发生吧?如果是这个问题引起的,反复开关机试试,放一段时间试试,确实不可以就重装系统吧,如果自己重装不了,花30元到维修那里找维修的人帮助您。只要注意自己的电脑不卡机、蓝屏、突然关机,开机就不会这样了。有问题请您追问我。
2023-07-22 22:22:401

attention怎么读

attention一词读作[u0259"tenu0283(u0259)n],其中重音在第二个音节上,即ten这个音节。attention是一个英文单词,代表关注、注意、重视等含义,这个词在日常生活中被广泛使用,可以用来形容人们的行为,也可以用来描述物理学上的现象,除此之外,attention还经常会在科技、医学、心理学等领域被提及。近年来,在人工智能领域中,attention机制被广泛应用于各种自然语言处理任务,通过attention机制,计算机可以更加准确地理解人类语言的语境,提高基于自然语言的任务效果,比如,在机器翻译中,通过attention机制,可以更好地实现语句之间的对应。认知神经科学研究了人类大脑处理信息的机制,其中注意力就是重要的研究对象之一,许多研究表明,attention在大脑中由多个区域共同参与,并且受到多种因素的影响,通过深入研究attention的机制,认知神经科学可以为人类理解人类思维和行为提供更深刻的认识。attention在医学和心理学领域中也有着广泛的应用,比如注意力缺陷多动症就是一种与注意力相关的神经发展障碍,通过治疗和训练,可以提高患者对于不同信息来源的注意力集中程度,此外,attention还在一些认知行为治疗方法中被广泛使用,有效帮助了很多患者缓解了症状。综上所述,attention一词读作[u0259"tenu0283(u0259)n],在日常生活中以及科技、医学、心理学等领域都有着广泛的应用。无论是在人工智能、认知神经科学还是医学领域,attention都扮演着重要的角色。
2023-07-22 22:23:091

attention是否可数

单数
2023-07-22 22:23:363

attention怎么读

attention 英[u0259u02c8tenu0283n] 美[u0259u02c8tu025bnu0283u0259n] n. 注意,注意力;照料,关怀;殷勤 int. [口令]立正 名词复数:attentions [例句]These plates always need attention.这些盘子总是需要注意力。
2023-07-22 22:23:521

“attention”怎么造句?

Pay attention please 它的英解是:The act of watching,listening or concentrating(单词解释)
2023-07-22 22:24:091

attention英语怎么读 英语单词attention的读法

1、attention英[u0259u02c8tenu0283n]美[u0259u02c8tenu0283n],n.注意; 专心; 留心; 注意力; 兴趣; 关注; 殷勤; 关心;int.注意; 立正。 2、[例句]There are three main issues that we need to direct our attention to.我们需要注意的主要有三个问题。
2023-07-22 22:24:291

attention是什么意思

注意。一般集合的时候会用这个词。
2023-07-22 22:24:541

Attention是啥意思了

注意事项
2023-07-22 22:25:044

attention是什么意思

attention意思是:注意了[英][u0259u02c8tenu0283n][美][u0259u02c8tu025bnu0283u0259n]以下双语例句:1.The three rulings require careful attention. 这三项裁定要求我们予以慎重关注。2.We pay attention to every detail. 我们关注每一个细节。3.But he gets their attention. 但他总能引起人们的关注。4.These plates always need attention. 这些盘子总是需要注意力。5.Many dogs interpret any attention as good attention. 许多狗都会把注意当做好事。
2023-07-22 22:25:561

attention可数吗

attention不可数。attention作“注意”解时,是不可数名词;作“殷勤”解时,常用复数形式。如:We should pay attention to current affairs.Never mind about me.Please pay attentions to the ladies.双语例句:1、You have my undivided attention.我专心听你所讲。2、Volume Two,subtitled"The Lawyers",will also attract considerable attention.副标题为“律师”的第二册也将获得广泛关注。3、Each year more than two million household injuries need medical attention.每年有超过200万起家中受伤事件需要医疗处理。使用名词attention的三点注意:1、表示“注意”“专心”等,是不可数名词,因此不能与不定冠词连用,也没有复数形式。如:Pay great attention to these points.要特别注意这几点。2、在pay attention to,give attention to,bring attention to等结构中的to是介词,所以若接动词,应用动名词。如:We should pay more attention to uniting and working with.
2023-07-22 22:26:531

Attention是什么意思,怎么读?

attention常见释义注意英:[əˈtenʃn]美:[əˈtenʃn]n.注意; 专心; 留心; 注意力; 兴趣; 关注; 殷勤; 关心; int.注意; 立正; 例句:He pulled my sleeve, attracted my attention in this way.他扯了扯我的衣袖以引起我的注意。词组:attention to detail对细节的注意careful/close/undivided attention谨慎/密切/全心的关注special attention特别关注;特殊照顾复数:attentions
2023-07-22 22:28:141

attention意思

attention意思为: 注意;留心;专注;关心;注意;关注;照料;照顾;保养;特别的关照;殷勤;立正。一、双语例句1、Kurita"s attention narrowed to saving himself .栗田只顾到自己逃命。2、This would claim a good deal of your attention .这件事您多分心了。3、Pay no attention to the arguments between us .别在乎我们之间的争论。4、He escaped attention by being silent .他不声不响以躲避别人的注意。5、A newspaper headline caught his attention .报纸的大标题引起他的注意。6、It"s difficult to find attention in a sentence.用attention造句挺难的。
2023-07-22 22:28:211

attention的讲解

attention是一个名词,意思是注意力、关心、口令立正,attention这个单词可以划分为几个音节呢?我们一起来看一看,这个单词一共可以划分为三个音节【at】【ten】和【tion】,第一个音节at的发音为【u0259】,而第二个音节ten的发音为【ten】,而第三个音节tion的发音为【u0283n】,合在一起的话这个单词的发音就是【u0259u02c8tenu0283n】,我们再看一下用法,attention作为注意力、关心、立正的意思来使用;例如在下面这两个句子里,I couldn"t give the programme,my undivided attention . 我不能一心一意地关注这个方案,If we don"t keep bringing,this to the attention of the people,nothing will be done.如果我们无法让公众保持对此事的关注,那就将一事无成,在这两个句子中,attention都指的是注意力,attention还有一个短语,pay more attention to,指的是更加注意,These tours may awaken people,to pay more attention to long standing poverty,or the effects of war. 这些旅行可能会唤醒人们,来更多地关注长期的贫困或战争的影响,attention这个单词你学会了吗?
2023-07-22 22:28:401

attention是什么意思

n. 注意,(口令)立正!词形变化: 形容词:atten-tional 例句与用法: 1. She soon becomes the centre of attention. 她很快成为大家注意的人物。 2. You must pay attention to your teacher in the class. 上课的时候必须专心听老师讲课。 3. He waved his hand to catch my attention. 他挥手以吸引我的注意力。 4. May I have your attention please? 请大家注意一下。 5. You should focus your attention on your work. 你应该把注意力放到工作上。 英英解释: 名词attention:1. the process whereby a person concentrates on some features of the environment to the (relative) exclusion of others同义词:attending2. the work of providing treatment for or attending to someone or something同义词:care, aid, tending3. a general interest that leads people to want to know more4. a courteous act indicating affection5. the faculty or power of mental concentration6. a motionless erect stance with arms at the sides and feet together; assumed by military personnel during drill or review
2023-07-22 22:29:072

ATTENTION怎么办

电脑开机出现attention no video input 是说没有视频信号输入。attention entering sleep mode是说进入睡眠模式,意味着电脑没有正常运转。可尝试将电脑主机侧盖打开,开启电脑电源的同时,观察散热风扇是否转动,再检查各部件是否接触不良,最好是将显卡,内存条等拔下再重新插上,检查的同时将机箱内部进行灰尘清理。1:检查显示器数据连接线和主机的连接线,看看是否有错;2:检查主机各插槽的硬件(如显卡、硬盘等)并重新拔插 ,显卡为重点检查对象;3:如果以上都检查后没有问题的话,那么就应该是显示器出了问题。
2023-07-22 22:29:361

attention的用法和搭配

1.bringsthtoonesattention使某人注意某事。 2.callonesattentiontosth提醒某人注意。 3.draw[catch,attract]onesattention引起某人的注意。 4. fix one"s attention on sth 集中注意力于某事物 5. pay attention to 注意。 扩展资料   例句:I brought this to his attention. 我使他注意到了这一点。   He called our attention to what he said. 他提醒我们注意他说的话。   I kept trying to attract the waiter"s attention. 我不断地示意招呼服务员。   He fixed his attention on writing. 他专心写作。
2023-07-22 22:29:441

attention用法归纳高中

attention. n.注意; 专心; 留心; 注意力; 兴趣; 关注; 殷勤; 关心; int.注意; 立正; 例句:There are three main issues that we need to direct our attention to. 我们需要注意的主要有三个问题。 复数:attentions. 扩展资料   attention的`用法:   使用名词attention的三点注意   1、表示“注意”“专心”等,是不可数名词,因此不能与不定冠词连用,也没有复数形式。如:   Pay great attention to these points. 要特别注意这几点。   He talked loudly, but no one paid him any attention. 他大声说话,但没有听他。   2、在 pay attention to, give attention to, bring attention to 等结构中的 to 是介词,所以若接动词,应用动名词。如:   We should pay more attention to uniting and working with   the comrades who differ with us. 我们应该更注意团结那些与自己意见不同的同志工作。   He gives all his attention to making money. 他的注意力完全集中在赚钱上。   3、口语常用句:   May [Could] I have your attention, please? 请各位注意。   Attention, please. 请注意   Thank you for your attention. 谢谢。(发言或演讲结束时用)
2023-07-22 22:29:511

attention的英文怎么读

attention的读音是[u0259u02c8tenu0283n]。attention的释义:Attention是名词,意思是关注、注意、关心、照料、立正、注意力、殷勤。Attention的短语搭配:pay attention to注意、重视、关注。catch attention引发关注、引起注意。attract attention吸引注意力、吸引关注、引起注意。pay special attention to特别注意、特别关注。attract one"s attention吸引注意力、吸引关注、引起注意。call attention to引起人们注意。draw one"s attention to引起某人的注意。pat attention to注意、关注。catch one"s attention引起某人注意。draw one"s attention引起某人注意。distract attention分散注意力。the centre of attention注意力的焦点、众人瞩目的人。attention的双语例句:1、And his performance on the court caused excitement and got much attention.他在球场上的表现引起了人们的兴奋和关注。2、Pay close attention to children"s safety.要密切注意儿童的安全。3、Drawing public attention to plastic waste.引起公众对塑料垃圾的关注。4、Pay attention to their possible consequences.注意它们可能产生的后果。5、These problems are drawing growing public attention.这些问题正引起公众越来越多的关注。
2023-07-22 22:30:331

attention怎么读

attention[英][u0259u02c8tenu0283n] [美][u0259u02c8tu025bnu0283u0259n] 生词本简明释义n.注意,注意力;照料,关怀;殷勤int.[口令]立正复数:attentions以下结果由 金山词霸 提供柯林斯高阶英汉词典 百科释义 同反义词1.N-UNCOUNT注意;留心;专注If you give someone or something your attention, you look at it, listen to it, or think about it carefully. You have my undivided attention...我专心听你所讲。Later he turned his attention to the desperate state of housing in the province.其后,他将注意力转向了该省形势严峻的住房问题。
2023-07-22 22:32:091

attention歌词

attention歌词如下:You"ve been runnin" "round runnin" "round runnin" "round,Throwin" that dirt all on my name。你总在四处兜圈到处撒野,还把所有污名都扣我头上。Cause you knew that I knew that I knew that I"d,Call you up。因为你我都知道这样的话,我就会给你来电。You"ve been going "round going "round going "round,Every party in LA。你总是混迹在混迹在混迹在,洛杉矶的各个派对。"Cause you knew that I knew that I knew that I"d,Be at one oh。因为你我都明了我也会,同时出现。I know that dress is karma perfume regret,You got me thinking "bout when you were mine。那身衣服是祸之源头而香水引来罪恶歉疚,你总让我不断想起那些你属于我的时候。And now I"m all up on ya what you expect,But you"re not coming home with me tonight。而现在我亦是悉听尊便随你所愿,反正今晚你也不愿意跟我回家。You just want attention you don"t want my heart,Maybe you just hate the thought of me with someone new。你只是想引人注意并不是真想俘获我心,你只是不愿去想到我和别人会在一起。Yeah you just want attention,I knew from the start。你只是想引起我的注意,从一开始我便心知肚明。You"re just making sure,I"m never gettin" over you。你只是想确信,我还是依然忘不掉你。attention的相关明细:这首歌曲由美国男歌手Charlie Puth所演唱,发行于2017年4月21日,收录于Charlie Puth2018年5月11日发行的录音室专辑《Voicenotes》中。这首歌曲的歌词写得很好,入心入肺,触动情怀。 歌词旨在表达从开始到结束,感受到爱情本身的无可奈何,那是苍凉而美丽的,在命运面前如此渺小的自己别无选择。
2023-07-22 22:32:171

attention短语

attention的短语如下:动词:attract sb"s attention 引起某人注意,bring to sb"s attention 引起某人的注意call attention 注意某事,catch sb"s attention 引起某人注意demand attention 要求注意,需要注意,devote one"s attention to 专心形容词:close attention 密切注意,entire attention 全神贯注further attention 进一步的注意,great attention 特别注意,极大关注immediate attention 立即注意,international attention 国际上的关注介词:with attention 专心,注意地,attention of the general public 公众的注意,attention to 对…的注意
2023-07-22 22:32:431

attention可数吗

attention作“注意”解时,是不可数名词;作“殷勤”解时,常用复数形式。复数是:attentions. 扩展资料   例句:   The headlines commanded her attention.   那些标题引起了她的注意。   I finally managed to get her attention.   我终于设法引起了她的注意。   An unusual noise arrested his attention.   一阵不寻常的嘈杂声引起了他的.注意。   Small children have a short attention span.   幼儿注意力持续时间短。   The story has attracted worldwide attention.   这件事已经引起了全世界的关注。
2023-07-22 22:33:061

attention的相关语法

pay attention to注意某事 pay attention 专心;集中注意力 pay more attention to更加注意 pay close attention to 密切注意 be paid attention to 关心 give one"s attention to v.注意 注:这里的to 是介词,后面只能加名词或者动词的现在分词形式.attention的具体含义:attention [u0259"tenu0283u0259n] n. 1. 专心;留心;注意;精神集中 专注;注目 2.注意力 3.关心;照料;考虑;思考;特殊处理 4. 关怀,体贴(别人) 礼貌,客气 [通常用于复数] 款待;热心;(尤指求爱时表现的)殷勤 5.【军事】 立正姿势 立正口令 6.检修,修理 7.【心理学】注意 8.【计算机】注意,留心(来自外部的处理要求) interj. 1.(口令)立正! 2.(有要事当众宣布时说)注意!
2023-07-22 22:34:071

attention和warning的区别

意思,语气。1、意思。attention有“注意”的意思,warning有“警告”的意思。2、语气。attention的语气平和,warning的语气较重,有苛责的语气。
2023-07-22 22:34:151

attention的动词形式

attention动词形式是attend。attend的意思是出席,参加,经常去,定期去(某处),注意,专心。attend的例句:Thousands of people attended the funeral(数千人参加了葬礼)。 扩展资料 attend的"例句:The meeting will be attended by finance ministers from many countries(很多国家的财政部长将出席会议);The staff will helpfully attend to your needs(工作人员会帮忙满足您的需求)。
2023-07-22 22:34:211

Attention

The second step in calculating self-attention is to calculate a score. Say we"re calculating the self-attention for the first word in this example, “Thinking”. We need to score each word of the input sentence against this word. The score determines how much focus to place on other parts of the input sentence as we encode a word at a certain position. The score is calculated by taking the dot product of the query vector with the key vector of the respective word we"re scoring. So if we"re processing the self-attention for the word in position #1, the first score would be the dot product of q1 and k1. The second score would be the dot product of q1 and k2 两种: soft attention :思是在求注意力分配概率分布的时候,对于输入句子 X中任意一个单词都给出个概率,是个概率分布。 hard attention: 对不齐的概率认为是0 global attention model : soft attention model local attention model : soft attention model & hard attention model 有多个类别的mask,反向传播只优化当前类别对应的mask. 不传递谁的损失函数,不更新谁的梯度。 每个注意力模块分为两部分:mask (M)和trunk(T),基于特征提取网络提取特征T, H_i,cu200b (x)=M_i,cu200b (x)u2217T_i,cu200b (x) 注意力模块中,注意力掩膜在forward时作为特征选择器,在反向传播时则作为梯度更新的滤波器。 由于注意力用到了softmax 网络,如果太多的注意力模型会导致模型输出的响应变弱,可能对梯度也会产生一定的影响。 所以用残差的注意力: H_i,cu200b (x)=(1+M_i,cu200b (x))u2217T_i,cu200b (x) 一般M的取值范围在[01,]之间,除了得到注意力之外还要把特征图加上。掩膜分支包括了快速前馈扫描(fast feed-forward sweep)和自上而下的反馈(top-down feedback)步骤。前者快速收集整个图像的全局信息,后者将全局信息与原始特征图相结合。在卷积神经网络中,这两个步骤展开为bottom-up top-down的全卷积结构。 先对原图下采样,得到主要特征后,在上采样使大小与原图一样,然后通过sigmoid 。 使用L2正则化约束每个位置上的所有通道,推测最终输出一个空间维度一致的Attention Map; 类似于SENet使用L2正则化约束每一个通道上的所有特征值,最后输出长度与通道数相同的一维向量作为特征加权;这个和公式里描述的是一样吗? 对通道和空间位置都是用 学习权重分布 通过1x1卷积产生注意力?这不是我常见的,我的疑惑就在这里。他既不是通道注意力,也不是空间注意力。
2023-07-22 22:34:291

attention是什么词性

n.名词注意, 关心, 关注
2023-07-22 22:35:483

attention的词性

是名词,表示:注意,留意,关心。祝你学习进步,更上一层楼!(*^__^*) 有不会的可以再问我:)
2023-07-22 22:35:572

attention是什么梗

attention的意思:注意;注意力;照料;兴趣;立正;殷勤,关心。短语pay attention to 注意 ;留心 ;注意到attention span [心理] 注意广度ATTENTION ASSIST 注意力警示系统Attention Economy 注意力经济 ;留意力经济Pay Attention 注意对手 ;注意 ;关注
2023-07-22 22:36:031

attention释义为注意力的时候 复数形式怎么表达

attention, attentions  attention作“注意”解时,是不可数名词;作“殷勤”解时,常用复数形式。如:  We should pay attention to current affairs.  Never mind about me. Please pay attentions to the ladies.
2023-07-22 22:36:241

attention谐音记忆

attention谐音记忆方法如下attention注意at挨踢谐音,ten单词十,tion神谐音联想:挨踢的十次要注意,神要降临了traffic交通tr突然拼音首字母,a单词一,ff像两根拐杖,ic IC卡联想:交通突然乱了,一张拄着两根拐杖的IC卡被撞traffic lights交通信号灯traffc单词交通,lights单词灯复数联想:交通的灯称为交通信号灯这样记单词简单很多。词性拓展记忆/词形拓展记忆原形:attention 复数:attentions词根记忆/词缀记忆attention n 注意力(at+tent+ion=伸展出去[听别人讲]=注意力 tend tent, tens =stretch,表示”伸展”attend v出席.看护(at加强动作+tend=伸展出去=出席attendant a 出席 ...……单词例句I want you to pay more attention to your writing我希望你注意一下自己的书写Your application will have attention。你的申请会得到考虑。Pay more attention to the effectiveness of their treatments.多注意他们治疗的效果。
2023-07-22 22:36:321

Attention机制总结

感兴趣区域ROI和定位机制。 每一步只关注特定小区域,抽取区域表征信息,再整合到之前的步骤所积累的信息中。 Soft attention: 以概率进行加权输入到下一层; Hard attention: 选取一个输入到下一层。 策略梯度的强化学习技术 使得训练定位小框位置变得可能,在每次探索中,如果分类模块能正确预测,给与正反馈,强化对这个位置的选择,反之则给负反馈。 一瞥模块:接收一个位置的二维向量作为输入 画出小框提取特征再结合位置信息 得到中间向量z。 循环模块:接收中间向量z 包含2层RNN,下层主要积累识别的信息 上层主要预测位置。 发射模块:上层RNN输出的累积位置信息(隐层的高维向量)映射成二维位置向量,并进行高斯采样。 分类模块:根据下层 RNN的输出向量进行预测。 上下文模块:解决第一步往哪儿看的问题 接收整张图怓 输出初始状态向量作为上层RNN的初始输入得到第一个glimpse的位置 将输入分解成序列化的 同时学习 where and what的思想就是attention的核心 Attention机制是连接编码层和解码层的一个通道。由于我们在编码(encoder)过程中保留每个RNN单元的隐藏状态(hidden state)得到(h1……hN)。而后对于解码(decoder)过程中每一个timestep,因为有此时decoder的输入和上一步隐藏状态的输出,计算得到当前步的隐藏状态。假设第t步的隐藏状态为St(当前输入和上一步隐藏状态)。 在每个第t步利用St和每个 编码过程中的隐藏状态 hi进行dot点积得到attention score,也称为相似度或影响得分。即每个 编码过程的隐藏状态 对当前的输出St的一个贡献度。计算公式如下:(此处按照斯坦福大学教材上用st和hi计算,原始论文为st-1)。 之后用softmax将attention-score转换为概率分布。按照概率分布将隐藏状态转换成加权和。公式如下: 由此得到上下文向量c(或者是注意力向量)。 最后将注意力向量ct和decoder的t时刻的隐藏状态St并联起来,继续之后步骤。 其图示如下: 给定一组向量集合values,以及查询向量query,我们根据query向量去计算values加权和,即成为attention机制。 attention的重点即为求这个集合values中每个value的权值。我们也称attention的机制叫做query的输出关注了(考虑到了)原文的不同部分。 如seq2seq模型中,St是后面的query向量,而编码过程的隐藏状态hi是values。其就是根据某些规则(或额外信息query)从向量表达集合values中抽取特定的向量进行加权组合的方法,只要从部分向量里用了加权和,计算使用了attention机制。 1.在向量加权和上做文章。 2.在匹配度的计算方式上做文章。 针对向量计算方式的变体: soft / global / dynamic (都是soft attention) hard local attention(半软半硬attention) 静态attention 强制前向attention soft / global / dynamic (都是soft attention) 是求概率分布,就是对于任意一个单词或者values都给出概率,attention得分经过softmax后权值用aph表示,把attention向量用ct表示。 hard attention 一般用在图像中 只选中一个区域,只选1个,其余为0。 local attention(半软半硬attention) 先选中一个区域,然后在其中的各个小部分生成概率分布。 论文:Effective Approaches to Attention-based Neural Machine Translation 在这个模型中,对于是时刻t的每一个目标词汇,模型首先产生一个对齐的位置 pt(aligned position),context vector 由编码器中一个集合的隐藏层状态计算得到,编码器中的隐藏层包含在窗口[pt-D,pt+D]中,D的大小通过经验选择。 上式之中,大S指的是源句子的长度,Wp和vp是指的模型的参数,通过训练得到,为了支持pt附近的对齐点,设置一个围绕pt的高斯分布,其中小s是在以pt为中心的窗口中的整数,pt是一个在[0,S]之间的实数。小Sigma σ 一般取窗口大小的一半。 静态attention 对输出句子共用一个St。一般在BiLstm首位hidden state输出拼接起来作为St(图中为u)。 针对attention-score计算的变体: 第一个,s和hi的维数要一样。 第二个W矩阵是训练得到的参数,维度是d2 x d1,d2是s的hidden state输出维数,d1是hi的hidden state维数,也就是两者可以不同维度。 最后就是上面提到的additive attention,是对两种hidden state 分别再训练矩阵然后激活过后再乘以一个参数向量变成一个得分。 其中,W1 = d3xd1,W2 = d3xd2,v = d3x1 ,d1,d2,d3分别为h,s,v的维数,属于超参数。 Self- attention 在没有额外信息下,仍然可以允许向量values使用self attention来处理自己,从句子中提取需要关注的信息。 2.以当前状态本身去计算得分作为当前单元attention score,这种方式更常见,也更简单,例如: key-values attention 即将hi 隐藏状态拆分成两部分一部分是key(i) 一部分是values(i)然后只针对key部分计算attention的权值,然后加权使用values部分的值进行加权求和。 Multi-head attention: 首先,google先定义了一下attention的计算,也是定义出key,value,query三个元素(在seq2seq里面,query是st,key和value都是hi)在self 里面,query 是当前要计算的hi,k和v仍然一样,是其他单元的hidden state。在key value attention里面key和value则是分开了的。 然后除以了一下根号dk,为了让内积不至于太大(太大的话softmax后就非0即1了,不够“soft”了) 这里我们不妨假设,Q是 Wi用来先在算attention对三个矩阵做不同的矩阵变换映射一下,变成nxdk",mxdk",mxdv"维度。 最后做并联,有点类似于inception 里面多个卷积核的feature map并联的感觉。附:多核卷积示意图。 部分内容参考CSDN: https://blog.csdn.net/hahajinbu/article/details/81940355
2023-07-22 22:37:011

与attention有关的词组都有哪些 含义呢

pay attention=listen carefullypay attention to 注意……attract one"s attention 吸引某人注意draw attention to=make people notice 使人察觉catch my attention 引起我的注意it has come to my attention that=I have been informed that 我已获悉……call one"s attention 提请某人注意for the attention of 由……办理 stand to/at attention 立正
2023-07-22 22:37:103

attention有复数形式吗

attention,attentionsattention作“注意”解时,是不可数名词;作“殷勤”解时,常用复数形式。如:weshouldpayattentiontocurrentaffairs.nevermindaboutme.pleasepayattentionstotheladies.
2023-07-22 22:37:172

attention的数学解释

Jason Brownlee 博士的系列博客真的很受用哦 。原文链接见: Attention in Long Short-Term Memory Recurrent Neural Networks 1. 原来的Encoder–Decoder 在这个模型中,encoder只将最后一个输出递给了decoder,这样一来,decoder就相当于对输入只知道梗概意思,而无法得到更多输入的细节,比如输入的位置信息。所以想想就知道了,如果输入的句子比较短、意思比较简单,翻译起来还行,长了复杂了就做不好了嘛。 2. 对齐问题 前面说了,只给我递来最后一个输出,不好;但如果把每个step的输出都传给我,又有一个问题了,怎么对齐? 什么是对齐?比如说英文翻译成中文,假设英文有10个词,对应的中文翻译只有6个词,那么就有了哪些英文词对哪些中文词的问题了嘛。 传统的翻译专门有一块是搞对齐的,是一个比较独立的task(传统的NLP基本上每一块都是独立的task啦)。 我们从输出端,即decoder部分,倒过来一步一步看公式。 是指decoder在t时刻的状态输出, 是指decoder在tu22121时刻的状态输出, 是tu22121时刻的label(注意是label,不是我们输出的y), 看下一个公式,f是一个RNN。 是指第j个输入在encoder里的输出, 是一个权重 这个公式跟softmax是何其相似,道理是一样的,是为了得到条件概率P(a|e),这个a的意义是当前这一步decoder对齐第j个输入的程度。 最后一个公式, 这个g可以用一个小型的神经网络来逼近,它用来计算 这两者的关系分数,如果分数大则说明关注度较高,注意力分布就会更加集中在这个输入单词上,这个函数在文章Neural Machine Translation by Jointly Learning to Align and Translate(2014)中称之为校准模型(alignment model),文中提到这个函数是RNN前馈网络中的一系列参数,在训练过程会训练这些参数, 基于Attention-Based LSTM模型的文本分类技术的研究(2016)给出了上式的右侧部分作为拓展。 好了,把四个公式串起来看,这个attention机制可以总结为一句话: 当前一步输出StSt应该对齐哪一步输入,主要取决于前一步输出 和这一步输入的encoder结果 。
2023-07-22 22:37:241

NLP中的Attention机制

如下图所示,Attention从数学角度来形容是一个变量Query到一系列Key-Value对的映射,从公式上描述是根据Query和Key计算Values的加权求和的机制。 attention计算主要分为三步: 第一步,是将Query和每个Key进行相似度计算得到权重,常用的相似度函数有点积,拼接,感知机等; 第二步,一般是使用一个softmax函数对这些权重进行归一化; 最后,将权重和相应的键值Value进行加权求和得到最后的attention。 目前在NLP研究中,key和value常常都是同一个,即key=value。单纯的文字描述很难理解attention,以下从实际算法角度来理解。 接下来,我们以Seq2Seq中的attention作为例子,讲述attention在seq2seq的计算流程。 (1)什么是Seq2seq模型(常用语翻译的RNN模型) Seq2Seq又叫Encoder-Decoder模型,常见于机器翻译。下图是它的基本结构,以一个RNN作为编码器,获得句子的语义向量,以另外一个RNN作为解码器,进行翻译。如图中所展示,我们要翻译“知识就是力量。”这句话。Encoder是一个RNN,将要翻译的话转换成向量特征,输入到Decoder中。 (2)语义向量C 首先,先进行数学符号的描述。 (1)在Encoder编码器中,保留每一个RNN单元的隐藏状态(hidden state) (2)在Decoder解码器中,每个一个RNN单元的隐藏状态是由输入和上一步的隐藏状态决定的,假设第t步的隐藏状态记为 (下图中的START) 到这里其实attention的计算就结束了,得到的这个 就已经是decoder的第t时刻的注意力向量了(在后面的文章中,这也称作是上下文向量, context vector ,符号表示也可能是用 来表示的) 最后将注意力向量 ,以及decoder的t时刻的hidden state ,并联起来,然后做后续的步骤(比如,加个dense全连接层做标签预测之类的) (1)Soft-attention结构 Soft attention也就是上面Seq2Seq讲过的那种最常见的attention,是在求注意力分配概率分布的时候,对于输入句子X中任意一个单词都给出个概率,是个概率分布,把attention变量(context vecor)用 表示,attention得分在经过了softmax过后的权值用 表示. 简单来说 (1)计算attention scores 通过 (2)获得attention distribution 通过 (3)计算 对应的上下文向量 了解了模型大致原理,我们可以详细的看一下究竟Self-Attention结构是怎样的。其基本结构如下 参考文献
2023-07-22 22:37:311

丙氨酸通过联合脱氨基脱氨的过程?

丙氨酸通过联合脱氨的方式将氨基脱掉,这步反应产生2分子的NADH,相当于生成5分子ATP。具体的反应过程是:各种氨基酸先与α-酮戊二酸在转氨酶的催化下进行转氨基作用,将氨基转给α-酮戊二酸生成谷氨酸,本身变成相应的α-酮酸。然后谷氨酸在L-谷氨酸脱氢酶的催化下进行氧化脱氨基,生成氨和α-酮戊二酸,该过程可逆。由转氨酶和谷氨酸脱氢酶所催化的总反应为:α-氨基酸+NAD+(或NADP+)+H2O→NH4++α- 酮酸+NADH(或NADPH)+H+在上述过程中,转氨基反应由转氨酶催化。转氨酶多以α-酮戊二酸为氨基受体,对氨基供体要求不严,各种氨基酸都可以。最重要的转氨酶是谷氨酸转氨酶,它催化氨基酸的α-氨基转移到α-酮戊二酸上,生成相应的α-酮酸和L-谷氨酸。转氨酶催化的反应都是可逆的,辅基是VB6成份,磷酸吡多醛(PLP)和磷酸吡多胺经过相互转换传递氨基。各种器官都可以进行转氨基作用,以肝脏和心脏的转氨酶活性最高。[1]氧化脱氨基反应由谷氨酸脱氢酶催化,反应可逆。转氨基作用生成的谷氨酸在谷氨酸脱氢酶催化下进行氧化脱氨,游离出的氨进入尿素循环。谷氨酸脱氢酶很特殊,它既能利用NAD+,又能利用NADP+。脊椎动物的谷氨酸脱氢酶由6个亚基组成,酶活性受到变构调节。GTP和ATP是变构抑制剂,GDP和ADP是变构激活剂,因此,细胞能荷的降低加速氨基酸的氧化降解。
2023-07-22 22:21:521

grammarly office 插件靠谱吗

靠谱啊,就是每月30刀...或者可以试试看1Checker
2023-07-22 22:21:541

modal是什么意思

Modal的意思有:adj. 模式的,情态的,形式的;n. 莫代尔(一种新型纤维素纤维)。词汇搭配有:1、modal auxiliary 情态助动词2、modal verb 情态动词3、modal response 动态反应4、modal group 密集组5、modal analysis 模式分析6、modal value 最常见的值7、modal superposition 模态叠加8、modal matrix 模态振9、modal balancing 振型平衡10、modal alteration 方式改变Modal的例句1、The results confirmed his hypothesis on the use of modal verbs.结果证实了他的关于情态动词用法的假设。2、Modal verbs generally take the bare infinitive.情态动词通常用不带to的不定式。3、Modeless dialogs are less common than their modal siblings.另一种对话框称为“非模态对话框”,它不如同胞姐妹模态对话框那么常见。4、Property dialog boxes can be either modal or modeless.属性对话框可以是模态的,也可以是非模态的。5、Visually differentiate modeless dialogs from modal dialogs.视觉上区分非模态对话框与模态对话框。6、Modal adverbs are special grammatical constituents, and are always associated with pragmatic factors.语气副词是表达语气的语法成分,也常常跟语用因素直接关联。
2023-07-22 22:21:541

论文全自动生成器app

伪原创文章生成器app论文?1、不建议使用伪原创生成这种办法写论文的。第一这种基本是通不过论文检测的。第二这种生成器毕竟是机器,就是一些同义词替换,语序变化,出来的论文基本全文不同,错别字很多。第三对以后的影响很恶劣,得不偿失。2、石青伪原创工具石青伪原创工具是一款功能强大、绿色小巧的专业伪原创文章生成器,它可以支持中文和英文伪原创。3、伪原创工具70是一款免费的专业伪原创文章生成器,其专门针对百度和google的爬虫习惯以及分词算法而开发,通过本软件优化的文章,将更被搜索引擎所青睐。4、我用的免费伪原创文章生成器是智媒AI批量写作助手,感觉非常不错,免费都能用不说,而且伪原创出来的文章质量非常好,通顺、原创率也高,我是用工具查了的。5、没网上搜下吗,这类工具网上很多,不过我用的是智媒ai伪原创工具,可以不用注册登陆就能使用的,最厉害的是它的伪原创文章质量很高,完全不用再修改就能用的。论文大纲有什么软件可以生成1、用思维导图的软件吧。各种层次,还有本来就预备好的模板。方便修改。也方便你将收集的各种资料放到相关的类别里去。2、而就目前市场上的4款大纲笔记类软件,我也做了一个整理,大家可根据自己的实际需求来选择最适合的一款。3、MicrosoftWord:这是一款最常用的文字处理软件,包含丰富的排版和格式工具,可以很方便地对论文进行排版和编辑。智能原创自动写作工具用什么好?求帮助!1、百度AI智能写作工具百度AI智能书写工具是百度最先进的自然语言加工与知识地图技术,它能够实现自主创作和辅助创作,全方位提高了作品的创作效率。2、首先,吉吉确实是写作软件,至于为什么有毒就搞不清楚了。它的功能也不少,是专门用来写作的软件。不过怎么看都有些山寨,但是还是值得用来写作的。3、壹写作:壹写作是一个智能小说、长文写作软件,用户可以通过PC或Mac开展创作,尤其适合需要长时间思考的长文本的写作内容。能够帮助用户轻松进行写,通过独创的思维导图式思维对个整灵感集进行管理。有没有可自动生成论文的软件1、EndNote:这是一款文献管理软件,可以帮助你管理和组织参考文献,并自动生成参考文献列表。Grammarly:这是一款英语语法检查工具,可以帮助你检查论文中的语法错误和拼写错误。2、AI小微智能论文是一种自动化论文生成工具,可以帮助用户自动生成论文。但是,根据目前的技术水平,自动生成的论文往往存在一些问题。3、关于论文软件好用的论文app如下:好的论文app有:超级论文、论文指南、论文帮、科技论文在线。查找论文的app有:Sci-hub、Kopernio、网易有道词典、SPSS、Matlab、Origin、Python、幕布、Xmind、百度脑图等。4、有什么软件是自己写小说的推荐《写作助手》。《写作助手》,是一款让您把幻想记录成作品的写作工具,它的写作窗囗能把您写上的文字自动保存起来,即使出现死机断电等意外情况,文字资料也不会丢失。5、Originlab这是一款专业的数据分析软件,与matlab一样,功能也非常的强大,各大网站站上都有相关的教程学习,很多SCI论文的数据可视化插图都是使用这款软件画制出来的。6、写论文可以用一下软件:一般都是用的word在写论文,但是也有些在用zotero,可以帮助你管理文献,按学校要求的规定格式生成reference和bibliography,能在chorme浏览器和word加插件,非常方便。
2023-07-22 22:21:471

谁知道《亮剑》主人公李云龙的原型王近山的生平?

1、早年经历:1915年(民国四年)10月29日,王近山生于湖北黄安县(今红安)桃花区(今高桥镇)程河村许家湾一个贫苦农民家庭,很小就没了母亲,8岁起给人放牛,13岁给地主当长工。2、土地革命:曾任红4军第10师排长、连长、营长、团长、副师长,红31军第93师师长。参加了鄂豫皖苏区反“围剿”、川陕苏区反“围攻”和红四方面军长征。历次作战身先士卒,舍生忘死,骁勇顽强,曾被人们送以雅号——“王疯子”。3、抗日战争:抗日战争爆发后,任八路军第129师772团副团长、769团团长、385旅副政治委员、386旅旅长。参加了神头岭战斗、响堂铺战斗和晋东南反“九路围攻”。4、解放战争:1945年(民国三十四年)8月起,任太岳纵队副司令员,晋冀鲁豫野战军第6纵队司令员。率部先后参加了上党战役、邯郸战役、定陶战役、进军大别山、淮海战役等。5、建国以后:1949年10月至12月,任中国人民解放军第三兵团副司令员、第十二军军长兼政治委员,军党委书记、重庆市军管会委员。同年12月至1950年1月,兼任重庆警备司令部司令员、政治委员。扩展资料:1、在革命生涯中,历任红军师长、八路军旅长、野战军兵团副司令员、志愿军兵团副司令员等职,参加了鄂豫皖苏区反“围剿”、川陕苏区反“围攻”、红四方面军长征、神头岭战斗。2、响堂铺战斗、晋东南反“九路围攻”、上党战役、邯郸战役、定陶战役、襄樊战役、进军大别山、淮海战役、渡江战役、西南战役、抗美援朝战争第五次战役、上甘岭战役等。1955年被授予中将军衔。1978年5月10日在南京病逝,享年63岁。参考资料来源:百度百科--王近山
2023-07-22 22:21:441