英文字典中文字典


英文字典中文字典51ZiDian.com



中文字典辞典   英文字典 a   b   c   d   e   f   g   h   i   j   k   l   m   n   o   p   q   r   s   t   u   v   w   x   y   z       







请输入英文单字,中文词皆可:

incontestable    
a. 无可争辩的,明白的

无可争辩的,明白的

incontestable
adj 1: incapable of being contested or disputed [synonym:
{incontestable}, {incontestible}] [ant: {contestable}]
2: not open to question; obviously true; "undeniable guilt";
"indisputable evidence of a witness" [synonym: {incontestable},
{indisputable}, {undisputable}]

Incontestable \In`con*test"a*ble\, a. [Pref. in- not
contestable: cf. F. incontestable.]
Not contestable; not to be disputed; that cannot be called in
question or controverted; incontrovertible; indisputable; as,
incontestable evidence, truth, or facts. --Locke.

Syn: Incontrovertible; indisputable; irrefragable;
undeniable; unquestionable; intuitable; certain. --
{In`con*test"a*ble*ness}, n. -- {In`con*test"a*bly},
adv.
[1913 Webster]


请选择你想看的字典辞典:
单词字典翻译
incontestable查看 incontestable 在百度字典中的解释百度英翻中〔查看〕
incontestable查看 incontestable 在Google字典中的解释Google英翻中〔查看〕
incontestable查看 incontestable 在Yahoo字典中的解释Yahoo英翻中〔查看〕





安装中文字典英文字典查询工具!


中文字典英文字典工具:
选择颜色:
输入中英文单字

































































英文字典中文字典相关资料:


  • 一文了解Transformer全貌(图解Transformer)
    网上有关Transformer原理的介绍很多,在本文中我们将尽量模型简化,让普通读者也能轻松理解。1 Transformer整体结构 在机器翻译中,Transformer可以将一种语言翻译成另一种语言,如果把Transformer看成一个黑盒,那么其结构如下图所示:
  • Transformer模型详解(图解最完整版) - 知乎
    Transformer 与 RNN 不同,可以比较好地并行训练。Transformer 本身是不能利用单词的顺序信息的,因此需要在输入中添加位置 Embedding,否则 Transformer 就是一个词袋模型了。Transformer 的重点是 Self-Attention 结构,其中用到的 Q, K, V矩阵通过输出
  • MoE和transformer有什么区别和联系? - 知乎
    01 Transformer:像“万能翻译官”的神经网络 Transformer 是当今AI大模型(如ChatGPT)的核心架构,最初用于机器翻译,核心是自注意力机制(Self-Attention),能同时分析句子中所有词的关系,而非像传统RNN那样逐词处理。
  • 如何从浅入深理解 Transformer? - 知乎
    如何从浅入深理解 Transformer? - 知乎
  • 深度学习中“Transformer”怎么翻译为中文? - 知乎
    Transformer按在机器翻译中原意可以翻译为变形器或变换器。但随着Transformer的普及,它已经成为一类以 自注意力 为主要部件的特定模型,其原本在机器翻译中的内涵变得不再重要,翻译成变形器反而不能涵盖其意义和除机器翻译外的场景。
  • Transformer两大变种:GPT和BERT的差别(易懂版)-2更
    上图是Transformer的一个网络结构图,Bert的网络结构类似于Transformer的Encoder部分,而GPT类似于Transformer的Decoder部分。单从网络的组成部分的结构上来看,其最明显的在结构上的差异为Multi-Head-Attention和Masked Multi-Head-Attention。
  • transformer的细节到底是怎么样的? - 知乎
    图 1-2 Transformer网络结构图 总体来说,所谓自注意力机制就是通过某种运算来直接计算得到句子在编码过程中每个位置上的注意力权重;然后再以权重和的形式来计算得到整个句子的隐含向量表示。
  • transformer模型为什么要叫transformer? - 知乎
    3 AI 领域 Transformer 的确切含义 单词“X”转化为“X1”,“X”代表在 Transformer 处理之前一句话中的单词,而“X1”则代表了经过 Transformer 的 Slef-Attention 处理之后,附加了句子中其他具有强语义关联关系的单词后的“变种单词”。
  • 如何理解 Swin Transformer 和 Vision Transformer不同任务 . . .
    每一个Swin Transformer Block x2 的意思是由1个W-MSA(Window Multi Self-Attention)和1个SW-MSA(Shifted Window Multi Self-Attention)组成。x6 顾名思义就是3组W-MSA和SW-MSA组成。Swin Transformer模型结构2:蓝色都是模型的一些网络结构层
  • transformer和cnn有什么区别? - 知乎
    transformer和CNN有一个区别是transformer是单尺度的算法,而CNN是多尺度的算法。这是由于来自于NLP的transformer,每个词是具有语义信息的,而在处理图像的CNN中,单个像素往往不具有意义,需要借助卷积核并堆叠多层扩大感受野。





中文字典-英文字典  2005-2009