About 911,000 results
Open links in new tab
  1. 读懂BERT,看这一篇就够了 - 知乎

    BERT (Bidirectional Encoder Representation from Transformers)是2018年10月由Google AI研究院提出的一种预训练模型,该模型在机器阅读理解顶级水平测试 SQuAD1.1 中表现出惊人的成 …

  2. BERT 系列模型 | 菜鸟教程

    BERT (Bidirectional Encoder Representations from Transformers)是2018年由Google提出的革命性自然语言处理模型,它彻底改变了NLP领域的研究和应用范式。

  3. 万字长文,带你搞懂什么是BERT模型(非常详细)看这一篇就够了…

    Oct 26, 2024 · BERT 语言模型因其对多种语言的广泛预训练而脱颖而出,与其他模型相比,它提供了广泛的语言覆盖范围。 这使得 BERT 对于非英语项目特别有利,因为它提供了跨多种语 …

  4. BERT: Pre-training of Deep Bidirectional Transformers for …

    Oct 11, 2018 · Unlike recent language representation models, BERT is designed to pre-train deep bidirectional representations from unlabeled text by jointly conditioning on both left and right …

  5. BERT (language model) - Wikipedia

    Masked language modeling (MLM): In this task, BERT ingests a sequence of words, where one word may be randomly changed ("masked"), and BERT tries to predict the original words that …

  6. BERT - Hugging Face

    Instantiating a configuration with the defaults will yield a similar configuration to that of the BERT google-bert/bert-base-uncased architecture. Configuration objects inherit from …

  7. 一文弄懂Bert模型:什么是Bert ?为什么需要BERTBERT模型结构_51CTO博客_bert

    Nov 27, 2024 · BERT 是一个开源机器学习框架,用于更好地理解自然语言。 BERT 是 Bidirectional Encoder Representation from Transformer 的缩写,顾名思义,BERT基于 …

  8. 【万字详解】BERT模型总体架构与输入形式、预训练任务、应用方 …

    BERT(Bidirectional Encoder Representations from Transformers)是一种基于Transformer的深度学习模型,一经推出便横扫了多个NLP数据集的SOTA(最好结果)。

  9. 深度学习自然语言处理(NLP)模型BERT:从理论到Pytorch实战

    Sep 9, 2025 · 本文围绕深度学习自然语言处理模型BERT展开,先介绍传统NLP技术,再阐述BERT架构、核心特点,包括注意力机制、预训练和微调等。

  10. BERT - 维基百科,自由的百科全书 - zh.wikipedia.org

    Nov 3, 2025 · 基于变换器的双向编码器表示技术 (英语: Bidirectional Encoder Representations from Transformers, BERT)是用于 自然语言处理 (NLP)的预训练技术,由 Google 提出。 …