关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
-Love-Coding-
2022-05-09 17:55
采纳率: 100%
浏览 8
首页
人工智能
已结题
BERT/GPT是 精确存储了所有每句话的“语义” 还是得出每句话的少数服从多数的统计“语义”?
自然语言处理
人工智能
深度学习
BERT/GPT是 精确存储了所有每句话的“语义” 还是得出每句话的少数服从多数的统计“语义”?
收起
写回答
好问题
0
提建议
关注问题
微信扫一扫
点击复制链接
分享
邀请回答
编辑
收藏
删除
收藏
举报
0
条回答
默认
最新
查看更多回答(-1条)
向“C知道”追问
报告相同问题?
提交
关注问题
李宏毅自然语言处理——ELMO/
BERT
/
GPT
简介
2021-08-14 19:20
愤怒的可乐的博客
本文介绍如何让机器理解人类语言,主要是介绍了ELMO、
BERT
和
GPT
。
Self-supervised Learning(
BERT
/
GPT
/T5)
2025-06-20 15:08
伊布拉西莫的博客
本文介绍了预训练模型
BERT
和
GPT
的核心原理与应用。
BERT
通过自监督学习实现上下文词嵌入,具备填空、句子关系判断等能力,在情感分析、词性标注、NLI等任务中表现优异。
GPT
则采用生成式预训练,通过预测下一个token...
BERT
、
GPT
、T5等最先进预训练模型简介,用途及基础实例
2025-08-27 13:52
小宝哥Code的博客
自然语言处理(NLP)领域三大预训练模型:
BERT
采用双向编码器结构,擅长理解类任务如文本分类和问答系统;
GPT
系列是自回归生成模型,专精文本生成、对话系统等任务;T5采用编码器-解码器框架,通过"文本到文本&...
【大模型技术开发】
BERT
与
GPT
模型
2025-02-23 18:51
云博士的AI课堂的博客
BERT
(Bidirectional Encoder Representations from Transformers)和
GPT
(Generative Pretrained Transformer)是目前最流行的两种基于Transformer架构的预训练模型。它们在自然语言处理(NLP)任务中都取得了突破...
序列模型(2)—— 快速串联 RNN / LSTM / Attention / transformer /
BERT
/
GPT
2022-12-02 21:33
云端FFF的博客
快速串联 RNN / LSTM / Attention / transformer /
BERT
/
GPT
一句话记住“什么是
BERT
?”
2025-03-13 18:53
小木偶,的博客
(Bidirectional Encoder Representations from ...
BERT
就像一位“读过万卷书”的语言专家,通过上下文精准理解
语义
,成为NLP的瑞士军刀!,通过阅读海量文本,学会每个词在不同语境中的含义,从而解决各种NLP任务。
Bert
和
GPT
区别
2025-05-28 23:05
hwg985的博客
摘要:
BERT
和
GPT
均基于Transformer架构,但
BERT
采用双向编码结构,适合文本理解任务(如分类、问答);
GPT
使用单向解码器,专注文本生成(如对话、续写)。
BERT
通过MLM和NSP预训练,而
GPT
基于自回归语言建模。
BERT
...
BERT
和
GPT
语言模型的核心差异
2025-05-20 10:55
大囚长的博客
GPT
使用单向解码器,擅长文本生成 训练:
BERT
通过掩码预测训练,
GPT
通过自回归建模 应用:
BERT
在短文本理解任务表现更优,
GPT
长文本生成能力突出 性能:
GPT
-3参数量达1750亿,远高于
BERT
-large的3.4亿 建议:按任务...
【技术解密】Transformer架构的演变:从
BERT
到
GPT
-4
2025-01-21 18:54
智元π研学者的博客
基于Transformer的
BERT
、
GPT
、T5和BART等模型,每个都在技术发展中发挥了重要作用。尽管这些架构基于相同的基本原理,它们在训练目标、架构设计、以及实际应用领域各自独具特色。本文将回顾Transformer架构的演变,...
Tansformer-
GPT
-1,
GPT
-2,
GPT
-3,
BERT
&Instruct-
GPT
简介
2023-02-28 21:39
吴晓Q的博客
自注意力机制是指在每个编码器和解码器模块中,通过将每个词向量与其他词向量相乘得到每个词的加权表示,其中权重由每个词的
语义
相关性决定。这样,每个词就可以得到与它相关的上下文信息,而不需要像RNN那样依赖于...
没有解决我的问题,
去提问
向专家提问
向AI提问
付费问答(悬赏)服务下线公告
◇ 用户帮助中心
◇ 新手如何提问
◇ 奖惩公告
问题事件
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
系统已结题
5月17日
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
修改了问题
5月10日
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
创建了问题
5月9日