关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
郑头
2022-07-09 07:27
采纳率: 100%
浏览 19
首页
已结题
请问我的世界2b2t科技怎么下载
大数据
其他
问题遇到的现象和发生背景
问题相关代码,请勿粘贴截图
运行结果及报错内容
我的解答思路和尝试过的方法
我想要达到的结果
请问我的世界2b2t科技怎么下载
收起
写回答
好问题
0
提建议
关注问题
微信扫一扫
点击复制链接
分享
邀请回答
编辑
收藏
删除
收藏
举报
0
条回答
默认
最新
查看更多回答(-1条)
向“C知道”追问
报告相同问题?
提交
关注问题
终于有人把云计算、
大数据
和人工智能讲明白了!
2020-12-30 03:34
wzhwangzhuohui的博客
因为这三个东西现在非常火,并且它们之间好像互相有关系:一般谈云计算的时候会提到
大数据
、谈人工智能的时候会提
大数据
、谈人工智能的时候会提云计算……感觉三者之间相辅相成又不可分割。但如果是非技术的人员,就...
基于深度学习的入侵检测系统设计与实现
2024-08-06 00:14
程序员光剑的博客
网络流量 数据预处理 特征提取 深度学习模型 异常检测 警报生成 安全管理员 模型更新 当然,我会为您补全这部分内容。 3. 核心算法原理 & 具体操作步骤 3.1 算法原理概述 3.1.1 卷积神经网络(CNN)在入侵检测中的...
国内外大模型生态发展报告!
2024-06-22 21:03
JavaEdge聊AI的博客
负责: 中央/分销预订系统性能优化 活动&优惠券等营销中台建设 交易平台及数据中台等架构和开发设计 车联网核心平台-物联网连接平台、
大数据
平台架构设计及优化 LLM应用开发 目前主攻降低软件复杂性设计、构建高...
如何从零开始训练大模型?(非常详细)零基础入门到精通,收藏这一篇就够了_训练大模型的前置知识
2024-06-25 13:44
功城师的博客
计算方式,往往就变成,我大致知道训练1T-2T tokens效果往往就不错了,这个模型两个月后我想赶一个发布会。那么就来反推,1T的tokens训练2个月,300张卡能train多大的。 但我们回到2020年,当大部分人都在基于bert...
如何从零开始训练大模型?(附AGI大模型路线图)
2024-06-04 21:45
AGI大模型资料分享员的博客
计算方式,往往就变成,我大致知道训练1T-2T tokens效果往往就不错了,这个模型两个月后我想赶一个发布会。那么就来反推,1T的tokens训练2个月,300张卡能train多大的。 但我们回到2020年,当大部分人都在基于bert...
ElasticSearch
2022-02-11 13:11
无敌的黑星星的博客
ElasticSearch 一、字段的类型Field type的详解 下面就是所有的字段类型 字符串类型 text,keyword 整数类型 integer,long,short,byte 浮点类型 double,float,half_float,scaled_float 逻辑类型 boolean ...
LLM训练-pretrain,大模型预训练,非常详细收藏我这一篇就够了
2024-10-19 21:07
大模型入门教程的博客
pretrain 的全环节大抵如此,我列出来的每个环节我认为都是同等重要的。之前看见有种说法说洗数据是脏简历的工作,恕我不能认同。如果 infra 团队已经帮忙调通了 megatron 的训练代码,那么训练才是真的最没技术含量...
从零到精通:详解如何训练大模型的完整指南,非常详细,收藏我这一篇就够了
2025-05-22 00:11
程序员老陈头的博客
计算方式,往往就变成,我大致知道训练1T-2T tokens效果往往就不错了,这个模型两个月后我想赶一个发布会。那么就来反推,1T的tokens训练2个月,300张卡能train多大的。 但我们回到2020年,当大部分人都在基于bert...
04-kubernetes搭建
2020-07-15 06:39
Zeb-D的博客
这样,我只要给每个 Kubernetes 组件做一个容器镜像,然后在每台宿主机上用 docker run 指令启动这些组件容器,部署不就完成了吗? 事实上,在 Kubernetes 早期的部署脚本里,确实有一个脚本就是用 Docker 部署 ...
【非常详细】AI大模型训练指南:从入门到专家,手把手带你系统学习!
2025-06-04 17:03
大模型入门教程的博客
通过分析MiniCPM等案例,揭示当前2B规模模型仍有优化空间。文章分享了行业共识:中英混合比例、代码/数学类数据对提升模型推理能力的关键作用,并强调数据清洗的重要性。参会专家基于公开信息讨论了大模型训练中的...
关于加解密、加签验签的那些事
2021-02-22 13:52
编程IT圈的博客
反过来这些
科技
进步也影响了时代的发展。一战时期德国外交部长 Arthur Zimmermann(阿瑟•齐默尔曼)拉拢墨西哥构成抗美军事同盟的电报(1917年1月16日)被英国情报机构— 40 号办公室破译,直接导致了美国的参战;...
支付宝架构到底有多牛逼?没看完我就跪了!
2020-08-02 11:40
Ch97CKd的博客
我想关心分布式系统设计的人都曾被下面这些问题所困扰过: 支付宝海量支付背后最解渴的设计是啥?换句话说,实现支付宝高TPS的最关键的设计是啥? LDC是啥?LDC怎么实现异地多活和异地灾备的? CAP魔咒到底是啥?P...
大模型微调:从零到一进行Pretrain
2025-12-03 17:32
DeepSeaAI@Haibao的博客
pretrain的全环节大抵如此,我列出来的每个环节我认为都是同等重要的。之前看见有种说法说洗数据是脏简历的工作,恕我不能认同。如果infra团队已经帮忙调通了megatron的训练代码,那么训练才是真的最没技术含量的...
AI大模型应用开发如何破局入门?这份硬核指南为你系统性梳理核心知识与实战路径!
2025-11-24 16:05
AGI大模型老王的博客
有监督微调 经过大规模预训练后,模型已经具备较强的模型能力,能够编码丰富的
世界
知识,但是由于预训练任务形式所限,这些模型更擅长于文本补全,并不适合直接解决具体的任务。 尽管引入了诸如上下文学习(In-...
如何从零开始训练大模型?
2025-06-04 14:40
AI学习不迷路的博客
计算方式,往往就变成,我大致知道训练1T-2T tokens效果往往就不错了,这个模型两个月后我想赶一个发布会。那么就来反推,1T的tokens训练2个月,300张卡能train多大的。 但我们回到2020年,当大部分人都在基于bert...
大模型训练从入门到精通:完整指南详解,一篇在手,非常详细!
2025-05-21 15:41
大模型入门学习的博客
以MiniCPM为例,其2B参数模型在多项评测中表现优于部分7B模型,说明当前小模型仍有优化空间。业内共识包括:(1)中英混合比例趋于稳定;(2)模型越大,可处理更高比例的复杂样本(如代码、数学);(3)数据清洗...
没有解决我的问题,
去提问
向专家提问
向AI提问
付费问答(悬赏)服务下线公告
◇ 用户帮助中心
◇ 新手如何提问
◇ 奖惩公告
问题事件
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
系统已结题
7月17日
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
创建了问题
7月9日