R语言 bootstrap估计回归标准误 10C

我用 https://blog.csdn.net/yujunbeta/article/details/9255965 的方法做多个统计量的bootstrap,但总是报错:Error in t.star[r, ] <- res[[r]] : 被替换的项目不是替换值长度的倍数。我又把betas函数去掉indices就能运行了,但是重抽样里只有一个样本,出来bias和std.error都是零。 试了一天了不造如何解决,大神方便帮我看看是什么问题吗?感激!

2个回答

你这个 t.star[r, ] <- res[[r]] 命令到底在哪呢,,我找半天也没找着

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
R语言-多重回归
1、参考地址:https://www.w3cschool.cn/r/r_multiple_regression.html2、输入数据,获取函数获取函数公式相关函数即为:y=37.105505+(-0.000937)*disp+(-0.031157)*hp+(-3.800891)*wt
R语言 回归
x-y对应叫法 x y 自变量(independent variable) 因变量(dependent variable) 解释变量(explanatory variable) 被解释变量(explained variable) 原因变量(causal variable) 结果变量(effect variable) 回归分析都是统计学的核心。它其实是一个广...
R语言分段回归
1.利用虚拟变量进行线性回归 (MEdata.csv的数据来源:https://github.com/ChenQihome9/CSDN-Data-Library/blob/master/MEdata.csv) 问题13:针对TAX~GDP,使用分段回归方法,找到其回归方程。编程,并根据程序结果叙述如下几方面问题:(1)分几段最佳?(不超过5段内)(2)分段位置定在哪儿最佳?(3)写出最佳方...
R语言 随机森林回归
主要利用R语言进行随机森林回归,还有其他两种回归, library(lattice) library(grid) library(DMwR) library(rpart) library(ipred) library(randomForest) #回归树,装袋算法,随机森林三大回归 #前二种算法可以计算缺失数据,但随机森林不行,所以还需将数据进行清洗整理 data(algae) algae <- algae[-manyNAs(algae,0.2), ]#占有20%的NA值的行去掉 clean.algae <- knnImputation(algae,k=10)#平均值填充NA值 #回归树模型计算 model.tree=rpart(a1 ~ ., data = clean.algae[, 1:12]) summary(model.tree) pre.tree <- predict(model.tree, clean.algae) plot(pre.tree~clean.algae$a1) nmse1 <- mean((pre.tree- clean.algae[,'a1'])^2)/mean((mean(clean.algae[,'a1'])- clean.algae[,'a1'])^2) nmse1
R语言 多重回归
多元回归是线性回归到两个以上变量之间的关系的延伸。 在简单线性关系中,我们有一个预测变量和一个响应变量,但在多元回归中,我们有多个预测变量和一个响应变量。今天主要和大家分享一下自己关于多重回归的学习。在实际的项目以及学习中,我们多元回归的一般数学方程为:y = a + b1x1 + b2x2 +...bnxn以下是所使用的参数的描述 - y是响应变量。a,b1,b2 ... bn是系数。x1,x2...
R语言 garch回归
variance.model = list(model = "sGARCH", garchOrder = c(1, 1),submodel = NULL, external.regressors = NULL, variance.targeting = FALSE) distribution.model = "norm" ugarchfit(spec, datax, out.sample = 0, solver = "solnp", solver.control = list(),fit.control = list(stationarity = 1, fixed.se = 0, scale = 0)) myspec=ugarchspec(variance.model = list(model = "sGARCH", garchOrder = c(1, 1), submodel = NULL, external.regressors = NULL, variance.targeting = FALSE), mean.model = list(armaOrder = c(1, 1), include.mean = TRUE, archm = FALSE, archpow = 1, arfima = FALSE, external.regressors = NULL, archex = FALSE), distribution.model = "norm") myfit=ugarchfit(myspec,data=datax,solver="solnp") #rugarch包中模型结果的提取要依靠as.data.frame函数。比如提取模型的拟合值 as.data.frame(myfit,which="fitted") #提取残差序列: as.data.frame(myfit,which=" residuals") #提取方差序列: as.data.frame(myfit,which="sigma") #当然,也可以同时查看所有: as.data.frame(myfit,which=all) #通过plot(myfit)可以对模型结果进行图形诊断: plot(myfit) #如果模型通过检验,可以用ugarchforcast函数对未来进行预测: for<-ugarchforcast(myfit,n.ahead=20) library(zoo) #时间格式预处理 library(xts) #同上 library(timeSeires) #同上 library(urca) #进行单位根检验 library(tseries) #arma模型 library(fUnitRoots) #进行单位根检验 library(FinTS) #调用其中的自回归检验函数 library(fGarch) #GARCH模型 library(nlme) #调用其中的gls函数 library(fArma) #进行拟合和检验
Brown-Mood估计、Theil估计 2、Siegel估计、线性分位回归的r语言代码
setwd("I:/研一课程/2.2回归分析/R/data")#设定当前的工作目录,重要! #Brown-Mood估计 d x=d[,1];y=d[,2]; md=median(x);xx1=x[xmd];yy1=y[xmd] md1=median(xx1);md2=median(xx2) mw1=median(yy1);mw2=median(yy2) beta=(mw2-mw1)/
R语言实现LASSO回归
Lasso回归又称为套索回归,是Robert Tibshirani于1996年提出的一种新的变量选择技术。Lasso是一种收缩估计方法,其基本思想是在回归系数的绝对值之和小于一个常数的约束条件下,使残差平方和最小化,从而能够产生某些严格等于0的回归系数,进一步得到可以解释的模型。R语言中有多个包可以实现Lasso回归,这里使用lars包实现。 1.利用lars函数实现lasso回归并可视化显示 x...
回归诊断的r语言代码
shuju shuju.reg #方差齐性检验 #1.残差图 shuju.res par(mfrow=c(1,1))    #设置画图为1*1的格式 plot(shuju.res~x)     #按照书上作以X为横坐标的残差图 #2.Spearman等级相关系数 cor.test(x,abs(shuju.res),method="spearman") #3.ncvTest
Logsitic回归-基于R语言
# 数据预处理 data(Affairs,package=&quot;AER&quot;) a &amp;lt;- Affairs a$ynaffair[a$affairs &amp;gt; 0] &amp;lt;- 1 a$ynaffair[a$affairs == 0] &amp;lt;- 0 a$ynaffair &amp;lt;- factor(a$ynaffair, levels=c(0,1),labels=c(&quot;No&quot;,&quot;Yes&quot;)...
R语言数据挖掘新手入门之回归
相对于简单描述性分析来讲,回归可以说是数据分析里一大杀器。因为回归掌握了预测部分的很大一方领地。用R语言做起回归方程来更是变化多样接下来让我们先简单了解下回归方程的各种变种与应用场景。 简单线性 用一个量化的解释变量预测一个量化的响应变量 多项式 用一个量化的解释变量预测一个量化的响应变量,模型的关系是 n 阶多项式 多层 用拥有等级结构的数据预测一个响应变量(例如学校中教室里的学生)。也被称为分...
R语言 BEKK模型回归
利用R语言,进行bekk模型回归 library(mvtnorm) library(tseries) library(mgarchBEKK) data<-read.csv("C:/Users/li/Desktop/1.csv",sep=",",header=T) .... estimated <- BEKK(simulated) diagnoseBEKK(estimated) ab11<-estimated$residuals[[1]] ab12<-estimated$residuals[[2]] ab13<-estimated$residuals[[3]] Box.test(ab11,lag=12,type=c('Ljung-Box')) Box.test(ab11,lag=24,type=c('Ljung-Box')) Box.test(ab12,lag=12,type=c('Ljung-Box')) Box.test(ab12,lag=24,type=c('Ljung-Box'))
R语言学习_回归预测
相关与回归的联系 相关与回归 不独立两个随机变量,二者之间肯定会存在某种关系: 函数关系(确定性关系) 相关关系(非确定关系) 散点图观察相关性 相关性的程度 相关系数 相关关系不是因果关系 一元线性回归 一元线性回归————数学思想 最佳回归线 不同的人会找到不同的‘最佳’回归线 残差平方和最小为‘最佳’ 普...
R语言 回归分析函数说明
回归分析相关的函数 1、一元线性回归 lm() #计算beta0,beta1参数 summary() # 提取lm()参数信息 anovn() #方差分析 predict() # 根据给出自变量预测因变量的值 例: a=lm(y~1+x,data=…) #对x,y回归分析 summary(a) # 提取回归分析结果 new=data.frame(x=0.16) # 当x=0.16时对y进行预测,...
主成分回归的r语言代码
setwd("C:/Users/IBM/Desktop/研一课程/2.2回归分析/回归作业")  #设定当前的工作目录 shuju=read.table("shuju.txt",header=T) shuju   #读取数据 #主成分回归,用函数pcr library(pls)  #pls包提供pcr函数,也提供偏最小二乘回归函数plsr,而函数mvr是二者的集成 a
R语言与函数估计学习笔记
R语言与函数估计学习笔记,压缩包文件,欢迎下载。1111
R语言实现 随机森林回归 参考博客
http://corina.cc/article/28/
R语言h2o深度学习回归预测
配置所需环境: install.packages("h2o") library(h2o) Sys.setenv(JAVA_HOME="E:/java/JAVA(1)")         -----配置环境变量 h2o.init() #链接h2o平台 使用的数据形式如下: 先处理一下数据,划分一下数据集: a gutrain gutest write.table(gutr
R语言 所有分类数据回归
#glmnet包含有线性回归,逻辑回归,泊松计数模型,cox回归模型,多分类逻辑回归多响应线性回归 #阿法系数=0是岭回归,阿法系数=1,是lasso回归 ############################################################ data(QuickStartExample) #20 Independent variables and 1 dependent variable fit<-glmnet(x,y) #查看计算路径 print(fit)#Df是非零系数的个数,第三列是惩罚力度,第二列是相应的惩罚力度对应的解释偏差百分比 #利用coef来提取模型的系数 coef(fit,s=0.1) #可视化 plot(fit) #预测 #参数newx用来设置输入数据,s用来设置朗姆塔(惩罚力度)的值 nx<-matrix(rnorm(10*20),10,20) predict(fit,newx=nx,s=c(0.1,0.05)) #交叉验证,筛选最优的朗姆塔的值,cv.glmnet函数实现这个功能 cvfit<-cv.glmnet(x,y) plot(cvfit)#红色散点为交叉验证的散点图,两条垂直的虚线为交叉验证后选定的朗姆塔 #提取最优的朗姆塔的值 cvfit$lambda.min#均方误差最小 cvfit$lambda.1se#一倍标准差 #根据朗姆塔来取得系数 coef(cvfit,s='lambda.min') #将稀疏矩阵转化为传统矩阵 as.matrix(coef(cvfit,s='lambda.min'))
R语言实现描述性统计、回归概念
★课程长约14小时左右。<br />nhttp://blog.sina.com.cn/yetizi以系列博文《人工智能入门-R语言数据分析与数据挖掘》发布课件<br /><br />n★本课程既是一门独立完整的课程,也是深入学习人工智能知识的必由之路。学完本课程如果还想深入学习人工智能,可学习叶梓老师的深度学习、强化学习等人工智能系列课程<br /><br />n★本课程特别注重知识点展现的层次化和继承性,由浅入深,理论联系实际,以容易上手的R语言面向基础薄弱的同学,从数据库的基础操作讲起,接着介绍数据仓库与数据可视化的概念和应用,随后讲解数据分析的常见模型,最后详述数据挖掘的经典算法。无论是计算机相关专业的在校学生,还是刚刚踏入IT工作岗位的职场新人,甚至是转行者,都可以选择学习本课程<br /><br />n其次,本课程的数据整理、分析、挖掘,并依据数据分析与挖掘结果做出研究、评估和决策,是人工智能的导论课程,为学习机器学习、深度学习等知识打好必要的技术基础<br /><br />n★【主讲专家】<br />n叶梓,博士、高级工程师。上海交通大学计算机专业博士毕业,主研方向为数据挖掘、机器学习、人工智能等。现为某大型上市软件企业的人工智能团队技术负责人<br />
分位数回归的r语言代码
setwd("I:/研一课程/2.2回归分析/R/data")#设定当前的工作目录,重要! d library("quantreg") fit1=rq(waiting~eruptions,tau=0.5,data=d) fit1 summary(fit1) r1=resid(fit1)   #残差序列 c1=coef(fit1)   #模型系数 summary(fit1,se="n
R语言讲义(包括各种回归)
R语言的讲义,里面讲了R语言的基础知识以及回归方面的知识。
使用R语言进行回归诊断
人们提出所谓回归诊断的问题,其主要内容有:关于误差项是否满足:独立性、等方差性、正态性。选择线性模型是否合适是否存在异常样本回归分析的结果是否对某些样本依赖过重,也就是回归模型是否具有稳定性自变量之间是否存在高度相关,即是否存在多重共线性下面我们通过一个小例子来大体认识一下回归诊断的重要性。一、使用散点图显示变量之间的关系及修正过程:Anscombe&amp;lt;-data.frame( X =c(...
R语言实现logistics回归1
★课程长约14小时左右。<br />nhttp://blog.sina.com.cn/yetizi以系列博文《人工智能入门-R语言数据分析与数据挖掘》发布课件<br /><br />n★本课程既是一门独立完整的课程,也是深入学习人工智能知识的必由之路。学完本课程如果还想深入学习人工智能,可学习叶梓老师的深度学习、强化学习等人工智能系列课程<br /><br />n★本课程特别注重知识点展现的层次化和继承性,由浅入深,理论联系实际,以容易上手的R语言面向基础薄弱的同学,从数据库的基础操作讲起,接着介绍数据仓库与数据可视化的概念和应用,随后讲解数据分析的常见模型,最后详述数据挖掘的经典算法。无论是计算机相关专业的在校学生,还是刚刚踏入IT工作岗位的职场新人,甚至是转行者,都可以选择学习本课程<br /><br />n其次,本课程的数据整理、分析、挖掘,并依据数据分析与挖掘结果做出研究、评估和决策,是人工智能的导论课程,为学习机器学习、深度学习等知识打好必要的技术基础<br /><br />n★【主讲专家】<br />n叶梓,博士、高级工程师。上海交通大学计算机专业博士毕业,主研方向为数据挖掘、机器学习、人工智能等。现为某大型上市软件企业的人工智能团队技术负责人<br />
R语言租房市场分析(聚类、回归)
建立模型 kmeans聚类 导入数据 house &amp;amp;amp;amp;amp;amp;amp;amp;amp;lt;- read.csv(&amp;amp;amp;amp;amp;amp;amp;amp;quot;house.csv&amp;amp;amp;amp;amp;amp;amp;amp;quot;,stringAsFactor = T) View(house) df&amp;amp;amp;amp;amp;amp;amp;amp;amp;lt;-data.frame
岭回归和lasso回归的r语言代码
setwd("C:/Users/IBM/Desktop/研一课程/2.2回归分析/回归作业")  #设定当前的工作目录 shuju=read.table("shuju.txt",header=T) shuju   #读取数据 #使用lm.ridge来进行岭回归,其好处是可通过GCV自动选择调节系数,但运算结果与书上不同 library(MASS)    #lm.ridge在MASS
偏最小二乘回归方法r语言代码
#偏最小二乘 setwd("C:/Users/IBM/Desktop/研一课程/2.2回归分析/回归作业")  #设定当前的工作目录 shuju=read.table("shuju.txt",header=T) shuju   #读取数据 library(pls) set.seed(1)  #求最优的成分个数 shuju.plsr summa
R语言统计入门第六章——回归与相关性
回归与相关性 6.1简单线性回归 library(ISwR) attach(thuesen) The following objects are masked from thuesen (pos = 3): blood.glucose, short.velocity The following objects are masked from thuesen (pos = 6): blood....
学习R语言编程——计算回归直线
#计算回归曲线,并预测x = 1300时的值 A = matrix(nrow = 10,ncol = 2) A[,1] = c(5800,4980,6200,6800,7100,8900,9000,8100,9990,9800) A[,2] = c(560,530,600,680,750,830,880,830,980,1100) B = A[,2]-mean(A[,2]) C = A[,1]-m...
非负Lasso回归的R语言实现
非负Lasso回归 Lasso回归可以对原变量进行稀疏化,而若增加约束条件使得回归系数大于0,则问题成为非负Lasso回归,具体可参加以下论文 链接:https://pan.baidu.com/s/1rDeIhHaLBagJyfqHzMrd_w 密码:y2x7 下面为R语言实现: A &amp;lt;- read.csv('x.csv')[,2:146] #自变量 y &amp;lt;- read.csv('y....
可视为线性回归的曲线回归(R语言)
用R软件进行计算,说闲话出原始数据对自变量的散点图,代码实现如下:data9.1&amp;amp;lt;-read.csv(&amp;quot;C:/Users/Administrator/Desktop/data9.1.csv&amp;quot;,head=TRUE) attach(data9.1) plot(t,y) ...
R语言实现logistics回归2
★课程长约14小时左右。<br />nhttp://blog.sina.com.cn/yetizi以系列博文《人工智能入门-R语言数据分析与数据挖掘》发布课件<br /><br />n★本课程既是一门独立完整的课程,也是深入学习人工智能知识的必由之路。学完本课程如果还想深入学习人工智能,可学习叶梓老师的深度学习、强化学习等人工智能系列课程<br /><br />n★本课程特别注重知识点展现的层次化和继承性,由浅入深,理论联系实际,以容易上手的R语言面向基础薄弱的同学,从数据库的基础操作讲起,接着介绍数据仓库与数据可视化的概念和应用,随后讲解数据分析的常见模型,最后详述数据挖掘的经典算法。无论是计算机相关专业的在校学生,还是刚刚踏入IT工作岗位的职场新人,甚至是转行者,都可以选择学习本课程<br /><br />n其次,本课程的数据整理、分析、挖掘,并依据数据分析与挖掘结果做出研究、评估和决策,是人工智能的导论课程,为学习机器学习、深度学习等知识打好必要的技术基础<br /><br />n★【主讲专家】<br />n叶梓,博士、高级工程师。上海交通大学计算机专业博士毕业,主研方向为数据挖掘、机器学习、人工智能等。现为某大型上市软件企业的人工智能团队技术负责人<br />
R语言mxnet做深度学习回归预测
下面的代码参考http://blog.csdn.net/xxzhangx/article/details/54729055来获取解释: library(mxnet) data(BostonHousing, package="mlbench") str(BostonHousing) dim(BostonHousing) train.ind = seq(1, 506, 3) train
有关身高估计的抽样调查R语言实现
抽样调查是一种非全面调查,它是从全部调查研究对象中,抽选一部分单位进行调查,并据以对全部调查研究对象做出估计和推断的一种调查方法。其基本要求是要保证所抽取的样品单位对全部样品具有充分的代表性。显然,抽样调查虽然是非全面调查,但它的目的却在于取得反映总体情况的信息资料,因而,也可起到全面调查的作用。是科学实验、质量检验、社会调查普遍采用的一种经济有效的工作和研究方法。
用R语言软件估计光谱密度
原文链接:https://www.cnblogs.com/tecdat/p/10524347.html 任何时间序列都可以表示为在基波(谐波)频率上振荡的余弦和正弦波之和=j / n,其中j= 1,2,...,n/ 2。周期图给出了关于各种频率的相对强度的信息,用于解释时间序列的变化。 周期图是称为谱密度的群体函数的样本估计,其是群体平稳时间序列的频域表征。谱密度是与自协方差时...
均数的抽样误差和标准误
抽样误差和标准误的概念,95%正常值范围与95%可信区间的区别。
标准差与标准误的区别(标准误也称标准误差)
1、标准差是对一次抽样的原始数据进行计算的,而标准误则是对多次抽样的样本统计量进行计算的(这个统计量可以是均值); 2、标准差只是一个描述性指标,只是描述原始数据的波动情况,而标准误是跟统计推断有关的指标,大多数的统计量计算都需要用到标准误。 举个简单的例子: 例如我们要调查地区A中10岁男孩的身高。如果全部都统计下来,直接测是最准确的数据。但是成本高,不现实。因此需要进行采样,一次测量100个男...
(4.4)方差估计 及 Bootstrap
本课程讲解机器学习算法所需概率和统计推断知识。概率部分包括概率公理及推论、条件概率、贝叶斯公式、随机变量及其概率函数(CDF/pdf)、常用概率分布及其均值、方差;统计推断部分包括大数定律和中心极限定理、极大似然估计、贝叶斯估计,估计的评价、偏差-方差平衡。课程还会讲解假设检验的基本概念。
R建模之回归(一)
3种常见的回归模型:线性回归(预测连续型变量比如婴儿出生体重),逻辑回归(预测二元变量比如过低出生体重与正常出生体重),泊松分布(计数比如每年或每个国家过低出生体重婴儿人数)我们以gamlss.data包提供的usair数据集进行研究,US空气污染数据集。我们希望预测根据城市面积(以人口规模/千人为统计依据)估计的空气污染程度(这里也就是数据集中的x3),空气污染以每立方米空气中二氧化硫的含量(毫...
回归计算 R
统计学,r语言统计分析,回归分析。希望有所帮助。
相关热词 c#部署端口监听项目、 c#接口中的属性使用方法 c# 昨天 c#func链接匿名方法 c#怎么创建文件夹 c#从键盘接收空格 c#da/ad c#部门请假管理系统 c#服务器socket c# 默认的访问修饰符