标签: standard-error

R:来自lm对象的标准错误输出

我们得到了一个lm对象,并希望提取标准错误

lm_aaa<- lm(aaa~x+y+z)
Run Code Online (Sandbox Code Playgroud)

我知道函数摘要,名称和系数.但是,摘要似乎是手动访问标准错误的唯一方法.你知道我怎么能输出se吗?

谢谢!

regression r standard-error lm

23
推荐指数
5
解决办法
6万
查看次数

Newey-West标准误差与Mean Groups/Fama-MacBeth估计

我试图让Newey-West标准错误与包中的pmg()(Mean Groups/Fama-MacBeth估算器)输出一起使用plm.

按照这里的例子:

require(foreign)
require(plm)
require(lmtest)
test <- read.dta("http://www.kellogg.northwestern.edu/faculty/petersen/htm/papers/se/test_data.dta")

fpmg <- pmg(y~x, test, index=c("firmid", "year")) # Time index in second position, unlike the example
Run Code Online (Sandbox Code Playgroud)

我可以coeftest直接使用,以获得Fama-MacBeth标准错误:

# Regular “Fama-MacBeth” standard errors
coeftest(fpmg)

# t test of coefficients:
#   
#             Estimate Std. Error t value Pr(>|t|)    
# (Intercept) 0.032470   0.071671   0.453   0.6505    
# x           0.969212   0.034782  27.866   <2e-16 ***
# ---
# Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ …
Run Code Online (Sandbox Code Playgroud)

regression r standard-error

20
推荐指数
1
解决办法
2247
查看次数

具有PLM包的异方差性强大的标准误差

我在尝试使用Stata后学习R,我必须说我喜欢它.但现在我遇到了一些麻烦.我即将对Panel Data进行一些多次回归,因此我正在使用该plm软件包.

现在我想plm在R中获得与我使用lm函数和Stata时相同的结果,当我执行异方差性稳健和实体固定回归时.

比方说,我有一个变量面板数据集Y,ENTITY,TIME,V1.

我用这段代码在R中得到了相同的标准错误

lm.model<-lm(Y ~ V1 + factor(ENTITY), data=data)
coeftest(lm.model, vcov.=vcovHC(lm.model, type="HC1))
Run Code Online (Sandbox Code Playgroud)

就像我在Stata中执行此回归一样

xi: reg Y V1 i.ENTITY, robust
Run Code Online (Sandbox Code Playgroud)

但是,当我使用plm包执行此回归时,我得到其他标准错误

plm.model<-plm(Y ~ V1 , index=C("ENTITY","YEAR"), model="within", effect="individual", data=data)
coeftest(plm.model, vcov.=vcovHC(plm.model, type="HC1))
Run Code Online (Sandbox Code Playgroud)
  • 我错过了设置一些选项吗?
  • plm模型是否使用其他类型的估计,如果是,如何?
  • 我可以在某种程度上使用plm与Stata 相同的标准错误, robust

r robustness standard-error stata plm

13
推荐指数
2
解决办法
7514
查看次数

Stata和R中Logit回归的不同鲁棒标准误差

我试图复制从Stata到R的logit回归.在Stata中我使用选项"robust"来获得强大的标准误差(异方差性一致的标准误差).我能够从Stata中复制完全相同的系数,但是我无法使用"三明治"包具有相同的强大标准误差.

我尝试了一些OLS线性回归的例子; 看起来R和Stata的三明治估算器给了我同样强大的OLS标准误差.有没有人知道Stata如何计算非线性回归的三明治估计量,在我的例子中是logit回归?

谢谢!

附加代码:在R中:

library(sandwich)
library(lmtest)    
mydata <- read.csv("http://www.ats.ucla.edu/stat/data/binary.csv")    
mydata$rank<-factor(mydata$rank)    
myfit<-glm(admit~gre+gpa+rank,data=mydata,family=binomial(link="logit"))    
summary(myfit)    
coeftest(myfit, vcov = sandwich)    
coeftest(myfit, vcov = vcovHC(myfit, "HC0"))    
coeftest(myfit, vcov = vcovHC(myfit))    
coeftest(myfit, vcov = vcovHC(myfit, "HC3"))    
coeftest(myfit, vcov = vcovHC(myfit, "HC1"))    
coeftest(myfit, vcov = vcovHC(myfit, "HC2"))    
coeftest(myfit, vcov = vcovHC(myfit, "HC"))    
coeftest(myfit, vcov = vcovHC(myfit, "const"))    
coeftest(myfit, vcov = vcovHC(myfit, "HC4"))    
coeftest(myfit, vcov = vcovHC(myfit, "HC4m"))    
coeftest(myfit, vcov = vcovHC(myfit, "HC5"))    
Run Code Online (Sandbox Code Playgroud)

塔塔:

use http://www.ats.ucla.edu/stat/stata/dae/binary.dta, clear    
logit admit gre gpa i.rank, robust    
Run Code Online (Sandbox Code Playgroud)

regression r standard-error stata logistic-regression

13
推荐指数
1
解决办法
3646
查看次数

从glm中提取标准错误

我做了一个glm,我只是想提取每个系数的标准误差.我在互联网上看到了这个功能,se.coef()但它不起作用,它返回"Error: could not find function "se.coef"".

r extract standard-error glm

12
推荐指数
3
解决办法
3万
查看次数

R和Stata中的第一差分线性面板模型方差

我想让一位同事复制一个第一差异线性面板数据模型,我用Stata和plmR(或其他一些包)中的包来估计.

在Stata中,xtreg没有第一个差异选项,所以我运行:

reg D.(y x), nocons cluster(ID)
Run Code Online (Sandbox Code Playgroud)

在R中,我正在做:

plm(formula = y ~ -1 + x, data = data, model = "fd", index = c("ID","Period"))
Run Code Online (Sandbox Code Playgroud)

系数匹配,但R中的标准误差大于Stata中的标准误差.我查看了plm帮助和pdf文档,但我必须遗漏一些东西.

r standard-error stata plm

10
推荐指数
1
解决办法
1万
查看次数

面板数据的双集群标准错误

我在R(时间和横截面)中有一个面板数据集,并且想要计算由两个维度聚类的标准误差,因为我的残差是双向相关的.谷歌搜索我发现http://thetarzan.wordpress.com/2011/06/11/clustered-standard-errors-in-r/提供了执行此操作的功能.它似乎有点特别,所以我想知道是否有一个已经过测试的包并且这样做了吗?

我知道sandwichHAC标准错误,但它没有做双聚类(即沿着两个维度).

regression r standard-error panel-data plm

8
推荐指数
4
解决办法
6026
查看次数

R使用bootstrap计算标准错误

我有这个值数组:

> df
[1] 2 0 0 2 2 0 0 1 0 1 2 1 0 1 3 0 0 1 1 0 0 0 2 1 2 1 3 1 0 0 0 1 1 2 0 1 3
[38] 1 0 2 1 1 2 2 1 2 2 2 1 1 1 2 1 0 0 0 0 0 0 0 0 0 0 1 0 1 1 0 1 0 0 0 0 0
[75] …
Run Code Online (Sandbox Code Playgroud)

r standard-error statistics-bootstrap

8
推荐指数
2
解决办法
1万
查看次数

包含NA的数据的群集标准错误

我无法使用基于此帖子的 R和指导来聚类标准错误.cl函数返回错误:

Error in tapply(x, cluster1, sum) : arguments must have same length
Run Code Online (Sandbox Code Playgroud)

在阅读之后,tapply我仍然不确定为什么我的群集参数是错误的长度,以及导致此错误的原因.

这是我正在使用的数据集的链接.

https://www.dropbox.com/s/y2od7um9pp4vn0s/Ec%201820%20-%20DD%20Data%20with%20Controls.csv

这是R代码:

# read in data
charter<-read.csv(file.choose())
View(charter)
colnames(charter)

# standardize NAEP scores
charter$naep.standardized <- (charter$naep - mean(charter$naep, na.rm=T))/sd(charter$naep, na.rm=T)

# change NAs in year.passed column to 2014
charter$year.passed[is.na(charter$year.passed)]<-2014

# Add column with indicator for in treatment (passed legislation)
charter$treatment<-ifelse(charter$year.passed<=charter$year,1,0)

# fit model
charter.model<-lm(naep ~ factor(year) + factor(state) + treatment, data = charter)
summary(charter.model)
# account for clustered standard errors by state …
Run Code Online (Sandbox Code Playgroud)

regression r standard-error

7
推荐指数
1
解决办法
3273
查看次数

计算标准误差估计,Wald-Chi Square统计量,p值与Spark中的逻辑回归

我试图在样本数据上构建Logistic回归模型.

我们可以得到的模型输出是用于构建模型的特征的权重.

我找不到Spark API用于估计的标准误差,Wald-Chi Square统计量,p值等.

我将以下代码粘贴为例子

import org.apache.spark.mllib.classification.LogisticRegressionWithLBFGS
import org.apache.spark.mllib.evaluation.{BinaryClassificationMetrics, MulticlassMetrics}
import org.apache.spark.mllib.linalg.Vectors
import org.apache.spark.mllib.regression.LabeledPoint
import org.apache.spark.mllib.tree.RandomForest
import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}


    val sc = new SparkContext(new SparkConf().setAppName("SparkTest").setMaster("local[*]"))

    val sqlContext = new org.apache.spark.sql.SQLContext(sc);

    val data: RDD[String] = sc.textFile("C:/Users/user/Documents/spark-1.5.1-bin-hadoop2.4/data/mllib/credit_approval_2_attr.csv")


    val parsedData = data.map { line =>
      val parts = line.split(',').map(_.toDouble)
      LabeledPoint(parts(0), Vectors.dense(parts.tail))
    }

    //Splitting the data
    val splits: Array[RDD[LabeledPoint]] = parsedData.randomSplit(Array(0.7, 0.3), seed = 11L)
    val training: RDD[LabeledPoint] = splits(0).cache()
    val test: RDD[LabeledPoint] = splits(1)



    // Run training algorithm to build …
Run Code Online (Sandbox Code Playgroud)

standard-error logistic-regression pyspark apache-spark-mllib

6
推荐指数
1
解决办法
876
查看次数