這些方法整理了 spatialreg
包中的函數生成的空間自回歸模型的係數。
參數
- x
-
從
spatialreg::lagsarlm()
或spatialreg::errorsarlm()
返回的對象。 - conf.int
-
邏輯指示是否在整理的輸出中包含置信區間。默認為
FALSE
。 - conf.level
-
用於置信區間的置信水平(如果
conf.int = TRUE
)。必須嚴格大於 0 且小於 1。默認為 0.95,對應於 95% 的置信區間。 - ...
-
附加參數。不曾用過。僅需要匹配通用簽名。注意:拚寫錯誤的參數將被吸收到
...
中,並被忽略。如果拚寫錯誤的參數有默認值,則將使用默認值。例如,如果您傳遞conf.lvel = 0.9
,所有計算將使用conf.level = 0.95
進行。這裏有兩個異常:
值
帶有列的 tibble::tibble()
:
- conf.high
-
估計置信區間的上限。
- conf.low
-
估計置信區間的下限。
- estimate
-
回歸項的估計值。
- p.value
-
與觀察到的統計量相關的兩側 p 值。
- statistic
-
在回歸項非零的假設中使用的 T-statistic 的值。
- std.error
-
回歸項的標準誤差。
- term
-
回歸項的名稱。
例子
# load libraries for models and data
library(spatialreg)
library(spdep)
# load data
data(oldcol, package = "spdep")
listw <- nb2listw(COL.nb, style = "W")
# fit model
crime_sar <-
lagsarlm(CRIME ~ INC + HOVAL,
data = COL.OLD,
listw = listw,
method = "eigen"
)
# summarize model fit with tidiers
tidy(crime_sar)
#> # A tibble: 4 × 5
#> term estimate std.error statistic p.value
#> <chr> <dbl> <dbl> <dbl> <dbl>
#> 1 rho 0.431 0.118 3.66 2.50e- 4
#> 2 (Intercept) 45.1 7.18 6.28 3.37e-10
#> 3 INC -1.03 0.305 -3.38 7.23e- 4
#> 4 HOVAL -0.266 0.0885 -3.00 2.66e- 3
tidy(crime_sar, conf.int = TRUE)
#> # A tibble: 4 × 7
#> term estimate std.error statistic p.value conf.low conf.high
#> <chr> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
#> 1 rho 0.431 0.118 3.66 2.50e- 4 0.200 0.662
#> 2 (Intercept) 45.1 7.18 6.28 3.37e-10 31.0 59.1
#> 3 INC -1.03 0.305 -3.38 7.23e- 4 -1.63 -0.434
#> 4 HOVAL -0.266 0.0885 -3.00 2.66e- 3 -0.439 -0.0925
glance(crime_sar)
#> # A tibble: 1 × 6
#> r.squared AIC BIC deviance logLik nobs
#> <dbl> <dbl> <dbl> <dbl> <dbl> <int>
#> 1 0.652 375. 384. 4679. -182. 49
augment(crime_sar)
#> # A tibble: 49 × 6
#> `(Intercept)` INC HOVAL CRIME .fitted .resid
#> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
#> 1 1 21.2 44.6 18.8 22.6 -3.84
#> 2 1 4.48 33.2 32.4 46.6 -14.2
#> 3 1 11.3 37.1 38.4 41.4 -2.97
#> 4 1 8.44 75 0.178 37.9 -37.7
#> 5 1 19.5 80.5 15.7 14.2 1.54
#> 6 1 16.0 26.4 30.6 34.3 -3.66
#> 7 1 11.3 23.2 50.7 44.7 5.99
#> 8 1 16.0 28.8 26.1 38.4 -12.3
#> 9 1 9.87 18 48.6 51.7 -3.12
#> 10 1 13.6 96.4 34.0 16.3 17.7
#> # ℹ 39 more rows
# fit another model
crime_sem <- errorsarlm(CRIME ~ INC + HOVAL, data = COL.OLD, listw)
# summarize model fit with tidiers
tidy(crime_sem)
#> # A tibble: 4 × 5
#> term estimate std.error statistic p.value
#> <chr> <dbl> <dbl> <dbl> <dbl>
#> 1 (Intercept) 59.9 5.37 11.2 0
#> 2 INC -0.941 0.331 -2.85 0.00441
#> 3 HOVAL -0.302 0.0905 -3.34 0.000836
#> 4 lambda 0.562 0.134 4.20 0.0000271
tidy(crime_sem, conf.int = TRUE)
#> # A tibble: 4 × 7
#> term estimate std.error statistic p.value conf.low conf.high
#> <chr> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
#> 1 (Intercept) 59.9 5.37 11.2 0 49.4 70.4
#> 2 INC -0.941 0.331 -2.85 0.00441 -1.59 -0.293
#> 3 HOVAL -0.302 0.0905 -3.34 0.000836 -0.480 -0.125
#> 4 lambda 0.562 0.134 4.20 0.0000271 0.299 0.824
glance(crime_sem)
#> # A tibble: 1 × 6
#> r.squared AIC BIC deviance logLik nobs
#> <dbl> <dbl> <dbl> <dbl> <dbl> <int>
#> 1 0.658 377. 386. 4683. -183. 49
augment(crime_sem)
#> # A tibble: 49 × 6
#> `(Intercept)` INC HOVAL CRIME .fitted .resid
#> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
#> 1 1 21.2 44.6 18.8 22.5 -3.70
#> 2 1 4.48 33.2 32.4 44.9 -12.5
#> 3 1 11.3 37.1 38.4 38.2 0.223
#> 4 1 8.44 75 0.178 35.0 -34.8
#> 5 1 19.5 80.5 15.7 13.3 2.45
#> 6 1 16.0 26.4 30.6 35.0 -4.33
#> 7 1 11.3 23.2 50.7 42.3 8.41
#> 8 1 16.0 28.8 26.1 39.4 -13.3
#> 9 1 9.87 18 48.6 49.3 -0.721
#> 10 1 13.6 96.4 34.0 16.6 17.4
#> # ℹ 39 more rows
# fit another model
crime_sac <- sacsarlm(CRIME ~ INC + HOVAL, data = COL.OLD, listw)
# summarize model fit with tidiers
tidy(crime_sac)
#> # A tibble: 5 × 5
#> term estimate std.error statistic p.value
#> <chr> <dbl> <dbl> <dbl> <dbl>
#> 1 rho 0.368 0.197 1.87 0.0613
#> 2 (Intercept) 47.8 9.90 4.83 0.00000140
#> 3 INC -1.03 0.326 -3.14 0.00167
#> 4 HOVAL -0.282 0.0900 -3.13 0.00176
#> 5 lambda 0.167 0.297 0.562 0.574
tidy(crime_sac, conf.int = TRUE)
#> # A tibble: 5 × 7
#> term estimate std.error statistic p.value conf.low conf.high
#> <chr> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
#> 1 rho 0.368 0.197 1.87 0.0613 -0.0174 0.754
#> 2 (Intercept) 47.8 9.90 4.83 0.00000140 28.4 67.2
#> 3 INC -1.03 0.326 -3.14 0.00167 -1.67 -0.386
#> 4 HOVAL -0.282 0.0900 -3.13 0.00176 -0.458 -0.105
#> 5 lambda 0.167 0.297 0.562 0.574 -0.415 0.748
glance(crime_sac)
#> # A tibble: 1 × 6
#> r.squared AIC BIC deviance logLik nobs
#> <dbl> <dbl> <dbl> <dbl> <dbl> <int>
#> 1 0.652 376. 388. 4685. -182. 49
augment(crime_sac)
#> # A tibble: 49 × 6
#> `(Intercept)` INC HOVAL CRIME .fitted .resid
#> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
#> 1 1 21.2 44.6 18.8 22.2 -3.37
#> 2 1 4.48 33.2 32.4 46.4 -14.0
#> 3 1 11.3 37.1 38.4 40.4 -2.00
#> 4 1 8.44 75 0.178 37.5 -37.3
#> 5 1 19.5 80.5 15.7 13.5 2.25
#> 6 1 16.0 26.4 30.6 34.4 -3.74
#> 7 1 11.3 23.2 50.7 44.1 6.60
#> 8 1 16.0 28.8 26.1 39.0 -12.9
#> 9 1 9.87 18 48.6 51.5 -2.93
#> 10 1 13.6 96.4 34.0 15.8 18.2
#> # ℹ 39 more rows
相關用法
- R broom tidy.survreg 整理 a(n) survreg 對象
- R broom tidy.survexp 整理 a(n) survexp 對象
- R broom tidy.svyolr 整理 a(n) svyolr 對象
- R broom tidy.survdiff 整理 a(n) survdiff 對象
- R broom tidy.spec 整理一個(n)規範對象
- R broom tidy.summary_emm 整理一個(n)summary_emm對象
- R broom tidy.summary.glht 整理一個(n)summary.glht對象
- R broom tidy.speedglm 整理 a(n) speedglm 對象
- R broom tidy.speedlm 整理 a(n) speedlm 對象
- R broom tidy.systemfit 整理 a(n) systemfit 對象
- R broom tidy.summary.lm 整理 a(n)summary.lm 對象
- R broom tidy.survfit 整理 a(n) survfit 對象
- R broom tidy.robustbase.glmrob 整理 a(n) glmrob 對象
- R broom tidy.acf 整理 a(n) acf 對象
- R broom tidy.robustbase.lmrob 整理 a(n) lmrob 對象
- R broom tidy.biglm 整理 a(n) biglm 對象
- R broom tidy.garch 整理 a(n) garch 對象
- R broom tidy.rq 整理 a(n) rq 對象
- R broom tidy.kmeans 整理 a(n) kmeans 對象
- R broom tidy.betamfx 整理 a(n) betamfx 對象
- R broom tidy.anova 整理 a(n) anova 對象
- R broom tidy.btergm 整理 a(n) btergm 對象
- R broom tidy.cv.glmnet 整理 a(n) cv.glmnet 對象
- R broom tidy.roc 整理 a(n) roc 對象
- R broom tidy.poLCA 整理 a(n) poLCA 對象
注:本文由純淨天空篩選整理自等大神的英文原創作品 Tidying methods for spatially autoregressive models。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。