[教育心理学]社会关系模型及R的fSRM包实现

写在前面:

fSRM包是基于lavaan包来写的。

lavaan包呢,是一个制作数学模型的包,通过数学表达式,便可以搭建你想要的数学;简单来说,这个包的作用便是将人写的数学表达式转换成R可以识别的模型公式,完成数学模型

fSRM包便是通过这种方式完成数学模型的。

 

SRM,social relation model,的意思便是,基于社会关系下的研究数据的影响因素不仅仅只是一个值。比如,我评价同学A的时候,A所得的分数不是一个客观的分数,这个分数包括了:这位A同学自己所值得的因素,A与我的关系所产生的因素,我这个人给予评价的因素,更或者有因为我和A同学是一个集体下的因素等等。SRM结构便是基于多种因素而产生的模型。

 

另外,为了检验这些因素,我们需要round-robin设计,简单说就是把组内所有的排列(不是组合)全部完成一遍。

 

在fSRM中,家庭社会关系模型中,类似的,也包括多种因素。我们通过round-robin,可以知道三种效应:评价者因素(Actor effect),被评价者因素(Partner effect),关系因素(Relationship effect),家庭效应(Family effect),组别效应(Group effect,此项为实验设计)。

 

比如,父亲作为评价者、被评价者会有其效应的影响,父母、母子、兄弟之间的关系也会有相应的影响,不同家庭间也会有影响等。

 

 

 

 

 

 

library(fSRM)

library(psych)

library(lsr)

#载入所需要的包

 

 

一、

 

#简单计算数据集中MF(母亲-父亲)的方差分析

data(two.groups.wide)

MFgroupanova<-aov(two.groups.wide[,1]~ two.groups.wide$group)

summary(MFgroupanova)

etaSquared(MFgroupanova)

 

> summary(MFgroupanova)

Df Sum Sq Mean Sq F value Pr(>F)

two.groups.wide$group   1     3.26   3.258   7.413 0.0069 **

Residuals             271 119.10   0.439

---

Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

> etaSquared(MFgroupanova)

eta.sq eta.sq.part

two.groups.wide$group 0.02662617 0.02662617

 

#显然,如果有很多组(父亲-母亲、母亲-父亲、父亲-目标...),这样显示地很繁琐。

#并且还有其他效应如评价者效应(Actor Effect),被评价者效应(Partner Effect)等等。

#因此,利用fSRM包可以一次性地作出多种同层间和异层间的效应

clinicalfSRM <- fSRM(neg~actor.id*partner.id | family.id, data =clinical)

#家庭间负面效应的评价只需要一个公式便可以在此函数中刻画出多种效应

clinicalfSRM

fSRM version 0.6.1

================================

 

SRM with roles (Roles: F, M, S, T); DVs = neg

 

Model summary:

----------------

lavaan (0.5-18) converged normally after 48 iterations

 

Number of observations                           120

 

Estimator                                        ML

Minimum Function Test Statistic               45.887

Degrees of freedom                               47

P-value (Chi-square)                           0.519

 

Model Fit:

----------------

Chi2 (df=47) = 45.887, p = 0.519

CFI = 1

TLI / NNFI = 1.015

RMSEA = 0 [0;0.058]; Test of close fit: p(data | true value == .05) = 0.902

 

 

Variance decomposition:

----------------

component estimate   se       z p.value sig ci.lower ci.upper

1       FE ~~ FE   0.008 0.018 0.450 p = .326       -0.022   0.039

2     A.F ~~ A.F   0.005 0.026 0.175 p = .430       -0.038   0.047

3     A.M ~~ A.M   0.015 0.028 0.527 p = .299       -0.031   0.060

4     A.S ~~ A.S   0.140 0.045 3.142 p < .001 ***   0.067     0.213

5    A.T ~~ A.T   0.080 0.042 1.903 p = .028   *     0.011   0.148

6     P.F ~~ P.F   0.101 0.037 2.696 p = .004 **     0.039   0.162

7     P.M ~~ P.M   0.015 0.031 0.483 p = .314       -0.036   0.067

8     P.S ~~ P.S   0.046 0.034 1.346 p = .089   †     -0.010   0.103

9     P.T ~~ P.T   0.072 0.034 2.137 p = .016   *     0.017   0.127

10 R.F.M ~~ R.F.M   0.405 0.065 6.261 p < .001 ***   0.299     0.512

11 R.F.S ~~ R.F.S   0.318 0.057 5.527 p < .001 ***   0.223     0.412

12 R.F.T ~~ R.F.T   0.380 0.064 5.985 p < .001 ***   0.276     0.485

13 R.M.F ~~ R.M.F   0.362 0.065 5.577 p < .001 ***   0.255     0.469

14 R.M.S ~~ R.M.S   0.474 0.075 6.284 p < .001 ***   0.350     0.598

15 R.M.T ~~ R.M.T   0.332 0.060 5.528 p < .001 ***   0.233     0.431

16 R.S.F ~~ R.S.F   0.368 0.073 5.023 p < .001 ***   0.247     0.488

17 R.S.M ~~ R.S.M   0.508 0.085 5.950 p < .001 ***   0.367     0.648

18 R.S.T ~~ R.S.T   0.523 0.089 5.858 p < .001 ***   0.376     0.670

19 R.T.F ~~ R.T.F   0.442 0.080 5.513 p < .001 ***   0.310     0.574

20 R.T.M ~~ R.T.M   0.485 0.082 5.926 p < .001 ***   0.350     0.619

21 R.T.S ~~ R.T.S   0.811 0.122 6.662 p < .001 ***   0.611     1.012

 

(p-values are for one-sided tests for variances; confidence level for CIs is 90 %)

 

 

 

Relative variance decomposition:

----------------

Family Actor Partner Relationship Error Explained

F_M       2       1       3           94     0         100

F_S       2       1     12           84     0         100

F_T       2       1     15           82     0        100

M_F       2       3     21           75     0         100

M_S       2       3       9           87     0         100

M_T       2       3     17           78     0         100

S_F       1     23     16           60     0         100

S_M       1     21       2          76       0       100

S_T       1     19     10           70     0         100

T_F       1     13     16           70     0         100

T_M       1     14       3           82     0         100

T_S       1       8       5           86     0         100

mean     2       9     11           79     0         100

 

 

Generalized reciprocity (actor-partner covariances):

----------------

component estimate   se     z   p.value sig ci.lower ci.upper     r

1 A.F ~~ P.F   0.043 0.025 1.719 p = .086   †     -0.006   0.092   NA

2 A.M ~~ P.M   0.020 0.023 0.868 p = .385       -0.026   0.066     NA

3 A.S ~~ P.S   0.018 0.030 0.600 p = .549       -0.040   0.076 .221

4 A.T ~~ P.T   0.034 0.029 1.188 p = .235       -0.022   0.091 .455

 

 

Dyadic reciprocity (relationship covariances):

----------------

component estimate   se       z p.value sig ci.lower ci.upper     r

1 R.F.M ~~ R.M.F   0.115 0.049 2.351 p = .019   *     0.019   0.210 .300

2 R.F.S ~~ R.S.F   0.098 0.048 2.048 p = .041   *     0.004   0.192 .286

3 R.F.T ~~ R.T.F   0.108 0.053 2.037 p = .042   *     0.004   0.212 .263

4 R.M.S ~~ R.S.M   0.071 0.058 1.221 p = .222       -0.043   0.185   .145

5 R.M.T ~~ R.T.M   -0.005 0.050 -0.096 p = .923       -0.103   0.094 -.012

6 R.S.T ~~ R.T.S   0.195 0.077 2.531 p = .011   *     0.044   0.347 .300

 

 

#解释:

#Model summary,模型大致的概念,数据数量等

Model summary:

----------------

lavaan (0.5-18) converged normally after 48 iterations

 

Number of observations                           120

 

Estimator                                        ML

Minimum Function Test Statistic               45.887

Degrees of freedom                               47

P-value (Chi-square)                           0.519

 

 

 

#Model Fit,模型是否符合,解释了45.887的自由度(总共47个自由度)

#RMSEA也是一种看符合度(小于0.05就很不错了)的模型符合度

#Test of close fit,90%的概率能达到该模型恰当的符合度

Model Fit:

----------------

Chi2 (df=47) = 45.887, p = 0.519

CFI = 1

TLI / NNFI = 1.015

RMSEA = 0 [0;0.058]; Test of close fit: p(data | true value == .05) = 0.902

 

 

#Variance decomposition,方差解构:

#FE-家庭效应,AE-评价者效应(有父母、兄弟、目标的四种效应,A.F就代表父亲的评价者效应)

#PE-被评价者效应(同AE分类),RE-关系效应(四种角色互相之间的排列,12种)

#从不同效应中可以看出,兄弟姐妹的评价者效应显著,然后所有关系之间都有显著效应

Variance decomposition:

----------------

component estimate   se       z p.value sig ci.lower ci.upper

1       FE ~~ FE   0.008 0.018 0.450 p = .326       -0.022   0.039

2     A.F ~~ A.F   0.005 0.026 0.175 p = .430       -0.038   0.047

3     A.M ~~ A.M   0.015 0.028 0.527 p = .299       -0.031   0.060

4     A.S ~~ A.S   0.140 0.045 3.142 p < .001 ***   0.067     0.213

5     A.T ~~ A.T   0.080 0.042 1.903 p = .028   *     0.011   0.148

6     P.F ~~ P.F   0.101 0.037 2.696 p = .004 **     0.039   0.162

7     P.M ~~ P.M   0.015 0.031 0.483 p = .314       -0.036   0.067

8     P.S ~~ P.S   0.046 0.034 1.346 p = .089   †     -0.010   0.103

9     P.T ~~ P.T   0.072 0.034 2.137 p = .016   *     0.017   0.127

10 R.F.M ~~ R.F.M   0.405 0.065 6.261 p < .001 ***   0.299     0.512

11 R.F.S ~~ R.F.S   0.318 0.057 5.527 p < .001 ***   0.223     0.412

12 R.F.T ~~ R.F.T   0.380 0.064 5.985 p < .001 ***   0.276     0.485

13 R.M.F ~~ R.M.F   0.362 0.065 5.577 p < .001 ***   0.255     0.469

14 R.M.S ~~ R.M.S   0.474 0.075 6.284 p < .001 ***   0.350     0.598

15 R.M.T ~~ R.M.T   0.332 0.060 5.528 p < .001 ***   0.233     0.431

16 R.S.F ~~ R.S.F   0.368 0.073 5.023 p < .001 ***   0.247     0.488

17 R.S.M ~~ R.S.M   0.508 0.085 5.950 p < .001 ***   0.367     0.648

18 R.S.T ~~ R.S.T   0.523 0.089 5.858 p < .001 ***   0.376     0.670

19 R.T.F ~~ R.T.F   0.442 0.080 5.513 p < .001 ***   0.310     0.574

20 R.T.M ~~ R.T.M   0.485 0.082 5.926 p < .001 ***   0.350     0.619

21 R.T.S ~~ R.T.S   0.811 0.122 6.662 p < .001 ***   0.611     1.012

 

(p-values are for one-sided tests for variances; confidence level for CIs is 90 %)

 

 

#Relative variance decomposition,关系方差解构,给你画图用的,可以看到这些效应分别所占的比

Relative variance decomposition:

----------------

Family Actor Partner Relationship Error Explained

F_M       2       1       3           94     0         100

F_S       2       1     12           84     0         100

F_T       2       1     15           82     0         100

M_F       2       3     21           75     0         100

M_S       2       3       9           87     0         100

M_T       2       3     17           78     0         100

S_F       1     23      16           60     0         100

S_M       1     21       2           76     0         100

S_T       1     19     10           70     0         100

T_F       1     13     16           70     0         100

T_M       1     14       3           82     0         100

T_S       1       8       5           86     0         100

mean     2       9     11           79     0         100

 

 

plot(clinicalfSRM)

 Relative Variance Decomposition

 

#Generalized reciprocity,验证某个角色分别担任评价者与被评价者之间有没有差异

Generalized reciprocity (actor-partner covariances):

----------------

component estimate   se     z   p.value sig ci.lower ci.upper     r

1 A.F ~~ P.F   0.043 0.025 1.719 p = .086   †     -0.006   0.092   NA

2 A.M ~~ P.M   0.020 0.023 0.868 p = .385       -0.026   0.066     NA

3 A.S ~~ P.S   0.018 0.030 0.600 p = .549      -0.040     0.076 .221

4 A.T ~~ P.T   0.034 0.029 1.188 p = .235       -0.022   0.091 .455

 

 

 

#Dyadic reciprocity,验证某个关系中评价者与被评价者互换有没有差异

Dyadic reciprocity (relationship covariances):

----------------

component estimate   se       z p.value sig ci.lower ci.upper     r

1 R.F.M ~~ R.M.F   0.115 0.049 2.351 p = .019   *     0.019   0.210 .300

2 R.F.S ~~ R.S.F   0.098 0.048 2.048 p = .041   *     0.004   0.192 .286

3 R.F.T ~~ R.T.F   0.108 0.053 2.037 p = .042   *     0.004   0.212 .263

4 R.M.S ~~ R.S.M   0.071 0.058 1.221 p = .222       -0.043   0.185   .145

5 R.M.T ~~ R.T.M   -0.005 0.050 -0.096 p = .923       -0.103   0.094 -.012

6 R.S.T ~~ R.T.S   0.195 0.077 2.531 p = .011   *     0.044   0.347 .300

 

 

clinicalfSRM.g <- fSRM(neg~actor.id*partner.id | family.id, data =clinical, IGSIM=list(c("M","F"), c("T","S")))

anova(clinicalfSRM.g$fit,clinicalfSRM$fit)

#有没有同代际之间的相似性,比较两个模型,并没有显著差异

> anova(clinicalfSRM.g$fit,clinicalfSRM$fit)

Chi Square Difference Test

 

Df   AIC     BIC Chisq Chisq diff Df diff Pr(>Chisq)

clinicalfSRM.g$fit 43 3192.7 3290.3 39.719

clinicalfSRM$fit   47 3190.9 3277.3 45.887     6.1681       4       0.1869

 

clinicalfSRM.g

#最后一个数据栏Intragenerational similarity为同代相似性

Intragenerational similarity:

----------------

component estimate   se       z p.value sig ci.lower ci.upper     r

80 A.F ~~ A.M   -0.009 0.022 -0.424 p = .672       -0.053   0.034     NA

81 P.F ~~ P.M   0.051 0.029 1.739 p = .082   †     -0.007   0.109 .844

82 A.S ~~ A.T   -0.005 0.030 -0.159 p = .873       -0.064   0.055 -.059

83 P.S ~~ P.T   -0.015 0.025 -0.627 p = .531       -0.064   0.033 -.277

 

clinicalfSRM.m <-fSRM(neg~actor.id*partner.id | family.id, data =clinical, means=T)

clinicalfSRM.m

#最后一个数据栏Mean structure为平均数的差异

Mean structure

----------------

factor estimate   se     z   p.value sig ci.lower ci.upper

1     FE     1.854 0.029 64.902 p < .001 ***     1.807   1.901

2     A.F     -0.275 0.035 -7.959 p < .001 ***     -0.332   -0.218

3   A.M     -0.228 0.036 -6.401 p < .001 ***     -0.286   -0.169

4     A.S     0.146 0.042 3.447 p < .001 ***   0.077   0.216

5     A.T     0.356 0.042 8.515 p < .001 ***   0.288   0.425

6     P.F     -0.232 0.040 -5.756 p < .001 ***     -0.299   -0.166

7     P.M     -0.226 0.037 -6.076 p < .001 ***     -0.288   -0.165

8     P.S     0.159 0.039 4.088 p < .001 ***   0.095   0.223

9     P.T     0.299 0.038 7.842 p < .001 ***   0.236   0.362

10 R.F.M     0.200 0.039 5.106 p < .001 ***   0.136   0.265

11 R.F.S     -0.097 0.036 -2.674 p = .007   **   -0.157   -0.037

12 R.F.T     -0.103 0.036 -2.843 p = .004   **   -0.163   -0.043

13 R.M.F     0.235 0.038 6.182 p < .001 ***   0.173   0.298

14 R.M.S     -0.076 0.039 -1.947 p = .052     †   -0.141   -0.012

15 R.M.T     -0.159 0.036 -4.400 p < .001 ***     -0.218   -0.100

16 R.S.F     -0.130 0.036 -3.600 p < .001 ***     -0.189   -0.071

17 R.S.M     -0.132 0.040 -3.329 p < .001 ***     -0.197   -0.067

18 R.S.T     0.262 0.038 6.808 p < .001 ***   0.199   0.325

19 R.T.F     -0.105 0.039 -2.672 p = .008   **   -0.170   -0.041

20 R.T.M     -0.068 0.041 -1.668 p = .095     †   -0.135   -0.001

21 R.T.S     0.173 0.044 3.951 p < .001 ***   0.101   0.246

 

plot(clinicalfSRM.m,means=T)

  means

 

#箭头图讲解了这些效应:

#基于家庭因素产生一条水平估计的消极效应值,不同类型的效应在不同的双向关系中产生不同的影响

#对于相同的actor,实线是一样的;对于相同的partner,间段线是一样的

equalMeans(clinicalfSRM.m)

> equalMeans(clinicalfSRM.m)

Wald df p.value sig

H0: Equal actor means       123.433 3 p < .001 ***

H0: Equal partner means       99.482   3 p < .001 ***

H0: Equal relationship means 63.826   5 p < .001 ***

 

#假设检验,方差分析,验证得出评价者、被评价者以及关系都是有显著效应的

clinicalfSRM.p <-fSRM(neg~actor.id*partner.id | family.id, data =clinical, means=T,pairwise=T)

clinicalfSRM.p

#把评价者和被评价者都相互配对后的效应,观察C.开头的数据栏

Mean structure: Indices starting with 'C.' are pairwise comparisons between roles

----------------

factor estimate   se         z p.value sig ci.lower ci.upper

1             FE   1.854 0.029 64.902 p < .001 ***   1.807     1.901

2           A.F   -0.275 0.035 -7.959 p < .001 ***   -0.332     -0.218

3           A.M   -0.228 0.036 -6.401 p < .001 ***   -0.286     -0.169

4           A.S   0.146 0.042   3.447 p < .001 ***   0.077     0.216

5           A.T   0.356 0.042   8.515 p < .001 ***   0.288     0.425

6            P.F     -0.232 0.040 -5.756 p < .001 ***   -0.299   -0.166

7           P.M   -0.226 0.037 -6.076 p < .001 ***   -0.288     -0.165

8           P.S   0.159 0.039   4.088 p < .001 ***   0.095     0.223

9           P.T   0.299 0.038   7.842 p < .001 ***   0.236     0.362

10         R.F.M   0.200 0.039   5.106 p < .001 ***   0.136     0.265

11         R.F.S   -0.097 0.036 -2.674 p = .007 **     -0.157   -0.037

12         R.F.T   -0.103 0.036 -2.843 p = .004 **     -0.163   -0.043

13         R.M.F   0.235 0.038   6.182 p < .001 ***   0.173     0.298

14         R.M.S   -0.076 0.039 -1.947 p = .052   †     -0.141   -0.012

15         R.M.T   -0.159 0.036 -4.400 p < .001 ***   -0.218     -0.100

16         R.S.F   -0.130 0.036 -3.600 p < .001 ***   -0.189     -0.071

17         R.S.M   -0.132 0.040 -3.329 p < .001 ***   -0.197     -0.067

18         R.S.T   0.262 0.038   6.808 p < .001 ***   0.199     0.325

19         R.T.F   -0.105 0.039 -2.672 p = .008 **     -0.170   -0.041

20         R.T.M   -0.068 0.041 -1.668 p = .095   †     -0.135   -0.001

21         R.T.S   0.173 0.044   3.951 p < .001 ***   0.101     0.246

22 C.means.A.F.M   -0.047 0.051 -0.917 p = .359       -0.132   0.037

23 C.means.P.F.M   -0.006 0.061 -0.096 p = .923       -0.107   0.095

24 C.means.A.F.S   -0.421 0.065 -6.472 p < .001 ***   -0.529     -0.314

25 C.means.P.F.S   -0.392 0.067 -5.808 p < .001 ***   -0.503     -0.281

26 C.means.A.F.T   -0.631 0.062 -10.105 p < .001 ***   -0.734     -0.529

27 C.means.P.F.T   -0.532 0.065 -8.211 p < .001 ***   -0.638     -0.425

28 C.means.A.M.S   -0.374 0.064 -5.805 p < .001 ***   -0.480     -0.268

29 C.means.P.M.S   -0.386 0.062 -6.227 p < .001 ***   -0.488     -0.284

30 C.means.A.M.T   -0.584 0.065 -8.930 p < .001 ***   -0.692     -0.477

31 C.means.P.M.T   -0.526 0.063 -8.374 p < .001 ***   -0.629     -0.422

32 C.means.A.S.T   -0.210 0.070 -3.017 p = .003 **     -0.324   -0.095

33 C.means.P.S.T   -0.140 0.061 -2.305 p = .021   *     -0.240   -0.040

 

freeroles <-fSRM(neg~actor.id*partner.id | family.id, data = clinical, means=T)

equalroles <-fSRM(neg~actor.id*partner.id | family.id, data = clinical, means=T, rolesEqual=T)

anova(freeroles$fit,equalroles$fit)

#比较角色差异是否显著(废话肯定有),通过简单修改fSRM中参数rolesEqual,方差分析两个模型,显著

> anova(freeroles$fit,equalroles$fit)

Chi Square Difference Test

 

Df   AIC     BIC   Chisq Chisq diff Df diff Pr(>Chisq)

freeroles$fit 47 3214.9 3334.7 45.887

equalroles$fit 83 3415.8 3435.3 318.817     272.93     36   < 2.2e-16 ***

---

Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

 

 

 

 

二、

 

#上述的是没有实验设计的不同组别的,下列例子便为两组的fSRM模型

data(two.groups)

twogroupsfSRM<-fSRM(neg~actor.id*partner.id | family.id, data =two.groups, group = "group",means =T, diff=T)

#与第一个例子类似,前面部分显示两个组的各个层因素的统计量,但最后部分为两个组的组差异比较

twogroupsfSRM

 

#####################################

Difference of means between groups (1-2)

#####################################

component   diff     se     z p.value sig ci.lower ci.upper

.meanDiff.FE 0.209 0.030   7.043 p < .001 ***     0.151   0.267

.meanDiff.A.F -0.136 0.045 -3.023 p = .003 **     -0.224   -0.048

.meanDiff.A.M 0.060 0.045 1.316 p = .188       -0.029   0.149

.meanDiff.A.S -0.186 0.055 -3.399 p = .001 **     -0.293   -0.079

.meanDiff.A.T 0.262 0.050 5.188 p < .001 ***   0.163     0.361

.meanDiff.P.F -0.008 0.050 -0.166 p = .868       -0.106   0.089

.meanDiff.P.M -0.038 0.049 -0.774 p = .439       -0.133   0.058

.meanDiff.P.S -0.021 0.050 -0.429 p = .668       -0.119   0.076

.meanDiff.P.T 0.276 0.048 5.714 p < .001 ***   0.181     0.371

.meanDiff.R.F.M -0.031 0.048 -0.651 p = .515       -0.124   0.062

.meanDiff.R.F.S 0.000 0.044   0.006 p = .995       -0.086   0.087

.meanDiff.R.F.T 0.031 0.044   0.707 p = .480       -0.055   0.116

.meanDiff.R.M.F -0.040 0.047 -0.852 p = .394       -0.133   0.053

.meanDiff.R.M.S 0.050 0.048   1.031 p = .303       -0.045   0.144

.meanDiff.R.M.T -0.009 0.045 -0.207 p = .836       -0.097   0.079

.meanDiff.R.S.F -0.006 0.045 -0.139 p = .890       -0.095   0.083

.meanDiff.R.S.M 0.028 0.050   0.560 p = .576       -0.070   0.125

.meanDiff.R.S.T -0.021 0.050 -0.432 p = .666       -0.119   0.076

.meanDiff.R.T.F 0.047 0.046   1.022 p = .307       -0.043   0.136

.meanDiff.R.T.M 0.003 0.048   0.068 p = .946       -0.091   0.097

.meanDiff.R.T.S -0.050 0.051 -0.974 p = .330       -0.151   0.051

 

 

#####################################

Difference of variances between groups (1-2)

#####################################

component   diff     se     z p.value sig ci.lower ci.upper

.varDiff.FE 0.004 0.023   0.163 p = .870       -0.041   0.048

.varDiff.A.F -0.057 0.032 -1.788 p = .074   †     -0.120   0.006

.varDiff.A.M -0.010 0.034 -0.303 p = .762       -0.077   0.056

.varDiff.A.S 0.027 0.055 0.494 p = .621       -0.081   0.136

.varDiff.A.T 0.023 0.046 0.498 p = .618       -0.067   0.112

.varDiff.P.F 0.052 0.041 1.257 p = .209       -0.029   0.133

.varDiff.P.M -0.065 0.040 -1.648 p = .099   †     -0.143   0.012

.varDiff.P.S -0.008 0.041 -0.183 p = .855       -0.088   0.073

.varDiff.P.T 0.034 0.038 0.885 p = .376       -0.041   0.108

.varDiff.R.F.M 0.171 0.076   2.259 p = .024   *   0.023     0.319

.varDiff.R.F.S 0.074 0.070   1.070 p = .285       -0.062   0.211

.varDiff.R.F.T 0.255 0.069   3.677 p < .001 ***   0.119     0.390

.varDiff.R.M.F 0.066 0.078   0.844 p = .399       -0.087   0.218

.varDiff.R.M.S 0.105 0.091   1.152 p = .249       -0.074   0.284

.varDiff.R.M.T 0.112 0.069   1.611 p = .107       -0.024   0.248

.varDiff.R.S.F 0.084 0.088   0.963 p = .335       -0.087   0.256

.varDiff.R.S.M 0.091 0.106   0.856 p = .392       -0.118   0.300

.varDiff.R.S.T -0.061 0.119 -0.512 p = .609       -0.295   0.173

.varDiff.R.T.F 0.327 0.085   3.869 p < .001 ***     0.161   0.493

.varDiff.R.T.M 0.275 0.089   3.077 p = .002 **   0.100     0.450

.varDiff.R.T.S 0.462 0.131   3.515 p < .001 ***     0.205   0.720

 

 

 

 

三、

 

#上述两个例子都是4成员家庭,父、母、目标少年、其兄弟姐妹,下列为3成员家庭,父、母、目标孩子

#其实也差不多,少了一系列的效应而已,不过对于中国独生子女来说还是挺有意义的

data(three.person)

threepersonfSRM<-fSRM(anx1/anx2 ~actor.id*partner.id | family.id, data=three.person,means=T)

#要注意的是,在3成员家庭中,fSRM模型默认把family variance家庭差异归为0(应该有科学依据)

#科学依据猜测,比如子女如果是兄弟、姐妹、兄妹、姐弟之类的就有家庭差异,而独生子女就没有

#这个差异可以通过drop参数来自己添上想研究的变量

threepersonfSRM

#其中数据栏和之前的解释类似

fSRM version 0.6.1

================================

 

SRM with roles (Roles: f, m, y); DVs = anx1, anx2

 

Model summary:

----------------

lavaan (0.5-18) converged normally after 65 iterations

 

Number of observations                           208

 

Estimator                                        ML

Minimum Function Test Statistic               59.792

Degrees of freedom                               24

P-value (Chi-square)                           0.000

 

Model Fit:

----------------

Chi2 (df=24) = 59.792, p = 0

CFI = 0.973

TLI / NNFI = 0.927

RMSEA = 0.085 [0.058;0.112]; Test of close fit: p(data | true value == .05) = 0.019

 

 

Variance decomposition:

----------------

component estimate   se       z p.value sig ci.lower ci.upper

1     A.f ~~ A.f   0.190 0.048 3.945 p < .001 ***   0.111     0.269

2     A.m ~~ A.m   0.206 0.048 4.280 p < .001 ***   0.127     0.286

3     A.y ~~ A.y   0.298 0.047 6.414 p < .001 ***   0.222     0.375

4     P.f ~~ P.f   0.072 0.046 1.552 p = .060   †     -0.004   0.147

5     P.m ~~ P.m   0.072 0.043 1.696 p = .045   *     0.002   0.142

6     P.y ~~ P.y   0.142 0.039 3.614 p < .001 ***   0.077     0.206

7   R.f.m ~~ R.f.m   0.517 0.086 5.995 p < .001 ***   0.375   0.659

8   R.f.y ~~ R.f.y   0.134 0.062 2.169 p = .015   *   0.032     0.236

9   R.m.f ~~ R.m.f   0.394 0.083 4.744 p < .001 ***   0.257   0.530

10 R.m.y ~~ R.m.y   0.181 0.061 2.983 p = .001 **     0.081   0.280

11 R.y.f ~~ R.y.f   0.213 0.067 3.179 p < .001 ***   0.103     0.323

12 R.y.m ~~ R.y.m   0.055 0.057 0.956 p = .170      -0.039     0.149

 

(p-values are for one-sided tests for variances; confidence level for CIs is 90 %)

 

 

 

Relative variance decomposition:

----------------

Family Actor Partner Relationship Error Explained

f_m       0     21       8           57   14         86

f_y       0     30     23           21   26         74

m_f       0     24       8           45   23         77

m_y       0     31     21           27   21         79

y_f       0     39       9           28   24         76

y_m       0     47     11           9   33         67

mean     0     32     13           31   24         76

 

 

Generalized reciprocity (actor-partner covariances):

----------------

component estimate   se     z   p.value sig ci.lower ci.upper     r

1 A.f ~~ P.f   0.028 0.036 0.783 p = .434       -0.042   0.099 .242

2 A.m ~~ P.m   0.094 0.035 2.708 p = .007 **     0.026   0.161 .766

3 A.y ~~ P.y   0.094 0.031 3.062 p = .002 **     0.034   0.155 .458

 

 

Dyadic reciprocity (relationship covariances):

----------------

component estimate   se       z p.value sig ci.lower ci.upper     r

1 R.f.m ~~ R.m.f   0.157 0.064 2.456 p = .014   *     0.032   0.282 .348

2 R.f.y ~~ R.y.f   0.029 0.048 0.598 p = .550       -0.066   0.124   .172

3 R.m.y ~~ R.y.m   -0.071 0.044 -1.622 p = .105       -0.157   0.015 -.715

 

 

Mean structure

----------------

factor estimate   se     z   p.value sig ci.lower ci.upper

1     FE     1.894 0.032 59.803 p < .001 ***     1.842   1.946

2     A.f     0.093 0.034 2.683 p = .007 **     0.036   0.149

3     A.m     -0.067 0.036 -1.852 p = .064     †   -0.127   -0.008

4     A.y     -0.025 0.042 -0.595 p = .552         -0.095   0.044

5     P.f     0.061 0.028 2.155 p = .031   *     0.014   0.108

6     P.m     -0.092 0.031 -3.004 p = .003   **   -0.142   -0.042

7     P.y     0.031 0.036 0.847 p = .397       -0.029   0.090

8   R.f.m     0.023 0.015 1.568 p = .117       -0.001   0.048

9   R.f.y     -0.023 0.015 -1.568 p = .117         -0.048   0.001

10 R.m.f     -0.023 0.015 -1.568 p = .117         -0.048   0.001

11 R.m.y     0.023 0.015 1.568 p = .117       -0.001   0.048

12 R.y.f     0.023 0.015 1.568 p = .117       -0.001   0.048

13 R.y.m     -0.023 0.015 -1.568 p = .117         -0.048   0.001

 

plot(threepersonfSRM)

#看各部分差异的比重,其中误差可以单独表现出来

 3personfSRM

 

equalMeans(threepersonfSRM)

#查看各个要素平均值是否相同,发现关系的平均数没有显著影响了

> equalMeans(threepersonfSRM)

Wald df p.value sig

H0: Equal actor means         8.450 2 p = .015     *

H0: Equal partner means     11.168   2 p = .004 **

H0: Equal relationship means 2.458   1 p = .117

 

threepersonfSRM.p<-fSRM(anx1/anx2 ~actor.id*partner.id | family.id, data=three.person,means=T,pairwise=T)

#查看配对后的效应

Mean structure: Indices starting with 'C.' are pairwise comparisons between roles

----------------

factor estimate   se       z p.value sig ci.lower ci.upper

1             FE   1.894 0.032 59.803 p < .001 ***   1.842     1.946

2           A.f   0.093 0.034 2.683 p = .007 **     0.036   0.149

3           A.m   -0.067 0.036 -1.852 p = .064   †     -0.127   -0.008

4           A.y   -0.025 0.042 -0.595 p = .552       -0.095   0.044

5           P.f   0.061 0.028 2.155 p = .031   *     0.014   0.108

6           P.m   -0.092 0.031 -3.004 p = .003 **     -0.142   -0.042

7           P.y   0.031 0.036 0.847 p = .397       -0.029   0.090

8         R.f.m   0.023 0.015 1.568 p = .117       -0.001   0.048

9         R.f.y   -0.023 0.015 -1.568 p = .117       -0.048   0.001

10         R.m.f   -0.023 0.015 -1.568 p = .117       -0.048   0.001

11         R.m.y   0.023 0.015 1.568 p = .117       -0.001   0.048

12         R.y.f   0.023 0.015 1.568 p = .117       -0.001   0.048

13         R.y.m   -0.023 0.015 -1.568 p = .117       -0.048   0.001

14 C.means.A.f.m   0.160 0.057 2.807 p = .005 **     0.066   0.254

15 C.means.P.f.m   0.153 0.046 3.289 p = .001 **     0.076   0.229

16 C.means.A.f.y   0.118 0.068 1.730 p = .084   †     0.006   0.229

17 C.means.P.f.y   0.030 0.057 0.529 p = .597       -0.064   0.125

18 C.means.A.m.y   -0.042 0.071 -0.597 p = .551       -0.159   0.074

19 C.means.P.m.y   -0.122 0.061 -2.016 p = .044   *     -0.222   -0.023

 

 

 

 

 

 

 

 

 

 

[统计计算方法] EM算法以及R语言实现编码

required(mixtools)

##edited from function mvnormalmixEX()

t.math.em <- function (x, lambda = NULL, mu = NULL, sigma = NULL, k = 2,
epsilon = 1e-08, maxit = 10000)
{

x <- as.matrix(x)
n <- nrow(x)
p <- ncol(x)

#initial values
tmp <- mvnormalmix.init(x = x, lambda = lambda, mu = mu,
sigma = sigma, k = k, arbmean = TRUE, arbvar = TRUE)
lambda <- tmp$lambda
mu <- tmp$mu
sigma <- tmp$sigma
k = tmp$k
diff <- 1
iter <- 0
comp <- lapply(1:k, function(i) lambda[i] * dmvnorm(x,mu[[i]], sigma[[i]]))
comp <- sapply(comp, cbind)
compsum <- apply(comp, 1, sum)
obsloglik <- sum(log(compsum))
ll <- obsloglik
#loop
while (diff > epsilon & iter < maxit) {
z = matrix(nrow = n, ncol = k)
for (i in 1:n) {
for (j in 1:k) {
z.denom = c()
for (m in 1:k) {
#E step
z.denom = c(z.denom, lambda[m]/lambda[j] *
(det(sigma[[j]])/det(sigma[[m]]))^(0.5) *
exp(-0.5 * ((x[i, ] - mu[[m]]) %*% solve(sigma[[m]]) %*%
t(t(x[i, ] - mu[[m]])) - (x[i, ] - mu[[j]]) %*%
solve(sigma[[j]]) %*% t(t(x[i, ] - mu[[j]])))))
}
z[i, j] = 1/sum(z.denom)
}
}
z = z/apply(z, 1, sum)
lambda.new <- apply(z, 2, mean)
mu.new <- lapply(1:k, function(j)
sapply(1:p,function(i)
apply(z * x[, i], 2, sum))[j, ]/sum(z[, j]))
sigma.new <- lapply(1:k, function(j)
matrix(apply(sapply(1:n,function(i)
z[i, j] * (x[i, ] - mu.new[[j]]) %*% t(x[i, ] - mu.new[[j]])), 1, sum), p, p)/sum(z[,
lambda <- lambda.new
mu <- mu.new
sigma <- sigma.new
#M step
comp <- lapply(1:k, function(i) lambda[i] * dmvnorm(x,mu[[i]], sigma[[i]]))
comp <- sapply(comp, cbind)
compsum <- apply(comp, 1, sum)
newobsloglik <- sum(log(compsum))
diff <- newobsloglik - obsloglik
obsloglik <- newobsloglik
ll <- c(ll, obsloglik)
iter <- iter + 1
}
print(list(x=x, lambda=lambda,mu=mu, sigma=sigma,obsloglik=obsloglik,loglike = ll))
}

test dataset: Data1

t.math.em(Data[ ,-1])

 

心理统计(二):聚类分析

因为之前室友和一位导师有交流过类似的问题,自己当时还对这个名词不熟悉,因此在网上看了一些通俗的文章后学着自己用R简单地操作了一下。

概念:
聚类分析其实便是将一系列调查的数据分类,相比于主成分分析与因子分析,它的研究对象是调查对象而并非变量。如对各种酒类进行调查,获得钠含量、酒精度、热量、价格等数据。通过对这些数据的归类(或者理论依据),我们可以将这些酒分为酿造酒、蒸馏酒、配制酒(专业术语,通俗一点便是如依照酒精度的高低分为烈酒、饮料酒之类的)等不同酒类。

首先,我们需要对变量进行审核,如上例子,如果钠含量与热量存在高度相关,那么在归类时可以将这两项合并为一项影响因素,类似的,得出一套分类的数据作为基础。在其中称为矩阵整合。

其次,分类的种类,此处运用术语解释为Q型(距离)和R型(相关性)聚类;Q型分类的方法类似于将数据的各个变量看成许多描述该数据的坐标,用各种不同的方式计算距离来分类(如明考夫斯基距离、欧式距离、切比雪夫距离等),而R型分类则是定义相关性(斜率夹角余弦、相关系数)而归类;分类的方法包括K均值法和系统聚类法。

在R中的操作,最基本的函数为dist(),定义距离;hclust()进行分类。

R代码如下(Rweb环境下部分内容无法读取):
attach(mtcars)
#采用mtcars数据集中一系列的数据对车辆进行归类
mtcars.hc<-(dist(mtcars))
#dist()函数用于测定包中的距离,默认方式为欧氏距离(method="euclidean");hclust()用于归类,默认方式为最长距离法(method="complete")
plclust(mtcars.hc,hang=-1)
#采用plclust()绘图函数绘制聚类图,当然在现在的R中该函数不被推荐
mtcars.d<-dist(mtcars,"euclidean")
#双引号中的名词为距离方法
hc1<-hclust(mtcars.d,"single")
hc2<-hclust(mtcars.d,"complete")
hc3<-hclust(mtcars.d,"median")
hc4<-hclust(mtcars.d,"ward.D")
#双引号中的名词为聚类方法
opar<-par(mfrow=c(2,2))
plot(hc1,hang=-1);plot(hc2,hang=-1);plot(hc3,hang=-1);plot(hc4,hang=-1)
#hang参数将所有图中汽车名称划在统一水平线
par(opar)

可以看出按照不同聚类方法产生的归类有所不同:
mtcars2mtcars1

接下来的操作来自于《R语言与统计分析》(汤银才 编)。



如上的显示结果为:
irisplot
Species
setosa versicolor virginica
1 50 0 0
2 0 23 49
3 0 27 1
从中可以看出,按照图形中大致分为三类,分别为setosa,virginica和versicolor。

更进一步的分类方法依赖于cluster,rattle,amap包中,之后有空或许会再跟进。

参考阅读:
http://www.dataguru.cn/article-2216-1.html
http://uedc.163.com/3287.html
http://blog.sina.com.cn/s/blog_49ca0cb4010005hy.html
http://wenku.baidu.com/link?url=bmfaz2T2z39Y8wNPST_4HlBB3mjNycomET8v3VWT2ILWWAPLf5mAnYMebWhN0s9bmS-SgnL0PVjJcM2DLxGmf5cBN6xvySIWOxyqaM09CJy
http://wenku.baidu.com/link?url=ToGdPYbJjsxpxnHp-Ndmu59dKDqZNl-IDr_fcdUKqxP6wmA8KH-FpOsyWczQzopI39Y1DPHGptaYaUUhQNTwT01h9zP2ctvynBA9GaREEW
http://blog.sina.com.cn/s/blog_66294b030100s61j.html
http://bbs.pinggu.org/thread-2381246-1-1.html

14.11.24

心理统计(二):验证性因子分析

接上次作业,这次主要是自己略微玩了一下上次介绍的sem与lavaan包中的验证性因子分析方法。

验证性因子分析其实就是一种对理论模型拟合的方法。比如说对于孤独,理论上建立了有社会孤独和情感孤独,那么在验证这个方法时就默认为两个因子影响,或者说建立模型,比如15个项目测量孤独,人为设置的比如奇数项测量社会孤独,偶数项测量情感孤独,按照如此建立模型。

R中的作验证性因子分析CFA主要有sem、openMX和lavaan包。

以下为简单的数据集,数据来源《R语言与统计分析》(汤银才 编)

student math phi chem lit his eng
1 s1 65 61 72 84 81 79
2 s2 77 77 76 64 70 55
3 s3 67 63 49 65 67 57
4 s4 80 69 75 74 74 63
5 s5 74 70 80 84 81 74
6 s6 78 84 75 62 71 64
7 s7 66 71 67 52 65 57
8 s8 77 71 57 72 86 71
9 s9 83 100 79 41 67 50

我们可以直接按照理论将这6个项目分为理科因子与文科因子;



或者载入sem包或lavaan包,这些包都需要先编写模型,在Rweb上并不适用。

#lavaan包
library(lavaan)
model.st<- 'sci = ~ math+phi+chem
art = ~ lit+his+eng'
#以上是lavaan的模型建构,比较简单
ca<- cfa(model.st,data=student)
summary(ca)
#以下为结果:

lavaan (0.5-17) converged normally after 169 iterations

Number of observations 9

Estimator ML
Minimum Function Test Statistic 18.645
Degrees of freedom 8
P-value (Chi-square) 0.017

Parameter estimates:

Information Expected
Standard Errors Standard

Estimate Std.err Z-value P(>|z|)
Latent variables:
sci =~
math 1.000
phi 4.953 3.376 1.467 0.142
chem 1.217 0.755 1.613 0.107
art =~
lit 1.000
his 0.357 0.114 3.124 0.002
eng 0.550 0.113 4.848 0.000

Covariances:
sci ~~
art -24.665 24.265 -1.016 0.309

Variances:
math 29.102 13.255
phi -100.144 91.883
chem 85.225 37.920
lit -15.216 11.705
his 24.940 10.905
eng 24.922 11.215
sci 9.219 11.207
art 191.685 83.393

#sem包
library(sem)
mod.st<-cfa()
#sem包中的cfa()函数可以自动让你换行输入想要的模型,自动读入,并且在空白行回车可以退出
science: math,phi,chem
art: lit,his,eng
sem.st<-sem(mod.st, data=student,formula = ~ math + phi + chem + lit + his + eng)
summary(sem.st)
#以下为结果:

Model Chisquare = 16.57364 Df = 8 Pr(>Chisq) = 0.03486794
AIC = 42.57364
BIC = -1.004157

Normalized Residuals
Min. 1st Qu. Median Mean 3rd Qu. Max.
-0.2454 0.0000 0.1533 0.2487 0.5827 0.8136

R-square for Endogenous Variables
math phi chem lit his eng
0.2406 1.7948 0.1382 1.0862 0.4947 0.6993

Parameter Estimates
Estimate Std Error z value Pr(>|z|)
lam[phi:science] 4.9528985 3.5807192 1.3832133 1.665995e-01
lam[chem:science] 1.2174785 0.8005608 1.5207821 1.283145e-01
lam[his:art] 0.3569081 0.1211852 2.9451459 3.228024e-03
lam[eng:art] 0.5499129 0.1203135 4.5706653 4.861783e-06
V[science] 10.3709360 13.3731918 0.7755019 4.380431e-01
V[art] 215.6459155 99.5082663 2.1671156 3.022604e-02
C[science,art] -27.7486463 28.9543795 -0.9583575 3.378825e-01
V[math] 32.7401747 15.8164411 2.0700089 3.845151e-02
V[phi] -112.6615381 109.6388842 -1.0275692 3.041525e-01
V[chem] 95.8776378 45.2478262 2.1189446 3.409515e-02
V[lit] -17.1181370 13.9674860 -1.2255704 2.203604e-01
V[his] 28.0580729 13.0128270 2.1561858 3.106916e-02
V[eng] 28.0377770 13.3823081 2.0951376 3.615876e-02

lam[phi:science] phi <--- science
lam[chem:science] chem <--- science
lam[his:art] his <--- art
lam[eng:art] eng <--- art
V[science] science <--> science
V[art] art <--> art
C[science,art] art <--> science
V[math] math <--> math
V[phi] phi <--> phi
V[chem] chem <--> chem
V[lit] lit <--> lit
V[his] his <--> his
V[eng] eng <--> eng

Iterations = 191

由于对CFA的理论知识不充足,这些语句都局限在操作层面上,相关解释还有待进一步学习。

14.11.14

心理统计(二):主成分分析与探索性因子分析

因为在之后的准备写的一篇关于孤独的论文中需要用到,因此在这边首先进行操作练习。

这两种统计方法并没有经常出现在我之前的学习应用中,但的确是非常有用(社会科学的同学应该已经用到过),两种都是为了精简变量,并且用核心的因素来帮助概括结论。

主成分分析:将一组变量化为几个主成分,这些主成分都是变量的线性组合,每个主成分互不相关,成正交关系。按我的理解是,主成分是观测变量组合的“上级”变量。
举例:比如关于一个地区的人口的身体指标数据集,你拥有包括如出生、身高、指距、体重、性别、腰围等等一系列变量,如果你希望仅用几个因素就能概括这些变量,那么通过主成分分析,你或许可以得到两个新的因素,就能解释掉很大的变异原因,并且两者是独立的;之后你可以通过新因素与具体变量的相关性将两个新的因素命名,如第一个是衡量因子,第二个是长度-容量因子。

因子分析:包括探索性因子分析和验证性因子分析,前者发现新的变量,后者稳定所假设的结论,在众多已测得的变量中更为基本(通常也更加少)的公共因子,本身是无法测得的,更可能是虚拟的。我的理解是,因子分析应该是观测变量的下级,互相之间有可能是联系的。特别的,在有些网站上主成分分析被归为探索性因子分析中。
举例:以我之后想要做的孤独量表为例,UCLA量表中有20个关于孤独的影响的选项,前人研究以更少的因子来描述这些,因此有“社交孤独”和“情绪孤独”两个更加描述性的因子,可以解释有UCLA量表中的变量值;如一个人可以表现为更加社交孤独,但同时这两个基础因子本身存在一定的相关。此为验证性因子分析。

操作实例:



小结:

主成分分析:
探索性因子分析:

PCFA
碎石图,表明在红虚线以上的图案个数为因子个数;
FA
探索性因子与变量及自身之间的相关系数图

之后会再学习验证性因子分析,相关的R包有sem、openMX、lavaan。

14.11.7

认知心理学——三篇科普文翻译

10 Current Psychology Studies Every Parent Should Know
10 个每个家长应当知道的心理学当代研究
Whether parents are happier than non-parents, why siblings are so different, the perils of discipline, bedtimes, TV and more…
传统家庭是否比丁克家庭更加幸福,为什么兄弟姐妹之间是如此不同,管教的风险,睡觉时间,观看电视以及更多方面的约束

One of the many reasons parenting is an impossible job is that everyone is giving you advice, and much of it is rubbish.
家长作为一个不可能的职业的其中一个理由便是每个人都在给你建议,但许多都是没有用的。

Frankly, it’s amazing we’ve all made it this far.
坦率地说,我们做了如此多已经很了不起了。

So, bucking the trend of random anecdote and superstition, here are ten recent psychology studies that every parent should know.
因此,抛开那些随意的传闻和迷信的潮流,这里提供了十条每一位家长都应该知道的心理学最近的研究。

1. Parents are happier than non-parents
1. 为人父母的确更加快乐

In recent years some studies have suggested that the pleasures of having children are outweighed by the pains.
最近几年的一些研究已经证实了拥有孩子的快乐远比其产生的麻烦更多。

“Ha!” said parents to themselves, secretly, “I knew it!”
“是的!”那些父母对自己悄声应许,“我早知道了!”

Not so fast though: new research has found that, on average, parents feel better than non-parents each day and derive more pleasure from caring for their children than from other activities (Nelson et al.,. 2013).
虽然没有那么快:新的调查显示,平均而言,那些父母比非父母每天能从照顾孩子中获得更多的欣慰而感觉更好,相较于其他别的活动。(Nelson 等,2013)

Fathers, in particular, derive high levels of positive emotions and happiness from their children.
特别是对父亲而言,他们能够从孩子那里获得更高水平的积极情绪和快乐。

2. Putting your child first is worth it
2. 将孩子放在第一位是值得的

Underlining the pleasures of having children, research finds that child-centric attitudes are beneficial.
在强调拥有孩子的乐趣方面,调查发现那些以孩子为中心的态度是有益的。

A study by Ashton-James et al. (2013) found that parents who were the most child-centric were also happier and derived greater meaning in life from having children.
Ashton-James 等人(2013)的研究表明那些以孩子为中心的父母能够从孩子中获得更好的生活的意义,同时也更加快乐。

Performing child-care activities was associated with greater meaning and fewer negative feelings.
进行儿童保健活动也可以获得更大的价值,更少的负面感情。

“These findings suggest that the more care and attention people give to others, the more happiness and meaning they experience. From this perspective, the more invested parents are in their children’s well-being — that is, the more ‘child centric’ parents are — the more happiness and meaning they will derive from parenting.” (Ashton-James et al., 2013)
“这些发现验证了人们给予他人的关爱和关注越多,自己体会的快乐和价值也越多。从这个方面而言,家长在他们孩子的健康成长中付出的越多——也就是说父母越以孩子为中心——他们从教养中获得的快乐和价值感也越多。”(Ashton-James 等,2013)

So, what’s good for your kids, is also good for you.
因此,对于你孩子有益的事物,同样也对你有益。

3. Helicopter parenting may be depressing
3. 直升机教养可能令人抑郁的

As with many things in life, though, it’s a fine line between caring and smothering; especially when children have grown up.
虽然生活中的很多事情有明确的定义,但是在父母的关爱和溺爱间却没有有明确的界限,尤其是当孩子已经长大了。

Schiffrin et al. (2013) asked 297 undergraduate students about their parents’ behaviour and how they felt about it.
Schiffrin 等(2013)就调查了297位研究生关于他们父母的教养行为以及自己是如何感觉的。

The study found links between ‘helicopter parenting’ and higher levels of depression amongst the students, as well as lower levels of autonomy, relatedness and competence.
这项研究发现了在学生中间,‘直升机教养’和高水平的抑郁之间有相当的联系,同时也包括了低水平的自主性,联结性和竞争力。

“Parents should keep in mind how developmentally appropriate their involvement is and learn to adjust their parenting style when their children feel that they are hovering too closely.” (Schiffrin et al., 2013)
“父母应该时刻在脑中记得如何逐步合适地添加他们的干预以及学会调整他们的教养方式当他们的孩子认为自己被压抑地太多。”

4. Avoid strict discipline
4. 避免严厉的惩罚

Around 90% of American parents admit at least one instance of using strict verbal discipline with their children, such as calling names or swearing at them.
大约90%的美国父母承认他们至少有过一次这样的例子,对自己的孩子使用严厉的口头批评,比如责骂甚至咒骂孩子。

Rather than helping keep adolescents in line, though, be aware that this may just exacerbate the problem.
这样做非但不是帮助青少年保持良好的行为规范,相反地,我们要意识到这些可能会加剧这个问题的严重性。

A study of 967 US families found that harsh verbal discipline at 13-years-old predicted worse behaviour in the next year (Wang et al., 2013).
一个关于967户美国家庭的研究发现在13岁孩子身上的这些严酷的口头批评会导致下一年更严重的行为。(Wang 等,2013)

And it didn’t help if parents had a strong bond with their children. The study’s lead author Ming-Te Wang explained:
而且如果父母对孩子有很强的责任心,口头批评更加不会有所帮助。这个研究的领导人Ming-Te Wang解释到:

“The notion that harsh discipline is without consequence, once there is a strong parent-child bond–that the adolescent will understand that ‘they’re doing this because they love me’–is misguided because parents’ warmth didn’t lessen the effects of harsh verbal discipline. Indeed, harsh verbal discipline appears to be detrimental in all circumstances.”
“严厉的惩罚是没有消极后果的,特别是家长与孩子之间有很强联结的时候——那些青少年们会理解父母这样做是因为爱他们——被完全错误地理解了,因为父母的温暖丝毫不会减少那些严厉口头批评的作用。相反,那些恶劣的口头惩罚在所有环境下都是有害的。”

5. Regular bedtimes
5. 规定的就寝时间

Regular bedtimes really matter to children’s developing brains.
规定的就寝时间对于孩子发育的大脑影响很大。

Researchers followed 11,000 children from when they were 3-years old to the age of 7 to measure the effects of bedtimes on cognitive function, (Kelly et al., 2013).
研究者跟踪了11000个孩子的3岁至7岁的时间,去测量就寝时间对于认知功能的影响,(Kelly 等,2013)

The researchers found that:
研究者发现:

“…irregular bedtimes at 3 years of age were associated with lower scores in reading, maths, and spatial awareness in both boys and girls, suggesting that around the age of 3 could be a sensitive period for cognitive development.”
“…在3岁时没有常规的就寝时间会导致所有性别的孩子在阅读、数学和空间概念方面的低分,这也验证了3岁左右是一个对于认知发展较为敏感的阶段。”

Regular bedtimes are important for both boys and girls and the earlier these can be implemented, the better for cognitive performance.
常规的就寝时间对于所有男孩和女孩都相当重要,而且越早实施,他们的认知表现也会越好。

6. Do the chores together
6. 一起做家务

Bringing up happy children is easier if Mum and Dad’s relationship isn’t too rocky. One frequent bone of contention between parents is the chores.
如果爸爸妈妈之间的关系不是很紧张的话,带给孩子快乐是相对简单的。一个常用的增加之间联系的方法便是家务。

A trick for achieving marital satisfaction over the chores is to do them together.
一个在家务上达到婚姻幸福的小技巧便是一起做家务。

When partners perform their chores at the same time–no matter who is doing what–both people are more satisfied with the division of labour (Galovan et al., 2013).
当父母同时都在做家务时——不管谁在做些什么——两个人对于劳务的划分都会更加满意(Galovan 等,2013)。

7. Limit infant TV viewing
7. 限制幼儿看电视的时间

The American Academy of Pediatrics recommends that children should watch no more than two hours of TV per day after two years of age, and none before that age.
美国儿童科学会建议孩子在两岁之前不应该看电视,两岁之后每天不要看电视超过两个小时。

Here’s why: a new study that followed almost 2,000 Canadian children from birth found that an extra hour’s TV viewing at 2.5-years-old predicted worse performance later when they attended kindergarten (Pagani et al., 2013).
这里是理由:一项跟踪了几乎2000名从出生开始的加拿大孩子的研究,发现在孩子2岁半时的一个额外小时的电视观看会在孩子进入幼儿园时表现地更差(Pagani 等,2013)。

The more children exceeded this recommendation at 2.5 years old, the worse their vocabulary, math and motor skills were at 5-years-old.
在2岁半的孩子观看电视超过这个推荐值越多,他们5岁时的词汇量、数学、运动技能也越糟糕。

More on this study: One Extra Hour of TV Reduces Toddlers’ Kindergarten Chances
更多关于这个研究: One Extra Hour of TV Reduces Toddlers’ Kindergarten Chances

8. Exercise boosts kids’ school performance
8. 运动能提高孩子在学校的表现

Kids are increasingly sedentary and, as I frequently write here on PsyBlog, exercise is a wonderful way to boost brain power, and it has many other benefits (see 20 Wonderful Effects Exercise Has on the Mind).
孩子坐地越来越久,就像我频繁地在PsyBlog上写日志,而运动便是提高脑力的一项美妙方式,并且有许多其他的益处(参看20 Wonderful Effects Exercise Has on the Mind)。

A new study of 11-year-olds has found that moderate to vigorous exercise was associated with increased academic performance in English, Maths and Science (Booth et al., 2013).
一个关于11岁孩子的研究发现中度至激烈的锻炼与英语、数学和理科成绩的进步有关(Booth 等,2013)。

These gains from exercise were also seen in exams taken at 16-years-old.
这些关于锻炼的发现也在16岁孩子的成绩中得到验证。

Interestingly, girls’ science results benefited the most from extra exercise.
有趣的是,女孩的理科成绩通过额外的锻炼收获地更多。

9. Dangers of intense mothering
9. 强烈的母亲照料的危险

Some women say that taking care of children is more stressful than being at work. There are also links between child-rearing and stress and guilt.
一些女性说照顾孩子要比工作更具有压力。关于子女养育和压力、愧疚之间也有联系。

How can we square this with the reports and research findings that children fill your life with joy and meaning?
我们如何能够关于孩子能使你的生活充满乐趣与价值的这份报告和研究补写完整呢?

It may be down to differences in attitudes to parenting. In particular, being an ‘intense mother’ may be bad for you.
这需要下降到对于教养的态度差异上来考虑。特别地,做一个“紧张的母亲”可能会对你有害。

In their study of 181 mothers of children under 5, Rizzo et al. (2012) found that mothers who most strongly endorsed the idea that children were sacred and that women are better parents than men, were more likely to be depressed and experience less satisfaction with life.
在一个拥有5岁以下孩子的181位母亲的研究中,Rizzo 等(2012)发现那些母亲被强烈的意愿充斥着,她们认为孩子是神圣的而且女性比男性更加适合做照料者,而这些母亲更加有可能地在生活中感受到抑郁和经历更少的满足。

Yes, nurture your children, but don’t sacrifice your own mental health.
是的,哺育你的孩子们,但是不要牺牲自己的精神健康。

10. Why siblings are so different
10. 为什么亲生孩子们有差异

Anyone with more than one child will have noticed a curious thing: their personalities are often very dissimilar.
任何一个拥有超过一个孩子的父母会注意到这个有意思的事情:孩子们的人格通常是大不相同的。

In fact, according to a study by Plomin and Daniels (1987), siblings have no more in common in their personalities than two completely unrelated strangers.
事实上,根据1987年 Plomin 和 Daniels 的研究,那些亲的兄弟姐妹之间就如两个完全不相关的陌生人之间,几乎在人格上没有太多的共同点。

This is very weird given that 50% of their genetic code is identical.
这一点非常奇怪,毕竟那些孩子们的50%的基因是相同的。

The answer isn’t in the genes at all, but in the environment in which children grow up.
当然答案完全不在基因里,而是包括了孩子们成长所在的环境。

Far from having the same environments, each child has:
每个孩子都不可能会有一个相同的生活环境,这些包括:
•    a different relationship with their parents,
•    与父母不同的关系,
•    a different relationship with their other siblings,
•    与其他兄弟姐妹不同的关系
•    different friends and experiences at school…
•    不同的朋友和在学校的经历
…and so on.
…等等。

And all these differences add up to quite remarkable dissimilarities between siblings–often such that if they didn’t look alike, you’d never know they were related.
因此所有这些差异全部累积起来导致那些在亲生兄弟姐妹之间的显著的差异——要不是他们长得那么相像,你可能完全不知道他们是亲生兄弟或者姐妹。

All this means, of course, that because their personalities are often so different, parenting strategies that work with one child, may not work with another.
所有这些意味着,当然,因为他们的气质品格是如此的不同,父母照料的方式可能只对某个孩子有效,而对另外一个没有用。

It’s just one more challenge of being a parent!
这便是有一个作为家长的挑战!

http://www.spring.org.uk/2013/11/10-current-psychology-studies-every-parent-should-know.php

10 Remarkable Ways Meditation Helps Your Mind
冥想帮助你思维的10个有效方式

Studies find meditation provides lasting emotional control, cultivates compassion, reduces pain sensitivity, boosts multitasking and more…
研究发现冥想能够延长情感控制,培养同情心,减少疼痛敏感性,提高多任务处理以及更多…

Meditation is about way more than just relaxing.
冥想是一种超越放松的方式。

In fact, if I listed the following mental benefits from a new pill or potion, you’d be rightly sceptical.
事实上,如果我说我列出的下列心理效用来自于一种新的药片或药剂,你很可能理所当然地保持怀疑。

But all these flow from a simple activity which is completely free, involves no expensive equipment, chemicals, apps, books or other products.
但是通过一个简单的活动所获得的所有这些是完全免费的,包括不需要昂贵的一起,化学物品,应用程序,书籍或其他什么产品。

I’ve also included my own very brief meditation instructions below to get you started.
我已经在接下来的内容里涵盖了我自己的简短的冥想导论来帮助你开始。

But first, what are all these remarkable benefits?
但是首先,那些卓越的益处是哪些呢?

1. Lasting emotional control
1. 延长情感控制

Meditation may make us feel calmer while we’re doing it, but do these benefits spill over into everyday life?
当我们冥想时可以感受到更加的冷静,但是这些好处渗透进了日常生活吗?

Desborders et al. (2012) scanned the brains of people taking part in an 8-week meditation program, before and after the course.
Desborders 等人(2012)扫描了一群参加过一个持续8周的冥想课程人在参加活动前后的大脑。

While they were scanned, participants looked at pictures designed to elicit positive, negative and neutral emotional responses.
当他们被扫描时,被试们被分组观看一些被设计引发积极、消极和中性情绪的图片。

After the meditation course, activation in the amygdala, the emotional centre of the brain, was reduced to all pictures.
在冥想课程之后,作为大脑情感中枢的杏仁核,其活跃性在所有图片下都减少。

This suggests that meditation can help provide lasting emotional control, even when you are not meditating.
这个实验说明了冥想可以帮助延长情感控制,即使你并没有在冥想。

2. Cultivate compassion
2. 培养同理心

Meditation has long been thought to help people be more virtuous and compassionate. Now this has been put to scientific test.
冥想一直长时间地被认为能够帮助人们变得更加有良心和同情心。现在这方面也被科学测试所验证了。

In one study participants who had been meditating were given an undercover test of their compassion (Condon et al., 2013).
在一个实验中,使用经过掩盖的测试来测验不知情而且经历过冥想的被试们的同理心。

They were sat in a staged waiting area with two actors when another actor entered on crutches, pretending to be in great pain. The two actors sat next to the participants both ignored the person who was in pain, sending the unconscious signal not to intervene.
他们和两个演员同时坐在等候区,这时另一位演员假装承受着巨大的痛苦,拄着拐杖进入到这个区域。坐在被试边的两名演员都假装忽视另一位装作痛苦的演员,都显得漠不关心而不去干预的样子。

Those who had been meditating, though, were 50% more likely to help the person in pain.
然而,50%的经过冥想的被试,都过去帮助了这位承受痛苦的可怜人。

One of the study’s authors, David DeSteno, said:
这个实验的创作者之一,David DeSteno 说:

“The truly surprising aspect of this finding is that meditation made people willing to act virtuous–to help another who was suffering–even in the face of a norm not to do so.”
“这个实验真正令人惊讶的发现在于,就算处于一种漠不关心的潜规则下,冥想仍然使得人们表现助人为了——去帮助那些受苦难的人们。”

3. Change brain structures
3. 改变大脑结构

Meditation is such a powerful technique that, after only 8 weeks, the brain’s structure changes.
冥想是一种如此强有力的技术,仅仅只需8周,大脑的结构便发生变化了。

To show these effects, images of 16 people’s brains were taken before and after they took a meditation course (Hölzel et al., 2011).
研究者为了展示这些效果,获取了16名被试在冥想课程前后的大脑影像图(Holzel 等,2011)。

Compared with a control group, grey-matter density in the hippocampus–an area associated with learning and memory–was increased.
与对照组相比,大脑海马中与学习和记忆有关的灰质的密度有了明显的增加。

The study’s lead author, Britta Hölzel, said:
这项研究的首席研究者,Britta Holzel 说:

“It is fascinating to see the brain’s plasticity and that, by practicing meditation, we can play an active role in changing the brain and can increase our well-being and quality of life.”
“有趣的是通过这个实验可以看出大脑具有相当的可塑性,通过冥想,我们在改变大脑过程中起到了很重要的作用,而且能够提高我们的身体健康和生活质量。”

4. Reduce pain
4. 减少痛苦

One of the benefits of changes to the brain’s structure is that regular meditators experience less pain.
大脑结构的改变所带来的一个好处是使定期冥想的人感受到更少的痛苦。

Grant et al. (2010) applied a heated plate to the calves of meditators and non-meditators. The meditators had lower pain sensitivity.
Grant 等(2010)将一个加热的盘子贴在冥想者和非冥想者的身体上。那些冥想者对疼痛有着更低的敏感性。

Joshua Grant explained:
Joshua Grant 解释到:

“Through training, Zen meditators appear to thicken certain areas of their cortex and this appears to be underlie their lower sensitivity to pain.”
“通过训练,老到的冥想者似乎可以通过冥想增厚神经元的部分区域,因而解释了他们对疼痛的低敏感性。”

5. Accelerate cognition
5. 加速认知过程

How would you like your brain to work faster?
你希望怎样使你的大脑工作更快?

Zeidan et al. (2010) found significant benefits for novice meditators from only 80 minutes of meditation over 4 days.
Zeidan 等人(2010)发现在那些只经过4天80分钟的新手冥想者上都存在着显著的益处。

Despite their very brief period of practice—and compared with a control group who listened to an audiobook of Tolkein’s The Hobbit—meditators improved on measures of working memory, executive functioning and visuo-spatial processing.
尽管他们对这种训练只有简短的投入——相比于那些听托尔金的《霍比特人》音像书的控制组——冥想者在工作记忆方面,执行功能,视觉空间加工都有所提高。

The authors conclude:
实验作者总结到:

“…that four days of meditation training can enhance the ability to sustain attention; benefits that have previously been reported with long-term meditators.”
“…四天的冥想训练能够提高保持注意力的能力;这些益处之前也从长时期冥想者的报告中体现出。”

Improvements seen on the measures ranged from 15% to over 50%.
测量所得的那些提高的程度从15%到50%不等。

The full article: Cognition Accelerated by Just 4 x 20 Minutes Meditation
全文链接:Cognition Accelerated by Just 4 x 20 Minutes Meditation

6. Meditate to create
6. 静心创作

The right type of meditation can help solve some creative problems.
正确方式的冥想可以帮助解决创作性的问题。

A study by Colzato et al. (2012) had participants take a classic creativity task: think up as many uses as you can for a brick.
Colzato 等(2012)的研究中就让被试进行一个经典的创造性任务:想像一块砖头尽可能多的用处。

Those using an ‘open monitoring’ method of meditation came up with the most ideas.
那些使用冥想中“开放式调整”的方法的被试能够相出最多的主意。

This method uses focusing on the breath to set the mind free.
这个方法采用集中呼吸的方式来解放思维。

7. Sharpen concentration
7. 增强集中力

At its heart, meditation is all about learning to concentrate, to have greater control over the spotlight of attention.
冥想的核心,便是去学习集中,以此对焦点的关注有更强的控制。

An increasing body of studies now underline the benefits of meditation for attention.
越来越多的研究都揭示了冥想对注意力的好处。

For example, Jha et al. 2007 sent 17 people who had not practised meditation before on an 8-week training course in mindfulness-based stress reduction, a type of meditation.
举例而言,Jha 等 (2007)将以前从未体验过冥想的17名被试送入到一个持续8周的集中思维下的减压训练课程,冥想课程中的一种。

These 17 participants were then compared with a further 17 from a control group on a series of attentional measures. The results showed that those who had received training were better at focusing their attention than the control group.
这17位被试接着通过一系列的注意力测验进一步和17位来自控制组的被试对比。结果表示那些接受训练的人相较于控制组能更好地集中注意力。

The full article: How Meditation Improves Attention
全文链接:How Meditation Improves Attention

8. Improve multitasking at work
8. 提高在工作中多线操作的能力

Since meditation benefits different aspects of cognition, it should also improve work performance.
冥想不仅对认知能力的不同方面有所益处,而且还提高了工作表现。

That’s what Levy et al. (2012) tested by giving groups of human resource managers tests of their multitasking abilities.
这个是从Levy 等(2012)通过测试一群人力资源经理的多任务处理能力而得出的。

Those who practised meditation performed better on standard office tasks–like answering phones, writing email and so on–than those who had not been meditating.
在日常的办公室任务中——比如接电话,写电子邮件等——那些有冥想训练的被试要比那些没有的被试表现地更好。

Meditating managers were better able to stay on task and also experienced less stress as a result.
有冥想经历的管理者能够更好地保持任务状态而且也经历了更低的压力水平。

9. Reduce anxiety
9. 减少焦虑感

Meditation is an exercise often recommended for those experiencing anxiety.
冥想也被推荐给那些经历焦虑的人们作为一项锻炼。

To pick just one of many recent studies, Zeidan et al. (2013) found that four 20-minute meditation classes were enough to reduce anxiety by up to 39%.
最近研究的一个,Zeidan 等(2013)就发现四节20分钟的冥想课程已经足够减少39%的焦虑。

More about anxiety: 8 Fascinating Facts About Anxiety
更多关于焦虑:8 Fascinating Facts About Anxiety

10 Fight depression
10 抗击抑郁

A central symptom of depression is rumination: when depressing thoughts roll around and around in the mind.
抑郁症其中的一个核心症状是穷思竭虑:那些压抑想法在脑海中一直翻滚。

Unfortunately you can’t just tell a depressed person to stop thinking depressing thoughts; it’s pointless. That’s because treating the symptoms of depression is partly about taking control of the person’s attention.
不幸地是你无法告知一个抑郁的人去停止思考那些抑郁的想法;这是毫无意义的。这是因为治疗抑郁的症状部分需要控制病人的注意。

One method that can help with this is mindfulness meditation. Mindfulness is all about living in the moment, rather than focusing on past regrets or future worries.
一种有效的办法是正念的冥想。正念便是全身心地投入到某个时刻,而不是考虑那些过去的后悔和未来的忧虑。

A recent review of 39 studies on mindfulness has found that it can be beneficial in treating depression (Hofmann et al., 2010).
最近一个关于39个正念研究的综述发现冥想的确可以治疗抑郁(Hofmann 等,2010)。

Read on: Depression: 10 Fascinating Insights into a Misunderstood Condition
阅读链接:Depression: 10 Fascinating Insights into a Misunderstood Condition

Beginner’s guide to meditation
冥想初学者的指导

Since it is so beneficial, here is a quick primer on how to meditate.
因为冥想是如此的有益,这里提高一个怎样冥想的快速入门。

The names and techniques of meditation are many and varied, but the fundamentals are much the same:
冥想的名称和技巧五花八门,但是其基础大多是相同的:

1. Relax the body and the mind
1. 放松身体和心灵

This can be done through body posture, mental imagery, mantras, music, progressive muscle relaxation, any old trick that works. Take your pick.
这项可以通过身体姿势来完成,心理假想,口中默念,音乐,渐进的肌肉放松,任何曾经的技巧都有所用。挑你喜欢的吧。

This step is relatively easy as most of us have some experience of relaxing, even if we don’t get much opportunity.
这一步因为我们大多数都有如何放松的经验而相当简单,及时没有太多的机会去那样做。

2. Be mindful
2. 做个有心人

It’s a bit cryptic this one but it means something like this: don’t pass judgement on your thoughts, let them come and go as they will (and boy will they come and go!). When your mind wanders, try to nudge your attention back to its primary aim.
这条并不为人知晓但是某种程度意味着:不用对你的想法施加判断,让它们随意地自由发展(就像那些自由搭讪的男生!)。当你的思维在漫步时,试着将你的注意力缓缓拉近最初的目的。

It turns out this is quite difficult because we’re used to mentally travelling backwards and forwards while making judgements on everything (e.g. worrying, dreading, anticipating, regretting etc.).
这项显得相当困难因为我们已经习惯了在对任何事情作出决定的时候思前想后(比如,担心,害怕,期待,遗憾等)。

The key is to notice, in a detached way, what’s happening, but not to get involved with it. This way of thinking often doesn’t come that naturally.
这项的关键是从分离的方式去注意,什么正在发生,但是并没有卷入其中。这种思考的方式并不会来得很自然。

3. Concentrate on something
3. 在某事上集中注意力

Often meditators concentrate on their breath, the feel of it going in and out, but it could be anything: your feet, a potato, a stone.
冥想者通常集中注意在他们的呼吸,呼气与吸气的感觉,但是也可以是其他任何东西:你的双脚,一个土豆,一块石头。

The breath is handy because we carry it around with us. Whatever it is, though, try to focus all your attention onto it.
呼吸是容易掌握的因为它就伴随着我们。不论是什么东西,尝试去用你所有的注意力去关注它。

When your attention wavers, and it will almost immediately, gently bring it back. Don’t chide yourself, be compassionate to yourself.
当你的注意波动时,这个几乎会立刻发生,温柔地引导回去。别责怪自己,对自己多谢容忍和同情。

The act of concentrating on one thing is surprisingly difficult: you will feel the mental burn almost immediately. Experienced practitioners say this eases with practice.
在一件事情上集中的动作是意外的困难的:你会感觉瞬间你的大脑想法在燃烧。有经验的练习者强调通过练习可以变得容易。

4. Concentrate on nothing
4. 放空

Most say this can’t be achieved without a lot of practice, so I’ll say no more about it here. Master the basics first.
大多数人说不通过练习便无法达到这步,因此我就在这里住嘴了。还是先了解基本概念吧。

Explore
探索

This is just a quick introduction but does give you enough to get started. It’s important not to get too caught up in techniques but to remember the main goal: exercising attention by relaxing and focusing on something.
这只是一个快速的导论但是对于你的开始已经够多了。重要的是不要太局限于技巧而是要记住主要目标:通过放松和聚焦某事物来锻炼你的注意力。

Try these things out first, see what happens, then explore further.
先尝试这些列举的事,看看发生了什么,接着再往前走吧。

http://www.spring.org.uk/2013/11/10-remarkable-ways-meditation-helps-your-mind.php

10 Surprising and (Mostly) Easy Ways to Improve Your Memory
提高你记忆力的10条意想不到和(最)简单的方式

Improve your memory by clenching your right fist, chewing gum, walking, ignoring stereotypes, sniffing rosemary and more…
通过紧握右拳,嚼口香糖,漫步,忽略思维定势,闻迷迭香等方式来提高你的记忆力

Many of the methods for improving memory–like exercise, chunking, building associations or brain training–involve a fair amount of mental effort.
许多诸如思维训练、组块记忆、联想构造或者大脑训练之类的提高记忆的方式,都包括着同样程度的脑力训练。

So here are ten (mostly) very easy ways to improve your memory that are supported by research.
因此这里提供了十条被研究所证实的(最为)简单的方式来提高你的记忆。

With two or three exceptions, most people can do these with very little effort or expense.
尽管有两个或三个特例,绝大多数的人只需要耗费很少。

1. Clench your right fist
1. 握紧你的右拳

If you squeeze your right hand into a fist during learning, it can aid memory.
如果你在学习的时候捏紧你的右手成拳,这可以帮助你的记忆。

Later on, to aid recall, squeeze your left hand into a fist.
进一步地,为了提高回忆,也将你的左手掌捏成一个拳头。

In study by Propper et al. (2013), participants who squeezed their right fist during learning and their left during recall, did better than control groups clenching the other fist or not clenching at all.
在 Propper 等人(2013)的研究中,被试通过在学习过程中握右拳在回忆过程捏左拳的方式,比那些握紧另一只手或者不握紧的控制组们做地更好。

2. Chew gum
2. 嚼口香糖

Chewing gum can help you stay focused on a task and so improve your memory.
咀嚼口香糖可以帮助你在某项任务上持续保持注意力因此提高你的记忆力。

A study by Morgan et al. (2013) tested the audio memory of those chewing gum, compared with those who didn’t.
Morgan 等人(2013)的研究测试了那些嚼口香糖和不嚼的人的音频记忆力。

The gum chewers had improved short-term memory compared with non-chewers.
那些嚼口香糖的人相比那些不嚼的人有更加优秀的短时记忆能力。

3. Go to sleep
3. 去睡觉

One of the many benefits of sleep is that it makes memory stronger.
睡觉的众多好处之一便是可以帮助增强记忆力。

That’s because the brain is surprisingly busy during sleep and one of the things it’s doing is working on our memories.
这是因为在睡觉时大脑保持着意外的兴奋状态,而且它此时的工作之一便是处理我们的记忆。

Not only does sleep make our memories stronger, it also restructures and reorganises them.
睡眠不仅帮助我们增强记忆力,同时也重新建构和组织记忆。

Studies have shown, for example, that people are more likely to dream about things with a higher value to them, and are subsequently more likely to recall those things (Oudiette et al., 2013).
研究已经表明,举例来说,人们很可能会梦到那些对于自己很有意义的事情,因而也更有可能回忆这些事(Oudiette 等,2013)

And, if what’s important to you is learning to play the piano, you could even try listening to the piece while you nap, as one study has shown this helps cement the memory (Anthony et al., 2012).
并且,如果学会谈钢琴对你很重要的话,你甚至可以尝试当你小憩时伴着钢琴声入睡,因为有个研究表示这样有助于加固记忆(Anthony 等,2012)。

More on how the mind learns during sleep.
更多请点击how the mind learns during sleep

4. Go for a walk
4. 去散步

Many people suffer memory problems with advancing years.
随着年龄的增长,许多人们受着记忆力衰退等问题的影响。

But, walking just six miles a week helps to preserve memory in old age.
但是,在老年时期每周六里的散步就能帮助保持记忆力。

One study has found that older people who walked six to nine miles per week had greater gray matter volume nine years later than those who were more sedentary (Erickson et al., 2010).
一个研究发现那些每周步行六至九里的老年人在九年后相比那些久坐的老人在脑中有多的灰质体积(Erickson 等,2010)。

5. Stop smoking
5. 戒烟

Although the physical benefits of quitting smoking are well-known, it’s less well-known that it will also benefit memory.
尽管戒烟那些生理的好处众所皆知,很少有人知道戒烟也能帮助提高记忆力。

That’s because smoking damages the memory, and quitting can almost restore it to normal function (Hefferman et al., 2011).
这是因为吸烟有害记忆,放弃吸烟便能重新让记忆复原到正常的功能(Hefferman 等,2011)。

That’s one more reason to quit (or to be happy that you don’t smoke).
这便是戒烟的又一个理由(或者不吸烟使你变得开心)。

6. Ignore stereotypes
6. 摆脱定势思维

If you think your memory will get much worse with age, then it probably will. It’s a self-fulfilling prophecy.
如果你认为随着年龄你的记忆力会变得很糟糕,那么记忆真地可能会变得很糟糕。这便是一个自我实现的预言。

Older people who are reminded of stereotypes about age and memory perform worse in tests (Hess et al., 2003).
那些被提醒了年龄与记忆之间关系的成见的年老人在测试中表现地更糟。

So, suffer fewer memory problems with age by paying no heed to the stereotypes.
因此,对那些刻板印象别太在意,便可以少受点年龄在记忆影响上的苦了。

7. Read Facebook posts
7. 读些脸书的文章

One study has found that people’s memories are much stronger for posts on Facebook than for sentences from books, or even people’s faces.
一个研究发现人们相对于那些书上的句子,对于脸书上的文章甚至人们的脸,有更强的记忆力。

Mickes et al. (2013) found that Facebook posts were probably easier to remember because they were ‘mind-ready’: they were already in an easily digestible format and written in spontaneous natural speech.
Mickes 等人(2013)发现脸书上的文章可能更加容易被记住,因为它们是已经经过‘心理准备’的:它们已经被安排好了一个容易理解的格式,并且通过自然的语句来表述。

Facebook is also full of juicy gossip, which probably doesn’t hurt!
脸书海充满着丰富的八卦,这些可能不会那么伤人!

8. Sniff rosemary
8. 闻一闻迷迭香

The smell of the essential oil, rosemary, has been shown to improve long-term memory, mental arithmetic and prospective memory–remembering to do things at certain times.
精油、迷迭香的气味,已经被证明了可以提高长时记忆,心算能力和前瞻记忆——在某个特定时间记住去做某事。

In one study, participants who sat in a room infused with the scent of rosemary performed better on a memory task than a control group (McCready & Moss, 2013).
在一个研究中,那些坐在一个充满迷迭香味道的房间里的被试比控制组在记忆任务上表现地更好。

9. Lose weight
9. 减肥

Like smoking, putting on weight is associated with memory problems–but these are also reversible.
就像吸烟,体重上的增长也会带来记忆问题——但是这些也是可逆的。

Lose some of the weight and memory function is likely to return.
体重减轻稍许之后记忆功能便很有可能重新焕然一新了。

Petterson et al. (2013) found that older, overweight, women whose weight dropped from an average of 85kg (188 pounds) to 77kg (171 pounds), over six months, saw improved memory function.
Petterson 等人(2013)发现那些从平均85千克(188磅)减肥至77千克(171磅)的年老、超重的妇女,经过了六个月之后,记忆功能有显著的改善。

10. Turn off the computer and sit quietly
10. 关掉电脑然后安静地坐会

Now that you’ve read this article, it’s time to turn off the computer, tablet or phone and sit quietly.现在你已经阅读完这篇文章了,是时候关掉电脑、平板电脑或者手机然后静坐了。

That’s because when we are idle, the brain is actually still performing important memory functions.
这是因为当我们空闲的时候,大脑事实上仍然在处理重要的记忆功能。

Professor Erik Fransén explains:
Erik Fransén 教授解释到:

“The brain is made to go into a less active state, which we might think is wasteful; but [is] probably [when] memory consolidation [...] takes place [...].
“当大脑进入到一个缺乏兴奋的状态时,我们可能认为这是一种浪费,但是这时记忆的整合很可能正在发生。”

“When we max out our active states with technology [...] we remove from the brain part of the processing, and it can’t work.”
“当我们通过技术令我们的活跃状态进行最大输出时,我们便从大脑中剥夺了加工过程的一部分,因此它便无法工作。”

http://www.spring.org.uk/2013/10/10-surprising-and-mostly-easy-ways-to-improve-your-memory.php

NetLogo囚徒困境模拟练习

此帖为对在上课老师所讲课程的练习再操作。

首先规定囚徒悖论中,两个人的策略及奖惩情况。
规定C为合作策略、D为背叛策略,根据两个人进行博弈的不同,会有不同的结果:
C-C,得到Reward,默认为1;
C-D,得到Sucker's,默认为0;
D-C,得到Temptation,默认为1+a;
D-D,得到Punishment,b;
其中,T>R>P>S;R+R>T+S,我们假设a=0.81,b=0.00001,并且每个人采用Tit-for-tat策略:
即个人的倾向一开始如果为C,则当其遇到C-C时,下一次继续使用C;遇到C-D时,下一次则采用D;当自身为D时,遇到D-C时,下一次改变为C;遇到D-D时,下一次继续使用D。

如图进行界面编制:

NetLogo
其中包括3个按钮和2各活动条,按钮分别为初始设置(最大坐标为19*19,在水平、垂直方向循环)、循环操作、分布操作,滑动条为上述的b值和a值,通过调节设置博弈奖励。
最右面是“好人百分比”图,即每个步骤,合作的策略人所占总数的百分比。
以下是程序编制及附注:
patches-own [
coo
coo-last
coo-next
score
]
##定义之前、现在、以后的合作策略,以及分数
to setup
clear-all
reset-ticks
ask patches [
ifelse (distancexy 0 0) > 0
[set coo true]
[set coo false]set coo-last coo
update
]
end

##其实设定,激活每次的合作
to update
ifelse coo
[ifelse coo-last
[set pcolor green]
[set pcolor yellow]
]
[ifelse  coo-last
[set pcolor orange]
[set pcolor red]
]
end
##对更新的设定,即对每个tick,将不同策略进行后格子的颜色改变
to go
ask patches [
let nc count neighbors with [coo]
ifelse coo
[set score nc + 1 ]
[set score epsilon * (9 - nc) + (1 + delta) * nc ]
]
ask patches [
let nb max-one-of neighbors [score]
ifelse score < [score] of nb
[set coo-next [coo] of nb]
[set coo-next coo]
]
ask patches [
set coo-last coo
set coo coo-next
update
]
##定义步骤,并且定义对分数的计算,使每个将来的合作根据与周围8个格子合作后的总分确定
tick
set-current-plot-pen "C"
plotxy ticks (count patches with [coo]) / (count patches) * 100end

##对图像的连接,使坐标轴有意义
对于此次的模拟,可以发现最开始设置一个背叛者(D),会在一开始导致D策略的人数增加,但在之后会在交汇处出现“洗心革面”的前背叛者后合作者,这保证了整个模型合作者(C)的百分比处于混沌状态,对于19*19的小世界,在之后进行到1920ticks时,会出现稳定性,如图:NetLogo
意即合作者C和背叛者D有一个稳定的比例。

R语言地图绘制程序包应用

R语言的包中有许多是基于地图的绘制的,其中ggmap包算是比较强大的,然后在逛网站时发现了一个地图的数据库:http://gadm.org/country,一个可以下载地图资源数据的网站,其中就有Rdata的数据库。因此基于网上资源,将部分R包的功能做个粗浅的复述:

1.maps包
是最为基本的绘制地图的包,但其中的数据只有世界地图和美国地图(包括各州)的资料。主要函数为map()。举例如下:

map("world", fill=T, col=rainbow(200)),world表示绘制世界地图,同样的格式适用于usa(美国边界),state(美国及各州),另外map函数中的fill表示是否填充,col采用rainbow函数多样化区分,其他的函数有boundary,interior的是或否,regions函数用数组表示,可以单独画出美国的州,比如:
map('state', region = c('new york', 'new jersey', 'penn')),表示如下:
State

另外,作为对maps包的补充,还可以下载mapdata的数据包,然后便可以绘制出中国的地图了(但是版本比较老,重庆还未划分,但是庆幸的是台湾还在哈),比如:
map("china", col=rainbow(1))
China
如果需要进一步对中国地理信息补充,可以参考对maptools包的读取进行绘制。

2.ggmap包
该包的功能强大,但是安装有些麻烦。该包还需要ggplot2、RgoogleMaps、mapproj 、rjson包,但这也彰显了它的强大,其中着重介绍两个非常强大的函数。

第一个是geocode(),能够返回经纬,如果参数output=more时,能够返回地址等。比如:
geocode("Shanghai"),返回值为:

Information from URL : http://maps.googleapis.com/maps/api/geocode/json?address=Shanghai&sensor=false
Google Maps API Terms of Service : http://developers.google.com/maps/terms
lon      lat
1 121.4737 31.23039

再举个例子:
geocode("Fudan University",output=c("more")),返回值:
Information from URL : http://maps.googleapis.com/maps/api/geocode/json?address=Fudan+University&sensor=false
Google Maps API Terms of Service : http://developers.google.com/maps/terms
lon      lat              type     loctype
1 121.4981 31.29964 point_of_interest approximate
address
1 fudan university, wuchuan road, wujiaochang, yangpu, shanghai, china, 200433
north   south     east     west postal_code country
1 31.30917 31.2901 121.5141 121.4821      200433   china
administrative_area_level_2 administrative_area_level_1 locality
1                        <NA>                    shanghai     <NA>
street streetNo point_of_interest            query
1 wuchuan road       NA  fudan university Fudan University

根据Google地图的数据可以得到比较精确的地址。

第二个函数是mapdist(),可以算出两个地址间的距离,而且还可以用不同的方式进行估计,可以说是寻路功能的初级。举例:

mapdist('Fudan University, Shanghai, China', 'Shanghai Jiao Tong University, Shanghai, China','walking')
Information from URL : http://maps.googleapis.com/maps/api/distancematrix/json?origins=Fudan+University+Shanghai+China&destinations=Shanghai+Jiao+Tong+University+Shanghai+China&mode=walking&sensor=false
Google Maps API Terms of Service : http://developers.google.com/maps/terms
from
1 Fudan University, Shanghai, China
to                                       m     km    miles
1 Shanghai Jiao Tong University, Shanghai, China 14971 14.971 9.302979
seconds minutes  hours
1   11385  189.75 3.1625

其中要注意对于非美国的地点,如果不是很著名还是加上国家、省市,让Google数据库容易找到(比如直接Fudan University到Shanghai Jiao Tong University就会报错)。另外路程 方式可以参见该函数举例,还有driving和bicycling方式。

当然ggmap主要的功能还是画地图了。它可以采用的数据库除了Google以外还有OpenStreetMap (‘osm’)、Stamen Maps (‘stamen’)和CloudMade maps (‘cloudmade’)。

通过get_map()调取,然后用ggmap()绘制,get_map函数的参数zoom表示放大级,maptype包括‘terrain’(地势图)、‘satellite’(卫星图)、‘roadmap’(道路图)和 ‘hybrid’(混合)等,比如:
ggmap(get_map(location = 'Shanghai', zoom = 10, maptype = 'roadmap')),可以得到上海的街道图,如下:Shanghai

3. sp包
这个主要是基于数据库读取然后绘制的,正如一开始的介绍网站http://gadm.org/country,在其中可以下载各个国家的地理信息,然后用sp包打开并绘制,在Rstudio中打开载入load信息文件RData,再用函数spplot()绘制,由于电脑信息以及文件问题,该包绘图极其消耗内存,故没有完整截图。因此,电脑不好少玩这个包,总结如此。预览效果如下(默默地吐槽下没有台湾以及南海):
CHN_adm

 

另外关于地理数据的获取,http://nfgis.nsdi.gov.cn,是中国国家地理信息的网址,免费下载GIS数据,文件后缀为*.dbf、*.shp和*.shx,可以在R中maptools包中read.shape()函数(新版本包为readShapePloy()函数,但在本机上无法正常运行)读取。

 

参考资料:
http://bbs.pinggu.org/thread-2261208-1-1.html
http://f.dataguru.cn/forum.php?mod=viewthread&tid=68496&fromuid=1358
http://yihui.name/cn/2007/09/china-map-at-province-level/
http://cos.name/2009/07/drawing-china-map-using-r/

R语言学习由浅入深线路图(转载)

此文转载自网络,原作者邓一硕。来源:http://bbs.pinggu.org/thread-2263853-1-1.html

现在对R感兴趣的人越来越多,很多人都想快速的掌握R语言,然而,由于目前大部分高校都没有开设R语言课程,这就导致很多人不知道如何着手学习R语言。

对于初学R语言的人,最常见的方式是:遇到不会的地方,就跑到论坛上吼一嗓子,然后欣然or悲伤的离去,一直到遇到下一个问题再回来。当然,这不是最好的学 习方式,最好的方式是——看书。目前,市面上介绍R语言的书籍很多,中文英文都有。那么,众多书籍中,一个生手应该从哪一本着手呢?入门之后如何才能把自 己练就成某个方面的高手呢?相信这是很多人心中的疑问。有这种疑问的人有福了,因为笔者将根据自己的经历总结一下R语言书籍的学习路线图以使Ruser少走些弯路。

本文分为6个部分,分别介绍初级入门,高级入门,绘图与可视化,计量经济学,时间序列分析,金融等。

1.初级入门

《An Introduction to R》,这是官方的入门小册子。其有中文版,由丁国徽翻译,译名为《R导论》《R4Beginners》,这本小册子有中文版应该叫《R入门》。除此之外,还可以去读刘思喆《153分钟学会R》。 这本书收集了R初学者提问频率最高的153个问题。为什么叫153分钟呢?因为最初作者写了153个问题,阅读一个问题花费1分钟时间,全局下来也就是 153分钟了。有了这些基础之后,要去读一些经典书籍比较全面的入门书籍,比如《统计建模与R软件》,国外还有《R Cookbook》和《R in action》,本人没有看过,因此不便评论。

最后推荐,《R in a Nutshell》。对,“果壳里面的R”!当然,是开玩笑的,in a Nutshell是俚语,意思大致是“简单的说”。目前,我们正在翻译这本书的中文版,大概明年三月份交稿!这本书很不错,大家可以从现在开始期待,并广而告知一下!

2.高级入门

读 了上述书籍之后,你就可以去高级入门阶段了。这时候要读的书有两本很经典的。《Statistics with R》和《The R book》。之所以说这两本书高级,是因为这两本书已经不再限于R基础了,而是结合了数据分析的各种常见方法来写就的,比较系统的介绍了R在线性回归、方 差分析、多元统计、R绘图、时间序列分析、数据挖掘等各方面的内容,看完之后你会发现,哇,原来R能做的事情这么多,而且做起来是那么简洁。读到这里已经 差不多了,剩下的估计就是你要专门攻读的某个方面内容了。下面大致说一说。

3.绘图与可视化

亚里斯多德说,“较其他感觉而言,人类更喜欢观看”。因此,绘图和可视化得到很多人的关注和重视。那么,如何学习R画图和数据可视化呢?再简单些,如何画直方图?如何往直方图上添加密度曲线呢?我想读完下面这几本书你就大致会明白了。

首先,画图入门可以读《R Graphics》,个人认为这本是比较经典的,全面介绍了R中绘图系统。该书对应的有一个网站,google之就可以了。更深入的可以读 《Lattice:Multivariate Data Visualization with R》。上面这些都是比较普通的。当然,有比较文艺和优雅的——ggplot2系统,看《ggplot2:Elegant Graphics for Data Analysis》。还有数据挖掘方面的书:《Data Mining with Rattle and R》,主要是用Rattle软件,个人比较喜欢Rattle!当然,Rattle不是最好的,Rweka也很棒!再有就是交互图形的书了,著名的交互系统 是ggobi,这个我已经喜欢两年多了,关于ggobi的书有《Interactive and Dynamic Graphics for Data Analysis With R and GGobi》,不过,也只是适宜入门,更多更全面的还是去ggobi的主页吧,上面有各种资料以及包的更新信息!

特别推荐一下,中文版绘图书籍有谢益辉的《现代统计图形》。

4.计量经济学

关 于计量经济学,首先推荐一本很薄的小册子:《Econometrics In R》,做入门用。然后,是《Applied Econometrics with R》,该书对应的R包是AER,可以安装之后配合使用,效果甚佳。计量经济学中很大一部分是关于时间序列分析的,这一块内容在下面的地方说。

5.时间序列分析

时间序列书籍的书籍分两类,一种是比较普适的书籍,典型的代表是:《Time Series Analysis and Its Applications :with R examples》。该书介绍了各种时间序列分析的经典方法及实现各种经典方法的R代码,该书有中文版。如果不想买的话,建议去作者主页直接下载,英文版其实读起来很简单。时间序列分析中有一大块儿是关于金融时间序列分析的。这方面比较流行的书有两本《Analysis of financial time series》,这本书的最初是用的S-plus代码,不过新版已经以R代码为主了。这本书适合有时间序列分析基础和金融基础的人来看,因为书中关于时间 序列分析的理论以及各种金融知识讲解的不是特别清楚,将极值理论计算VaR的部分就比较难看懂。另外一个比较有意思的是Rmetrics推出的 《TimeSeriesFAQ》,这本书是金融时间序列入门的东西,讲的很基础,但是很难懂。对应的中文版有《金融时间序列分析常见问题集》,当然,目前还没有发出来。经济领域的时间序列有一种特殊的情况叫协整,很多人很关注这方面的理论,关心这个的可以看《Analysis of Integrated and Cointegrated Time Series with R》。最后,比较高级的一本书是关于小波分析的,看《Wavelet Methods in Statistics with R》。附加一点,关于时间序列聚类的书籍目前比较少见,是一个处女地,有志之士可以开垦之!

6.金融

金融的领域很广泛,如果是大金融的话,保险也要被纳入此间。用R做金融更多地需要掌握的是金融知识,只会数据分析技术意义寥寥。我觉得这些书对于懂金融、不同数据分析技术的人比较有用,只懂数据分析技术而不动金融知识的人看起来肯定如雾里看花,甚至有人会觉得金融分析比较低级。这方面比较经典的书籍有: 《Advanced Topics in Analysis of Economic and Financial Data Using R》以及《Modelling Financial Time Series With S-plus》。金融产品定价之类的常常要用到随机微分方程,有一本叫《Simulation Inference Stochastic Differential Equations:with R examples》的书是关于这方面的内容的,有实例,内容还算详实!此外,是风险度量与管理类。比较经典的有《Simulation Techniques in Financial Risk Management》、《Modern Actuarial Risk Theory Using R》和《Quantitative Risk Management:Concepts, Techniques and Tools》。投资组合分析类和期权定价类可以分别看《Portfolio Optimization with R》和《Option Pricing and Estimation of Financial Models with R》。

7.数据挖掘

这方面的书不多,只有《Data Mining with R:learing with case studies》。不过,R中数据挖掘方面的包已经足够多了,参考包中的帮助文档就足够了。

8.附注

出于版权等事宜的考虑,我无法告知你说在“新浪爱问”等地方可以直接免费下载到上面提到的这些书,但是,我想你可以发挥自己的聪明才智去体悟!