stata常用命令.docx

上传人:b****2 文档编号:97817 上传时间:2023-04-28 格式:DOCX 页数:45 大小:45.46KB
下载 相关 举报
stata常用命令.docx_第1页
第1页 / 共45页
stata常用命令.docx_第2页
第2页 / 共45页
stata常用命令.docx_第3页
第3页 / 共45页
stata常用命令.docx_第4页
第4页 / 共45页
stata常用命令.docx_第5页
第5页 / 共45页
stata常用命令.docx_第6页
第6页 / 共45页
stata常用命令.docx_第7页
第7页 / 共45页
stata常用命令.docx_第8页
第8页 / 共45页
stata常用命令.docx_第9页
第9页 / 共45页
stata常用命令.docx_第10页
第10页 / 共45页
stata常用命令.docx_第11页
第11页 / 共45页
stata常用命令.docx_第12页
第12页 / 共45页
stata常用命令.docx_第13页
第13页 / 共45页
stata常用命令.docx_第14页
第14页 / 共45页
stata常用命令.docx_第15页
第15页 / 共45页
stata常用命令.docx_第16页
第16页 / 共45页
stata常用命令.docx_第17页
第17页 / 共45页
stata常用命令.docx_第18页
第18页 / 共45页
stata常用命令.docx_第19页
第19页 / 共45页
stata常用命令.docx_第20页
第20页 / 共45页
亲,该文档总共45页,到这儿已超出免费预览范围,如果喜欢就下载吧!
下载资源
资源描述

stata常用命令.docx

《stata常用命令.docx》由会员分享,可在线阅读,更多相关《stata常用命令.docx(45页珍藏版)》请在冰点文库上搜索。

stata常用命令.docx

stata常用命令

最重要的两个命令莫过于help和search了。

即使是经常使用stata的人也很难,也没必要记住常用命令的每一个细节,更不用说那些不常用到的了。

所以,在遇到困难又没有免费专家咨询时,使用stata自带的帮助文件就是最佳选择。

stata的帮助文件十分详尽,面面俱到,这既是好处也是麻烦。

当你看到长长的帮助文件时,是不是对迅速找到相关信息感到没有信心?

闲话不说了。

help和search都是查找帮助文件的命令,它们之间的区别在于help用于查找精确的命令名,而search是模糊查找。

如果你知道某个命令的名字,并且想知道它的具体使用方法,只须在stata的命令行窗口中输入help空格加上这个名字。

回车后结果屏幕上就会显示出这个命令的帮助文件的全部内容。

如果你想知道在stata下做某个估计或某种计算,而不知道具体该如何实现,就需要用search命令了。

使用的方法和help类似,只须把准确的命令名改成某个关键词。

回车后结果窗口会给出所有和这个关键词相关的帮助文件名和链接列表。

在列表中寻找最相关的内容,点击后在弹出的查看窗口中会给出相关的帮助文件。

耐心寻找,反复实验,通常可以较快地找到你需要的内容。

下面该正式处理数据了。

我的处理数据经验是最好能用stata的do文件编辑器记下你做过的工作。

因为很少有一项实证研究能够一次完成,所以,当你下次继续工作时。

能够重复前面的工作是非常重要的。

有时因为一些细小的不同,你会发现无法复制原先的结果了。

这时如果有记录下以往工作的do文件将把你从地狱带到天堂。

因为你不必一遍又一遍地试图重现做过的工作。

在stata窗口上部的工具栏中有个孤立的小按钮,把鼠标放上去会出现“bring do-file editor to front”,点击它就会出现do文件编辑器。

为了使do文件能够顺利工作,一般需要编辑do文件的“头”和“尾”。

这里给出我使用的“头”和“尾”。

capture clear          (清空内存中的数据)

capture log close      (关闭所有打开的日志文件)

set mem 128m        (设置用于stata使用的内存容量)

set more off          (关闭more选项。

如果打开该选项,那么结果分屏输出,即一次只输出一屏结果。

你按空格键后再输出下一屏,直到全部输完。

如果关闭则中间不停,一次全部输出。

set matsize 4000      (设置矩阵的最大阶数。

我用的是不是太大了?

cd D:

                  (进入数据所在的盘符和文件夹。

和dos的命令行很相似。

log using (文件名).log,replace (打开日志文件,并更新。

日志文件将记录下所有文件运行后给出的结果,如果你修改了文件内容,replace选项可以将其更新为最近运行的结果。

use (文件名),clear  (打开数据文件。

(文件内容)

log close              (关闭日志文件。

exit,clear            (退出并清空内存中的数据。

这个do文件的“头尾”并非我的发明,而是从沈明高老师那里学到的。

版权归沈明高老师。

实证工作中往往接触的是原始数据。

这些数据没有经过整理,有一些错漏和不统一的地方。

比如,对某个变量的缺失观察值,有时会用点,有时会用-9,-99等来表示。

回归时如果使用这些观察,往往得出非常错误的结果。

还有,在不同的数据文件中,相同变量有时使用的变量名不同,会给合并数据造成麻烦。

因此,拿到原始数据后,往往需要根据需要重新生成新的数据库,并且只使用这个新库处理数据。

这部分工作不难,但是非常基础。

因为如果在这里你不够小心,后面的事情往往会白做。

假设你清楚地知道所需的变量,现在要做的是检查数据、生成必要的数据并形成数据库供将来使用。

检查数据的重要命令包括codebook,su,ta,des和list。

其中,codebook提供的信息最全面,缺点是不能使用if条件限制范围,所以,有时还要用别的帮帮忙。

su空格加变量名报告相应变量的非缺失的观察个数,均值,标准差,最小值和最大值。

ta空格后面加一个(或两个)变量名是报告某个变量(或两个变量二维)的取值(不含缺失值)的频数,比率和按大小排列的累积比率。

des后面可以加任意个变量名,只要数据中有。

它报告变量的存储的类型,显示的格式和标签。

标签中一般记录这个变量的定义和单位。

list报告变量的观察值,可以用if或in来限制范围。

所有这些命令都可以后面不加任何变量名,报告的结果是正在使用的数据库中的所有变量的相应信息。

说起来苍白无力,打开stata亲自实验一下吧。

顺带说点儿题外话。

除了codebook之外,上述统计类的命令都属于r族命令(又称一般命令)。

执行后都可以使用return list报告储存在r()中的统计结果。

最典型的r族命令当属summarize。

它会把样本量、均值、标准差、方差、最小值、最大值、总和等统计信息储存起来。

你在执行su之后,只需敲入return list就可以得到所有这些信息。

其实,和一般命令的return命令类似,估计命令(又称e族命令)也有ereturn命令,具有报告,储存信息的功能。

在更复杂的编程中,比如对回归分解,计算一些程序中无法直接计算的统计量,这些功能更是必不可少。

检查数据时,先用codebook看一下它的值域和单位。

如果有-9,-99这样的取值,查一下问卷中对缺失值的记录方法。

确定它们是缺失值后,改为用点记录。

命令是replace (变量名)=. if (变量名)==-9。

再看一下用点记录的缺失值有多少,作为选用变量的一个依据。

得到可用的数据后,我会给没有标签的变量加上注解。

或者统一标签;或者统一变量的命名规则。

更改变量名的命令是ren (原变量名)空格(新变量名)。

定义标签的命令是label var (变量名)空格”(标签内容)”。

整齐划一的变量名有助于记忆,简明的标签有助于明确变量的单位等信息。

如果你需要使用通过原始变量派生出的新变量,那么就需要了解gen,egen和replace这三个命令。

gen和replace常常在一起使用。

它们的基本语法是gen (或replace)空格(变量名)=(表达式)。

二者的不同之处在于gen是生成新变量,replace是重新定义旧变量。

虚拟变量是我们常常需要用到的一类派生变量。

如果你需要生成的虚拟变量个数不多,可以有两种方法生成。

一种是简明方法:

gen空格(变量名)=((限制条件))[这外面的小括弧是命令需要的,里面的小括弧不是命令需要的,只是说明“限制条件”并非命令]。

如果某个观察满足限制条件,那么它的这个虚拟变量取值为1,否则为0。

另一种要麻烦一点。

就是

gen (变量名)=1 if (取值为一限制条件)

replace(相同的变量名)=0 if (取值为零的限制条件)

两个方法貌似一样,但有一个小小的区别。

如果限制条件中使用的变量都没有任何缺失值,那么两种方法的结果一样。

如果有缺失值,第一种方法会把是缺失值的观察的虚拟变量都定义为0。

而第二种方法可以将虚拟变量的取值分为三种,一是等于1,二是等于0,三是等于缺失值。

这样就避免了把本来信息不明的观察错误地纳入到回归中去。

下次再讲如何方便地生成成百上千个虚拟变量。

大量的虚拟变量往往是根据某个已知变量的取值生成的。

比如,在某个回归中希望控制每个观察所在的社区,即希望控制标记社区的虚拟变量。

社区数目可能有成百上千个,如果用上次的所说的方法生成就需要重复成百上千次,这也太笨了。

大量生成虚拟变量的命令如下;

ta (变量名), gen((变量名))

第一个括号里的变量名是已知的变量,在上面的例子中是社区编码。

后一个括号里的变量名是新生成的虚拟变量的共同前缀,后面跟数字表示不同的虚拟变量。

如果我在这里填入d,那么,上述命令就会新生成d1,d2,等等,直到所有社区都有一个虚拟变量。

在回归中控制社区变量,只需简单地放入这些变量即可。

一个麻烦是虚拟变量太多,怎么简单地加入呢?

一个办法是用省略符号,d*表示所有d字母开头的变量,另一法是用破折号,d1-d150表示第一个到第150个社区虚拟变量(假设共有150个社区)。

还有一种方法可以在回归中直接控制虚拟变量,而无需真的去生成这些虚拟变量。

使用命令areg可以做到,它的语法是

areg (被解释变量) (解释变量), absorb(变量名)

absorb选项后面的变量名和前面讲的命令中第一个变量名相同。

在上面的例子中即为社区编码。

回归的结果和在reg中直接加入相应的虚拟变量相同。

生成变量的最后一招是egen。

egen和gen都用于生成新变量,但egen的特点是它更强大的函数功能。

gen可以支持一些函数,egen支持额外的函数。

如果用gen搞不定,就得用egen想办法了。

不过我比较懒,到现在为止只用用取平均、加和这些简单的函数。

有的时候数据情况复杂一些,往往生成所需变量不是非常直接,就需要多几个过程。

曾经碰到原始数据中记录日期有些怪异的格式。

比如,1991年10月23日被记录为19911023。

我想使用它年份和月份,并生成虚拟变量。

下面是我的做法:

gen yr=int(date)

gen mo=int((data-yr*10000)/100)

ta yr, gen( yd)

ta mo, gen( md)

假设你已经生成了所有需要的变量,现在最重要的就是保存好你的工作。

使用的命令是save空格(文件名),replace。

和前面介绍的一样,replace选项将更新你对数据库的修改,所以一定要小心使用。

最好另存一个新的数据库,如果把原始库改了又变不回去,就叫天不应叫地不灵了。

前面说的都是对单个数据库的简单操作,但有时我们需要改变数据的结构,或者抽取来自不同数据库的信息,因此需要更方便的命令。

这一类命令中我用过的有:

改变数据的纵横结构的命令reshape,生成退化的数据库collapse,合并数据库的命令append和merge。

纵列(longitudinal)数据通常包括同一个行为者(agent)在不同时期的观察,所以处理这类数据常常需要把数据库从宽表变成长表,或者相反。

所谓宽表是以每个行为者为一个观察,不同时期的变量都记录在这个观察下,例如,行为者是厂商,时期有2000、2001年,变量是雇佣人数和所在城市,假设雇佣人数在不同时期不同,所在城市则不变。

宽表记录的格式是每个厂商是一个观察,没有时期变量,雇佣人数有两个变量,分别记录2000年和2001年的人数,所在城市只有一个变量。

所谓长表是行为者和时期共同定义观察,在上面的例子中,每个厂商有两个观察,有时期变量,雇佣人数和所在城市都只有一个,它们和时期变量共同定义相应时期的变量取值。

在上面的例子下,把宽表变成长表的命令格式如下:

reshapelong(雇佣人数的变量名),i((标记厂商的变量名))j((标记时期的变量名))

因为所在城市不随时期变化,所以在转换格式时不用放在reshapelong后面,转换前后也不改变什么。

相反地,如果把长表变成宽表则使用如下命令

reshapewide(雇佣人数的变量名),i((标记厂商的变量名))j((标记时期的变量名))

唯一的区别是long换成了wide。

collapse的用处是计算某个数据库的一些统计量,再把它存为只含有这些统计量的数据库。

用到这个命令的机会不多,我使用它是因为它可以计算中位数和从1到99的百分位数,这些统计量在常规的数据描述命令中没有。

如果要计算中位数,其命令的语法如下

collapse(median)((变量名)),by((变量名))

生成的新数据库中记录了第一个括号中的变量(可以是多个变量)的中位数。

右面的by选项是根据某个变量分组计算中位数,没有这个选项则计算全部样本的中位数。

合并数据库有两种方式,一种是增加观察,另一种是增加变量。

第一种用append,用在两个数据库的格式一样,但观察不一样,只需用append空格using空格(文件名)就可以狗尾续貂了。

简单明了,不会有什么错。

另一种就不同了,需要格外小心。

如果两个数据库中包含共同的观察,但是变量不同,希望从一个数据库中提取一些变量到另一个数据库中用merge。

完整的命令如下:

use(文件名)[打开辅助数据库]

sort(变量名)[根据变量排序,这个变量是两个数据库共有的识别信息]

save(文件名),replace[保存辅助数据库]

use(文件名)[打开主数据库]

sort(变量名)[对相同的变量排序]

merge(变量名)using(文件名),keep((变量名))

[第一个变量名即为前面sort后面的变量名,文件名是辅助数据库的名字,后面的变量名是希望提取的变量名]

ta_merge[显示_merge的取值情况。

_merge等于1的观察是仅主库有的,等于2的是仅辅助库有的,等于3是两个库都有的。

]

dropif_merge==2[删除仅仅来自辅助库的观察]

dropmerge[删除_merge]

save(文件名),replace[将合并后的文件保存,通常另存]

我常用到的stata命令

(续)

讲到这里似乎对于数据的生成和处理应该闭嘴了。

大家可能更想听听估计、检验这些事情。

但我并不想就此止住,因为实际中总是有一些简单套用命令无法轻易办到的特殊要求。

此时至少有两条路可以通向罗马:

一是找到更高级的命令一步到位;二是利用已知简单命令多绕几个圈子达到目的。

下面讲一个令我刻骨铭心的经历,这也是迄今我所碰到的生成新数据中最繁复的了。

原始数据中包含了可以识别属于同一个家庭中所有个人的信息和家庭成员与户主关系的信息。

目的是利用这些信息建立亲子关系。

初步的构想是新数据库以子辈为观察,找到他们的父母,把父母的变量添加到每个观察上。

我的做法如下:

usea1,clear[打开全部样本数据库]

keepifgender==2&agemos>=96&a8~=1&line<10

[保留已婚的一定年龄的女性]

replacea5=1ifa5==0

[变量a5标记和户主的关系。

等于0是户主,等于1是户主的配偶。

这里不加区分地将户主及其配偶放在一起。

]

keepifa5==1|a5==3|a5==7

[保留是户主(=1),是户主的子女(=3),或是户主的儿媳(=7)的那些人。

]

renhhf[将所需变量加上后缀f,表示女性]

renlinelf[将所需变量加上后缀f,表示女性]

sortwavehhid

saveb1,replace[排序并保存]

keepifa5f==1[留下其中是户主或户主配偶的]

saveb2,replace[保存]

useb1,clear

keepifa5f==3|a5f==7

saveb3,replace[留下其中是户主女儿或儿媳的并保存]

usea3,clear[打开与户主关系是户主子女的儿童数据库]

sortwavehhid

mergewavehhidusingCHNS01b2,keep(hflf)

ta_merge

dropif_merge==2

sorthhidlinewave[处理两代户,将户主配偶女性库与儿童库合并]

byhhidlinewave:

egenx=count(id)

dropx_merge[计算每个年份家庭匹配的情况,x只取值1,表明两代户匹配成功]

saveb4,replace[保存]

usea4,clear[打开与户主关系是户主孙子女的儿童数据库]

sortwavehhid

mergewavehhidusingCHNS01b3,keep(a5fa8fschfa12fhfagemosfc8flf)

ta_merge

dropif_merge==2[处理三代户,将户主女儿或儿媳女性库与孙子女儿童库合并]

sorthhidlinewave

byhhidlinewave:

egenx=count(id)

gena=agemosf-agemos

dropifa<216&x==3[计算每个年份家庭匹配的情况,x不只取1,三代户匹配不完全成功。

删除不合理的样本,标准是年龄差距和有三个可能母亲的那些家庭。

]

genxx=x[_n+1]

genxxx=x[_n-1]

geny=lfifx==1

replacey=lf[_n+1]ifx==2&xx==1

replacey=lf[_n-1]ifx==2&xxx==1

keepifx==1|(lf==y&x==2)

[对于有两个可能母亲的儿童,有相同编码的女性出现两次的情况。

上面的做法是为了保证不删除这部分样本。

]

dropaxxxxxxy_merge

saveb5,replace[保存合并后的数据库]

[对男性数据的合并完全类似,不赘述。

]

logclose

exit,clear

我的方法是属于使用简单命令反复迂回地达到目的那一类的,所以非常希望有更简便的方法来替代。

不过做实证时往往不是非常追求程序的漂亮,常常也就得过且过了。

曾经有人向我索要过上面的处理方法,因为一直杂事缠身,就没有回复。

现在公开了,希望对需要的人能有所帮助,我也懒得再去一一答复了。

stata强大的功能体现在它可以方便地回归微观数据。

而回归也是微观实证中最重要的方法。

下面就开始讲stata中和回归有关的常用命令。

基本回归方法有两种:

线性设定下的最小二乘法(OLS)和两阶段最小二乘法(2SLS)。

他们在实证分析中应用广泛,十分详细地掌握这两种方法是实证研究的基本要求。

讲解的顺序是先依次介绍如何在stata中实现OLS和2SLS估计,然后再分析如何在实际问题中选择合理的方法。

后一部分受JoshuaAngrist教授的影响很大,因此,在后面引用他的思想时会详细注明。

假设你已经清楚地了解待估计方程的形式,那么回归命令的基本格式就十分简单明了:

reg(被解释变量)(解释变量1)(解释变量2)……

方程中的相应变量可以简单地放在reg的后面。

执行上面的命令后,stata会出现两个表格,分别报告一些方差分析和回归的参数估计结果。

我们最关心的是参数的大小和显著性,这在第二个表格中列出。

表格的最左边一栏列出了解释变量,在它的右边是相应的系数估计值,然后依次是估计值的标准误,t比率,原假设为系数的真实值等于零时错误地拒绝该假设的概率——p值,以及该估计值的置信度为(1-5%)的置信区间。

我看到回归结果的第一眼是瞄着最关心的解释变量的符号、大小和显著性。

看看解释变量影响的方向和大小是不是符合理论的预期,是不是合乎常识,以及这个估计值是不是显著。

标记显著性的统计量是t统计量,在经典假设下,它服从t分布。

t分布和标准正态分布形状很相似,但它的“尾巴”要比标准正态分布的“肥”一些,在样本量比较小的时候尤其明显,当样本量趋于无穷时,t分布的极限分布是标准正态分布。

大家对标准正态分布的分布函数上一些关键点比较熟悉,比如,1.96是97.5%的关键点,1.64是95%的关键点,所以,我们希望知道什么时候可以安全地使用标准正态分布。

下表列出了一些小自由度下二者的差异(Beyer1987“CRCStandardMathematicalTables,28thed.”;Goulden1956“MethodsofStatisticalAnalysis,2nded.”)。

可以看出,自由度超过一百时,二者的差别就已经相当小了。

所以,当样本量的数量级是100个或以上时,可以直接认为t比率服从标准正态分布,并以此做检验。

90%    95%    97.5%    99.5%

1    3.07768    6.31375    12.7062    63.6567

2    1.88562    2.91999    4.30265    9.92484

3    1.63774    2.35336    3.18245    5.84091

4    1.53321    2.13185    2.77645    4.60409

5    1.47588    2.01505    2.57058    4.03214

10    1.37218    1.81246    2.22814    3.16927

30    1.31042    1.69726    2.04227    2.75000

100    1.29007    1.66023    1.98397    2.62589

1.28156    1.64487    1.95999    2.57588

读者读到这里可能会笑话我了,stata不是已经报告了t检验的p值和置信区间了吗?

为什么不直接察看这些结果呢?

原因在于实证文献往往只报告参数的估计值和标准误,需要读者自己将估计值和标准误相除,计算显著性。

而且当你在写实证文章时,也应该报告参数的估计值和标准误。

这比报告估计值和它的p值更规范。

伴随回归命令的一个重要命令是predict。

回归结束后,使用它可以得到和回归相关的一些关键统计量。

语法如下:

predict(新变量名),(统计量名)

这里的统计量名是一些选项。

常用的选项有:

xb(回归的拟合值。

这是默认选项,即不加任何选项时,predict赋予新变量前一个回归的拟合值。

);residuals(残差);leverage(杠杆值)。

下面具一个例子来解释predict的用法。

有时样本中的一个特别的观察值会显著地改变回归结果。

这样的观察值可以笼统地分为三类:

outliers,leverage和influence。

Outliers是针对残差而言的,指那些回归中残差很大的观察;leverage是针对解释变量而言的,是解释变量相对其平均值偏里很大的观察;influence是针对估计结果而言的。

如果去掉这个观察会明显地改变估计值,那么这个观察就是一个influence。

Influence可以看作outliers和leverage共同作用的结果。

异常观察可能是由于样本的特性,也可能是因为录入错误。

总之,我们希望找到它们。

回归后的predict命令可以发现这些异常观察(命令来自UCLA的“RegressionwithStata”第二章)。

发现outliers,leverage和influence的命令如下:

predictrs,rstudent

predictl,leverage

predictcsd,cooksd

predictdf,dfits

这些统计量都有相应的关键值。

当统计量(或其绝对值)超过关键值时就应该仔细检查相应的观察,确认是否属于录入错误。

rstudent是用来发现outliers的统计量,其关键值是2,2.5和3。

leverage是用来发现leverage的统计量,其关键值是(2k+2)/n,其中k解释变量的个数,n是样本量。

Cooksd和DFITS是探测influence的统计量。

它们都综合了残差和杠杆的信息,而且二者非常类似,只是单位不同,因而给出的结果也差不多。

Cooksd的关键值是4/n。

DFITS的关键值是2*sqrt(k/n)。

在使用最小二乘法估计时,两个通常被质疑的问题是数据是否存在多重共线性和异方差。

多重共线性是指解释变量之间的相关性。

通常我们假设解释变量之间是相关的,而且允许解释变量存在相关性,并控制可以观察的因素正是OLS的

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 人文社科

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2