首页 >> 国际 >> 国外社会科学 >> 综合研究
差异的世界:大学排名的全球调查
2013年05月22日 15:05 来源:《清华大学教育研究》(京)2006年5期 作者:亚历克斯·埃舍尔 马斯莫·萨 字号

内容摘要:

关键词:

作者简介:

  内容提要:本文研究了全球19个大学排行榜,描述了排行榜作为质量评价手段是如何运作的,详细讨论了现有排名系统使用的质量指标并归纳出在排名上存在的不同地域模式。本文发现,世界上的主要排行榜之间没有多少联系,它们采用差别很大的指标和权重来评估大学。但是,有一些大学,无论是用何种的指标和权重,都会居于排行榜的前列。本文还探讨了与目前流行的严格按分数高低排名的“排行榜”不同的做法,并得出了结论。

  关 键 词:大学排名 全球调查 差异

  作者简介:亚历克斯·埃舍尔,马斯莫·萨维诺,教育政策研究院,多伦多,加拿大

  亚历克斯·埃舍尔,教育政策研究院(EPI)副院长,加拿大千禧奖学金基金会研究和项目发展主任;

  马斯莫·萨维诺,教育政策研究院多伦多办公室副研究员.

  译    者:王亚敏 侯书栋

  一、大学排行榜及其运作

  大学排名是用一套共同适用的指标体系将一定范围内的大学(通常是一个国家之内)按照分数高低的顺序进行排列。除了个别情况以外(如德国的CHE/DAAD排名,这个排名后面将会讨论到),大学排名都表现为“联赛榜”的形式,把各个“运动队”按照它们的分数高低排在一张表格里。

  从性质上看,排行榜就是把大学的全部工作归结为单一的、可比的、数字化的指标体系。对很多人来说,这正是排行榜不合理的地方:把成百上千的人们在不同的学术领域内所作的工作转化为单一的分数。在大多数排名系统中,排名的工作分为三个阶段:第一阶段是根据指标收集数据;第二个阶段是把每个指标相关的数据转化为分数;第三个阶段是把不同指标的分数加权、总计得出排名。

  排行榜前期工作的一个关键问题是收集数据的方法,大致有三种主要的数据来源。一是调查数据。不同的大学有关教育质量的比较数据可以通过对各种利益相关者的意见和感受的调查来获得。二是独立的第三方。政府部门经常在其权限范围内收集并公布大学的一些数据,这些数据可以用作对大学进行比较的客观标准。三是大学。最全面、最详细的数据来源当然是大学自身,因而他们是潜在的有着丰富数据的来源。

  二、排行榜评估的内容:对指标的考察

  为了便于对指标进行考察,我们试图以芬尼和厄舍在他们关于“中等后教育质量测评体系”提议中的一个大学质量模型为部分依据,将众多指标分成更大的类目,建立起一个质量测评的概念框架。

  芬尼和厄舍的质量模型以下列四个要素为基础。(1)新生质量,该要素指新生刚开始学习时的特点、品质和能力。(2)教育投入,主要有两种类型:一是资源,学生和教师可以享受的、服务于教育目标的财政和物质资源;二是师资,不仅包括师资数量,而且包括教师教学方式以及学习氛围。这通过师生交往的时间、考试的类型等进行评估(有时也指教学)。(3)教育产出,指毕业生从其教育经历中获得的技能或其他品质,诸如批判性思维、分析推理、技能知识。(4)最终成果,是指教育体系可能贡献的终极结果,既包括那些传统的评价指标如就业率和收入,也包括其他对个人和社会有重要影响的结果,如工作满意度、欣赏生活中美好的东西以及做一个“好公民”。

  我们要从两个方面对这个分类进行修正。首先,要清楚区分两种类型的投入,即“教育投入—资源”和“教育投入—师资”。其次,要把“科研”与“声誉”包括进来。因此,我们将质量指标分成七类:

  1. 新生质量指标

  新生质量是指学生开始学习时的特点和能力。最常见的新生质量指标是全国标准化考试成绩。有9个排行榜采用了这一指标。香港专业教育网和《卫报》最重视这个评估指标(权重20%)、墨尔本研究所(11%)、《亚洲周刊》(8.33%)、《美国新闻与世界报道》(7.5%)、网大(5.95%)、《金融时报》(5%)、《泰晤士报》(3.3%)、武汉大学(0.33%)也都采用了这一评估指标。因为这些数据的收集和标准化是由全国性组织实施的,所以它有这样的好处,即它可以被视为决定每所大学入学新生的相对实力的一个相对公平的方法。在这个标准上,加拿大是一个例外,其主要的排名机构《麦克林杂志》采用中学的等级来评估学生实力。在加拿大没有全国性考试的情况下,这是退而求其次的解决方法。但在缺少全国标准化的情况下,这一标准无疑是一个稍差的指标,因为它无法确保在某一管辖范围内的“A”级水平真的与另一管辖范围内的“A”级水平相等。

  另一个评估学生实力的方法是入学新生获得(第三方)奖励的比例,在武汉大学的调查中该指标权重达到11%。也可通过评估大学的选择性来分析这一问题。实际上,这种方法通过申请学生被拒的比例来推断学生的实力。

  如果一所学校能够吸引大量的国际学生或学区外学生,或者拥有多样化种族背景的学生,那么通常会认为这所学校的学生具有较强实力。《华盛顿月刊》对此持不同的看法。为了采用大学对社会流动的贡献作为评估方法,它将来自下层收入背景的学生比例作为评估指标(用接受以经济需要为基础的联邦佩尔助学金的学生比例来代表)。

  有些“新生质量”指标与学生的学习状态相联系。中国有两个排行榜(网大和武汉大学)采用了一个以研究生比例为依据的指标。在波兰《共和国报》排行榜中,采用旁听课程的研究生人数作为指标。意大利《共和报》根据学校的非全日制学生人数来对大学进行排名。与北美地区盛行的“非全日制学习不受欢迎”观点相反,意大利的排名积极地看待越来越多的非全日制学生人数。《华盛顿月刊》也有一个反映新生质量的最终指标分类,即学生从事社区服务的可能性,该指标用进入美国和平服务队(Peace Corps)、预备军官训练队(Reserve Officer Training Corps(ROTC))的学生比例以及在社区中半工半读的学生比例来评估。

  2. 教育投入指标——师资

  通常,师资的数量和质量与大学的质量之间呈正相关关系。最简单的评估办法是评估教师的人数,这种方式没有考虑学生规模等因素。而大多数国家的排行榜更喜欢在师生比的概念上做文章。还有一些排行榜试图采用诸如教师授课门次或生均课时的办法来评估教学强度。

  另一个评估师资分配的重要办法是评估课堂平均规模,这只在《麦克林杂志》和《美国新闻与世界报道》的排名中使用。表面来看,对课堂规模进行评估的原因是要以某种形式来说明大学致力于教学的程度。

  许多排行榜试图考察教师资格,如拥有博士学位人数或终身教授的数量。《麦克林杂志》比其他排行榜更进一步,考察由终身教授讲授课程的比例。其他排行榜(例如《泰晤士高等教育副刊》)考虑外国教师的数量。还有一些排行榜(例如意大利《共和报》)考查师资年龄结构。另一个体现大学质量的指标是终身教师的薪资。许多排行榜还以标准化第三方评估为依据对师资投入进行排名。

  3. 教育投入指标——资源

  许多资源评估方法以收入为基础。《麦克林杂志》将大学预算公共资金作为一个分析要素,相反地,《金融时报》将大学预算私人资金作为一个质量评估指标。《麦克林杂志》和《美国新闻与世界报道》还将校友捐资作为一个质量评估指标。

  《卫报》将大学的总支出作为一个评估指标。《泰晤士报》和《麦克林杂志》采用大学的学生服务支出作为大学质量的评估指标。波兰《共和国报》并不直接评估学生服务支出费用,但却评估学生服务产出,例如学生运动员的数量和学习俱乐部的数量。《麦克林杂志》总分中有4.33%的得分以各类奖学金支出为依据评估得出。

  物质基础设施的各个方面也被用来作为评估大学资源的指标。意大利《共和报》最直接,其总分中有3.17%的得分以大学教室面积数量为依据评估得出。中国的两个排行榜(网大和武汉大学)将“建筑资产”用于评估。另一种评估物质基础设施的方法是可供使用的网络带宽,已经停止的《亚洲周刊》排行榜中使用了该指标。

  排行榜的制定者们最偏爱的基础设施指标是图书馆资源。《麦克林杂志》可能最重视这点,其质量总分中有12%的比例来自于对图书馆基础设施的各种评估(包括每年购书量、总藏书量、生均图书、每年购书之外的图书馆费用支出)。网大和香港专业教育网采用总藏书量评估。《亚洲周刊》、《金融时报》和《泰晤士报》采用购书之外的图书馆费用支出或者图书馆资源的计算机化来评估大学质量。

  有一个需要注意的因素就是许多排行榜并没有对其资源和基础设施评估进行标准化(人均化)。结果,许多这样的排行榜存在有利于较大规模大学的内在偏差。

  4. 教育产出指标

  教育产出——即教育获得,或者通过学士学位课程获得的技能/知识——应当是大学质量的一个基本指标。教育产出最简单的评估方法是与学生毕业率和保持率相关的方法。保持率通常指第一年的学生进入第二年学习的比率,该指标重要性要小一些。有两个版本的排行榜制定了评估国际学生保持率和毕业率的具体指标:《麦克林杂志》(国际学生毕业率)和墨尔本研究所(国际学生保持率)。《华盛顿月刊》特地考察低收入学生的大学保持率。

  5. 最终成果指标

  最终成果是毕业生的整体表现。芬尼和厄舍声称这些成果在理论上是无穷的(例如幸福感、良好公民),但是考虑到当下很流行的教育实用性解释,就业率是最终成果最常用的评估方法。有趣的是,《卫报》、《金融时报》和《泰晤士报》并不关注就业率本身,而是关注“与个人所学专业课程相关领域的就业率”。最终成果所使用的其他评估方法包括毕业生返校进行附加教育(additional education)的百分比,墨尔本研究所和《金融时报》都采用了这一指标。

  最终成果指标的缺乏很有意思,因为世界上许多政府发起的绩效指标体制非常关注这些评估方法,尤其关注就业率评估。这可能说明了排名系统并不把教育产出看作教育质量的相应评估方法。另一种可能是,他们尚未找到可靠的产出指标,或者可能有一些可靠的产出指标,但是大学之间在该指标上差别非常小,因此在这些数据的基础上进行排名没有意义。

  6. 科学研究指标

  许多排行榜都包含关于大学科研成果的指标和权重。正是在这一评估领域,我们看到了指标的最大差异性。有三个排行榜的排名中包含了研究人员:《共和报》(9.52%)、墨尔本研究所(4%)和武汉大学(0.78%)。

  文献计量方法——也就是统计论文篇数和论文被引用数——这是考察科研质量的常用方法,但它并不被普遍赞同,因为不同的学科采用不同的方式来交流知识上的主要进展(前沿的科学家总是发表大量的期刊论文;前沿的社会科学家可能发表的期刊论文较少,相反,他有一两本较重要的专著)。在非英语国家中,还应注意到,他们在国际性排名中处于不利地位,因为许多主流杂志(尤其是Science与Nature)是用英语出版。然而,有的排名设有分别考察英文论文和用另一种语言发表的论文(武汉大学)的单独指标,排名结果表明,这两种指标具有正相关性:拥有越多中文论文篇数的大学,也很可能拥有越多的英文论文;反之亦然。

  有几个排名系统用各种论文索引来评估文献引用率。上海交通大学和《泰晤士高等教育副刊》都很重视这一类指标,给予20%的权重。广东采用工程论文引用率来考察中国大学,权重达到2.9%。此外,它添加了10.49%的权重用于科学索引引用率。上海交大排行榜也采用同样的科学引文指标类别,以10%的权重紧追广东,墨尔本研究所的科学引文评估占6.8%,武汉大学占1.28%。只有两个排行榜提到了社会科学索引引用率:上海交大(10%的权重)和墨尔本研究所(3.2%)。评估科研影响力的另外一种方法就是重点关注“高度被引用”论文数。

  引用率的补充当然就是论文发表数量。广东对于科学引文索引论文发表数给予了11.79%的权重,例如SCI。网大有13.6%的权重是以同一个指标为基础,而墨尔本研究所的权重是4%,武汉大学是1.46%。广东甚至还有一类专门的指标用于评估Science与Nature论文篇数,尽管其权重只有几乎0.06%。对于社会科学索引论文篇数,网大在其最后总和中另加8.4%的权重,墨尔本研究所加了2%。至于其他索引论文篇数指标,《亚洲周刊》的权重是6.6%,香港专业教育网5%,广东4.5%,武汉大学1.45%。至于其他出版物,《亚洲周刊》是唯一一个将研究专著算作指标的排行榜,权重达0.33%。

  在一些具有对科研产出进行第三方评估的国家,研究学术质量有时被当作一个研究指标。《泰晤士报》对该指标给予了高达30%的权重,而《金融时报》给予11%的权重。

  科研奖励是另一个便捷的第三方评估方法,教师和/或学生在国际国内的获奖数量通常被看作大学成就的有效评估指标。国际性科研奖励——尤其是获得诺贝尔奖或者菲尔兹奖的校友数量——被上海交大当作一个指标,并给予了30%的权重。这个指标在有些地方很令人质疑,因为它的统计点是以获得者学习过的学校为基础,而不是他们现在或过去执教的地方,而且有些支撑起大学排行榜的诺贝尔奖获得者已经去世将近一个世纪了。国家级科研奖励作为一个质量指标更加常见一些,意大利《共和报》(9.52%),墨尔本研究所(8%),武汉大学(7.13%),网大(4%),广东(1.56%)都采用这一指标。

  科研经费指标也很常用。科研预算作为大学科研总体评估的一个要素,《金融时报》(9%),网大(6%),墨尔本研究所(3.33%)的排行榜中都包括了它。武汉大学推出的排行榜1.78%的权重用于评估科研费用的总量。不幸的是,科研费用指标代表什么,或者它是如何被决定的,这并不清楚;尽管它指出这并不代表一所大学的经费或项目的总量。科研经费和项目总量在香港专业教育网的排名中占15%的权重,武汉大学占9.31%。《麦克林杂志》有5.5%的权重投给科学与工程学公共来源经费,另外投入5.5%的权重在社会科学与人文科学公共来源经费上。

  网大(4.6%)和武汉大学(2.78%)都列出了每所大学的重点学科数。而且,网大(8.6%)、武汉大学(5.48%)、《共和报》(0.95%)都评估研究基地或研究中心数量。

  最后,人们也可以不仅仅是从科研产出的财富总量,也可以从科研所产生的未来收益的总量来评估科研。广东(2.45%)和武汉大学(1.93%)都将大学拥有的发明专利数量作为质量指标进行评估。

  评估一所大学的科研强度的最终途径是考察它的课程提供的范围。《亚洲周刊》(3%)、网大(6.8%)和武汉大学(1.95%)都采用博士点和硕士点这一指标来表明科研强度。

  就物质和经济资源而言,很少排行榜的科研指标就大学规模(或学生、教师人数)做标准化处理。在排行榜世界中,越大通常几乎意味着越好。就知识的原始产品来说,这种评估形式是可以接受的。就用来说明大学在类似基础上表现有多好,或者说明大学的效率的排行榜来说,坦白地讲,这是不够的。中国的政策制定者需要格外关注这一点,中国的排行榜体系尤其有赖于科研指标。

  7. 声誉指标

  质量排名中最后一类指标是“声誉和同行评议”。那些采用声誉调查结果作为评价指标的排行榜将它作为一个间接的质量评估方法,其假设基础是,接受调查的雇主、学院和学院管理者对大学质量的评价是广博、最新和公平的。尽管这些假设还明显存有争议,他们仍然为许多排行榜构筑了一个重要的基础。采用声誉评估的另一个重要的原因是其他可以获得的资料非常少——有些国家对教学效果、大学资源或产出没有独立的评估措施,因而可以把声誉看作一个有效的替代品。声誉排行榜经常遭受批评,因为它简单地量化了接受调查者的认知。然而,接受调查的人所持的立场有可能影响相当多的年轻人,而且他们的职位实际上要求他们对大学的质量有一些了解(也就是负责研究生入学的官员,公司招聘人员等等),就这一点而言,声誉排行榜是有意义的,因为他们给学生提供了很多有用的信息,即他们可以感受到从各个大学所获得学位的价值。

  最强调声誉的排行榜是波兰《共和国报》和《泰晤士报》,二者在总体排名中声誉指标都获得了50%的权重。香港专业教育网则是40%。《美国新闻与世界报道》则投入25%的权重,《亚洲周刊》以20%紧随其后。再紧随其后的是墨尔本研究所(17.1%)、《麦克林杂志》(16%)、网大(15%)三家排行榜。

  通过上述分析,我们发现了一系列令人困惑的指标,且没有一个指标在全球通用。这部分地反映了不同国家数据的可获得性的差异;然而,这也突出了各种排行榜之间在质量定义上存在的各种差异。

  排行榜不仅仅是一个指标的收集。关键在于它是各种指标的集合体;因此不仅要考察单个指标,而且要考察这些指标是如何被组织在一起的,以及各个排名系统如何通过分配指标权重来暗自定义教育质量。分析不同排名系统的指标和权重,可以发现没有哪两个排名系统是相同的,并且有些排行榜事实上与另一个排行榜没有任何重合的地方。具体如表1所示。尽管全球各类排行榜的指标和权重在选择上差异很大,但当我们将它们按地域特征进行分组时,可以发现某些固有模式。例如,中国——四个不同的排行榜——分配给科研指标的权重要比世界上其他排行榜都要多。正如我们所见的,这种权重很多是来自于文献计量研究中的论文发表数和引文数统计——该研究过于偏重精确科学。除广东以外,中国的排名体系还非常重视大学声誉。而与此相对,资源投入或最终成果指标只占相对较小的权重。

  其他排行榜的地域性模式也很明显。如英国的大学排行榜则完全避开采用声誉调查来决定质量(尽管《泰晤士高等教育副刊》给声誉指标50%的权重)。英国的排行榜比其他地区的排行榜更重视评估师资和师资质量。北美地区的两大排行榜调查——《麦克林杂志》的排行榜和《美国新闻与世界报道》的“美国最好的大学”——在指标权重的分配上近乎一致,除了加拿大版本投入更多权重给资源投入,而美国版本更多投给教育产出。

  三、排行榜的稳定性

  从前文的分析中人们可能理所当然地认为,被评估的大学质量并不是永恒不变的,一所大学的排名很大程度上是排行榜选择什么内容进行排名的结果。加拿大的金斯敦女皇大学的例子很好地支持了这点。在加拿大排行榜(《麦克林杂志》)中,它的排名很不错,因为它吸引到优秀的学生,并且有良好的捐赠状况和资金状况。但在国际排名中,它的排名很低,甚至与加拿大本国其他大学相比也是如此,因为它的规模较小,使它在非标准化科研产出评估中处于不利地位。

  尽管排行榜是排名者所选择的一套特定的指标和权重的结果这个结论是真实的,但这还不是问题的全部。某些大学可能发展得很好,不管评估他们的指标和权重怎样。我们可以利用多样的排行榜来考察在一国范围内某所大学的相对分数,我们发现某些大学总是处于排行榜的顶端:英国的牛津和剑桥;美国的哈佛、耶鲁、普林斯顿、麻省理工学院、斯坦福;中国的北大和清华;加拿大的多伦多大学。下表列出了中国和加拿大的情况。即使采用不同的评估方法,这些大学仍然占据最高点,要想挤走他们,则要使用不正当的排行榜体系。排行榜之间的差异只出现在底端级别的学校;在那里,即使方法论上极小的变化也会极大地改变排名。

  对此最简单的解释也是最令人惊奇的解释:大学排名系统并没有评估出设计者想要评估的东西。排名体系的设计者认为每一个指标都很合理地表示了质量,并且被合理地总计和加权,这些指标构成了一个似是而非的、整体的质量“定义”。在这里我们的结论是,许多指标可能是一些未被评估的潜在质量特征的附带现象。就是说,事实上有一些“暗物质”或“X因子”对整个排行榜产生了巨大的引力,以至于某些大学或某类大学(哈佛大学、牛津大学、清华大学)上升到顶端,无论所使用的具体指标和权重是怎样的。我们猜测像“大学的年限”、“师资规模”和“学生人均支出”最有可能就是这些“X因子”。

  四、没有排行榜的排名:德国CHE/DAAD方法

  德国的CHE/DAAD排名是由CHE(德国高等教育发展中心)联合DAAD(德意志学术交流中心,主要任务是帮助国际学生到德国)和一个媒体合伙人(现在是《时代周报》,以前是《明镜周刊》)发起的。在数据来源方面,CHE对大约13万学生和1万6千名教师进行定期调查,调查覆盖几乎250所高等教育机构。学生调查内容很宽泛,设置很多关于学生体会和学生满意度的问题。教师调查主要是为了产生一个围绕某个特定指标的数据,该指标以“内部人的选择”出名(调查要求教授在他们所在的研究领域内,提名三所大学,这是他们向别人推荐的最佳的学习去处)。它也有很多指标是采用独立的数据源。大约2/3的指标是以调查为基础,剩余的数据都来自第三方来源。CHE/DAAD排名不采用来自大学的数据。

  德国大学学部CHE/DAAD排名与传统的排行榜有两个方面的不同:首先,它不对单个指标得分进行合计或加权。每个学科每个指标的得分可以独立存在,并且不会对学科按照次序进行排名。CHE这样做是因为它认为,将差别很大的指标合并到一个单一的层级中去是无意义的。由于CHE不对等级进行加权,这就使得用户自己可以通过挑选有限数量的指标,并在此基础上要求网站数据库提供比较的大学信息,有效地创建自己的权重和排名。通过这样做,CHE/DAAD方法事实上把对质量进行定义的权力——正如我们已经见到的,这是排名者声称是排行榜的关键作用之一——让给了排行榜的消费者(即潜在的大学生和他们的父母或赞助人)。CHE/DAAD第二个独特之处是即使在每个指标内部,也不做序列排名。某个学科内,在每个特定指标上,将大学分为“高组”、“中间组”、“低组”。这三组学校中的每一组的学校在质量上被认为是相同的,这样做的理由是,对许多指标来说,序列排名相对来说有些虚假,因为在许多评估指标上,大学之间的实际差异非常小。尽管这种排名结果有某些优点,这种方法的确也意味着对用户隐瞒数据,因为CHE了解每个大学在每个指标上的特定数据,但却不揭示它。

  五、结论

  在考察众多排行榜的基础上,我们可以总结出很多结论,尤其是以下几点。

  1. 不同的大学排行榜在评估的内容,评估的方式,以及如何定义质量等方面存在很大差异。

  2. 有些差异在本质上看来是地域性或文化性的。一些类型的指标和某种数据来源很明显出现在多个排名中,这到底反映了对大学质量内涵的看法存在真正差异,还是反映了各国在数据收集和获取上的差异?我们还不能十分确定,尽管我们倾向于前一种解释。各国之间缺乏统一的指标解释了为什么一些大的排行榜(上海交大和《泰晤士高等教育副刊》)是如此依赖出版物产出和声誉调查,因为这是一些不需要政府或者大学首先来收集和处理数据的指标。

  3. 在对大学规模进行数据标准化(人均化)处理,或采用“价值附加”方法来评估大学方面,多数排行榜做得不好。结果,它们的排名偏向于那些更大的学校和“教育投入”(如经费、学生人数)多的学校。

  4. 尽管大学排名所使用的方法有较大的差异,但是对哪些大学是该国“最好的”大学这一问题,众多排行榜却有着令人惊讶的共识。不同方法论对大学质量的看法不同,在这个方面,各个排名结果之间的差异随着排行榜次序的下降而增加。

  5. 尽管“质量”定义存在争论,但排行榜还是使用“一刀切”的方法强加定义,这也正是他们备受争议的原因。但是正如CHE/DAAD所显示的,排行榜并非对大学进行排名的唯一办法。实际上,互联网的普及使得大学数据的收集者有机会通过简单快捷的方式,推动排名民主化,并把排名的权力交到消费者手上。

  正如梅里索提斯所指出的,尽管大学排行榜存在一些缺点,但他们满足了大学和政府无法满足的公众对大学透明度和信息的需求。然而,作为传递信息的一种方式,排行榜还处于幼稚期,所有的排行榜都从对各自排名中暗含假设的进一步分析中获益。国际性排行榜尤其是如此,正如前文所述,由于无法获得跨国的比较性数据,这样的排行榜可供选择的指标范围有限。国际性排行榜在国际学生市场承担着质量保证的角色,这要求全球的高等教育团体需要开始思考如何最佳地收集和发布大学的数据资料,使得大学间的比较更加贴切合理。

  译者简介:王亚敏、侯书栋,中国人民大学高等教育研究室研究人员;李立国,中国人民大学高等教育研究室副主任,教育科学研究所副教授.

  本文摘译自Usher, A. and Savino, M. A World of Difference: A Global Survey of University League Tables( Toronto, ON: Educational Policy Institute, 2006) .

  参考文献:

  [1]The Atlantic Monthly( 2003) . ' Our First College-Admissions Survey' , in the Atlantic Monthly, November 2003, pp 104—106.

  [2]Confessore, Nicholas( 2003) . ' What Makes a College Good? ' p 104—105.

  [3]Fallows, James( 2003) . ' The New College Chaos, ' p 106.

  [4]Ganeshananthan, VV( 2003) . ' The Late-Decision Program' , p 116.

  [5]Mathews, Jay( 2003) . ' The Bias Question, ' p 130.

  [6]Peck, Don( 2003) . ' The Selectivity Illusion, ' p 128.

  [7]Centrum für Hochschulentwicklung( CHE, Germany: Berghoff, Sonia; Federkeil,

  [8]Gero; Giebisch, Petra; Hachmeister, Cort-Denis; Siekermann, Meike; Müller-B{G4R115.jpg}ling, Detlef) , ' Forschungs Universit{G4R116.jpg}ten 2004' , No 62, 10 February 2005.

  [9]Clarke, Marguerite(2002) . ' Some Guidelines for Academic Quality Rankings, ' in Higher Education in Europe, vol XXVII, no 4, pp 443—459.

  [10]Dill, David D & Soo, Maarja( 2004) . ' Is There a Global Definition of Academic Quality? A Cross-National Analysis of University Ranking Systems. ' Chapel Hill, NC: Public Policy for Academic Quality background paper, University of North Carolina.

  [11]Eccles, Charles. ' The Use of University Rankings in the United Kingdom, ' in Higher Education in Europe, vol XXVII, no 4, pp 423—432.

  [12]The Economist. ' The year of listing differently, ' 24 September 2005, p81.

  [13]Education18, Internet URL at http: //education18, com/

  [14]The Financial Times. Financial Times Universities 2003, 03 May 2003.

  [15]Kelly, Jim. ' Access: A gentle break with elitist traditions: Government opts for a benign regulatory framework over quotas, ' p 3.

  --. ' Admissions policies: A shining example to the rest: Sheffield has shown how to build a socially inclusive university and is far ahead of the government' s agenda, ' p 12.

  --. ' How to read the tables: Large number of criteria provide stability-method produces important tool for parents and would-be students, ' p 8.

  --. ' London 2[,nd] edition: Fears that £ 3000 top-up fee could be the norm, ' p 7.

  --. ' London 2[,nd] edition: Review to challenge academic attitudes, ' p 7.

  --. ' London 2[,nd] edition-school funding: Headteachers warn of £2. 5bn black hole, ' p7.

  --. ' Top five confirm their long-held positions: But Loughborough breeds winners and edges towards the elite, ' p 9.

  --. ' Vice-chancellors' survey: Higher charges seem inevitable-Questionnaire provides clear indication of how the market will look in 2006 with most institutions expected to charge an extra £ 3000, ' p 2.

  [16]Murray, Sarah. ' Manchester merger: A marriage of love: The move to combine was driven by compelling reasons, ' p 11.

  [17]Tieman, Ross. ' Cambridge/MIT: Change of tack alters emphasis-focus is now on knowledge exchange, ' p 10.

  [18]Finnie, Ross & Usher, Alex( 2005) . Measuring the Quality of Post-secondary Education: Concepts, Current Practices and a Strategic Plan. Kingston, Ont. : Canadian Policy Research Networks.

  [19]Gladwell, Malcolm. ' Getting in: the social logic of Ivy League admissions, ' the New Yorker, 10 October 2005, p80.

  [20]The Guardian( Leach, Jimmy, editor; 2004) . The Guardian University Guide 2005: What to study, where to go and how to get there. London: Atlantic Books.

  [21]Hicks, Diana( 2004) " The Four Literatures of Social Science" in Handbook of Quantitative Science and Technology Research, e. Henk Moed. , Kluwer Academic.

  [22]Jobbins, David. ' The Times/The Times Higher Education Supplement-League Tables in Britain: An Insider' s View' in Higher Education in Europe, vol XXVII, no 4, pp 383—388.

  [23]Krueger, Alan B. and Hanushek, Eric A( 2000) . The Class Size Policy Debate, Working Paper No 121. Washington DC: Economic Policy Institute.

  [24]Maclean' s( Johnston, Ann Dowsett, editor; 2005) . Maclean' s Guide to Canadian Universities' 05. Toronto: Rogers Publishing Limited.

  [25]De Miguel, Jesús M. ; Sánchez, Jara D. ; & Vaquera, Elizabeth( 2004) . ' University Ranking in Spain: Methods for Evaluating Public and Private Institutions' , Presentation at UNESCO-CEPES Conference, Washington DC.

  [26]Melbourne Institute of Applied Economic and Social Research Williams, Ross & Van

  [27]Dyke, Nina; 2004 . The International Standing of Australian Universities. Melbourne: University of Melbourne.

  [28]Merisotis, Jamie P( 2002a) . ' On the Ranking of Higher Education Institutions' , in Higher Education in Europe, vol XXVII, no 4, pp 361—363.

  [29]Merisotis, Jamie P( 2002b) . ' Summary Report of the Invitational Roundtable on Statistical Indicators for the Quality Assessment of Higher/Tertiary Education Institutions: Ranking and League Table Methodologies' , in Higher Education in Europe, vol XXVII, no 4, pp 475—480.

  [30]Netbig Chinese rankings. Internet URL at http: //www. netbig. com

  [31]Le Nouvel Observateur( 2003) . ' Universités le palmarès 2003' , Le Nouvel Observateur, 13 March 2003.

  [32]Perspektywy 2004 University Rankings. October 2004.

  [33]Pike, Gary R( 2004) . ' Measuring Quality: A Comparison of US News Rankings and NSSE Benchmarks, ' in Research in Higher Education, Vol 45 No 2, March 2004, pp 193—208.

  [34]The Princeton Review. ' America' s Best Value Colleges' , Internet URL at http: //www. princetonreview. com

  [35]Provan, David & Abercromby, Karen( 2000) . University League Tables and Rankings: A Critical Analysis. CHEMS Paper No. 30. London: Commonwealth Higher Education Management Service( CHEMS) , Association of Commonwealth Universities.

  [36]Push UK( 2004) . The Push Guide to Universities in the UK. London: Nelson Thornes, 2004.

  [37]La Repubblica( 2004) , October 2004.

  [38]Sebkova, Helena( 2002) . ' Accreditation and Quality Assurance in Europe, ' in Higher Education in Europe, vol XXVII, no 3, pp 239—247.

  [39]Siwi{G4R118.jpg}ski, Waldemar( 2002) . ' Perspektywy-Ten Years of Rankings, ' in Higher Education in Europe, vol XXVII, no 4, pp 399—406.

  [40]Der Spiegel( 22 November 2004: no. 48) . ' Where Do the Best Study? Elite Students at German Universities? ' Berlin: Der Spiegel, pp 178—200.

  [41]Teixiera, IC; Teixiera, JP; Pile, M; Dur{G4R117.jpg}o( 1997) . ' Classification and Ranking of Higher Engineering Education Programmes and Institutions: The ICT View' .

  [42]Terenzini, Patrick T. ; Pascarella, Ernest T. ( 1994) ' Living with Myths' in Change, Jan/Feb 1994, vol 26 issue 1, pp 28—33.

  [43]The Times Good University Guide( O' Leary, John; Hindmarsh, Andrew; & Kingston, Bernard. 2004) . The Times Good University Guide 2005. Hammersmith, London: Times Newspapers Limited.

  [44]The Washington Monthly( 2005) . ' The Washington Monthly College Guide, ' Volume 37, number 9, September 2005, pp 24—37.

  [45]Wo{G4R119.jpg}nicki, Jerzy and Morawski, Roman Z( 2002) . ' Public and Private Higher Education Institutions-Joint or Separate Evaluation and Rankings: The Polish Perspective' in Higher Education in Europe, vol XXVII, no 4, pp 461—466.

  [46]Yonezawa, Akiyoshi; Nakatsui, Izumi; Kobayashi, Tetsuo( 2002) . ' University Rankings in Japan' in Higher Education in Europe, vol XXVII, no 4, pp 377—382.

分享到: 0 转载请注明来源:中国社会科学网 (责编:王萍)
W020180116412817190956.jpg
用户昵称:  (您填写的昵称将出现在评论列表中)  匿名
 验证码 
所有评论仅代表网友意见
最新发表的评论0条,总共0 查看全部评论

回到频道首页
QQ图片20180105134100.jpg
jrtt.jpg
wxgzh.jpg
777.jpg
内文页广告3(手机版).jpg
中国社会科学院概况|中国社会科学杂志社简介|关于我们|法律顾问|广告服务|网站声明|联系我们