解德渤 李枭鹰
大连理工大学高等教育研究院
摘要:教育部第四轮学科评估结果一经公布, 即引起学术界和实践界的广泛关注, 其中涉及的若干问题引人深思。“分档呈现”与“排名混战”的事实投射出学术锦标赛思维在大学依然根深蒂固。“学科评估”与“学科建设”的分立映射出统一化学术管理与多元化学术诉求之间的实践困境。“评估指标”与“评估结果”的差异折射出学科评估合法性与有效性之间的制度性失灵。“分类发展”与“领跑跟跑”的现实透射出不同教育政策之间的龃龉不合以及地方院校转型发展的纠结心理。诸多问题的出现, 是学科评估制度“激励失效”的具体表征, 而作为“惯习”存在的行政化思维则是问题产生的根源。以“激励相容”为典型特征的D-Map很可能会成为我国新一轮学科评估理念更新与技术革新的根本出路, 也将成为中国特色学科评估体系的优化路径。
关键词:学科评估;学科建设;中国特色;激励相容;
学科评估是检验学科建设水平、诊断学科发展问题、衡量人才培养质量以及推动学科稳健发展的重要手段, 1也是推进中国特色理论体系与话语体系建设的有力抓手, 即发挥着“以评促建”“以评促改”的重要功能。自2002年以来, 教育部学位中心 (以下简称“学位中心”) 针对具有硕士及以上学位授予权的单位进行每四年一轮的一级学科评估工作, 至今已历时16年完成四轮学科评估。经过四轮指标设计、技术调整以及方法优化等, 中国特色学科评估体系已经初具形态。它与注重教学质量评价的英国“教学卓越框架” (Teaching Excellence Framework, TEF) 和美国的“专业认证” (Specialized or Programmatic Accreditation) 表现出明显不同, 也与强调科研成果评价的英国“科研卓越框架” (Research Excellence Framework, REF) 和美国ESI (Essential Science Indicators) 评估展现出较大差异。2当前我国的学科评估主要是从人才培养、科学研究以及社会服务等多个维度, 以一级学科为基本单位开展综合性评估。在此基础上, 我们应该如何进一步建设具有中国特色、国际影响的学科评估体系, 以更好地服务政府、服务高校、服务社会、服务国际呢?3为此, 我们将研究视野聚焦于第四轮学科评估, 从中寻求中国特色学科评估体系的完善之道。第四轮学科评估主要是在除军事学门类 (16个学科) 之外的95个一级学科范围内展开。2017年12月28日, “学位中心”正式公布第四轮学科评估结果。这股“冲击波”快速地从实践界扩散至学术界, 从而在“双一流”建设背景之下掀起一场关于学科评估的讨论热潮。相比于前三轮而言, 第四轮学科评估在评估理念、评估指标、评估过程以及评估技术等方面都进行了明显的优化设计, 4但由于学科评估涉及诸多利益相关者的诉求, 从而出现了若干值得深思的问题。是故, 我们非常有必要对这些问题及其产生根源进行深入剖析。可以说, 这不仅为我们全面审视当前学科评估提供了一个新视角, 而且该问题的解决对推动我国学科建设事业发展、完善中国特色学科评估体系具有重大现实意义。
一、“分档呈现”与“排名混战”
与前三轮学科评估相比, 第四轮学科评估首次采用“精准计算, 分档呈现”的方式, 可谓是一大亮点。从正面来看, “分档”是学科评估中一个小小的技术性改进, 但其背后折射出的则是评估理念的巨大进步。这种将前70%的学科分为9档 (A+、A、A-、B+、B、B-、C+、C、C-) 呈现的方式从根本上拒绝了根据得分排名次的传统做法。毕竟, 不同学校在学科层面细微的分数差异和排名先后没有任何实质性意义, 那不过是人为臆想出来的一种“精致”, 抑或是人为制造矛盾的一个“祸端”。从理论上说, “分档呈现”的做法至少有三点好处:第一, 淡化学科评估分数和排名, 这个政策信号有助于引导高校将注意力从关注具体分数的“短视之举”转移到学科建设的“长远大计”上去, 这是在评估导向上的一个重大变化。第二, “分档呈现”既可以区分不同学校学科建设水平, 还可以清晰观测其变化情况, 从而具有较强的区分度和辨识度, 这是对原有学科评估方式的一次“守正创新”。第三, “分档呈现”可以较为直观地满足考生、家长和企业对不同高校教育质量的知情需求, 从而为考生和家长填报志愿、企业择优选材提供一定的参考。组织社会学中的“目标偏离”理论时刻提醒我们:目标执行过程中预期与结果之间很可能会出现不一致的情形。5在这里, “分档呈现”的目标设计也引发了始料未及的“排名混战”的现实结果。
第四轮学科评估结果一经公布, 参评高校的规划处、学科办以及社会上的第三方评估组织在2018年元旦期间做出各式各样的排行榜, 效率之高、反应之速令人惊叹。在此之后, 许多高校都开始组织各个层面开展第四轮学科评估讨论会议, 通报各个参评学科的全国排名、省内排名, A+学科数量排名、A类学科数量排名、各类学科积分排名, 与上一轮评估相比进步学科数量、退步学科数量, 如何在下一轮评估中跻身A类行列或者“分档前进”等。值得玩味的是, 绝大多数高校采纳与公布的都是对自己处境更为有利的排名, 不少参评高校的学科建设似乎都呈现出一片“繁荣景象”, 一时间令人眼花缭乱, 但其背后折射出的则是一种毫无明确对象或目标的隐匿交锋, 可谓是一种“排名混战”。请问, 为什么原本淡化排名的“分档呈现”却在高校引发了一场“排名混战”?这是我们在第四轮学科评估中需要深入反思的问题之一。这场“排名混战”又会引发哪些“多米诺骨牌效应”?这又是我们不得不审慎思考的现实问题。
当前, 我们将太多的目光聚焦于A类学科, 尤其是含金量十足的A+学科, 而对B类、C类学科的关注远远不足, 那些未进入前70%行列的学科几乎不在公众视野范围之内。在一定意义上说, 这些学科评估位次基本上构成学校内部资源配置与权力话语的“差序格局”, 从而“学科生态”作为一个严肃的话题浮现出来。许多重点院校面对教育部下一轮学科评估的策略很可能是努力保住A类学科、积极转化B类学科、竭力争取A+学科, 从而那些C类学科和未进入70%行列的学科很可能面临着“边缘化”甚至“被裁撤”的危险, 从而学科“动态调整”机制在高校层面很可能会成为学科“生态失衡”的根源之一。学科生态和学科布局问题很可能就会被人为悬置起来, 从而学科评估排名成为校内资源配置的主要依据。不止于此, 为在下一轮的学科评估榜单中拥有优异表现, “抢人大战”依旧在所难免。尽管第四轮学科评估试图纾解原来“数帽子”“数成果”等强调数量或规模指标的做法, 但高端人才作为稀缺性资源必将成为决定高校竞争力的核心指标。在排名混战中, 挖“帽子人才”在短期内是最见成效的策略, 这必然需要一笔天价“转会费”。但实际上, 人才在绝对数量上并没有增加, 我们只是在相对意义上用头衔、荣誉、金钱等外赋性地定义了人才, 但由此所造成的经费耗损却是惊人的。也就是说, 我们理应通过科研“活跃度”与“贡献度”来评判人才及其发展潜力, 绝非各式各样的“帽子”。从整个国家的角度来看, 人才流动是必要的, 但大规模的“挖墙脚”确实是一场触目惊心的内耗运动。
这种矛盾现象的产生与学术锦标赛思维或者奥运会思维关联密切。我们过于关注“金牌”学科, 实际上“银牌”“铜牌”学科也很宝贵, 甚至那些整体排名不佳但颇具特色的“无冕之王”学科也理应给予充分的肯定与尊重。但事实上, 学术锦标赛思维已经深深嵌入大学发展模式之中, [6]以金牌榜和积分榜为表征的竞技体育正在并将持续影响大学运行及其策略选择。这种学术锦标赛思维在本质上是一种行政化思维, 使得大学难以实现学术为本的初衷。7这就自然折射出大学与政府之间的关系处理仍是一个任重而道远的实践议题。
二、“学科评估”与“学科建设”
学科评估与学科建设之间的关系颇为微妙。如果我们恰当运用这把“量尺”, 学科评估不仅可以测度学科建设成效, 而且有助于加强学科内涵建设。反之, “量体裁衣”的美好理想就有可能演化为“削足适履”的潜在危险。从数据上来看, 2002—2004年第一轮学科评估的参评单位是229家、参评学科1336个;2006—2008年第二轮学科评估的参评单位是331家、参评学科2369个, 参评学科数量增长77.3%;2012—2013年第三轮学科评估的参评单位是391家、参评学科4235个, 参评学科数量增长78.8%;2016—2017年第四轮学科评估的参评单位513家、参评学科7449个, 参评学科数量增长75.9%。8这从侧面反映出, 越来越多的高校开始接受并认可学科评估规则。既然如此, 这套学科评估规则自然就会释放出一些信号, 高校会因“模仿性机制”的存在而习得相应的行为模式, 而“集体行动”下的行为模式则会对学科建设产生难以预估的影响, 甚至会对国家整体的学科发展生态和学科发展布局带来不可估量的戕害。正因如此, 我们需要深思的是, 学科评估规则是什么?这些规则又是如何形塑高校的总体认知与行动选择的呢?
“一级学科评估”是历次学科评估的基本规则, 这对高校学科发展的影响持久而深远。教育部根据《学位授予和人才培养学科目录》中的“一级学科”开展评估众所周知, 但这一评估规则与提倡高校大力发展交叉学科、特色学科以及新兴学科等实践取向存在较大冲突, 使得许多高校可能会更加倾向于服从评估规则。毕竟, 这些交叉学科、特色学科以及新兴学科的发展在短期内并无益于“一级学科评估榜”名次的提升, 在短期内也难以取得“看得见”的成效。更致命的是, “一级学科评估”规则等于是变相纵容甚至是鼓励新一轮“摊大饼”或“拼体量”的传统做法, 由此可能引发的“重复建设”“资源浪费”等问题则不难想象, 而那些颇具特色的二级学科与研究方向的重要价值就会被忽视甚至是抹杀。譬如, A学校在“科技哲学”二级学科上实力强劲, 但在“哲学”一级学科评估中表现平平, 为了在下一轮评估中有更好的表现, 正在试图打造“哲学航母”。进一步追问, 一个二级学院的化学实力能够与一所化工大学相媲美吗?这也就是为什么为数不少的行业类院校在此次学科评估中表现抢眼的重要缘故。由此来看, 学科评估规则与学科建设导向之间存在的隐匿问题值得我们深思。
“绑定评估原则”和“成果归属原则”是第四轮学科评估中增加的新规则, 我们需要辩证看待其对高校学科建设的影响。“绑定评估原则”9的实践要求有两点:其一, 如果同一学科门类下的一级学科参评则同时参评, 否则都不参评, 这是为防止高校将相邻学科评估材料进行拼凑申报而进行的技术改进。比如说, 法学门类之下的法学、政治学、社会学以及民族学等一级学科必须“同进同退”, 避免“拆东墙补西墙”的情形。显然, 这对于保证学科评估的公平、公正具有积极意义, 但它也进一步强化了“一级学科评估”的正当性与稳固性。其二, 不同学科门类之下的学科评估材料不得重复使用。如教育经济与管理的相关材料必须在教育学、经济学或管理学的某个一级学科之下使用。事实上, 这种交叉学科形成的是一种双赢乃至多赢的局面, 并非通过人为划分就可以泾渭分明, 这对于学科整合、学科交叉的削弱作用也是显而易见的。需要注意的是, “成果归属原则”是为解决跨界合作成果认定而出现的一种技术手段, 使得跨单位合作、跨学科合作得到认可与鼓励, 但是“拆分归属”的做法并不能从根本上解决交叉学科或跨学科评估的根本难题, 从而无法评估跨学科的发展状况, 也无法推进跨学科的发展进程。
上述问题的出现恰恰反映出学科评估面临一个“两难困境”。如前所述, 采用“一级学科评估”容易导致“学科航母”的出现, 以及对“新兴学科”“特色学科”“跨学科”和“交叉学科”的忽视。但若不采用“一级学科评估”而是对“二级学科”“新兴学科”“特色学科”“跨学科”和“交叉学科”进行评估, 又会因界限模糊而导致更为严重的材料拼凑, 从而对全国学科整体发展状况的判断更加失准。这种“两难困境”从根本上反映出统一化的学术管理思维与多元化的学术发展诉求之间的矛盾, 从而外在表征为学科评估与学科建设之间的实践难题。
三、“评估指标”与“评估结果”
从理论上说, 学科评估指标愈加完善, 它就会获得更为坚实的合法基础;学科评估方法越多元, 就越有利于提升评估结果的准确性与有效性。就评估指标而言, 第四轮学科评估的指标体系包括“师资队伍与资源”“人才培养质量”“科学研究水平”以及“社会服务与学科声誉”4个一级指标。具体而言, “师资队伍与资源”包括“师资队伍”与“支撑平台”2个二级指标, “人才培养质量”包括“培养过程质量”“在校生质量”“毕业生质量”3个二级指标, “科学研究水平”包括“科研成果”“科研获奖”和“科研项目”3个二级指标, “社会服务与学科声誉”包括“社会服务贡献”和“学科声誉”2个二级指标。就分类适用而言, 学位中心围绕学科评估指标体系的整体框架分别开发出适用人文、社科、理工、农学、医学、管理、艺术、建筑以及体育等不同学科的9套指标体系框架, 而且根据每个学科的特殊性设置不同权重。就评估方法而言, 第四轮学科评估采取“客观数据评价与主观评价相结合”的方式。“客观数据评价”主要包括公共数据、学校填报数据和问卷调查数据三个部分, 另有13 000多名同行专家、23万学生和15万用人单位联系人参与了主观评价。[8]由此可见, 第四轮学科评估在具体指标体系和指标运用方法上相比前三次有了明显的完善。
事实上, 上海软科教育信息咨询有限公司 (简称“软科”) 在2017年10月12日发布的“中国最好学科排名”与“学位中心”在2017年12月28日公布的第四轮学科评估结果具有较强的一致性。上海“软科”采用的是高端人才 (400分) 、科研项目 (400分) 、成果获奖 (300分) 、人才培养 (100分) 和学术论文 (400分) 五项评估维度, [9]虽然与“学位中心”的指标体系在师资队伍与资源、科学研究水平、人才培养质量三项评估维度上具有较大契合之处, 但我们需要澄清三点:第一, 上海“软科”的“科研水平” (包括科研项目、成果获奖和学术论文, 计1100分) 计算分值最高, “高端人才” (400分) 次之, “人才培养” (100分) 最低。“学位中心”则坚持将“人才培养”放在首位, 并从三个维度构建人才培养质量评价方法。第二, 上海“软科”的“人才培养”指标只统计该学科所培养的科学院士、工程院士、长江学者和国家杰青等高端人才, 而“学位中心”则从“培养过程质量”“在校生质量”以及“毕业生质量”三个维度, 通过大规模开展学生调查和雇主调查得出评估结果。第三, “学位中心”的学科评估指标框架中专门设有“社会服务与学科声誉”这个维度, 而上海“软科”在这个维度上是缺失的。需要深思的是, 为什么在指标框架和指标权重不同的情况下, 两个评估机构的评估结果仍高度相关呢?
非常明显, “学位中心”第四轮学科评估的指标体系与评估方法比上海“软科”与前三轮都更为完善, 但“人才培养因素”“社会服务因素”以及“学科声誉因素”的加入并没有从根本上改变学科评估结果。我们对此可以做出两种诠释:第一, 人才培养、社会服务、学科声誉等指标具有极强的合法性意义, 尤其是将“人才培养”放在首位的象征意义更是不言而喻。这有助于引导高校关注人才培养的全过程, 不仅要给在校生创造良好的学习条件, 还理应为毕业生的后续发展提供相应支持, 这使得校友因素逐步凸显出来。与此同时, 这套较为完善的评估指标框架更容易让公众确信评估结果的准确性和有效性。第二, 师资条件、人才培养、科学研究、社会服务、学科声誉等指标并非完全独立, 它们相互叠加、相互强化, 从而形成“累积效应”和“外溢效应”。在科研至上的今天, 科研水平对学科评估结果具有决定性作用, 而规模性的评估指标则进一步强化了科研主宰的地位, 故而人均性指标与比例性指标需要适当介入以稀释或消解其负面影响。因此, 如何从重复性指标向独立性指标转变、从规模性指标向结构性指标转变, 10这是下一轮学科评估可以改进的地方。这两种诠释共同揭示了评估指标的合法性与有效性之间的隐匿关系。
四、“分类发展”与“领跑跟跑”
不同类型高校肩负不同的办学使命、拥有不同的办学定位, 从而理应具有不同的发展轨道。从理论上说, 中央部属高校主要培养学术型人才, 从事纯粹性科学研究, 更多着眼于服务国家乃至世界的发展与进步。地方本科院校主要培养应用型人才, 从事应用型科学研究, 更多服务于区域经济社会的发展。遗憾的是, 高校“分类发展”的理想图景在教育实践中遭遇不少困难。尽管教育部联合多部门在2015年10月下发《关于引导部分地方普通本科高校向应用型转变的指导意见》, 要求有条件、有意愿的试点高校率先探索应用型发展模式, 大力培养服务于社会一线紧缺的应用型、复合型与创新型人才, 但这项政策的落地生根存在较大困难。问题的关键在于, 由来已久的“金字塔式”资源分配方式与社会认知方式形塑了大学的等级思维, 11许多地方院校的“改名冲动”“升格行为”“争硕抢博”等策略选择不难理解。向研究型大学的“看齐意识”不断作祟, 它们无需审慎考虑学校发展战略, 进而“懒汉思维”暴露无遗。当这种根深蒂固的思维惯性与学科评估相遇之时, “领跑跟跑”的传统路径得以强化, “分类发展”的理想路径依然遥不可及。
第四轮学科评估的参评单位共有513家, 除去16家科研院所、5家党校机构和1所中国科学院大学, 参评高校共有491家, 其中至少有1个学科进入前70%行列的上榜高校有460家。从这个数据来看, 绝大多数参评高校为地方本科院校, 但绝大多数地方本科院校在A类学科上的表现不尽如人意。尽管有14所地方高校冲进学科榜首12, 但这并非是地方本科院校的胜利, 而是特色学科发展的胜利, 是差异化发展道路的胜利, 更坦诚地说, 这是评估规则的“制度偏好”为行业类院校所带来的意外结果。当前, 我国在顶层设计角度积极推动地方本科院校向“应用型”转型发展, 旨在实现不同类型高校在各自跑道上“赛出风格”“赛出水平”, 但显然这次评估实践仍是把不同类型高校放在同一条跑道上, 按照同一套“赛制规则”来进行, 从而形成一道熟悉的风景线:部属高校“领跑”, 地方本科院校“跟跑”。这样的“同台竞技”看似公平, 实则在公平外衣之下掩盖的是竞技规则的不公正。如何走出院校发展“路径依赖”的怪圈, 成为第四轮学科评估必须深刻反思的一个实践议题, 也是下一轮学科评估必须着手解决的一个棘手难题, 更是完善中国特色学科评估体系必须寻求突破的一道重大命题。
从发展愿景的角度来说, 费孝通先生提出的“各美其美, 美人之美, 美美与共, 天下大同”是一种多元并存、和谐共治的文化生态, 实际上也是大学生存的理想生态, 更是学科发展的理想生态。但事实上, 这是一场关乎大学声誉、学科尊严、学术资源的评估活动。一旦进入学科评估前列, 所谓的声誉、尊严等无形资源以及其他有形资源都会纷至沓来, 从而“马太效应”异常明显。由于这种潜在效应存在, 国内诸多知名大学都普遍存在一种慌乱心态, 惟恐搭乘不上政策倾斜的快车, 更遑论生存条件更加困难的地方本科院校。这从根本上说明, 我们大学的发展理念出了问题, 它直接表现为不合理的制度设计。有学者不无忧虑地表达:“这次第四轮评估背后仍然是教育行政化的思维在主导。这是关系到我国学科发展的一个根本性问题, 是不是只有评估才能促进学科发展?行政化不去掉, 这一评估的负面影响只会越来越严重。”13在行政化思维主导下的学科评估抑或大学排名都将极大地考验高校的办学智慧, 14考验着大学校长的办学定力。
五、中国特色学科评估体系的优化路径
除上述问题之外, 第四轮学科评估中还存在一些需要反思的其他问题:“第三方评估”与“准官方评估”的问题, 评估的独立性令人生疑;中央政府部门强调“自愿参评”与地方政府部门要求“强制参评”的问题, 评估的自愿性令人困惑。当学科评估带有行政背景、携有资源分配、参与高校广泛之时, 不参加评估很可能会被视为“异类”“另类”, 因此而付出的代价是大多数高校所不能预估的, 故而“自愿参评”这一规则沦为许多高校的一种“难言之隐”。如果将今天讨论的“一级学科评估”与当前热议的“一流学科建设”两个话题结合起来进行思考, 我们可以追问这样一个问题:一流学科建设等于一级学科建设吗?显然, 这也是学科评估中映射出的实践议题。尽管评估技术不断革新、评估方法不断更新, 但是评估理念似乎并没有发生实质性变革。这种矛盾本身说明评估背后包含着诸多的利益诉求或者是深层意味, 隐含着大学与政府之间的博弈、理论与实践之间的纠葛、合法性与有效性之间的冲突、政策与政策之间的矛盾等。归根结底, 上述若干问题是学科评估制度“激励失效”的具体表征, 说明我们并未真正摆脱对行政式指令、统一化行动以及标准化程式等传统模式的“路径依赖”, 而作为“惯习”存在的行政化思维则成为问题丛生、路径依赖的根源。即在行政化思维的影响下, 分档呈现仍没有摆脱“等级性”的桎梏、评估规则仍具有较大的“统一性”特点、评估指标仍带有一定的“标准化”特征、参评高校仍属于“同台竞技”的传统模式等。在现有的体制环境下, 我们应该如何完善学科评估制度?这才是我们反思第四轮学科评估的关键所在, 也是完善中国特色学科评估体系的根本立脚点所在。
若从学理上说, 中国特色学科评估体系的形成与发展必须坚守几条基本原则:第一, 尊重学科生长规律;第二, 契合中国本土经验;第三, 符合国际评估潮流;第四, 推进高校生态发展。其中, “尊重学科生长规律”是完善中国特色学科评估体系的基本前提, 即学科发展具有内在的自为性与生成性, 需要适当、适度的宽松环境, 而不能完全地通过预设指标或外力干预实现学科建设的宏伟目标。“契合中国本土经验”是健全中国特色学科评估体系的核心内涵, 以政府为主导的学科评估早已成为历次学科评估的基本底色, 我们对此决不能视而不见。任何企图照搬照抄其他国家经验的做法基本都是不明智的, 也是很难行得通的。“符合国际评估潮流”是为中国特色学科评估体系提供重要参照, 尤其是评估理念和评估技术上的最新进展或最新成果可以为我们所借鉴、吸收。“推进高校生态发展”则是建立中国特色学科评估体系的最终目标, 即学科评估旨在促进不同高校学科的特色发展、不同学科部落的优势整合、同一学科群落的生态发展。这就说明, 中国特色学科评估体系的建设与完善必须以良好的评估理念为核心、以本土的评估经验为基础、以合理的评估技术为手段、以高校的生态发展为追求。
需要注意的是, 后现代大学时代的来临使得“去中心化”的征候越加明显, 15强调特色、多元的学科评估理念开始深入人心。但我们似乎还不太适应多元化的评估结果, 反而更乐意追求评估结果的唯一性与等级性。从这个意义上来说, 良好的评估理念必须借助于合理的评估技术、结合一定的本土经验方有落实的可能性。2005年, 欧盟委员会为呈现并强化欧洲高校的多样化样态而开发了U-Map (University-Map) , 它从教学状况、学生状况、科研投入、知识转化、区域参与以及国际化导向6大维度、23个具体指标呈现了高校的基本面貌。16U-Map的设计理念是坚持用户导向, 通过不分等级、不做评价、多维度多指标描述, 使得美不止一种, 为追求“各美其美”的高校生态发展提供了技术支持。那么, 我们是否可以通过借鉴U-Map的设计理念, 结合当前我国学科发展的实际情况与学科评估的指标体系, 开发出具有中国特色、国际影响的D-Map (Discipline-Map) 学科评估体系?
D-Map学科评估体系设计可谓是一种“守正创新”, 它对完善中国特色学科评估体系的贡献主要表现在以下四点:第一, 以政府为主导的学科评估方式保持不变, 将特色、多元的学科评估理念融入其中, 这一点在第四轮学科评估中已初现端倪。第二, 现行的学科评估总体框架保持不变, 将“规模指标”向“结构指标”、“重复指标”向“独立指标”的转化作为重要的改革方向之一, 即对现行的“师资队伍与资源”“人才培养质量”“科学研究水平”以及“社会服务与学科声誉”4个一级指标10个二级指标进行优化。第三, 除了“规定指标”之外, 增设“自定指标”, 由学校自主申报交叉学科、特色学科 (含特色的二级学科与研究方向) 、前沿学科或跨学科的建设状况。第四, 取消不同指标的具体权重, 不以“总分”或“分档”的方式呈现, 而是更加强调“单科实力”。如此一来, “学位中心”既可以了解全国学科建设的整体实力, 也不必担心高校陷入按照指标、权重进行学科建设的误区;各大知名高校也基本不会因为追求“榜单总分”或“总排名”而做出重复建设或无端裁撤某些学科的行径;中央部属院校与地方本科院校因为“同台竞技”而引发的不公平问题也可以在很大程度上得以缓解。
应该说, D-Map有助于从技术层面破解分档呈现“等级性”所带来的“身份难题”, 缓解评估规则“统一性”所带来的“两难困境”, 纾解评估指标过于“标准化”所带来的“合法性危机”以及扭转参评单位“同台竞技”所隐含的“奥运会思维”。这就意味着, D-Map可能会大大减少高校发展与学科建设进程中的“内耗行为”, 使高校将注意力更多地转移到自身内涵发展以及服务国家发展大局上去, 从而实现评估制度的“激励相容”。
总的来说, 相比于前三轮评估, 第四轮学科评估在评估理念、评估指标、评估过程以及评估技术等方面都进行了明显的优化设计, 但其中存在的若干问题透射出作为“惯习”存在的行政化思维在大学依然根深蒂固。因此, 以“激励相容”为典型特征的D-Map很可能会成为我国新一轮学科评估理念更新与技术革新的出路所在, 也将成为中国特色学科评估体系的优化路径。我们坚信, 中国高等教育在新时代背景下必将稳步发展, 早日进入“双一流”的行列。
注释
1英国TEF主要围绕3个一级指标 (教学质量、学习环境和学习结果) 和6个二级指标 (课程教学、评估反馈、学术支持、辍学率、就业率与继续深造比例、优秀就业率与继续深造比例) 实施。 (侯定凯:《英国大学卓越教学评估:为何评、评什么、如何看》, 《高校教育管理》2018年第2期) 美国的专业认证主要涉及特定专业 (通常是应用型学科, 如机械工程、建筑、医药等“硬”应用学科和法学、商学、公共管理、新闻传播等“软”应用学科) 的教学质量, 一般不涉及传统的自然科学、人文社会科学等学科。 (蒋笑莉、王征:《研究型大学学科国际评估的探索与实践》, 《学位与研究生教育》2013年第10期) 英国REF评估的前身是RAE (Research Assessment Exercise) 评估, 维度主要包括成果质量、社会影响以及学术环境。
2为避免学科间拼凑材料, 第四轮学科评估在要求参评高校本着实事求是的原则填报材料的同时, 采取了按学科门类“绑定参评”规则, 即“同一门类下具有硕士一级授权及以上的学科要参评同时参评, 不参评都不参评”, 从而有效抑制了相近学科材料不合理整合现象, 最大限度地保证申报材料真实准确反映学科建设的实际情况。
3上海中医药大学的中医学、中西医结合以及中药学3个一级学科进入A+行列, 南京林业大学的林业工程、林学2个一级学科进入A+行列, 中国美术学院的美术学、设计学2个一级学科进入A+行列, 云南大学的民族学、上海体育学院的体育学、华南师范大学的心理学、西北大学的考古学、南京信息工程大学的大气科学、西南石油大学的石油与天然气工程、上海海洋大学的水产、天津工业大学的纺织科学与工程、南京医科大学的公共卫生与预防医学、上海音乐学院的音乐与舞蹈学、黑龙江中医药大学的中药学也入围A+行列。
4[8]王小梅等:《以学科评估为契机提升学科建设水平》, 《中国高教研究》2016年第12期。
5王立生等:《我国学科评估的发展历程和改革探究》, 《中国高等教育》2016年第21期。
6田延辉:《第四轮学科评估的思考》, 《光明日报》2016年11月22日。
7周雪光:《组织社会学十讲》, 北京:社会科学文献出版社, 2003年, 第89页。
8阎光才:《学术等级系统与锦标赛制》, 《北京大学教育评论》2012年第3期。
9王洪才:《中国大学为何难以实现学术为本》, 《探索与争鸣》2014年第4期。
10黄宝印:《努力构建中国特色国际影响的学科评估体系》, 《中国高等教育》2018年第1期。
11《2017软科中国最好学科排名发布》, 中国教育在线, https://baike. so. com/doc/7531292-7805385. html, 2017-10-12/2018-03-05。
12蒋林浩等:《学科评估的方法、指标体系及其政策影响:美英中三国的比较研究》, 《高等教育研究》2014年第11期。
13解德渤、赵光锋:《地方本科院校转型发展:理念、困境与突围》, 《山东高等教育》2015年第4期。
14陈学飞等:《中国式学科评估:问题与出路》, 《探索与争鸣》2016年第9期。
15樊丽萍:《学科评估这根“指挥棒”该怎么看》, 《文汇报》2018年1月4日。
16王洪才:《“根叔”现象:大学进入后现代的征候》, 《大学教育科学》2010年第6期。
17茹宁:《U-Map:欧洲版本的高等教育分类体系》, 《中国高教研究》2012年第3期。
原文刊载于《厦门大学学报(哲学社会科学版)》2019(01):96-103.