内容摘要:
关键词:社会调查法;认知;测量误差;无应答
作者简介:
内容提要:本文梳理了认知心理学指导下的社会调查方法的相关文献,总结了在认知心理学对“应答”新定义的基础上,社会调查周期中的无应答误差和测量误差的认知心理致因与处理方法,探讨了拒访、访员效应和社会期望偏差的认知心理基础。文章进一步分析亚洲晴雨表中国部分最近三波的一手调查数据,呈现了中国社会调查中选项无应答的分布以及成因。回归分析表明,除了性别与城乡属性这些个人客观特征之外,主观因素,包括对政治的兴趣、政治信息的获取以及政治顾虑对选项无应答有比较稳健和显著的影响。针对认知心理因素对无应答和测量误差的影响以及实证数据的发现,文章提出了降低误差、提高调查质量的具体建议。
关 键 词:社会调查法;认知;测量误差;无应答
项目基金:本文受到上海市浦江人才计划项目“地方领导干部绩效激励模式的实证比较与优化对策研究”(项目批准号:17PJC021)和复旦大学社会科学高等研究院2018年度主题项目的资助。
作者简介:左才,政治学博士,复旦大学国际关系与公共事务学院副教授,复旦大学社会科学高等研究院2018年驻院研究员(上海 200433)。
社会调查是以系统的科学方法收集信息以构建出对研究总体特征的定量描述。中国当代社会调查始于20世纪70年代末以后社会学和政治学的恢复。1986年10月和12月先后成立了第一家学术性民意调查与研究机构——中国人民大学舆论研究所和第一家民营的社会调查机构——中国社会调查所。①自80年代初,不同的主体,包括政府部门、群团组织、学术机构、媒体以及民意调查企业,开展了一系列的社会调查,掀起了一场新的中国社会调查运动。②“社会调查方法论致力于识别与社会调查成本和质量相关的调查设计、调查数据收集和分析的一系列原则。这意味着社会调查方法论关注如何在维持成本不变的情况下提高调查质量,或者在保证质量不变的情况下降低调查成本。”③因此,社会调查方法论中天然地存在一种权衡:提高质量往往意味着更高的调查成本,因此在成本和现实可行性等因素的限制下,研究人员在设计社会调查问卷时需要决定哪些方面可以做出适当的牺牲,从而保证一定的调查质量。而对社会调查方法的研究就是明确不同类型的误差如何影响调查质量,从而帮助研究人员做出上述决定并在成本约束下干预误差的导致因素以提高调查质量。
传统的应答(response)理论认为,个人对不同议题拥有明确态度或偏好,对政治态度等主观态度问题的应答反映的是受访人对于某个议题的固定偏好。近二十年来,伴随着认知心理学的发展,社会科学家认为,大多数情况下,人们对政治议题不存在明确的态度或偏好,对社会调查中问题的应答不过是在个人潜在回答分布中的随机提取。④比如约翰·扎勒(John Zaller)的RAS理论模型(Reception-Acceptance-Sampling)认为,⑤对问卷中问题的回答其实是采访当下受访人脑中闪过的即时显著(immediately salient)的观点,并没有经过仔细考虑。社会调查中的回答并不反映偏好,而只是观点陈述(opinion statements),是个人关于某个议题的观点或倾向中的一个随机提取的样本而已。由于不同情境下在受访人脑中获得显著地位的观点不一样,同一个人对同一个问题在不同时间点的回答也会不一样。
对“应答”的这种重新定义将访员与受访人的互动以及受访人的情绪等偶然因素纳入到了调查质量的考察之中,包括受访人在回答某些敏感题目时产生焦虑以及使用满意化策略(satificing)。⑥这些考量催生了对采访过程环境因素等并行数据的采集和分析。通过收集和分析包括受访者社区环境、家庭环境、采访时是否有外人在场、受访者参与访问的兴趣、配合程度以及理解能力、受访者对调查的疑虑等方面的并行数据,可以对问卷数据的可信性进行评估。⑦这里的环境因素既包括采访场所访员与受访人互动的环境,也包括采访发生时的社会热点舆论与新闻环境。个人心理大致上包括认知、态度和情感意志等。采访中的问题,包括题干内容和提问方式会传递出相应的信息,而环境因素通过影响受访人对这些信息的处理,而对认知、态度和情感意志这三个方面产生影响,从而影响受访人的最终回答。
最近三十余年,在分析调查环节不同类型误差的致因方面,越来越多的研究人员开始关注认知心理因素对无应答误差和测量误差的影响,并在问卷设计、访员培训、并行数据的采集和分析等方面提出具体的改进建议。本文将梳理和回顾认知心理理论对社会调查研究方法的贡献和启示,呈现社会调查方法基于认知心理因素分析上的新发展,为国内社会调查相关研究提供知识储备。接下来首先对社会调查误差中的认知心理归因与处理进行梳理,然后聚焦一个具体案例,分析在中国开展的若干社会调查中的选项无应答现象,呈现无应答的分布情况以及导致无应答的主观因素。最后基于前两部分的分析进行总结和提出建议。
一、社会调查无应答和测量误差的认知心理归因与处理
在社会调查周期的所有误差中,⑧无应答误差与测量误差,与其他类型的无应答误差相比,更多地受到环境因素以及受访人主观心理因素的影响。本节将分析导致无应答误差和测量误差的认知心理因素以及如何针对这些主观因素采取相应措施以降低误差。
无应答包括在调查的数据采集过程中,无法获得某个选中受访人的任何一项回答,即单元无应答(UNR,unit nonresponse)以及选中受访人对具体某个或某些问题不作出回答,即选项无应答(INR,item nonresponse),包括“不知道”“拒绝回答”“没有观点”等情况。无应答误差指由于无应答的存在使得基于调查得出的参数估计与样本总体参数之间存在不一致。
1.1 拒访
拒访指的是合格的受访对象缺乏参与调查的意愿。罗伯特·格罗夫斯和他的合作者提出了受访人参与社会调查的感知理论,他们认为受访人参与社会调查的动机主要包括:互惠、对权威的尊重、渴求自己的声音被听到、认可调查主持机构等。⑨而拒访的原因则大致包括对调查缺乏兴趣、对访员缺乏信任、担心个人数据的泄露、认为调查没有意义和耽误时间等。受访对象个人特征、项目设计、访员特征、田野执行情况、社会环境和文化氛围等因素都会影响受访对象的配合程度。⑩约翰·布雷姆(John Brehm)提出了一个分析受访人参与社会调查的分析模型,其中影响受访人参与某项社会调查的因素主要是受访人与访员的关系、受访人的状态(包括健康、情绪)等。(11)研究者总结了以下拒访致因:(1)社会环境因素,大城市的拒访率较高,多人住户的拒访率低于单人住户;(2)个人因素,在美国,非白人群体的拒访率高于白人群体,高拒访率人群的社会参与程度也较低,并且男性的拒访率高于女性;(3)访员因素,比较有经验的访员采访时拒访率更低;(4)社会调查设计,包括访问的长度和采访附加的物质激励等。(12)社会调查的开展机构属性也会影响回答率。由于公共部门的权威,政府部门开展的社会调查的回答率一般高于其他机构开展的社会调查。而社会调查在一个国家的普及程度以及总的社会环境,包括对社会调查的信任程度,也对拒访率有直接的影响。比如在伊斯兰世界,人们对社会调查的信任程度普遍比较低,(13)这无疑会提高拒访率。
社会心理学的相关理论有助于我们了解拒访发生的心理机制,比如杠杆作用显著理论(Leverage Salience Theory)、经济交换理论(Economic Exchange Theory)、社会交换理论(Social Exchange Theory)、认知失调理论(Cognitive Dissonance Theory)。以杠杆作用显著理论为例,不同受访人有不同的特质组合,比如有些人对某类调查的主题更感兴趣,有些人对调查持续的时长更敏感,有些人对调查的物质激励更敏感,这些特质是采访人员事先无法获悉的;访员在一开始接触受访对象介绍调查项目时,会强调不同的方面,比如调查的主持机构和主题,这使得某些受访对象,比如认可主持机构和对主题感兴趣的,更有可能同意参与调查。在这个理论的指导下,访员需要尽快找到受访对象显著关心的方面并依此对介绍内容做出迅速的调整。同时,并行数据也有助于及时对受访人的意愿进行干预,比如“通过联系结果的记录和实时回传,给不同类型的拒访者寄送项目宣传手册、基于项目数据的出版物、礼品等,对受访者拒访的意愿进行逆转,降低拒访率”。(14)
其次,较多研究表明恰当给予物质激励,通过作用于受访对象的心理,能在一定程度上降低各类社会调查的拒访率,即便是在民众对社会调查有较多怀疑的国家。(15)物质激励给予的方式、时间点以及调查的方式对物质激励的效果有影响:调查前支付物质激励的方式比完成调查后给予物质奖励能带来更高的调查合作率;现金形式的物质激励比礼物、彩票或慈善捐助的形式对合作率的积极影响更大。(16)通过总结分析40多个实验研究,研究人员发现与其他方式相比,邮寄问卷调查中预先支付物质激励的方式能给合作率带来最大的回报。(17)并且与其他群体相比,收入水平和受教育水平较低、年轻人、少数族裔群体更容易受到物质激励的刺激而参与社会调查。(18)也有研究者对使用物质激励的做法提出了质疑:尽管能够提高应答率,但可能会降低回答的质量。由于物质刺激才参与某项调查而对调查本身缺乏实质动力和兴趣有可能会增加敷衍了事草率答题的行为,从而影响回答的质量。虽然这个观点还没有得到实证数据的支持。
1.2 访员效应
访员的行为是影响调查质量的重要因素。比如访员臆答(即对问卷中的某些问题不提问受访者而自填答案)或者在访问过程中诱导、催促受访者等访员行为都会导致测量误差。但测量误差的这些致因与认知心理学的关联不大。相反地,认知心理学强调的社会调查中的访员效应主要体现在访员的某些特质在问一些题目时导致受访对象的焦虑,从而影响答题质量,导致测量误差。受访人感知到的采访员的社会阶层、宗教、种族,以及性别取向都会对受访人回答某些问题产生影响,这些影响统称为采访员效应。
实证数据显示,美国黑人群体普遍认为美国白人对他们持有一些负面的偏见,比如认为他们更容易犯罪、滥用违禁药品、更愿意依靠救助而不出去工作、道德水平低、懒惰、愚蠢,并且黑人群体的这种认知并不因为性别、年龄、受教育程度或收入水平不同而呈现出差异。(19)这种普遍的偏见认知在回答一些类型的问题时,容易引起一定程度的焦虑,从而影响答题质量。比如实验研究发现,在回答政治知识型问题中,非洲裔美国人被美国白人访员采访与被非洲裔美国访员采访,答错率更高:这种差异并不是来自性别或受教育程度的不同,而是出于“偏见威胁”(stereotype threat)。由于政治知识类问题容易被认知为是在进行知识及智力水平的测试,因此非洲裔美国受访人被美国白人访员采访这类问题时,经受着访员偏见(非洲裔美国人的政治知识水平低)的威胁以及急于证明这种偏见不成立的压力,在回答问题时紧张和焦虑的程度更高,导致答题出错率提高。(20)因此在开展调查前,需要根据问卷题目,对访员群体的宗教、种族,以及性别结构进行合理配置;而在接触到受访对象后,则需要及时依据受访对象的个人特征对采访人员进行相应调整。
1.3 社会期望偏差
测量误差指的是真实测量值与受访人回答之间的不一致,包括由于问题本身含混不清而产生歧义导致受访人对问题的理解出现偏差,以及受访人故意隐藏自己的真实想法等情况。比较常见的例子就是由于社会期望偏差(social desirability bias)导致的测量误差。社会期望偏差是在测量敏感社会行为时经常出现的问题。当询问的问题涉及社会普遍希望或不希望的行为倾向时,受访对象往往倾向于隐藏真实情况或态度,不承认自己进行过社会不希望的行为或虚假报告自己做过社会希望的行为,使得关于某项行为发生频率或某个态度认可程度的调查结果出现系统性的偏差。(21)比如询问关于受访人使用违禁药品的情况,由于社会压力,受访人极有可能低报和隐瞒实情,导致测量误差。在政治学领域,比如回答腐败、贿选,与性别、种族歧视相关的敏感问题时,以直接询问的方式会导致受访人拒绝回答或者是低报瞒报真实情况;而在询问个人是否在选举中投票,询问公司是否遵守劳工法或进行社会捐献等被认为是公民或公司职责这些问题时,受访对象倾向于高报发生频率。
针对询问敏感问题时存在的社会偏差效应,研究者发现改变社会调查的执行方式,比如采用计算机辅助下的自填问卷(CASI,computer-assisted self-administration interview)相比面对面由访员采访这种执行方式,能有效提高受访对象承认做过某些社会不认可行为的意愿。(23)除了改变调查的执行方式,实验人员建议运用列举实验(list experiment)的方法来间接询问敏感问题,以此获得更加准确的敏感行为发生频率的估计。具体来说,通过将某个敏感问题嵌套到问题中的选项,让受访人通过回答发生了多少项而非具体发生了什么来规避社会期望偏差的问题。
伊齐基尔·冈萨雷斯(Ezequiel Gonzalez-Ocantos)和他的合作者们在关于尼加拉瓜贿选问题的研究是列举实验的经典研究案例。(24)直接询问贿选较难获得受访人的真实回答。因此,研究人员将贿选的测量问题嵌套到问题的回答选项中。列举实验方法被运用在研究种族、宗教、同性恋婚姻、选举投票、激进政治行为、恐怖主义、腐败行为等研究议题上,提供了更加准确的测量。具体地,列举实验的结果更准确地展现了在美国南方白人的种族偏见、白人对平权法案的厌恶、对犹太人当总统的有限反对以及对女总统的较大反对。(25)关于列举实验方法的局限性,在较长时间,只能描述不同组别群体在回答敏感问题上的组际差别以及是否存在社会期望偏差效应,无法开展敏感行为或态度的多变量分析,即到底哪些因素或什么样特征的人群更倾向隐藏自己的真实态度或行为。随着贝叶斯方法的发展以及与列举实验方法的结合,研究人员现在主要通过贝叶斯—马尔科夫链—门特卡罗分析法进行列举实验的多变量分析。(26)
认可实验是另一种以间接方式询问敏感问题的方式,其往往用来测量人们对某项政策的支持。实验参与人群同样被随机分成控制组和实验组。实验组接收到的干预是关于某个存在争议、比较敏感的主体也支持该项政策的陈述(即一种微妙的暗示,subtle cues),而控制组没有介绍到关于这个主体支持该政策的暗示,然后比较实验组和控制组在政策支持程度上是否存在显著差异。如果存在,则可以推断出对这个有争议主体的支持程度。比如,有研究人员曾运用认可实验来测量阿富汗普什图人占领区域的居民对由北约主导的阿富汗国际安全援助部队的支持程度,或巴基斯坦居民对激进组织和暴力武装的支持程度。(27)
列举实验和认可实验方法的核心是通过间接提问或者微妙的信息暗示,来影响受访对象的主观心理和认知因素,从而避免直接提问时造成的心理上的负担和压力,减少社会期望偏差,以此获得更加准确的行为和态度的估计。而这些方法的具体运用以及发展,比如列举实验过程中如何识别和避免“天花板效应”和“地板效应”,也都考虑了心理和认知的因素。(28)
二、选项无应答的主观因素分析
长期以来,社会调查研究人员关注的是那些自己没有态度或想法的受访对象在受访员的询问下随意表达一个态度,这个态度有可能是别人的、社会上常见的或者是在采访当下想到的,这被称为虚假观点表达。(29)而且不同国家的受访人在如实承认不知道或没有态度方面存在文化差异。(30)对那些有实质态度和想法,但是因为各种原因隐藏起自己的真实态度和想法的情况,直到最近二十多年才开始关注。
针对选项无应答(INR),现有文献关注的成因可以归为背景因素和个人因素两类。亚当·柏云斯基(Adam Berinsky)通过考察观点形成过程和观点表达过程中的背景因素来考察民意调查中INR的成因,这些背景因素包括问题的难易程度、明晰程度,与问题相关的主流话语(elite discourse),问题涉及的社会期望压力,访员效应等。(31)其他背景因素还包括对题目的感兴趣程度以及情感卷入程度、对自身形成观点和理解主题能力的自信程度、形成观点的功用、调查方式(数据采集的方式)和问题所在问卷的位置等。(32)在影响INR的个人因素中强调得比较多的是受访人的认知水平、动机和社会地位。女性、少数族裔、经济收入较低、受教育水平低以及政治效能感低的人群由于感觉被边缘化而更倾向回答“不知道”。(33)由于教育程度影响着认知水平,低教育水平被认为是导致INR的主要因素;但也有实验研究发现,较低教育水平的群体,为了维护颜面、不被访员认为自己很无知,更有可能在调查中营造观点,避免承认“不知道”。(34)
已有实证研究显示回答“不知道”与“知道”的两类被访者经常在政治态度上存在显著的差异,回答“不知道”的受访人并不是真的在某个问题上没有态度。比如亚当·柏云斯基和他的合作者对俄罗斯改革态度调查中选择“不知道”的受访人进行详细的分析,发现他们更倾向于反对市场改革而支持再分配;在美国种族政策、社会福利政策和战争政策方面,回答“不知道”的受访人的态度与其他受访人相比存在系统的差异。(35)通过设计一系列追问问题,有助于发现那些回答“不知道”的受访对象的真正态度。(36)在分析中简单忽略无应答有可能产生估计偏差。事先了解无应答样本的分布特征和成因有助于在调查设计阶段制定相应的采访实施方案和采集相应的辅助信息,也有助于在事后进行相应的处理。对无应答的处理及其发展建立在对无应答分布和成因分析的基础之上。
以下将通过分析最近三波公开的亚洲晴雨表调查中国部分数据(2008,2011,2015),来呈现和分析“选项无回答”的分布及成因。之所以选择亚洲晴雨表调查,是因为在较多问卷问题上保持了措辞的一致,便于进行比较。表1呈现了在三次调查中选项无回答率位列前五的问题。每道题目后面括号的数字表明了具体的无应答率。不难看出,历年来无应答率最高的题目主要是关于对其他国家民主程度的评价以及国内腐败情况的相关问题。
表1 选项无应答率居前五位的题目
| 2008 | 2011 | 2015 | |
| 请您为下列国家和地区的民主现状打分:美国的民主程度(61.2%) | 请您为下列国家和地区的民主现状打分:印度目前的民主程度(57.2%) | 请您为下列国家和地区的民主现状打分:印度目前的民主程度(61.5%) | |
| 请问您,中央政府官员中贪污腐化的情况普遍不普遍?(60.8%) | 请您为下列国家和地区的民主现状打分:日本目前的民主程度(50.8%) | 请您为下列国家和地区的民主现状打分:日本目前的民主程度(52.2%) | |
| 请问您,一般公务员中贪污腐化的情况普遍不普遍?(49.1%) | 请您为下列国家和地区的民主现状打分:我国台湾地区目前的民主程度(46.4%) | 请您为下列国家和地区的民主现状打分:我国台湾地区目前的民主程度(49.0%) | |
| 您认为我国在“司法独立不受政治干预”方面目前处于什么水平?(48.8%) | 请您为下列国家和地区的民主现状打分:美国目前的民主程度(44.7%) | 请您为下列国家和地区的民主现状打分:美国目前的民主程度(46.7%) | |
| 请您为下列国家和地区的民主现状打分:1979年改革开放之前,中国的民主程度(45.0%) | 请问您觉得民主对中国的适合程度如何?(43.4%) | 请问您,社会组织管理人员中贪污腐化的情况普遍不普遍?(37.7%) |
关于中国社会调查选项无应答原因的研究发现认知、兴趣和担忧是选项无应答的三大致因。受教育水平、城乡、年龄、地域属性等个人特征是影响无应答水平的关键因素。(37)但是对于“担忧”是不是导致一些敏感问题无应答的原因,研究者得出的结论不尽一致。(38)以下在分析无应答的相关因素时,会借助亚洲晴雨表2008年调查的中国数据对其进行直接检验。由于不同类型题目无应答的影响因素有可能不尽相同,因此在分析总体选项无应答率之后,将题目分成政治态度和评价、政治行为、经济态度和评价,以及国际关系方面的态度及评价四大类,分别探讨这四类问题无应答的影响因素。
分析中的被解释变量是一个二元变量。如果受访人的选项无应答率高于该题在调查总体样本中的无应答量的中位数值,则编码为“1”,即表示这位受访人在回答这类问题时无应答率处于偏高水平。比如,在2008年调查的所有336道题目中,个人无应答题量的最高值是274,最低值是0,中位数值是27,即一半的受访人无应答题目的数量在27道以上,另一半在27道以下,那么就将总无应答题量超过27道的受访人的Y值赋值为“1”,不到27道的受访人的Y值赋值为“0”。分析中的自变量包括个人的特征变量,包括性别、年龄、城乡、受教育年限、政治面貌和地域属性,以及对生活的满意程度、对政治的感兴趣程度、接触政治信息频率、政治效能感以及谈论政治顾虑程度。回归分析中还加入了采访时是否有第三人在场这一背景变量以控制其对选项无应答率的影响。
回归分析的结果表明,男性相比女性、城市居民相比农村居民,无应答率更低。西部省份的居民与中部省份相比,无应答率更高。除了个人特征,政治兴趣、政治信息以及政治顾虑也是影响无应答率的比较稳定和重要的因素。较高的政治兴趣、较频繁的政治信息接触以及较低的政治顾虑能在一定程度上降低不同类型题目的无应答率。其他因素,比如受教育水平、政治面貌、生活满意度、有无第三人在场的采访背景变量,以及政治效能感并不是影响无应答率的稳健因素。这些发现为我们在问卷设计方面给予了一些启发,是否可以对不同性别以及城市居民和农村居民在某些高无应答风险的问题上采取不同的措辞,对女性或农村居民多提供一些追问或后续问题来识别他们的隐藏态度。而与政治兴趣、信息,以及顾虑方面相关的题目宜放在问卷靠前位置,通过这三个变量识别出高倾向无应答人群之后,给他们提供不同的问卷问题。
表2.1 逻辑斯蒂回归结果(2008)
| 因变量:1=高无应答水平 | 所有题目无应答 | 政治态度问题无应答 | 政治行为问题无应答 | 经济态度问题无应答 | 国际关系问题无应答 | |
| 非农户口 | -.489***(.106) | -.565***(.108) | .017(.140) | -.065(.098) | -.307*(.119) | |
| 性别(男=1) | -.282***(.075) | -.295***(.075) | -.144(.099) | -.161*(.072) | -.173*(.083) | |
| 年龄 | -.005(.014) | .002(.014) | -.029(.017) | .020(.013) | .029(.016) | |
| 年龄的平方 | .000(.000) | .000(.000) | .000*(.000) | .000(.000) | -.000(.000) | |
| 受教育年限 | .700***(.136) | .379**(.136) | .022(.169) | .144(.130) | .195(.138) | |
| 政治面貌(共产党员=1) | -.654***(.172) | -.529**(.171) | -.126(.213) | -.430**(.153) | -.186(.184) | |
| 东部省份 | .333**(.103) | .103(.103) | -.674***(.136) | -.243*(.098) | -.064(.111) | |
| 西部省份 | .276**(.095) | .301**(.095) | -.223(.114) | .177*(.089) | -.013(.102) | |
| 第三人在场 | .327(.075) | .423***(.076) | .036(.100) | .404***(.072) | .290***(.082) | |
| 接触信息频率 | -.244**(.078) | -.136(.079) | -.352**(.107) | -.174*(.075) | -.154(.087) | |
| 政治兴趣 | -.703***(.083) | -.828***(.083) | -.403***(.114) | -.670***(.079) | -.453***(.094) | |
| 生活满意程度 | -.288**(.094) | -.392***(.094) | -.029(.122) | -.366***(.090) | -.447***(.097) | |
| 政治顾虑 | .992***(.086) | 1.185***(.088) | .672***(.106) | .688***(.084) | .689***(.090) | |
| 政治效能感测量1 | .649***(.086) | .532***(.086) | .096(.109) | .352***(.080) | .601***(.098) | |
| 政治效能感测量2 | -.254**(.089) | -.024(.090) | -.504***(.108) | -.004(.085) | -.286**(.096) | |
| 政治效能感测量3 | -.043(.084) | .127(.085) | -.459***(.107) | .163*(.080) | .117(.094) | |
| 截距项 | -.923**(.356) | -1.187**(.360) | -.313(.435) | -1.212***(.340) | -2.133***(.400) | |
| 观察值 | 3836 | 3836 | 3836 | 3836 | 3836 | |
| -2LL | 4393.548 | 4349.508 | 2880.619 | 4711.917 | 3803.980 |
| 因变量:1=高无应答水平 | 所有题目无应答 | 政治态度问题无应答 | 政治行为问题无应答 | 经济态度问题无应答 | 国际关系问题无应答 | |
| 非农户口 | .120(.091) | -.271**(.092) | .313(.229) | .070(.105) | .132(.140) | |
| 性别(男=1) | -.337***(.083) | -.397***(.3084) | -.021(.210) | -.102(.096) | .081(.129) | |
| 年龄 | .007(.014) | .060***(.014) | -.113***(.030) | .035*(.017) | .064**(.024) | |
| 年龄的平方 | .000(.000) | -.000*(.000) | .001**(.000) | -.000(.000) | -.001**(.000) | |
| 受教育年限 | -.114***(.011) | -.092***(.011) | -.130***(.030) | -.081***(.013) | -.086***(.018) | |
| 政治面貌(共产党员=1) | -.299*(.120) | -.287*(.120) | .544(.285) | -.167(.147) | -.062(.195) | |
| 东部省份 | .130(.092) | -.073(.094) | .206(.233) | .133(.110) | -.136(.140) | |
| 西部省份 | .262*(.102) | .238*(.102) | -.077(.285) | .771***(.115) | -.243(.160) | |
| 第三人在场 | .463***(.081) | .371***(.081) | .296(.204) | .364***(.091) | .042(.124) | |
| 接触信息频率 | -.389***(.085) | -.346***(.085) | -.482*(.226) | -.191*(.097) | -.264*(.132) | |
| 政治兴趣 | -.385***(.085) | -.354***(.085) | -.219(.223) | -.296**(.097) | -.296*(.134) | |
| 生活满意程度 | .077(.085) | .031(.086) | -.147(.214) | -.444***(.094) | -.222(.127) | |
| 政治效能感测量1 | .372(.085) | .409***(.086) | -.167(.215) | .613***(.103) | -.088(.132) | |
| 政治效能感测量2 | .090(.091) | .330***(.092) | -.393(.219) | .135(.109) | .004(.141) | |
| 政治效能感测量3 | .108(.097) | .125(.098) | -.315(.226) | .427***(.120) | -.340(.142) | |
| 截距项 | -.269(.350) | -1.694(.362) | .723(.749) | -2.430***(0.422) | -2.402(.582) | |
| 观察值 | 3073 | 3073 | 3073 | 3073 | 3073 | |
| -2LL | 3760.307 | 3704.325 | 861.593 | 3049.18 | 1949.652 |
| 因变量:1=高无应答水平 | 所有题目无应答 | 政治态度问题无应答 | 政治行为问题无应答 | 经济态度问题无应答 | 国际关系问题无应答 | |
| 非农户口 | -.187(.121) | -.248*(.121) | .081(.145) | -.120(.116) | .085(.138) | |
| 性别(男=1) | -.312**(.093) | -.294**(.093) | -.102(.108) | .013(.089) | -.161(.106) | |
| 年龄 | .019(.017) | .036*(.017) | -.040*(.018) | .032*(.016) | .050**(.019) | |
| 年龄的平方 | .000(.000) | -.000(.000) | .001**(.000) | -.000(.000) | -.000*(.000) | |
| 受教育年限 | -.137***(.014) | -.121***(.014) | -.099***(.016) | -.069***(.013) | -.072***(.015) | |
| 政治面貌(共产党员=1) | -.153(.178) | -.215(.179) | -.152(.221) | -.147(.172) | .173(.202) | |
| 东部省份 | .312**(.108) | .368**(.108) | .084(.128) | .031(.104) | .323**(.121) | |
| 西部省份 | .439**(.113) | .392**(.113) | .314*(.129) | .411***(.108) | .051(.132) | |
| 第三人在场 | -.151(.092) | -.071(.091) | -.188(.106) | -.025(.087) | -.102(.104) | |
| 接触信息频率 | -.269**(.100) | -.397***(.100) | -.232(.119) | -.318**(.096) | -.292*(.116) | |
| 政治兴趣 | -.402***(.103) | -.294**(.103) | -.146(.121) | -.295**(.099) | -.334**(.122) | |
| 生活满意程度 | -.046(.092) | -.194*(.091) | -.009(.106) | -.361***(.087) | -.314**(.103) | |
| 政治效能感测量1 | .470***(.100) | .467***(.099) | -.010(.113) | .246**(.095) | .251*(.114) | |
| 政治效能感测量2 | -.116(.107) | -.112(.106) | -.323(.118) | .055(.102) | -.133(.120) | |
| 政治效能感测量3 | -.056(.110) | .085(.111) | -.371(.121) | -.017(.105) | .043(.126) | |
| 截距项 | -.293(.451) | -.883(.452) | .545(.502) | -.896*(.424) | -1.996***(.521) | |
| 观察值 | 2522 | 2522 | 2522 | 2522 | 2522 | |
| -2LL | 2916.288 | 2926.912 | 2331.946 | 3131.562 | 2422.592 |
注:***p<0.05,**p<0.01,*p<0.001。自变量同表2.1。
数据来源:亚洲晴雨表调查中国部分数据(2008,2011,2015)。
受访人在回答态度类问题时的认知过程包括以下四个环节:第一,理解提出的问题;第二,从记忆中提取所有相关信息;第三,将信息整合,形成一个总的判断和估计;第四,将形成的判断尽可能清楚和准确地表达出来。(39)在这四个环节中,调查当下的诸多因素都会作用在不同环节上。问题本身的明晰程度和敏感程度、调查的可信度以及受访人感兴趣的程度、采访当下发生的显著的事件和舆论环境、访员与受访人互动的情况、采访环境(包括访员种族特性以及第三人在场等因素)都会给受访对象造成各种压力,从而影响他们的信息提取、整合、判断以及最终是否如实表达出观点。
忽视这些主观心理和认知因素在受访人回答中的重要作用,容易导致无应答误差和测量误差。在前期调查准备期间,应该格外注意问卷设计。问卷结构,包括问题的顺序,是影响受访人回答的重要因素。邻近问题会对接下来问题的理解和信息的提取产生影响。比如在理解问题环节,尤其是一些不太为人熟知的议题(比如货币管理法案),在问题前提供一些相关信息(比如通货膨胀的题目),有助于让受访人认为两者之间存在关联(货币管理法案是控制通货膨胀的主要手段),从而降低对这个问题的无应答率。(40)居前问题对后面问题回答中的信息提取也会产生影响,这通常被称为启动效应(priming effect),比如关于女权的问题会影响到后面堕胎议题的回答。由于前面的问题启动了受访人关于女性权利的意识和信息提取过程,这种激活效应会传递到与女性权利紧密相关的其他意识和信息,比如支持堕胎,这使得在回答后面堕胎相关问题时,支持堕胎的信息更容易被提取出来。(41)而在应对一些由信息或认知产生的问题,比如针对回忆过往发生事情时的误差,给予一些相应的信息提示和线索来帮助受访对象更加准确地回忆也尤为重要。针对不同无应答倾向值的人群,应该设计不同的问题并运用不同程度的追问来了解他们的隐藏态度。而对于敏感问题,可以尝试运用一些实验研究设计。
除了问卷设计,前期访员的培训也可以有意识地强调受访对象认知心理因素的重要性。培养访员在敲门入户时能迅速发掘潜在受访对象对调查的态度和关注方面,以便有针对性地提供相应信息,降低拒访率。针对一些敏感问题或者访员身份会给受访对象带来压力的问题,可以通过机器辅助下的自填问卷方式来消减压力或期望效应偏差。除了强调访员行为的标准化,并行数据的使用将为监督访员、实时干预访员和受访对象的互动,以及估计访员效应对调查质量影响等方面提供新的机会。
感谢课题组各位同仁和学人的修改意见。文责自负。
①喻国明著:《解构民意:一个舆论学者的实证研究》,北京:华夏出版社,2001年,第16页。
②关于中国民间社会调查机构的介绍可参考Wenfang Tang,Public Opinion and Political Change in China (Stanford University Press,2005);范伟达、范冰著:《中国调查史》,上海,复旦大学出版社,2015年,第483~504页。
③Robert Groves et al.,Survey Methodology (John Wiley & Sons,Inc.,2009).
④John Zaller and Stanley Feldman,"A Simple Theory of the Survey Response:Answering Questions versus Revealing Preferences," American Journal of Political Science 36.3(1992):579-616.
⑤John Zaller,The Nature and Origin of Mass Opinion(Cambridge University Press,1992).
⑥乔恩·克罗斯尼克(Jon Krosnick)认为当访问给受访人带来较大认知上的负担时,受访人经常使用满意化策略进行应答,即简单化问答中的信息提取及整合,而不是给出最深思熟虑的答案。参见Jon Krosnick,"Response Strategies for Coping with the Cognitive Demands of Attitude Measurement in Surveys," Applied Cognitive Psychology 5(1991):213-236; Jon Krosnick,Sowmya Narayan,and Wendy Smith,Satisficing in Surveys:Initial Evidence," New Directions for Evaluation 70(1996):29-44。具体的满意化策略包括选择听到的第一个比较合理的答案,同意问卷中的说法(acquiescence),维持现状,反对任何社会变化,在评价某些现象或观点时不进行区分而简单给出相同评价,以及回答不知道。
⑦关于并行数据的讨论,可参见丁华、任莉颖、严洁:《基于并行数据的调查质量管理》,《统计与决策》2016年第20期。
⑧这些误差包括覆盖误差、抽样误差、无应答误差、调整误差、测量误差与处理误差等,具体说明可参见Robert Groves et al.,Survey Methodology (John Wiley & Sons,Inc.,2009).其他经典的社会调查教科书包括Earl Babbie,Survey Research Methods (Wadsworth Pub.Co.,1998); Floyd Fowler,Survey Research Methods (Sage,2014).
⑨Robert Groves,Robert Cialdini,and Mick Couper,"Understanding the Decision to Participate in a Survey," Public Opinion Quarterly 56(1992):475-495.
⑩孙妍等:《跟踪调查中的拒访行为分析——以中国家庭动态跟踪调查为例》,《社会学研究》2011年第2期。
(11)John Brehm,The Phantom Respondents:Opinion Surveys and Political Representation (Ann Arbor:University of Michigan Press,1993).
(12)David Dutwin et al.,"Current Knowledge and Considerations Regarding Survey Refusals," Public Opinion Quarterly 79.2(2015):411-419; Tom Smith,"The Hidden 25 Percent:An Analysis of Nonresponse on the 1980 General Social Survey," Public Opinion Quarterly 47(1983):386-404; Robert Groves,and Mick Couper,Nonresponse in Household Interview Surveys (New York:Wiley,1998).
(13)Mark Tessler,and Amaney Jamal,"Political Attitude Research in the Arab World:Emerging Opportunities," Political Science and Politics July(2006):433-437.
(14)丁华、任莉颖、严洁:《基于并行数据的调查质量管理》,《统计与决策》2016年第20期。
(15)Pforr Klaus,Blohm Michael,and Blom Annelies,"Are Incentive Effects on Response Rates and Nonresponse Bias in Large-scale,Face-to-face Surveys Generalizable to Germany? Evidence from Ten Experiments," Public Opinion Quarterly 79(2015):740-768.
(16)Eleanor Singer,John Hoewyk,Nancy Gebler,Raghunathan Trivellore,and Katherine McGonagle,"The Effect of Incentives on Response Rates in Interviewer-Mediated Surveys," Journal of Official Statistics 15(1999):217-230; Annette Scherpenzeel and Vera Toepoel,"Recruiting a Probability Sample for an Online Panel:Effects of Contact Mode,Incentives,and Information," Public Opinion Quarterly 76(2012):470-490; Eleanor Simmons and Amanda Wilmot,"Incentive Payment on Social Surveys:A Literature Review," Social Survey Methodology Bulletin 53(2004):1-11.
(17)Andrew Mercer,Andrew Caporaso,David Cantor,and Reanne Townsend,"How Much Gets You How Much? Monetary Incentives and Response Rates in Household Surveys," Public Opinion Quarterly 79.1(2015):105-129.
(18)Eleanor Simmons and Amanda Wilmot,"Incentive Payment on Social Surveys:A Literature Review," Social Survey Methodology Bulletin 53(2004):1-11; Tomas Philipson,"Data Markets and the Production of Surveys," Review of Economic Studies 64(1997):47-72.
(19)Sigelman Lee and Steven Tuch,"Metastereotypes:Black's Perceptions of Whites' Stereotypes of Blacks," Public Opinion Quarterly 61(1997):87-101.
(20)Darren Davis and Brian Silver,"Stereotype Threat and Race of Interviewer Effects in a Survey on Political Knowledge," American Journal of Political Science 47(2003):33-45.
(21)Zerbe Wilfred and Delroy Paulhus,"Socially Desirable Responding in Organizational Behavior:A Reconception," Academy of Management Review 12.2(1987):250-264.
(22)Allyson Holbrook and Jon Krosnick,"Social Desirability Bias in Voter Turnout Reports," Public Opinion Quarterly 74.1(2010):37-67; Anduiza,Eva,Aina Gallego,and Jordi Munoz,"Turning a Blind Eye:Experimental Evidence of Partisan Bias in Attitudes towards Corruption," Comparative Political Studies 46.12(2013):1664-1692; Christopher Stout and Paul Martin,"Does Descriptive Representation Lead to Social Desirability Bias? Over-Reporting of Voting among Blacks and Latinos in the United States," Research and Politics 3.2(2016):1-7; Chad De Jonge,"Who Lies about Electoral Gifts? Experimenal Evidence from Latin America," Public Opinion Quarterly 79.3(2015):710-739; Corbacho,Ana,Daniel Gingerich,Virginia Oliveros,and Mauricio Ruiz-Vega,"Corruption as a Self-Fulfilling Prophecy:Evidence from a Survey Experiment in Costa Rica," American Journal of Political Science 60.4(2016):1077-1092; Ezequiel Gonzalez-Ocantos,Chad Kiewiet de Jonge,Carlos Melendez,Javier Osorio,and David Nickerson,"Vote Buying and Social Desirability Bias:Experimental Evidence from Nicaragua," American Journal of Political Science 56(2012):202-217.
(22)(23)Tourangeau Roger and Tom Smith,"Asking Sensitive Questions:The Impact of Data Collection Mode,Question Format,and Question Context," Public Opinion Quarterly 60(1996):275-304.
(24)Ezequiel Gonzalez-Ocantos,Chad Kiewiet de Jonge,Carlos Meléndez,Javier Osorio,and David Nickerson,"Vote Buying and Social Desirability Bias:Experimental Evidence from Nicaragua," American Journal of Political Science 56(2012):202-217.
(25)James Kuklinski,Michael Cobb,and Martin Gilens,"Racial Attitudes and the 'New South'," Journal of Politics 59.2(1997):323-349; James Kuklinski,Paul Sniderman,Kathleen Knight,Thomas Piazza,Philip Tetlock,Gordon Lawrence,and Barbara Mellers,"Racial Prejudice and Attitudes toward Affirmative Action," American Journal of Political Science 41.2(1997):402-419; Martin Gilens,Paul Sniderman,and James Kuklinski,"Affirmative Action and the Political of Realignment," British Journal of Political Science 28.1(1998):159-183; James Kane,Stephen Craig,and Kenneth Wald,"Religion and Presidential Politics in Florida:A List Experiment," Social Science Quarterly 85.2(2004):281-293; Matthew Streb,Barbara Burrell,Brian Frederick,and Michael Genovese,"Social Desirability Effects and Support for a Female American President," Public Opinion Quarterly 72.1(2008):76-89; Seth Goldman,"Is It OK to be Anti-Gay? Social Desirability,Elite Discourse,and Expressions of Intolerance," Paper presented at the annual meeting of the Midwest Political Science Association,Chicago,IL,2008.具体关于列举实验的统计分析,请参考Graeme Blair and Kosuke Imai,"Statistical Analysis of List Experiments," Political Analysis 20(2012):47-77。
(26)Graeme Blair and Kosuke Imai,"Statistical Analysis of List Experiments," Political Analysis 20(2012):47-77.在贝叶斯—马尔科夫链—门特卡罗分析法之前,有学者曾经提出运用新的列举实验程序来尝试弥补无法开展列举实验的多变量分析缺陷,参见Daniel Corstange,"Sensitive Questions,Truthful Answers? Modeling the List Experiment with LISTIT," Political Analysis 17(2009):45-63; 有学者指出这种新的程序会在研究中带来偏差,参见Patrick Flavin and Michael Keane,"How Angry Am I? Let Me Count the Ways:Question Format Bias in List Experiment," Working Paper(2009)。
(27)Graeme Blair,Kosuke Imai,and Jason Lyall,"Comparing and Combining List and Endorsement Experiments:Evidence from Afganistan," American Journal of Political Science 58.4(2014):1043-1063; Will Bullock,Kosuke Imai,and Jacob Shapiro,"Statistical Analysis of Endorsement Experiments:Measuring Support for Militant Groups in Pakistan," Political Analysis 19(2011):363-384.
(28)Graeme Blair and Kosuke Imai,"Statistical Analysis of List Experiments," Political Analysis 20(2012):47-77.
(29)Converse Philip,"The Nature of Belief Systems in Mass Publics," Ideology and Discontent,David Apter ed.(New York:Free Press,1964):206-261.
(30)Andrzej Sicinski,"'Don't Know' Answers in Cross-National Surveys," Public Opinion Quarterly 34.1(1970):126-129.
(31)Adam Berinsky,Silent Voices:Public Opinion and Political Participation in American (Princeton:Princeton University Press,2004).
(32)Jon Krosnick,"The Causes of No-Opinion Response to Attitude Measures in Surveys:They Are Rarely What They Appear to Be," Groves Robert,Dillman Don,Eltinge John,and Little Roderick eds.,Survey Nonresponse (New York:John Wiley & Sons,2002)87-102.
(33)Joe Francis and Lawrence Busch,"What We Now Know about 'I Don't Knows'," Public Opinion Quarterly 39(1975):207-218.更多文献综述可参考Ren Liying,Surveying Public Opinion in Transitional China:An Examination of Survey Response,Ph.D.dissertation,University of Pittsburgh,2009; Jianhua Zhu,"'I Don't Know' in Public Opinion Surveys in China:Individual and Contextual Causes of Item Non-response," Journal of Contemporary China 5(1996):223-244。
(34)George Bishop,Robert Oldendick,Alfred Tuchfarber,and Stephen Bennett,"Pseudo-Opinions on Public Affairs," Public Opinion Quarterly 44(1980):198-209.
(35)Adam Berinksy and Joshua Tucker,"'Don't Knows' and Public Opinion towards Economic Reform:Evidence from Russia," Communist and Post Communist Studies 39.1(2006):73-99.Adam Berinsky,Silent Voices:Public Opinion and Political Participation in American (Princeton:Princeton University Press,2004).
(36)Mikael Gilljam and Donald Granberg,"Should We Take Don't Know for an Answer," Public Opinion Quarterly 57(1993):348-357.
(37)严洁:《项目无回答的成因与降低其水平的途径》,《华中师范大学学报》(人文社会科学版)2006年第6期。
(38)Ren Liying,Surveying Public Opinion in Transitional China:An Examination of Survey Response,Ph.D.dissertation,University of Pittsburgh,2009; Jianhua Zhu,"'I Don't Know' in Public Opinion Surveys in China:Individual and Contextual Causes of Item Non-response," Journal of Contemporary China 5(1996):223-244.
(39)Charles Cannell,Peter Miller,and Lois Oksenberg,"Research on Interviewing Techniques," Sociological Methodology 12(1981):389-437; Roger Tourangeau and Kenneth Rasinski,"Cognitive Processes Underlying Context Effects in Attitude Measurement," Psychological Bulletin 103(1988):299-314; Robert Groves et al.,Survey Methodology (John Wiley & Sons,Inc.,2009)218-223.
(40)Roger Tourangeau and Kenneth Rasinski,"Cognitive Processes Underlying Context Effects in Attitude Measurement," Psychological Bulletin 103(1988):299-314;Howard Schuman and Stanley Presser,Questions and Answers in Attitude Surveys:Experiments in Question Form,Wording and Context (Sage,1996).
(41)关于启动效应的文献可参考,Robert Wyer,Galen Bodenhausen,and Theresa Gorman,"Cognitive Mediators of Reactions to Rape," Journal of Personality and Social Psychology 48(1985):324-338;Tory Higgins,William Rholes,and Carl Jones,"Category Accessibility and Impression Formation," Journal of Experimental Social Psychology 13(1977):141-154.

