References of "Mergener, Alexandra"
     in
Bookmark and Share    
Peer Reviewed
See detailDie “Kunst” der Frageformulierung in Umfragen
Mergener, Alexandra; Decieux, Jean Philippe Pierre UL

in Keller, Bernhard (Ed.) Qualität und Data Science in der Marktforschung (2018)

enn du etwas wissen willst, frage! – Was im Alltag so einfach klingt, ist in der Methodenforschung ein aufwendiger Prozess. Sowohl das Formulieren von Fragen als auch die Gestaltung des Fragebogens bedarf ... [more ▼]

enn du etwas wissen willst, frage! – Was im Alltag so einfach klingt, ist in der Methodenforschung ein aufwendiger Prozess. Sowohl das Formulieren von Fragen als auch die Gestaltung des Fragebogens bedarf der Berücksichtigung unterschiedlicher Regeln, ohne die durch Befragungen gewonnene Daten schnell unbrauchbar werden können. So spielen in einem systematischen Frage-Antwort-Vorgang zentrale Kommunikationsregeln und psychologische Abläufe eine Rolle, die es als Forscher dringend zu beachten gilt. Aufbauend auf diesen zentralen Erkenntnissen befasst sich der folgende Beitrag mit unterschiedlichen Aspekten, die die Qualität von Fragebögen beeinflussen. Anhand von praxisbezogenen Beispielen, die aus Erfahrungen mit diversen Befragungen sowie einer systematischen Methodenforschung resultieren, werden dabei dem Leser Leitlinien zur Optimierung von eigenen Fragebögen an die Hand gegeben. Gleichwohl gilt es dabei zu beachten, dass es allgemeingültige Regeln, die auf jede Forschungsfrage, Untersuchungspopulation oder auch Erhebungsart anwendbar sind, nicht geben kann. Die hier erarbeiteten Instruktionen dienen vielmehr der Vermittlung wesentlicher Kenntnisse, die zum Vermeiden grober Fehler führen sollen und es dem Forscher zugleich erlauben, bei Bedarf die Leitlinien nach kritischer Betrachtung eigenständig anzupassen. [less ▲]

Detailed reference viewed: 40 (1 UL)
Full Text
Peer Reviewed
See detailThe influence of Forced Answering on response behavior in Online Surveys: A reactance effect?
Sischka, Philipp UL; Mergener, Alexandra; Neufang, Kristina Marliese et al

Poster (2017, March 16)

Relevance: Recent studies have shown that the use of the forced answering (FA) option in online surveys results in reduced data. They especially examined that forcing respondents to answer questions in ... [more ▼]

Relevance: Recent studies have shown that the use of the forced answering (FA) option in online surveys results in reduced data. They especially examined that forcing respondents to answer questions in order to proceed through the questionnaire leads to higher dropout rates and lower answer quality. However, no study researched the psychological mechanism behind the correlation of FA on dropout and data quality before. This response behavior has often been interpreted as psychological reactance reaction. So, the Psychological Reactance Theory (PRT) predicts that reactance appears when an individuals’ freedom is threatened and cannot be directly restored. Reactance describes the motivation to restore this loss of freedom. Respondents could experience FA as a loss of freedom, as (s)he is denied the choice to leave a question unanswered. According to PRT, possible reactions in this situation might be to quit survey participation, to fake answers or to show satisficing tendencies. Research content: This study explores the psychological mechanism that effects response behavior in FA condition (compared to non-FA- condition). Our major hypothesis is that forcing respondents to answer will cause reactance, which turns into increasing dropout rates, decreasing answer quality and a satisficing behavior. Methods and Data: We used an online survey-experiment with two conditions (forced and non-forced answering instructions). The sample consists of 914 participants. Throughout the whole questionnaire, a dropout button was implemented on each page. In both conditions, this button led to the same page that fully compliant participants reached at the end of the questionnaire. Reactance was measured with a self-constructed four-item reactance scale. To determine answer quality, we used self-report for faking as well as the analysis of answers to open ended questions. Results: Zero-order effects showed that FA increased state reactance and questionnaire dropout as well as it reduced answer length in open-ended questions. Mediation analysis (Condition -> state reactance -> dropout/answer quality) supported the hypothesis of reactance as an underlying psychological mechanism behind negative FA effects on data quality. Added Value: This is the first study which offers statistical evidence for the often proposed reactance effect influencing response behavior. This offers a base for a deeper psychological reflection of the use of the FA-option. [less ▲]

Detailed reference viewed: 83 (5 UL)
Full Text
Peer Reviewed
See detailGetting to the bottom of response behavior when using Forced Answering in Online Surveys
Decieux, Jean Philippe Pierre UL; Mergener, Alexandra; Sischka, Philipp UL et al

Scientific Conference (2017)

Abstract: Recent studies have shown that the use of the forced answering (FA) option in online surveys results in reduced data quality. This response behavior has often been interpreted as psychological ... [more ▼]

Abstract: Recent studies have shown that the use of the forced answering (FA) option in online surveys results in reduced data quality. This response behavior has often been interpreted as psychological reactance reaction. However, no study researched the psychological mechanism behind the correlation of FA on dropout and data quality before. By using online survey-experiments with forced and non-forced answering instructions, our study offers statistical evidence for the often proposed reactance effect influencing response behavior. Relevance: Recent studies have shown that the use of the forced answering (FA) option in online surveys results in reduced data quality. They especially examined that forcing respondents to answer questions in order to proceed through the questionnaire leads to higher dropout rates and lower answer quality. However, no study researched the psychological mechanism behind the correlation of FA on dropout and data quality before. This response behavior has often been interpreted as psychological reactance reaction. So, the Psychological Reactance Theory (PRT) predicts that reactance appears when an individuals’ freedom is threatened and cannot be directly restored. Reactance describes the motivation to restore this loss of freedom. Respondents could experience FA as a loss of freedom, as (s)he is denied the choice to leave a question unanswered. According to PRT, possible reactions in this situation might be to quit survey participation, to fake answers or to show satisficing tendencies. Research content: This study explores the psychological mechanism that effects response behavior in FA condition (compared to non-FA- condition). Our major hypothesis is that forcing respondents to answer will cause reactance, which turns into increasing dropout rates, decreasing answer quality and a satisficing behavior. Methods and Data: We used online survey-experiments with forced and non-forced answering instructions. Reactance was measured with a four-item reactance scale. To determine answer quality, we used self-report for faking as well as the analysis of answers to open ended questions. Results: Zero-order effects showed that FA increased state reactance and questionnaire dropout as well as it reduced answer length in open-ended questions. Mediation analysis supported the hypothesis of reactance as an underlying psychological mechanism behind negative FA effects on data quality. Added Value: This is the first study which offers statistical evidence for the often proposed reactance effect influencing response behavior. This offers a base for a deeper psychological reflection of the use of the FA-option. [less ▲]

Detailed reference viewed: 77 (7 UL)
Full Text
Peer Reviewed
See detailForced Answering in Online Surveys: Is it really a reactance effect that reduces data quality?
Sischka, Philipp UL; Mergener, Alexandra; Neufang, Kristina Marliese et al

Scientific Conference (2016, October 14)

Online surveys are conducted without adequate attention to implementation details too often. One example is the frequent use of the forced answering (FA) option, which forces the respondent to answer ... [more ▼]

Online surveys are conducted without adequate attention to implementation details too often. One example is the frequent use of the forced answering (FA) option, which forces the respondent to answer questions in order to proceed through the questionnaire. Currently, only a few studies have researched the impact of FA on different quality parameters. Some studies that evaluated the influence of FA on quality parameters (e.g. drop-out or answer quality) hypothesized that FA leads to reactance in the participants indicated by a higher drop-out-rate as well as lower answer quality. However, no study researched the psychological mechanism behind the correlation of FA on dropout and data quality before. Psychological Reactance Theory predicts that reactance appears when an individual’s freedom is threatened and cannot be directly restored. Reactance describes the motivation to restore this loss of freedom. Respondents could experience FA as a loss of freedom, as (s)he is denied the choice to leave a question unanswered. According to Reactance Theory possible reactions in this situation might be to quit survey participation or to fake answers. This study examines the psychological mechanism that explains higher amounts of dropout and faking behavior in FA condition (compared to non-FA- condition). Our major hypothesis is that forcing respondents to answer will cause reactance, which turns into increasing dropout rates and decreasing answer quality. We used split-ballot-field-experiments with a forced and non-forced answering instruction. Reactance was measured with a four-item reactance scale. To determine answer quality, we used self-report for faking. Our Mediation analysis shows that respondents in FA condition report higher amounts of reactance compared to respondents in non-FA condition. In addition to that reactance also is a strong predictor for dropout behavior, faking, or re-participation. Therefore, the influence of FA on quality parameters is mediated through reactance. [less ▲]

Detailed reference viewed: 73 (14 UL)
Full Text
Peer Reviewed
See detailDer Reaktanzeffekt oder: Warum Gesundheitskampagnen scheitern können
Sischka, Philipp UL; Decieux, Jean Philippe Pierre UL; Neufang, Kristina et al

in In-Mind Magazin : IM; Psychologie für Alle (2016), (4),

Gesundheitskampagnen (z. B. Anti-Drogen-, Anti-Raucher- oder Kondomnutzungskampagnen) haben zum Ziel, Menschen zu Einstellungen und Verhalten zu motivieren, die gesundheitsförderlich oder präventiv sind ... [more ▼]

Gesundheitskampagnen (z. B. Anti-Drogen-, Anti-Raucher- oder Kondomnutzungskampagnen) haben zum Ziel, Menschen zu Einstellungen und Verhalten zu motivieren, die gesundheitsförderlich oder präventiv sind. Beispielsweise versuchen Anti-Drogen-Kampagnen auf die Gefahren und Folgen von Drogenkonsum aufmerksam zu machen. Anti-Raucher-Kampagnen stellen hingegen die Sensibilisierung für die gesundheitsschädlichen Folgen des Rauchens in den Vordergrund und versuchen, das von den Zigarettenfirmen aufgebaute positive Image des Rauchens zu entwerten. Solche Kampagnen laufen Gefahr, ihr Ziel – eine Einstellungs- und Verhaltensänderung bei ihren AdressatInnen zu bewirken – zu verfehlen, wenn ihre zentrale Botschaft von den RezipientInnen als zu aufdringlich empfunden wird. In der Sozialpsychologie wird dieses Phänomen häufig mit der Theorie der psychologischen Reaktanz erklärt. [less ▲]

Detailed reference viewed: 323 (5 UL)
Full Text
See detailForced answering in online surveys: Do higher item response rates come at the expense of participation and answer quality?
Sischka, Philipp UL; Decieux, Jean Philippe Pierre UL; Mergener, Alexandra et al

Presentation (2016, March 03)

Too often online surveys are conducted without adequate attention to implementation details. One example is the frequent use of the forced answering option, which forces the respondent to answer each ... [more ▼]

Too often online surveys are conducted without adequate attention to implementation details. One example is the frequent use of the forced answering option, which forces the respondent to answer each question in order to proceed through the questionnaire. The avoidance of missing data is often the idea behind the use of the forced answering option. There has been a tremendous increase in the use of this option; however, the inquirers are often not aware of possible consequences. Currently, only a few studies have researched the impact of forced answering on different quality parameters (e.g. dropouts, item nonresponse), with inconsistent results. To date no study has systematically examined effects of forced answering formats on answer quality. Given the rise in the popularity of online surveys in general and the frequent use of the forced answering option in particular, the impact of forced answering on data quality needs to be addressed. Our study assesses the consequences of the implementation of the forced answering option on dropouts as well as on answer quality. Our major hypothesis is that forcing respondents to answer will cause reactance, which in turn will decrease answer quality and increase dropout rates. To analyse the consequences of the implementation of forced answering option on response behaviour, we use split-ballot-field-experiments. We already conducted two studies (n=1056 & n=615) with differing experimental conditions and a third is ongoing. To determine answer quality, we use instructed response items, self-report for faking and other self-reports. Our results show a significant increase in dropouts and higher percentages of fakers under the forced answering condition. Both can be interpreted as reactance behavior arising from the force to answer each question in this condition. So far, no study has systematically examined effects of forced answering formats on answer quality. Our Paper address this issue. [less ▲]

Detailed reference viewed: 100 (11 UL)
Full Text
Peer Reviewed
See detailFluch oder Segen? Ambivalente Perspektiven auf die Antwortqualität von Onlineumfragen
Decieux, Jean Philippe Pierre UL; Mergener, Alexandra; Sischka, Philipp UL

in Deutsche Gesellschaft für Soziologie (Ed.) Kongressband 38. Kongress der Deutschen Gesellschaft für Soziologie (2016)

Onlinebefragungen haben sich heute als Erhebungsmethode in Wissenschaft und Praxis etabliert. Dem aktuellen Jahresbericht des Arbeitskreises deutscher Markt und Sozialforschungsinstitute ist zu entnehmen ... [more ▼]

Onlinebefragungen haben sich heute als Erhebungsmethode in Wissenschaft und Praxis etabliert. Dem aktuellen Jahresbericht des Arbeitskreises deutscher Markt und Sozialforschungsinstitute ist zu entnehmen, dass im letzten Jahr 43 Prozent aller durchgeführten Befragungen als Onlineumfrage realisiert wurden. Die zentrale Frage, die immer wieder aufkommt, ist jedoch: Wie gut ist die Qualität der Daten, die im Rahmen von Onlineumfragen generiert werden? Hier zeigt sich, dass viele der spezifischen Eigenschaften der Befragungsart und -situation sowohl positive als auch negative Auswirkungen haben können. Genau solche Ambivalenzen gilt es, u.a. im Rahmen dieser Ad-Hoc-Gruppe, zu erforschen und zu diskutieren. Von besonderem Interesse sind – vor allem empirisch experimentelle – Beiträge, die sich mit Phänomenen im Bereich der Antwortqualität bei Onlinebefragungen auseinandersetzen. Fragen, die hier besonders interessieren, sind u. a.: • Welche Vor- oder Nachteile besitzt die Onlinebefragung im Gegensatz zu den anderen Befragungsmethoden und was bedeutet dies in Bezug auf die Datenqualität (Self Administration, Interviewsituation, Fragedesign, Repräsentativität, Anonymität etc.)? • Welche Methoden und Techniken können eingesetzt werden, um die Antwortqualität zu ermitteln (z.B. „careless responses“, „Satisficing“ oder Ehrlichkeit der Antworten, zum Beispiel in sensiblen Fragekontexten)? • Welche Strategien erhöhen die Aufmerksamkeit, die Fokussierung und die Motivation der Respondenten bei der Beantwortung der Fragen? • Welchen Einfluss haben Befragungsteilnahmen über mobile Endgeräte tatsächlich auf die Datenqualität? [less ▲]

Detailed reference viewed: 69 (3 UL)
Full Text
Peer Reviewed
See detailEffects of the Implementation of ‘Forced Answering‘ within Online Surveys on Response Rates and Validity of Answers
Decieux, Jean Philippe Pierre UL; Mergener, Alexandra; Neufang, Kristina et al

Scientific Conference (2015, August 28)

Due to the low costs and the ability to reach many people in a short time, online-surveys have become an important resource of data for research. As a result, many non-professionals gather their data ... [more ▼]

Due to the low costs and the ability to reach many people in a short time, online-surveys have become an important resource of data for research. As a result, many non-professionals gather their data through online questionnaires, which are often of low quality or operationalised poorly. A popular example for this is the ‘forced-response-option‘, whose impact will be analysed within this research-project. The forced-response-option is commonly described as a possibility to force the respondent to give an answer to each question that is asked. In most of the online-survey computer software, it is easily achieved by enabling a checkbox. There has been a tremendous increase in the use of this option, however, the inquirers are often not aware of possible consequences. In software-manuals, this option is praised as a strategy that reduces item-non-response. In contrast, authors offer many doubts that counter this strategy. They base on the assumption that respondents typically have plausible reasons for not answering a question (not understanding; absence of appropriate categories; privacy). Our thesis is that forcing the respondents to select an answer might cause two scenarios: - Increasing unit-non-response/dropout-rates. - Decreasing validity of the answers (lying/random answers). To analyse the consequences of the implementation of forced-response-option, we use split-ballot-field-experiments. We especially focus on dropout-rates and response behaviour. Our first split-ballot-experiment was carried out last July (n=1056) and we plan a second experiment for March, so that we will be able to present our results based on strong data evidence. [less ▲]

Detailed reference viewed: 99 (13 UL)
Full Text
Peer Reviewed
See detailImplementation of the forced answering option within online surveys: Do higher item response rates come at the expense of participation and answer quality?
Decieux, Jean Philippe Pierre UL; Mergener, Alexandra; Sischka, Philipp UL et al

in Psihologija (2015), 48(4), 311-326

Online surveys have become a popular method for data gathering for many reasons, including low costs and the ability to collect data rapidly. However, online data collection is often conducted without ... [more ▼]

Online surveys have become a popular method for data gathering for many reasons, including low costs and the ability to collect data rapidly. However, online data collection is often conducted without adequate attention to implementation details. One example is the frequent use of the forced answering option, which forces the respondent to answer each question in order to proceed through the questionnaire. The avoidance of missing data is often the idea behind the use of the forced answering option. However, we suggest that the costs of a reactance effect in terms of quality reduction and unit nonresponse may be high because respondents typically have plausible reasons for not answering questions. The objective of the study reported in this paper was to test the influence of forced answering on dropout rates and data quality. The results show that requiring participants answer every question increases dropout rates and decreases quality of answers. Our findings suggest that the desire for a complete data set has to be balanced against the consequences of reduced data quality. [less ▲]

Detailed reference viewed: 325 (68 UL)
Full Text
See detailPeter, Laurence; Hull Raymond: The Peter Principle: Why Things Always Go Wrong
Mergener, Alexandra; Sischka, Philipp UL

in Kühl, Stefan (Ed.) Schlüsselwerke der Organisationsforschung (2015)

Detailed reference viewed: 129 (6 UL)
Full Text
Peer Reviewed
See detailHigher response rates at the expense of validity? Consequences of the implementation of the ‘forced response‘ option within online surveys
Decieux, Jean Philippe Pierre UL; Mergener, Alexandra; Neufang, Kristina et al

Poster (2015)

Due to the low cost and the ability to reach thousands of people in a short amount of time, online surveys have become well established as a source of data for research. As a result, many non ... [more ▼]

Due to the low cost and the ability to reach thousands of people in a short amount of time, online surveys have become well established as a source of data for research. As a result, many non-professionals gather their data through online questionnaires, which are often of low quality due to having been operationalised poorly (Jacob/Heinz/Décieux 2013; Schnell/Hill/Esser 2011). A popular example for this is the ‘forced response‘ option, whose impact will be analysed within this research project. The ‘forced response’ option is commonly described as a possibility to force the respondent to give an answer to each question that is asked. In most of the online survey computer software, it is easily achieved by enabling a checkbox. Relevance: There has been a tremendous increase in the use of this option, however, the inquirers are often not aware of the possible consequences. In software manuals, this option is praised as a strategy that significantly reduces item non-response. In contrast, research studies offer many doubts that counter this strategy (Kaczmirek 2005, Peytchev/Crawford 2005, Dillman/Smyth/Christian 2009, Schnell/Hill/Esser 2011, Jacob/Heinz/Décieux 2013). They are based on the assumption that respondents typically have plausible reasons for not answering a question (such as not understanding the question; absence of an appropriate category; personal reasons e.g. privacy). Research Question: Our thesis is that forcing the respondents to select an answer might cause two scenarios: - Increasing unit non-response (increased dropout rates) - Decreasing validity of the answers (lying or random answers). Methods and Data: To analyse the consequences of the implementation of ‘forced response’ option, we use split ballot field experiments. Our analysis focuses especially on dropout rates and response behaviour. Our first split ballot experiment was carried out in July 2014 (n=1056) and we have planned a second experiment for February 2015, so that we will be able to present our results based on strong data evidence. First results: If the respondents are forced to answer each question, they will - cancel the study earlier and - choose more often the response category “No” (in terms of sensitive issues). [less ▲]

Detailed reference viewed: 225 (34 UL)
Full Text
Peer Reviewed
See detail„To force or not to force. That is the question!“: Die Auswirkungen des Einsatzes von Forced-Response-Fragen auf die Qualität der Befragungsergebnisse
Mergener, Alexandra; Sischka, Philipp UL; Decieux, Jean Philippe Pierre UL

in Verhandlungen der Kongresse der Deutschen Gesellschaft für Soziologie (2015), 1

Die Methode der Onlinebefragung hat sich innerhalb des letzten Jahrzehnts als Befragungsroutine etabliert. Sie ist zumeist mit niedrigen Kosten verbunden und ermöglicht es innerhalb kürzester Zeit hohe ... [more ▼]

Die Methode der Onlinebefragung hat sich innerhalb des letzten Jahrzehnts als Befragungsroutine etabliert. Sie ist zumeist mit niedrigen Kosten verbunden und ermöglicht es innerhalb kürzester Zeit hohe Fallzahlen zu erzielen sowie „fundierte“ Ergebnisse zu generieren. Dies führte einerseits zu einer Demokratisierung der Umfrageforschung, denn mithilfe der Onlinebefragung ist es nahezu jedem möglich ein Befragungsprojekt durchzuführen. Andererseits resultiert daraus aber auch, dass viele Befragungen von Laien durchgeführt werden, dadurch eine schlechte Qualität aufweisen und zahlreiche Operationalisierungsfehler enthalten. Ein Beispiel hierfür ist die Verwendung der Forced Response Option, deren Auswirkungen innerhalb dieses Forschungsprojektes untersucht werden. Theoretischer Hintergrund des Projektes Als Forced-Response wird allgemein die Möglichkeit bezeichnet den Respondenten einer Umfrage zur Beantwortung einer Frage zu verpflichten. Bei den meisten Programmpaketen zur Durchführung eines Onlinesurveys ist dies auf einfachste Art und Weise zu realisieren. Diese Praxis kommt zuweilen sehr häufig auch zur Anwendung, ohne dass sich die Fragesteller über eventuelle Folgen ihrer Wahl bewusst sind. In den Handbüchern der Programme wird diese Option als eine Lösung angepriesen, die den Item Non Response verringert. In der Methodenliteratur gibt es jedoch zahlreiche Bedenken und Gegenstimmen für diese Vor-gehens¬weise. Diese Bedenken speisen sich aus der Über¬legung, dass der Befragte plausible Gründe haben kann, um nicht zu antworten (der Befragte versteht die Frage nicht, die entsprechende Antwortkategorie fehlt, der Befragte will die Frage aus persönlichen Gründen bewusst nicht beantworten, usw.). Verpflichtet man den Befragten unter diesen Umständen eine Antwort zu geben, könnte dies möglicherweise dazu führen, dass die Befragung abgebrochen wird oder der Befragte eine willkürliche/inhaltsunabhängige Antwort gibt. Forschungshypothesen und Design Zusammenfassend lassen sich damit zwei zentrale Thesen aufstellen: 1. Forced-Response führt zu erhöhtem Unit Non Response. 2. Forced-Response führt zu weniger validen Antworten (Lügen oder Zufallsantwort). Allerdings gibt es bisher kaum empirische Untersuchungen, die diese Behauptungen belegen. Hier setzt diese Studie an und untersucht über ein Split Ballot Experiment die Folgen der Implementierung der Forced-Response-Option. Ergebnisse Diese zeigen, dass die Respondenten früher abbrechen beziehungsweise die neu¬trale Antwortkategorie häufiger wählen. Weiterhin zeigt sich, dass unter Antwortzwang die sozial wünschenswerte Antwortkategorie signifikant häufiger gewählt wurde [less ▲]

Detailed reference viewed: 316 (33 UL)
Full Text
Peer Reviewed
See detail„To force or not to force. That is the question!“ – Die Auswirkungen des Einsatzes von Forced-Response-Fragen auf die Befragungsergebnisse –
Mergener, Alexandra; Sischka, Philipp UL; Decieux, Jean Philippe Pierre UL

Poster (2014)

Die Methode der Onlinebefragung hat sich innerhalb des letzten Jahrzehnts als Befragungsroutine etabliert. Sie ist zumeist mit niedrigen Kosten verbunden und ermöglicht es innerhalb kürzester Zeit hohe ... [more ▼]

Die Methode der Onlinebefragung hat sich innerhalb des letzten Jahrzehnts als Befragungsroutine etabliert. Sie ist zumeist mit niedrigen Kosten verbunden und ermöglicht es innerhalb kürzester Zeit hohe Fallzahlen zu erzielen sowie „fundierte“ Ergebnisse zu generieren. Dies führte einerseits zu einer Demokratisierung der Umfrageforschung, denn mithilfe der Onlinebefragung ist es nahezu jedem möglich ein Befragungsprojekt durchzuführen. Andererseits resultiert daraus aber auch, dass viele Befragungen von Laien durchgeführt werden, dadurch eine schlechte Qualität aufweisen und zahlreiche Operationalisierungsfehler enthalten (Jacob/Heinz/Décieux 2013; Schnell/Hill/Esser 2011). Ein Beispiel hierfür ist die Verwendung der Forced Response Option, deren Auswirkungen innerhalb dieses Forschungsprojektes untersucht werden. Theoretischer Hintergrund des Projektes Als Forced-Response wird allgemein die Möglichkeit bezeichnet den Respondenten einer Umfrage zur Beantwortung einer Frage zu verpflichten. Bei den meisten Programmpaketen zur Durchführung eines Onlinesurveys ist dies auf einfachste Art und Weise zu realisieren. Diese Praxis kommt zuweilen sehr häufig auch zur Anwendung, ohne dass sich die Fragesteller über eventuelle Folgen ihrer Wahl bewusst sind. In den Handbüchern der Programme (bspw. EFS Survey Manual 9.0) wird diese Option als eine Lösung angepriesen, die den Item Non Response verringert. In der Methodenliteratur gibt es jedoch zahlreiche Bedenken und Gegenstimmen für diese Vor-gehens¬weise (Kaczmirek 2005, Peytchev/Crawford 2005, Dillman/Smyth/Christian 2009, Schnell/ Hill/Esser 2011, Jacob/Heinz/Décieux 2013). Diese Bedenken speisen sich aus der Über¬legung, dass der Befragte plausible Gründe haben kann, um nicht zu antworten (der Befragte versteht die Frage nicht, die entsprechende Antwortkategorie fehlt, der Befragte will die Frage aus persönlichen Gründen bewusst nicht beantworten, usw.). Verpflichtet man den Befragten unter diesen Umständen eine Antwort zu geben, könnte dies möglicherweise dazu führen, dass die Befragung abgebrochen wird oder der Befragte eine willkürliche/inhaltsunabhängige Antwort gibt. Zusammenfassend lassen sich damit zwei zentrale Thesen aufstellen: 1. Forced-Response führt zu erhöhtem Unit Non Response. 2. Forced-Response führt zu weniger validen Antworten (Lügen oder Zufallsantwort). Allerdings gibt es bisher kaum empirische Untersuchungen, die diese Behauptungen belegen. Ziel des Projektes Über Split Ballot Experimente werden die genauen Folgen der Implementierung einer Forced-Response-Option empirisch abgebildet. Die Folgen sollen über die Analyse von Abbruchquoten und Antwortreaktionszeiten dargestellt werden. Die Feldphase des Online-Experiments endet Mitte Juli 2014, sodass wir dann in der Lage sind, aktuelle und bisher nicht veröffentlichte Ergebnisse auf dem Kongress zu präsentieren. [less ▲]

Detailed reference viewed: 130 (32 UL)
See detailLebensqualität im Landkreis Trier-Saarburg 2013
Jacob, Rüdiger; Sischka, Philipp UL; Helsper, Anke et al

Report (2013)

Detailed reference viewed: 38 (2 UL)
See detailVersorgungsbericht Trier-Saarburg
Jacob, Rüdiger; Michels, Harald; Sischka, Philipp UL et al

Report (2013)

Detailed reference viewed: 56 (2 UL)