Tabellenfragen mit Sticky/fixierten Headern und erster Item-Spalte

Wenn Tabellenfragen besonders lang oder breit sind, kann es auf kleineren Bildschirmen für Ihre Teilnehmenden unübersichtlich sein, diese zu beantworten. Bei den unteren Zeilen verschwindet die erste Zeile der Tabelle, die die Skala beinhaltet. Standardmässig wird die erste Zeile (Skala) fixiert, d.h. die weiteren Zeilen scrollen «unter» dieser fixierten ersten Skala-Zeile durch.

Die selbe Option ist für die erste Spalte möglich, so dass bei besonders breiten Skalen, die nicht auf einer Bildschirmbreite zu sehen sind, die erste Item-Spalte stehen bleiben kann.

Die Option wird unter «Fragebogen > Aussehen/Eigenes Logo» unter «Tabellenfragen-Item-Spalte fixieren (Skalen scrollen horizontal unter die Item)» aktiviert.

«Tabellenfragen-Item-Spalte fixieren (Skalen scrollen horizontal unter die Item)» aktivieren.

Dies sieht dann in der Umfrage folgendermassen aus:

Voilà.

Welcher Umfragemodus (offen / halboffen / geschlossen) ist der Richtige für mich?

Unser Tool bietet Ihnen im Menübereich «Teilnehmer» beim 1. Schritt unter «Befragungstyp wählen» verschiedene Optionen für Ihren Umfragemodus. Es kann eine Wahl zwischen geschlossen, halboffen und offen getroffen werden. Im folgenden Blogeintrag werden die einzelnen Möglichkeiten genauer beschrieben und Ihnen erläutert, wann welcher Modus am sinnvollsten ist, um Ihnen Ihre Wahl zu erleichtern.

Geschlossene Umfrage

Der geschlossene Befragungstyp eignet sich für Mitarbeitendenbefragungen, Kundenbefragungen, sichere Befragungen oder wenn es sich um Befragungen mit einem fixen und Ihnen bekannten Personenkreis handelt. Jede*r Teilnehmer*in erhält ihr*sein persönliches Passwort für die Befragung. Dieses Passwort kann entweder von unserem System automatisch generiert und in die Einladungsmail integriert werden oder das System kann die Passwörter automatisch generieren, ohne sie in die Einladungsmail zu inkludieren. Möchten Sie, dass die Passwörter automatisch generiert und in die Einladungsmail integriert werden, so können Sie im Menübereich «Teilnehmer» unter «Einladungs-Mail für Teilnehmer verfassen» in der Einladungsmail mit dem Code %PASSWORT% für alle Teilnehmenden individuelle Passwörter integrieren.

Es besteht ebenfalls die Möglichkeit, das Passwort direkt in den Link der Umfrage zu integrieren. Hierfür können Sie im Menübereich «Teilnehmer» unter «Einladungs-Mails versenden» die Option «Passwort direkt in den Link verpacken, keine separate Passwort-Eingabe nötig (One-Click)» anwählen. Nun erhält jede*r Teilnehmende einen personalisierten Link und muss das Passwort nicht in die Eingabemaske eingeben. Dadurch wird die Benutzerfreundlichkeit der Umfrage gesteigert und die Teilnehmenden können direkt mit der Umfrage starten.

Wenn Sie die Passwörter selber verteilen möchten, so lassen Sie die Passwörter automatisch generieren, ohne diese in die Einladungsmail einzufügen. Diese Option finden Sie im Menübereich «Teilnehmer» unter «Passwörter generieren für neue oder weitere User, die Sie selbst informieren (Brief, Telefon, eigene Mailings)» und wählen Sie hier die Variante 2: «Passwörter / Links generieren ohne E-Mail-Adressen». Nun können Sie die Passwörter in Ihrem eigenen Mailprogramm versenden oder, falls erwünscht, auch ausdrucken. Das individuelle Passwort erlaubt den Teilnehmenden nach einem Unterbruch in der Befragung dort einzusteigen, wo sie den Fragenbogen verlassen haben, und ihn weiter zu bearbeiten. Ebenfalls verhindert ein persönliches Passwort die mehrfache Teilnahme einer Person an der Umfrage.

Versenden Sie den geschlossenen Fragebogen ohne aktivierte Anonymisierungsgarantie, so kann der ausgefüllte Fragebogen problemlos den Befragten zugeordnet werden. Es ist also möglich, die einzelnen Antworten auf einzelne Teilnehmende zurückzuführen. Falls Sie dies nicht wünschen, können Sie Ihre Umfrage mit einem Mausklick anonymisieren. Dadurch sind keinerlei Rückschlüsse der Fragebögen auf die Befragten möglich. Die Einstellungen zur Anonymisierung können Sie im Menübereich «Teilnehmer» unter «Anonymisierungsgarantie» bearbeiten.

Halboffene Umfrage

Diese Umfrageform bietet sich vor allem für nicht komplett öffentliche Umfragen, die einen halboffenen Teilnehmerkreis haben, an. So zum Beispiel, wenn Sie eine Umfrage in einem Verein durchführen möchten, aber Ihnen die Kontaktdaten einiger Vereinsmitglieder fehlen. Bei halboffenen Umfragen erhalten alle Teilnehmenden dasselbe Passwort. Dieses Passwort kann beispielsweise auch firmenintern weitergegeben werden, denn jede Person, die das Passwort besitzt, kann an der Umfrage teilnehmen. Eine halboffene Umfrage gibt den Teilnehmenden die Gelegenheit, beliebig oft an einer Umfrage teilzunehmen. Solche Wiederholungstäter können jedoch anhand einer Cookie- oder IP-Sperre-Einstellung aufgehalten werden. Entscheiden Sie sich für die Cookie-Sperre, so werden auf den PCs der Teilnehmenden Cookies installiert, die beim zweiten Teilnahmeversuch vom System erkannt werden und die Teilnehmenden abweisen. Bei der IP-Sperre wird die IP-Adresse der Teilnehmenden untersucht. Wurde die IP-Adresse bereits in unserer Datenbank abgelegt, so verhindert das System eine erneute Teilnahme. Hier ist zu beachten, dass in Firmennetzwerken oft alle Mitarbeitenden mit derselben IP-Adresse surfen. Stellen Sie in diesem Fall eine IP-Sperre ein, kann nur ein einziges Mitglied der Firma an der Umfrage teilnehmen. Grundsätzlich empfehlen wir, bei Umfragen wie Mitarbeitendenbefragungen keine IP-Sperre einzurichten. Diese Einstellungen finden Sie im Menübereich «Teilnehmer» unter «Cookie-Sperre, IP-Sperre, IP-Range».

Sie haben die Option, Ihre halboffene Umfrage anonymisiert oder nichtanonym durchzuführen. Für eine Zuordnung der Fragebogen zu den Teilnehmenden ist es notwendig, die Tracking-Option zu aktivieren. Die Tracking-Funktion wird im Menübereich «Teilnehmer» unter «Einladungsmails versenden» anhand der Funktion «Teilnehmervefolgung einschalten» freigeschalten. Hier wird bei jedem Link zur Umfrage ein individueller Zusatz am Schluss angefügt, um die einzelnen Teilnehmenden zu tracken. Damit das Tracking durchgeführt werden kann, muss beim Einladungsmail folgender Befehl hinzugefügt werden: %LINK%. Der Code wird im Einladungsmail durch den Link zur Befragung, der den Zusatz für das Tracking erhält, ersetzt. Wird der Link der Umfrage weitergeleitet, können die Antworten der nächsten Person, die die Umfrage ausfüllt, nicht mehr getrackt werden. Um alle Teilnehmenden zu tracken, wird am besten eine geschlossene Umfrage mit einem persönlichen Passwort durchgeführt. Die Tracking-Option zu aktivieren ist vor allem dann sinnvoll, wenn Ihnen nicht alle Teilnehmenden bekannt sind, Sie die Ihnen bekannten Teilnehmenden dennoch den Fragebögen zuordnen möchten. Das Tracking kann nachträglich entfernt werden, um den Teilnehmenden eine anonymisierte Umfrage zu bieten.

Offene Umfrage

Möchten Sie eine Umfrage auf Ihrer Website, in Ihrem Newsletter oder in einem Forum mit beliebigen Teilnehmenden durchführen? Dann ist der offene Umfragetyp ideal für Sie! Für die Teilnahme an einer offenen Umfrage braucht es kein Passwort für die Befragten. Jede Person, die den Link der Umfrage hat, kann an der Befragung teilnehmen. Den Link zur Umfrage finden Sie im Menübereich «Teilnehmer» rot hinterlegt.

Es steht den Befragten ebenfalls frei, so oft sie möchten an der Befragung teilzunehmen. Auch hier können Sie Cookie- oder IP-Sperre-Einstellungen vornehmen, um dies zu verhindern. Schalten Sie beim Versand die Tracking-Option ein, ist die Zuordnung der Fragebögen an die Teilnehmenden möglich. Diese kann nachträglich entfernt werden.

Abschliessend lassen sich die Umfragetypen folgendermassen zusammenfassen: Eine geschlossene Umfrage ist dann sinnvoll, wenn Ihnen Ihr Teilnehmerkreis bekannt ist und Sie Mehrfachteilnahmen ausschliessen möchten. Halboffene Umfragen sollen angewendet werden, wenn nicht jede*r teilnehmen darf und nicht alle Email-Adressen der Teilnehmenden bekannt sind. Für offene Umfragen entscheiden Sie sich am besten, wenn Ihnen Ihr Teilnehmerkreis nicht bekannt ist.

Sind Sie sich nicht sicher, für welchen Umfragemodus Sie sich entscheiden sollen oder benötigen Sie Hilfe bei der Anonymisierung Ihrer Umfrage? Nehmen Sie Kontakt mit uns auf! Unsere Mitarbeiter unterstützen und beraten Sie gerne zu den verschiedenen Umfragetypen.

Speeder, Musterankreuzer und Straightliner: Verschmutzte Daten und wie man Ihnen entgegenwirken kann

Onlinebefragungen bringen viele ökonomische Vorteile mit sich: Sie sind vergleichsweise kostengünstig, zeitsparend und angenehm auszuwerten. Aber auch aus methodologischer Sicht haben Sie anderen Befragungsmethoden gegenüber die Nase vorn: Interviewereinflüsse fallen weg und auch die Auswirkungen von sozialer Erwünschtheit auf das Antwortverhalten können erfolgreich minimiert werden. Kein Wunder, dass dieser Befragungsmodus in den letzten Jahren an enormer Beliebtheit gewonnen hat.

Allerdings bringt der hohe Grad an (empfundener) Anonymität in der typischen Onlinebefragung auch einige Probleme mit sich: Teilnehmer fühlen sich bei schriftlichen (Online)Befragungen weniger verpflichtet den Fragebogen gewissenhaft auszufüllen, als wenn Ihnen beispielsweise ein Interviewer gegenübersitzt oder am Telefon zuhört. Dadurch erhöht sich auch die Tendenz zum Ankreuzen von falschen oder willkürlichen Antworten, insbesondere dann, wenn die Teilnehmer zum Ausfüllen des Fragebogens verpflichtet werden oder am Ende der Befragung ein attraktiver Incentive (z.B. Gutschein, Verlosung) wartet. Solches Verhalten – wahlloses- oder Muster-Ankreuzen, sowie die systematische Wahl einer spezifischen Antwortmöglichkeit– verschmutzt die Daten und kann zu Verzerrungen in den Auswertungen führen. Die ist vor allem dann besonders problematisch, wenn die Rücklaufzahl insgesamt eher gering oder der Anteil der verschmutzten Rückläufe hoch ist.

Inhaltsabhängiges vs. Inhaltsunabhängiges verschmutzendes Verhalten

Wenn man von verschmutzten oder verzerrten Daten spricht, kann man grundsätzlich zwischen zwei Arten von potentiellen Ursachen für dieses Verhalten unterscheiden: Ursachen, die aus dem Inhalt des Fragebogens entstammen (inhaltsabhängiges Verhalten), und Ursachen welche unabhängig vom Befragungsinhalt auftreten und somit vom Teilnehmer selbst ausgehen (inhaltsunabhängiges Verhalten).

Bekannte Beispiele von Ursachen für inhaltsabhängiges verschmutzendes Verhalten sind beispielsweise Reihenfolgeeffekte, Suggestivfragen oder nicht-ausbalancierte Skalen. Um diesen Arten von Effekten entgegen zu wirken, wurden durch die Methodenforschung zahlreiche Standardregeln entwickelt, die bei der Gestaltung von Befragungen eingehalten werden sollen. Eine gute Zusammenstellung dieser Regeln sowie auch der verschiedenen Ursachen finden Sie beispielsweise in Rolf Porst (2013) «Fragebogen – Ein Arbeitsbuch».

Hauptthema dieses Blogbeitrags ist jedoch jenes Verhalten, welches weitaus weniger erforscht und komplexer auszumerzen ist: das inhaltsunabhängige verschmutzende Verhalten. Als Durchführer/in einer Onlinebefragung haben Sie im Normalfall keinen Einfluss auf das Verhalten und die Prädisposition des Teilnehmers, der zu Hause vor dem Bildschirm sitzt und Ihre Umfrage ausfüllt. Dennoch gibt es eine Handvoll Techniken, die es Ihnen erlauben, den Grad der Verzerrung durch diese Art von Verhalten zu minimieren.

Response Sets

Mit Response-Set wird ein Muster in der Beantwortung von Fragebatterien gemeint, welches unabhängig vom Inhalt der Frage oder des Fragekontexts auftritt. Solche Muster können in verschiedenen Formen auftreten. Die häufigsten dieser Formen sind dabei:

  1. Response Range: Ein Teilnehmer verwendet unabhängig vom Inhalt der Frage oder der Ausrichtung der Antwortvorgaben immer nur einen bestimmten Bereich der Skala.
    Beispiel: Ein Teilnehmer wählt bei jeder Frage den ersten oder zweiten Skalenpunkt resp. die erste oder zweite Antwortmöglichkeit an – unabhängig von der Polung (Ausrichtung) der Skala oder der Anzahl möglicher Antworten (Abstufungen). Innerhalb einer Tabellenfrage könnte dies Beispielsweise so aussehen:

  2. Extreme Checking Style: Ein Teilnehmer kreuzt abwechselnd den linken und den rechten Extrempunkt der Skala an.
    Beispiel: Bei Frage 1 wählt der Teilnehmer die erste (oder auf einer Likert-Skala, die am weitesten links liegende) Antwortmöglichkeit, bei Frage 2 die Letzte (am weitesten rechts), bei Frage 3 wieder die Erste (Links), bei Frage 4 die Letzte (Rechts), etc.

  3. Muster-Ankreuzer: Wenn man das Antwortbild einer Tabellenfrage (z.B. Fragetypen «Tabelle Multi-Rating«, «Tabelle Multiple-Choice» oder «Freie Matrix» unseres Tools) betrachtet, lassen sich Muster, wie beispielsweise Diagonalen oder Pfeile, finden.
    Beispiel:
  4. Straightliner: Teilnehmende weisen ein sogenanntes Null-Varianz Antwortverhalten auf, d.h. Sie kreuzen immer dieselbe Antwort an, unabhängig von der Anzahl Antwortmöglichkeiten oder der Polung der Skala. Besonders oft wird die durchgängige Wahl des mittleren Skalenpunktes («Centrism») oder eines Extremwerts («Extremism») beobachtet.
    Beispiel: Ein Teilnehmer wählt bei jeder Frage die erste Antwortoption aus («Extremism)».

Grundsätzlich sind alle Formen von Response-Sets sowohl zwischen als auch innerhalb von Fragen mit mehreren bewertbaren Items auffindbar. Allerdings sind Straightliner und Muster-Ankreuzer tendenziell eher innerhalb einer Tabellenfrage anzutreffen.

Folgen

Besonders Straightliner sind bei unmotivierten Teilnehmern beliebt. Studien ergeben, dass bei einer offenen Onlinebefragung jeder vierte Teilnehmer mindestens eine von neun ausgewählten Fragen mit Null-Varianz Antwortverhalten beantwortet hat (Jandura, 2018). Doch wie schwerwiegend sind die Folgen von Response-Sets für die Datenqualität und Auswertungen?

Für viele der gängigen statistischen Auswertungen sind die Auswirkungen glücklicherweise gering. Gerade bei Häufigkeitsauszählungen (OU-Standardauswertung), Mittelwerten, einfachen Streuungsmassen oder Korrelationsmassen werden nur marginale Effekte nachgewiesen. Allerdings wächst die Differenz zwischen den Ergebnissen mit und ohne Teilnehmer mit Response-Sets mit dem Anteil der Befragten, die auf solches verschmutzendes Verhalten zurückgreifen.
Aus diesem Grund sollte man sich auch bei solchen Auswertungen Gedanken darüber machen, ob und in welchem Ausmass verschmutzendes Verhalten vorliegen könnte und wie damit umgegangen werden soll.

Stark problematisch werden durch Response-Sets verschmutzte Daten jedoch bei Analysen, die sich an der Ähnlichkeit von Antworten orientieren. Dazu gehört allen voran die Cluster-Analyse (z.B. Chi-Quadrat, Jaccard-Koeffizient, oder Pearson Korrelationskoeffizient), welche beispielsweise bei Zielgruppen- oder Zusammenhangsanalysen eingesetzt werden. Auch in unserem Tool können solche Analysen mittels der Auswertungsfunktion «Chi-Quadrat-Mehrfeldertest mit Kreuztabelle (für nominale Items) / Signifikanz / Pearson / Cramer)» vorgenommen werden.

Wenn davon ausgegangen werden muss, dass Teilnehmer mit Response-Sets vorhanden sind und diese die Auswertungen bedeutend verzerren, muss vor den Auswertungen eine Datensatzbereinigung vorgenommen werden. Bei dieser Bereinigung werden verschmutzte Rückläufe aus dem Datensatz gelöscht oder zumindest von der Auswertung ausgeschlossen (z.B. über die Superfilter-Funktion unseres Onlinetools).

Identifikation & Datensatzbereinigung

Es gibt verschiedene Arten um verschmutzendes Verhalten zu identifizieren. Die meisten Strategien beziehen sich dabei auf die Identifizierung nach der Messung, d.h. nachdem die Feldphase der Befragung beendet wurde und der Datensatz vorliegt. Allerdings gibt es auch einige Möglichkeiten, bereits bei der Gestaltung des Fragebogens Mechanismen einzubauen, die die Identifizierung von Response-Sets vereinfachen.

Zu diesen Mechanismen gehören sogenannte Aufmerksamkeitstests, die überprüfen ob die Aufgaben sorgfältig gelesen und ausgefüllt werden. Beispielsweise können in der Frageformulierung unübliche Anweisungen gegeben werden («Kreuzen Sie die nachfolgende Checkbox nicht an, wenn Sie dies gelesen haben»). Eine zweite gängige Technik sind umgepolte (umgedrehte) Skalen (z.B. wenn «sehr gut» plötzlich nicht mehr am linken sondern am rechten Ende der Skala aufzufinden ist) oder Fallen, die widersprüchliches Verhalten aufdecken. Beispielsweise kann ein Produkt, von dem der Teilnehmer in einer früheren Frage angegeben hat, dass er es nicht kennt, trotzdem in Folgefragen mitangezeigt werden. Falls der Teilnehmer dann dieses Produkt trotzdem bewertet statt «Kenne ich nicht» anzuwählen,  widerspricht er sich selbst, was darauf hindeutet, dass eine der beiden Fragen nicht korrekt gelesen oder einfach willkürlich geantwortet wurde.

Für die Identifikation der Response-Sets im Datensatz, d.h. nach Ende der Befragung, schlägt die Methodenliteratur verschiedene Verfahren vor:

  1. Response Range: Vergleich der Standardabweichung über alle Items. Geringe Standardabweichungen weisen auf die Verwendung von Response Range hin.
  2. Straightliner: Teilen der Anzahl Male, die eine Antwortmöglichkeit (z.B. die erste Antwortmöglichkeit) gewählt wurde, durch die Anzahl der Items dieser Tabellenfrage (z.B. 5x die erste Antwortkategorie / 6 Items = 0.83) oder die Gesamtzahl Fragen im Fragebogen. Wenn der Quotient 1 beträgt, liegt Nullvarianz im Antwortverhalten vor.
  3. Extreme Checking Style: Auch hier ist der für die Straightliner unter 2. beschriebene Quotient ein guter Indikator. Wenn Extreme Checkying Style vorliegt, beträgt dieser für alle Antwortkategorien, mit Ausnahme der Extrempunkte (erste und letzte Antwortmöglichkeit), null. Für die Extrempunkte sollte ein Quotient von etwa 0.5 vorliegen.
  4. Muster-Ankreuzer: Eine anerkannte «einfache» Methode, wie bei den anderen Response-Sets, gibt es hier leider nicht.
    Wir empfehlen die Antwortzeiten für die jeweilige Tabellenfrage zu untersuchen und darin die Speeder (Befragte, deren Antwortzeit für diese Frage weniger als die Hälfte des Medians der Antwortzeit für diese Frage beträgt) zu identifizieren. Über die Funktion «Ausgefüllte (einzelne) Fragebogen anzeigen/ausdrucken («Originale» aller Teilnehmer)» unseres Tools, lassen sich anschliessend die Fragebögen der ausgewählten Teilnehmer anzeigen und einzeln von Auge auf Muster überprüfen.

Der komplette Ausschluss von Speedern von der Auswertung, ist übrigens ein Verfahren, dass in der Marktforschung regelmässig angewandt wird, um die Qualität des Datensatzes zu verbessern. Wir empfehlen jedoch, nicht blind nach der Regel «Alles, was unter der Hälfte des Medians der Bearbeitsungszeit ist, ausschliessen» vorzugehen. Gerade bei Fragebögen mit Pfaden oder Sprüngen kann die Ausfüllzeit je nach persönlicher Pfadführung dramatisch variieren. Viel mehr sollte auf den Kontext der Befragung und die Zielgruppe geachtet werden.

So empfiehlt sich das Entfernen von Speedern grundsätzlich bei Panelbefragungen, Pflichtbefragungen oder Befragungen, die öffentlich publiziert werden und einen attraktiven Incentive bieten. Weniger häufig auftreten sollten Speeder bei Befragungen von ausgewählten Gruppen wie beispielsweise Mitarbeitern oder Kunden mit engem Kontakt.

Gültige Straightliner: Nullvarianz-Antwortverhalten als Ausdruck von Validität und Reliabilität der Umfrage

Mit ihrem Artikel «Valid vs. Invalid Straightlining: The Complex Relationship Between Straightlining and Data Quality» beleuchten Kevin Reuning und Eric Plutzer einen interessanten zweiten Blickwinkel auf das Thema «Straightliner»: Gültige Straightliner als Ausdruck der Konsistenz von Itembatterien— ein Zeichen guter Datenqualität statt verschmutzter Daten.

Die Autoren argumentieren, dass in vielen gängigen Umfrageformaten ein Nullvarianz-Antwortverhalten durchaus plausibel ist. Beispielsweise sollten Teilnehmende, die nie Erfahrung mit Mobbing gemacht haben, eine Reihe an Fragen zur Erfahrung mit verschiedenen Arten von Schikanen konsequent mit «nie» beantworten.

Es ist demnach zu erwarten, dass eine Itembatterie, deren Skala das gewünschte unterliegende Merkmal mit hoher Genauigkeit misst (hohe Reliabilität und Validität), bei gewissenhaften Teilnehmenden zu einem Nullvarianz-Antwortverhalten führt, sofern die Items allesamt in dieselbe Richtung formuliert sind.

Reuning und Plutzer postulieren, dass gültiges Straightlining dann auftritt, wenn (1) Teilnehmende motiviert sind, Fragen und Antworten gewissenhaft durchzulesen und ehrlich zu beantworten und (2) daraus identische Angaben zu einer Reihe von Fragen resultieren.

In einer Reihe von Simulationen untersuchen die Autoren die Einflüsse von Validität und Reliabilität auf das Aufkommen von gültigen Straightlinern, sowie deren Auswirkung auf Auswertungen, speziell bei Regressionsanalysen.
Sie stellen fest, dass die Menge an gültigen Straightlinern mit der Validität und Reliabilität des Fragebogens und somit mit der Datenqualität steigt. Zudem ergeben Ihre Simulationen, dass das Entfernen von gültigen Straightlinern zu einer Art «Sample Selection Bias» (Stichprobenverzerrung) führt und somit die Ergebnisse von Analysen verfälscht.

Was bedeuten diese Findings nun für Ihre Umfrage und den Umgang mit Straightlinern? Grundsätzlich lassen sich aus dem Artikel zwei Hinweise für die Fragebogengestaltung und Datensatzbereinigung ableiten:

  1. Fragebogengestaltung: Bauen Sie nach Möglichkeit umgekehrt gerichtete Items in Ihre Tabellenfragen ein. Reuning und Plutzers Simulationen ergeben, dass bereits das Integrieren einer einzigen umgekehrt gerichteten Frage in eine Itembatterie bis zu 98% der gültigen Straightliner entfernt. Einzig bei Skalen mit einer Mittelkategorie, bei der eine grosse Menge der Teilnehmenden Ihre Einschätzung im Skalenmittelpunkt abgeben, büsst der Ausschluss von gültigen Straightlinern durch ein umgekehrt gerichtetes Item an Effektivität ein.
  2. Datensatzbereinigung: Das Entfernen von sämtlichen Straightlinern kann zu Stichprobenverzerrung führen. Daher sollte bei der Datensatzbereinigung überprüft werden, ob bei den betroffenen Skalen und Itembatterien ein gültiges Straightlining denkbar wäre. Zudem können weitere Kriterien (wie beispielsweise die Bearbeitungszeit der betroffenen Frage, sowie das Antwortverhalten bei ähnlichen Fragen) Hinweise darauf liefern, ob ein Straightliner durch gewissenhaftes Beantworten oder verschmutzendes Verhalten entstanden ist.

Unterstützung

Sie sind sich unsicher, ob Response Sets bei Ihrem Befragungsprojekt ein Problem darstellen oder benötigen Hilfe beim Bereinigen Ihres Datensatzes? Nehmen Sie Kontakt mit uns auf! Unsere Mitarbeiter unterstützen und beraten Sie gerne zu diesem Thema!

Literatur

Porst, Rolf (2013). Fragebogen – Ein Arbeitsbuch. Wiesbaden: Springer Fachmedien GmbH.

Jandura, Olaf (2018). «Fake Data?» in: Rössler, Patrick & Rossmann, Constanze (Hrsg.). Kumulierte Evidenzen. Seiten 207-223.

Reuning, K. & Plutzer, E. (2020). Valid vs. Invalid Straightlining: The Complex Relationship Between Straightlining and Data Quality. Survey Research Methods, 14(5), 439-459.

Teilnehmer mittels psychografischen Merkmalen vergleichbar machen

Beim Durchführen von Fragebögen wird immer ein definiertes Ziel verfolgt. Häufig geht es darum die Menschen oder ihre Meinungen besser kennen zu lernen und zu verstehen. Da aber jeder Mensch ein Individuum ist und unterschiedlichste Wertebegriffe oder Handlungsweisen pflegt, werden auch die Antworten unterschiedlich ausfallen. Es stellt sich also am Ende immer die Frage, wie man die Auswertungen kategorisieren oder die Personen dahinter in bestimmte Gruppen einteilt, um schließlich die einzelnen Gruppen von Menschen miteinander vergleichen zu können.

Ein häufiges Anwendungsfeld für solche Kategorisierungen sind Zielgruppenanalysen. Um seine Zielgruppe als Unternehmen besser kennen zu lernen, lohnt es sich mit seinen Kunden zu sprechen, herauszufinden welche Personen dahinterstecken und ihre Merkmale abzufragen. Es gibt viele verschiedene Merkmale die einen Menschen ausmachen können. Darunter sind demografische Merkmale (Alter, Geschlecht, etc.), regionale Merkmale (Wohnort, Stadttypus, etc.), verhaltensorientierte Merkmale (Preisorientierung, Mediennutzung, etc.) oder psychografische Merkmale, welche versuchen Personen nach ihren Werten, Einstellungen und Lebensstilen einzuordnen.

Um diese psychografischen Merkmale von Menschen in unterschiedliche Gruppen einzuteilen, gibt es viele verschiedene Modelle und Methoden. Vier von ihnen möchte ich ihnen kurz vorstellen:

Sinus-Milieus

Das Modell der Sinus-Milieus besteht aus zwei Dimensionen. Auf der Y- Achse befindet sich die Soziale Lage (Unter-, Mittel-, und Oberschicht) und auf der X-Achse die Grundorientierung (Tradition, Modernisierung/Individualisierung und Neuorientierung). Mittels eines quantitativen Fragebogens werden die Menschen innerhalb dieses zweidimensionalen Modelles in verschiedene zusammengehörige Gruppen unterteilt. In Deutschland ergaben sich folgenden 10 Sinus-Milieus: Konservativ-Etablierte, Liberal-Intellektuelle, Performer, Expeditive, Adaptiv-Pragmatisch, Bürgerliche Mitte, Sozialökologisches Milieu, Traditionelle, Prekäre und Hedonisten. Das Modell ermöglicht also die Personen anhand der zwei Dimensionen in unterschiedliche Gruppen mit ähnlichen Werten und Grundorientierungen einzuteilen.

Semiometrie-Modell

Durch das Semiometrie-Modell werden die Einstellungen von Personen zu 14 unterschiedlichen Wertefelder gemessen. Diese Wertefelder sind namentlich: Sozial, verträumt, erlebnisorientiert, kämpferisch, traditionsverbunden, religiös, rational, kulturell, lustorientiert, kritisch, dominant, pflichtbewusst, familiär und materiell. Mittels eines Fragebogens müssen die Personen 10 Begriffe pro Wertefeld auf einer Skala von -3 bis +3 bewerten. Eine -3 bedeutet, dass der Begriff ein sehr unangenehmes Gefühl auslöst und eine +3 ein sehr angenehmes Gefühl. Anhand dieser Punkte wird für jedes Wertefeld einen Score berechnet und die Personen können so charakterisiert und zu Gruppen zusammengefasst werden.

Roper-Consumer Styles

Der Roper-Consumer Styles oder kurz RCS liegt einem ähnlichen Konzept wie das Semiometrie-Modell zu Grunde. Ebenfalls wird die Einstellung oder die Akzeptanz von Personen zu Begriffen und Aussagen abgefragt. Die Ergebnisse werden anschließend auf einer Strukturkarte festgehalten, auf welcher die Seiten jeweils unterschiedliche Bedürfnisse darstellen. Auf der X-Achse befindet sich ein Verlauf von leidenschaftlich leben zu Frieden und Sicherheit und auf der Y-Achse ein Verlauf von Sein zu Haben. Durch die unterschiedliche Positionierung auf der Strukturkarte können die Personen in verschiedene Gruppen eingeteilt werden. Der RCS unterscheidet dabei folgende Gruppen: Träumer, Häusliche, Bodenständige, Abenteurer, Realisten, Weltoffene, Kritische und Anspruchsvolle.

Limbic-Map

Auch die Limpic- Map arbeitet mit Begriffen, Werten und Emotionen. Sie basiert auf der Funktionsweise des menschlichen Gehirns. Dabei kann das Gehirn in drei grundlegende Richtungen, Emotionen einordnen: Stimulanz, Dominanz und Balance. In einem Kreis werden die Räume zwischen diesen drei Richtungen in Abenteuer und Thrill, Disziplin und Kontrolle sowie Fantasie und Genuss eingeteilt. Anschließend werden wieder die Gruppen durch Ihre Positionierung auf dem Kreis eingeteilt. Die sogenannten Limbic Types sind folgende: Harmoniser, Offene, Hedonisten, Abenteurer, Performer, Disziplinierte und Traditionalisten.

Schlussendlich haben alle vier Modelle den gleichen Ansatz und sie versuchen Menschen in Gruppen einzuteilen um diese miteinander vergleichen zu können. Sie schaffen somit eine Grundlage für intensivere Clusteranalysen oder andere statistische Auswertungen. Eine weitere Gemeinsamkeit ist, die problemlose Umsetzung aller vier Modelle über unser Tool. Falls also auch Sie eine Zielgruppenanalyse planen, würden wir uns freuen sie an Board von onlineumfragen.com Begrüssen zu dürfen.

Pflichtfragen: Ja oder nein?

Zwingen oder nicht zwingen – Das ist hier die Frage!  Pflichtfragen erscheinen auf den ersten Blick als attraktives Mittel um von allen Teilnehmern möglichst komplette Antwortsets zu erhalten, welches in Online-Umfragen kinderleicht umzusetzen ist. Jedoch warnt die sozialwissenschaftliche Literatur vor unüberlegtem und häufigem Gebrauch dieses Fragetyps – zu Recht wie folgende zwei Studien zeigen.

 


Kurzzusammenfassung: Pflichtfragen

Vorteile Nachteile
  • Vollständige Daten (tiefe Item-Nonresponse; d.h. wenig unvollständig ausgefüllte oder übersprungene Fragen)
  • Höhere Abbruchrate (Verlust von Antworten bei den nachfolgenden Fragen)
  • Maximierung des schlechten Abbruch, d.h. eliminiert wenig motivierte Teilnehmer u.ä. (Personen die Fragen nicht genau lesen, etc.) und erhöht somit die Datenqualität.
  • Niedrigere Datenqualität (Lügen, Zufällige Auswahlen, Auswahl nach sozialer Akzeptanz)
  • Früherer Abbruch (Weniger Antworten bei allen nachfolgenden Fragen)
Unsere Empfehlung:
  • Pflichtfragen generell eher restriktiv einsetzen.
  • Vor dem Einsatz von Pflichtfragen jeweils Vorteile (z.B. Informationsgehalt der Frage) und Nachteile (z.B. Höhere Abbruchrate, d.h. die nachfolgenden Fragen werden weniger oft beantwortet) abwägen.
  • Wenn Pflichtfragen verwendet werden unbedingt Antwortoptionen wie «Keine Angabe» , «keine Antwort», «weiss nicht» o.ä. zur Verfügung stellen

 

Stefan Stieger, Ulf Dietrich Reips, Martin Voracek. Forced-Response in Online Surveys: Bias from Reactance and Increase in Sex-Specific Dropout. Journal of the American society for information science and technology. 58(11): 1653-1660. 2007.

Zusammenfassung. Stefan Stieger, Ulf Dietrich Reips und Martin Voracek führten im Jahr 2007 an der Universität Wien eine Studie zum Thema Pflichtfragen durch. Anhand von Daten, die sie aus einer Befragung zum Thema Eifersucht und Treue in einer Beziehung gewannen, untersuchten Sie die Auswirkungen von Pflichtfragen (sogenannter forced-response) auf die Abbruchrate und dass Antwortverhalten der 4’409 teilnehmenden Studenten. Die Analysen zeigten, dass rund 18% der Befragten mindestens einmal versucht hatten eine Frage zu überspringen. Dies war jedoch nicht möglich, da der Fragebogen aus Pflichtfragen bestand. Als Reaktion auf diese Umstände brachen rund 42% die Befragung direkt nach dem ersten missglückten Sprungversuch ab. Ausserdem wichen die Antworten der Befragten, die die Frage nach dem Versuch sie zu überspringen gezwungenermassen beantworteten, zunehmend von den von ihnen erwarteten Antworten ab. Die Befragten reagierten also auf den erfolglosen Sprungversuch, indem sie die Frage durch eine zufällige Auswahl beantworteten. Das Einführen von Pflichtfragen hatte also in diesem Fall nicht nur eine höhere Abbruchrate zur Folge, sondern führte auch dazu, dass die Datenqualität durch zufällige (und somit nicht ehrliche) Antworten verringert wurde.

Fragestellung Mit dem Ziel, festzustellen welche Auswirkungen Pflichtfragen auf die Abbruchrate und das Antwortverhalten von Befragten haben, wurden 18‘525 Studenten per E-Mail eingeladen an einer Online-Befragung zum Thema Eifersucht und Treue in einer Beziehung teilzunehmen. Der Hyperlink zur Umfrage wurde direkt in den E-Mailtext eingebunden.

Methodik. Der Online-Fragebogen wurde so programmiert, dass er nur aus Pflichtfragen bestand. Versuchte ein Teilnehmer eine Frage zu überspringen, wurde er mit einer Fehlermeldung gebeten, die Frage auszufüllen. Teilnehmenden, die den Fragebogen ausfüllten ohne eine Frage überspringen zu wollen, war zu keinem Zeitpunkt bewusst, dass es sich um Pflichtfragen handelte. So ergaben sich zwei Teilnehmergruppen: Die „non-forced-response Gruppe“, die alle Befragte beinhaltet, die niemals versuchten eine Frage zu überspringen und die „forced-response Gruppe“ mit den Befragten, die einen Sprung versuchten.

Teilnahme. Die Geschlechter waren unter den Teilnehmenden etwa gleichmässig verteilt (Frauen 50.4%, Männer 49.6%). Studenten der Sozialwissenschaften waren mit 40.6% überrepräsentiert. Der Fragebogen wurde 4‘905-Mal aufgerufen. Fälle von Gender-Switching und Mehrfachteilnahmen wurden ausgeschlossen. Somit wurden 4‘409 Fälle in die Analyse miteinbezogen (Responserate: 23.8%).

Ergebnisse. Insgesamt versuchten 803 von 4‘409 Befragten mindestens einmal eine Frage zu überspringen (18.3%) und produzierten damit 863 Fehlermeldungen. 13.7% der Befragten (n=602) versuchten bereits die zweite Frage (demografische Angaben) zu überspringen. Von den 803 Befragten, die eine Frage überspringen wollten, brachen 41.9% (n=394) den Fragebogen nach der ersten Fehlermeldung ab (d.h. Abbruch nach dem ersten Überspring-Versuch). 35.8% der Befragten (n=288) die eine Frage überspringen wollten, füllten den Fragebogen bis zum Schluss aus. Die „natürliche“-Abbruchrate (d.h. Anzahl Abbrüche der Personen, die nie eine Frage überspringen wollten und so auch nicht wussten, dass es sich um Pflichtfragen handelt) betrug 18.6%. Eine Cox Regression wies einen signifikanten Zusammenhang zwischen Pflichtfragen und Abbruch (+1.459 mit einem p-Wert von <0.001) und Abbruch und Geschlecht (+0.383 mit p<0.001; Männer brechen mit 1.78-Mal (non-forced-response Gruppe) resp. 1.33-Mal (forced-response Gruppe) grösserer Wahrscheinlichkeit ab).

Reaktanz. Reaktanz wurde im Zusammenhang mit der Umfrage als Antwortverhalten definiert, dass vom erwarteten Verhalten (ermittelt durch vergleichbare Fälle) abweicht. Die Studie zeigte, dass auf Fragen, die man zu überspringen versuchte, mehrheitlich mit einer zufälligen Antwortauswahl reagiert wurde. Dieser Reaktanz-Effekt war am stärksten bei der Frage, die übersprungen werden sollte und nahm mit jeder nächsten Frage ab.

Fazit. Pflichtfragen erhöhen die Abbruchrate und führen durch eventuelle Zufallsauswahlen zu einer tieferen Datenqualität. Jedoch ist es wichtig den „Guten“ vom „schlechten“ Abbruch zu unterscheiden. Der gute Abbruch beinhaltet Interviews, deren Antworten aufgrund tiefer Motivation oder anderen Faktoren die Datenqualität verringern würde. Der schlechte Abbruch dagegen beinhaltet Interviews die wertvolle Daten geliefert hätten, jedoch aufgrund nicht ansprechendem Design, Programmierungsfehler oder ähnlichem abgebrochen wurden. Die Autoren argumentieren, dass Pflichtfragen helfen den schlechten Abbruch zu maximieren, da eine motivierte Person sich mit hoher Wahrscheinlichkeit von Pflichtfragen stören lässt. Dennoch empfehlen die Autoren Pflichtfragen nur wenn es wichtig ist vollständige Daten zu haben, ein hoher Rücklauf erwartet wird und so eine höhere Abbruchrate keine grösseren Probleme darstellt und die Geschlechterverteilung der Teilnehmer nicht ein Hauptmerkmal der Studie ist.

 

Alexandra Mergener, Philipp Sischka, Jean Philippe Décieux. To force or not to force. That is the question! – Die Auswirkungen des Einsatzes von Forced Answering-Fragen auf die Qualität der Befragungsergebnisse. Verhandlungen der Kongresse der Deutschen Gesellschaft für Soziologie: Routinen der Krise – Krise der Routinen. Edition 37. 2014.

Zusammenfassung. In ihrer Studie aus dem Jahr 2014 untersuchten Alexandra Mergener, Philipp Sischka und Jean Philippe Décieux nicht nur die Auswirkungen von Pflichtfragen sondern auch inwiefern alternative Antwortoptionen wie „keine Angabe“ oder „Weiss nicht“ diese Effekte eindämmen können. Die Studie basierte auf drei Versionen desselben Fragebogens zum Thema Kriminalität: eine ohne Pflichtfragen, eine mit Pflichtfragen und eine mit Pflichtfragen und „keine Antwort“-Optionen. Aufgrund der Daten von 1056 befragten Studenten konnte kein signifikanter Unterschied in den Abbruchsquoten der jeweiligen Fragebogenversionen festgestellt werden. Allerdings zeigte sich, dass der Fragebogen häufiger abgebrochen wurde, wenn die Befragten mit langen Item-Batterien (Fragen mit vielen Auswahlmöglichkeiten) konfrontiert wurden. Ausserdem wurde bei Pflichtfragen der Fragebogen auffällig früher abgebrochen und nicht erst, wie bei der Version ohne Pflichtfragen, bei den heikleren Fragen (wie z.B. „Haben Sie schon einmal eine Straftat begangen?“). Das hinzufügen einer „keine Antwort“-Option reduzierte dieses Abbruchverhalten. Des Weiteren wurde aus den Daten ersichtlich, dass die Befragten bei heiklen Fragen, die sie nicht überspringen konnten und bei denen auch keine alternative Antwortoption („keine Antwort“, „weiss nicht“ o.ä.) zur Verfügung standen, dazu tendierten die sozial wünschenswerteste Antwort (Im Beispiel: „Nein“) zu wählen. Dies hat, wie eine zufällig ausgewählte Antwort, zur Folge, dass die Datenqualität sinkt.

Fragestellung. Pflichtfragen sind ein Tool, dass in Online-Befragungen einfach umzusetzen sind. Jedoch sind sich viele Nutzer von Online-Befragungstools nicht bewusst, dass es auch Bedenken zu dieser Vorgehensweise gibt. Die Autoren überprüften mit ihrer Studie folgende Thesen: Pflichtfragen führen zu erhöhter Unit-non-Response (d.h. Abbruch des Fragebogens, Verweigerung der Befragung), eine neutrale Antwortkategorie kann den negativen Effekt von Pflichtfragen auf Unit-Nonresponse einschränken und Pflichtfragen erhöhen die Anzahl weniger valider Antworten (wie Lügen oder zufällig gewählte Antworten).

Methodik. Es wurde ein Split-Ballot-Experiment (Eine Art der Befragung bei der die Stichprobe in Unterstichproben geteilt wird, welche dann jeweils mit verschiedenen Versionen der Befragung konfrontiert werden). Dafür wurden drei Versionen des Fragebogens erstellt: Version 1 ohne Pflichtfragen, Version 2 in der jede Frage beantwortet werden musste um weiter zu kommen und Version 3, welche auch aus Pflichtfragen bestand, jedoch die Antwortoption „Keine Angabe“ erhielt. Das Thema des Fragebogens war „Kriminalität und ihre Wahrnehmung in der Bevölkerung“. Ausserdem wurden insgesamt 350 Euro als Teilnahmeanreiz verlost.

Teilnahme.  Befragt wurden Studierende der Universität und der Hochschule Trier. Die Umfrage stand während einem Monat zur Teilnahme bereit. Es nahmen 1056 Personen teil, davon 37.3% weiblich und 62.7% männlich. Das Durchschnittsalter betrug 27 Jahre.

Ergebnisse. Die Analyse der Abbruchsquoten zeigte keine signifikanten Unterschiede zwischen der Abbruchsquote des gesamten Fragebogens und den verschiedenen Fragebogenversionen. Die Abbruchsquote befand sich in allen drei Fällen zwischen 15.6 und 17.6 Prozent. Es liess sich jedoch zeigen, dass wenig motivierte Befragte den Fragebogen eher abbrachen, wenn sie gezwungen waren sich mit langen Item-Batterien auseinander zu setzen. Ausserdem führte der Antwortzwang dazu, dass der Fragebogen signifikant früher abgebrochen wird. Eine „keine Antwort“-Option reduzierte diese Umstände signifikant.

Sozial wünschenswerte Antworten. Aus den Daten wurde ersichtlich, dass bei sensiblen Fragen (heikle, persönliche Frage. Hier am Beispiel: „Haben Sie schon einmal eine Straftat begangen?“) der Antwortzwang ohne „keine Antwort“-Option dazu führt, dass tendenziell die sozial wünschenswerte Antwort (im Beispiel: „Nein“) gewählt wird. Dies hat zur Folge, dass die Antworten weniger „ehrlich“ sind und die Qualität der Daten dadurch sinkt. Die Tendenz sozialkonform zu Antworten konnte jedoch nicht als signifikanter kausaler Effekt identifiziert werden.

Fazit. Der Effekt von Pflichtfragen auf die Datenqualität und die Ergebnisse ist eher negativ einzuschätzen. Die Autoren raten deshalb Pflichtfragen nur restriktiv zu verwenden und allenfalls eine „Keine Antwort“-Option anzubieten. So verhindert man auch, dass die Befragten bei heiklen Pflichtfragen dazu tendieren, die sozial wünschenswerteste Antwort zu wählen.

Text im Footer einfügen (zusätzlich zu einem Footerbild)

Sie haben Ihr Logo als Footerbild definiert, möchten zusätzlich aber noch einen Text in den Footer integrieren oder einen Link zu Ihren AGB´s platzieren? Dann können Sie mit dem Code %FOOTERTEXT% arbeiten. Gehen Sie dafür folgendermassen vor:

1. Ausgangspunkt ist Ihre Umfrage mit einem einfachen Footer-Logo, welches z.B. unten rechts platziert ist.

 

2. Gehen Sie nun im Menubereich «Fragebogen» bei der gewünschten Frage, bei welchem Sie den zusätzlichen Textfooter einrichten möchten, auf «ändern». Geben Sie nun im Textfeld für die Fragestellung den folgenden Code ein:

%FOOTERTEXT Hier kommt nun Ihr gewünschter Text FOOTERTEXT%

 

Wiederholen Sie diesen Vorgang für jede Frage, in welchem der Footertext erscheinen soll. Wenn Sie dann Ihren Fragebogen testen, erscheint folgendes Bild:

 

 

Sie sehen nun, dass der eingegebene Text im Footer erscheint. Allerdings ist dieser noch nicht wirklich schön in der Umfrage positioniert. Um dies anzupassen, können Sie unter «Aussehen/Eigenes Logo» –> «CSS-Definitionen» die Positionierung und Gestaltung des Textes anpassen.

 

Wenn Sie Ihre gewünschte Formatierung erstellt haben und den Fragebogen erneut testen, sieht Ihr Fragebogen folgendermassen aus:

 

Sie können hier anstelle eines normalen Textes nun z.B. auch eine Verlinkung auf eine Website einfügen, indem Sie mit dem Code %LINK% arbeiten. Folgendes Beispiel zeigt, wie Sie in einem solche Fall vorgehen können:

 

Live sieht dies dann folgendermassen aus:

 

Falls Sie Hilfe bei der Gestaltung Ihres Footers benötigen, können Sie uns natürlich auch gerne jederzeit kontaktieren. Wir helfen Ihnen bei Ihren Wünschen gerne weiter und unterstützen Sie so gut wie möglich.

SMS-Versand bei offenen Umfragen

Sie können bei offenen Umfragen auch die Einladungen per SMS versenden. Dies ist sehr einfach. Erfassen Sie einfach statt E-Mail-Adressen Ihrer Teilnehmenden deren Mobilnummern. Dabei ist folgendes Format notwendig und strikt einzuhalten:

00491761234567@sms.onlineumfragen.com
(d.h. immer zuerst 00, dann die Landesvorwahl (49=Deutschland, 41=Schweiz, 43=Österreich) und dann die Mobilnummer ohne führende 0, also z.B. in Deutschland 179…. oder in der Schweiz oft 79…..)

Als Gruppe verwenden Sie z.B. SMS, damit Sie für den Versand der SMS einen anderen (viel kürzeren) Einladungstext verwenden können, wenn Sie gleichzeitig auch E-Mail-Adressen erfasst haben und die Versandmethode mischen möchten.

Das sieht dann so aus:

2017-04-06_09-22-36

 

Danach können Sie die Einladungsmail (hier SMS-Text) erfassen unter «Teilnehmer > 3. Schritt: Einladungs-Mail für Teilnehmer verfassen».

2017-04-06_09-21-49

Den Mail-Betreff können Sie hier ignorieren oder etwas Irrelevantes eingeben.

Wichtig: der Link muss beim SMS-Versand manuell in den Text eingebracht werden (siehe Beispiel oben). Daher den Link unbedingt vorher testen! Dies ist so gelöst, weil bei SMS-Einladungen oftmals Shortlinks oder andere Links (z.B. auf eine Kundenwebsite mit Infos zur Kampagne, wo wo aus man dann die Umrage erst anklicken kann) verwendet werden, als bei E-Mail-Einladungen.

 

Dann können alle erfassten SMS-Adressen versendet werden, unter «Teilnehmer > 4. Schritt: Einladungs-Mails versenden»:

Dabei ggf. die Gruppe «SMS» auswählen Teilnehmerverfolgung ausschalten, also Haken entfernen!

2017-04-06_09-55-58

Danach auf «Jetzt versenden!» klicken. Voilà.

Sie benötigen für den Versand von SMS ein SMS-Paket, dieses kostet pro 1000 SMS eine Charge von 100 Euro (das sind 10 Cent pro SMS). Sie können dieses Paket (odere mehrere, je nach dem von Ihnen benötigten Volumen) bei uns via info@onlineumfragen.com bestellen.

 

Sortierfrage auf Basis Vorfrage Multiple-Choice erstellen

Ab und zu wird folgende Konstruktion benötigt:

in einer Single- oder Multiple-Choice-Frage werden Antworten ausgewählt. Die ausgewählten Antworten sollen dann in der nächsten Frage wieder angezeigt (nur die ausgewählten) und vom Teilnehmenden sortiert werden können, d.h. in einer Reihenfolge gebracht werden.

Dazu legen Sie zuerst die beiden Fragen an:

1. Als Single-/Multiple-Choice:

2016-11-07_02-40-56

2. Als Sortierfrage/Rangfolge:

2016-11-07_02-41-16

Hier sehen Sie noch das Spezialkommando %TEXTANTWORT3223754%. Dieses zeigt den allenfalls bei der ersten Frage eingegebenen Freitext ein (z.B. im leeren Textfeld bei «Anderes»). Die Frage-ID für die %TEXTANTWORT3223754%-Anweisung finden Sie unter «Auswertung > Item-Beschreibung (=Variablen-Spiegel/Codebook, Legende der Codierung)» und dort ganz unten auf der Seite:

2016-11-07_02-41-42

Dann richten Sie unter «Fragebogen > Filterrow» eine Filterrow-Logik für die Sortierfrage ein, die sich auf die erste Frage bezieht. Dies ist sehr simpel.

2016-11-07_02-42-35

 

Voilà.

Das sieht dann LIVE so aus:

2016-11-07_02-40-24

2016-11-07_02-40-35

Hinweis: Um die Frage 2 allenfalls komplett zu überspringen, wenn bei Frage 1 nichts ausgewählt wird, setzen Sie am besten einen Sprung bei Frage 1 oder Pfade ein.

Bild verlinken

Ihre Anforderung:

Bei Klick auf ein Bild soll eine Webseite geöffnet werden.

Sie müssen also das Bild mit einer Webseite verlinken. Und das geht so:
1. Laden Sie Ihr Bild unter «Fragebogen» > «Bilder, Sound/Video, PDF» hoch.
2. Gehen Sie zur gewünschten Frage/Seite, wo das verlinkte Bild erscheinen soll und tragen Sie folgenden Text ein:

%LINK%Webseite%%BILD%Bildname%%

Ein Beispiel: Ihr Bild haben Sie «twittervogeli.jpg» genannt. Die zu verlinkende Webseite heisst «https://twitter.com». Der Link sieht also wie folgt aus:

%LINK%https://twitter.com%%BILD%twittervogeli.jpg%%

et voilà:

 

05-02-_2016_17-54-52