
Leitfaden zur Auswertung von Befragungsdaten: Von der Rohantwort zum Ergebnis
Praxisorientierter Durchgang durch die vollständige Pipeline der Survey-Datenanalyse — vom Export aus Google Forms oder Qualtrics bis zu publikationsreifen Statistik-Ergebnissen.
Wenn Sie über Google Forms, Qualtrics oder SurveyMonkey Befragungsdaten erhoben haben und nun vor einer Tabelle sitzen, ohne genau zu wissen, wie es weitergeht, ist dieser Leitfaden für Sie.
Die Auswertung von Befragungsdaten ist der Prozess, der aus rohen Fragebogenantworten belastbare Statistik-Ergebnisse macht — geeignet für einen Forschungsartikel, ein Thesis-Kapitel oder einen Beratungsreport. Die Herausforderung ist nicht ein einzelner Test, sondern die Frage, welche Tests in welcher Reihenfolge passend sind und wie sich die Ergebnisse im Kontext interpretieren lassen.
Dieser Beitrag führt durch die gesamte Pipeline — vom Export bis zur Auswertung.
Schritt 1: Daten exportieren und prüfen
Die meisten Survey-Plattformen erlauben den Export in CSV oder Excel. In Google Forms öffnen Sie den Reiter „Antworten" und klicken auf das Tabellensymbol, um in Google Sheets zu exportieren und anschließend als CSV herunterzuladen. In Qualtrics geht das über den Reiter „Data & Analysis" als CSV oder XLSX.
Sobald die Datei vorliegt, prüfen Sie:
- Steht jede Zeile für eine·n Befragte·n?
- Gibt es Metadatenspalten, die Sie nicht brauchen (Zeitstempel, IP-Adressen, Kanalkennungen)?
- Sind Likert-Items als Zahlen oder als Texte kodiert?
- Sind Mehrfachantworten in eigenen Spalten oder mit Trennzeichen kombiniert?
Den Datenaufbau zu durchdringen, ist die Grundlage für alles Weitere.
Schritt 2: Daten bereinigen
Roh exportierte Survey-Daten sind selten analysebereit. Übliche Aufgaben:
- Unvollständige Antworten oder Testeinträge entfernen
- Straightliner herausfiltern, die durchgehend dieselbe Option wählen
- Texte in numerische Codes für Skalen-Items überführen
- Fehlende Werte einordnen — echtes Missing von Filterlogik unterscheiden
- Metadatenspalten ohne Analysewert entfernen
Mühsam, aber unverzichtbar. Garbage in, garbage out.
Schritt 3: Messmodellqualität prüfen
Bevor Sie Hypothesen testen, prüfen Sie, ob das Instrument tatsächlich misst, was es messen soll.
Reliabilitätsanalyse prüft die interne Konsistenz. Bei Likert-basierten Konstrukten heißt das in der Regel die Berechnung von Cronbach's α. Werte über 0,7 gelten in den Sozialwissenschaften als akzeptabel.
Validitätsanalyse prüft, ob die Items so gruppieren wie geplant. Die explorative Faktorenanalyse (EFA) ist der Standardweg — sie zeigt, ob Ihre Items auf die theoretisch konstruierten Dimensionen laden.
Sind Reliabilität oder Validität schwach, werden alle nachgelagerten Ergebnisse fragwürdig.
Schritt 4: Deskriptive Statistik
Vor Hypothesentests wird zunächst beschrieben, was Sie haben:
- Häufigkeitsverteilungen kategorialer Variablen (Geschlecht, Altersgruppe, Bildungsstand)
- Mittelwerte und Standardabweichungen stetiger und Skalen-Variablen
- Verteilungs-Checks — sind die Variablen näherungsweise normalverteilt?
Deskriptiva geben Lesenden (und Reviewer·innen) ein klares Bild der Stichprobe vor den inferenzstatistischen Ergebnissen.
Schritt 5: Inferenzstatistik
Hier beantworten Sie Ihre Forschungsfragen. Die Methodenwahl hängt von Variablentypen und Studiendesign ab:
- t-Test für unabhängige Stichproben: Mittelwertvergleich zwischen zwei Gruppen (z. B. Zufriedenheitswerte nach Geschlecht)
- Einfaktorielle ANOVA: Mittelwertvergleich über drei oder mehr Gruppen
- Korrelationsanalyse: Beziehung zwischen stetigen Variablen (Pearson bei Normalverteilung, Spearman bei ordinalen Daten)
- Multiple Regression: Vorhersage einer abhängigen Variable aus mehreren Prädiktoren
- Mediationsanalyse: prüft, ob der Effekt von X auf Y über einen Mediator M verläuft
- Moderationsanalyse: prüft, ob sich der Effekt von X auf Y in Abhängigkeit von einem Moderator W ändert
Jede Methode setzt Voraussetzungen voraus. Regression verlangt Linearität und Homoskedastizität. ANOVA Varianzhomogenität. Wer diese Prüfungen weglässt, riskiert Reviewer-Kritik.
Schritt 6: Interpretieren und berichten
Ein Statistik-Output allein ist noch kein Forschungsbefund. Die Bedeutung der Zahlen entsteht durch Kontextualisierung — bezogen auf Ihre Forschungsfrage und den Stand der Literatur.
Ein guter Ergebnisteil enthält:
- Klare Zuordnung jeder Hypothese zu „bestätigt" oder „nicht bestätigt"
- Effektgrößen, nicht nur p-values
- Tabellen im akademischen Standard (APA oder journal-spezifisch)
- Abbildungen, die Klarheit schaffen (Balkendiagramme bei Gruppenvergleichen, Streudiagramme bei Korrelationen)
Das Problem manueller Workflows
Wer das alles in SPSS, R oder Python erledigt, springt typischerweise zwischen Statistiksoftware, Word-Dokument und Literaturverwaltung. Jeder Wechsel kostet Zeit und erhöht das Risiko für Copy-Paste-Fehler.
Die vollständige Pipeline — exportieren, bereinigen, validieren, beschreiben, analysieren, interpretieren, formatieren — kann pro Datensatz Tage manueller Arbeit verschlingen.
Wie Data2Paper in den Workflow passt
Data2Paper automatisiert genau diese Pipeline. Sie laden Ihre CSV- oder Excel-Datei hoch, beschreiben das Forschungsthema, und das System übernimmt Datenbereinigung, Methodenauswahl, Analyseausführung und die Generierung der Manuskriptabschnitte.
Die Ausgabe ist nicht nur eine Tabellensammlung, sondern ein strukturiertes Forschungsdeliverable in Word, PDF oder LaTeX — mit Interpretationstexten, formatierten Tabellen und einreichungsreifen Diagrammen.
Für Forschende, die ihre Energie in die Forschungsfrage statt in die Mechanik der Statistiksoftware stecken wollen, bedeutet das eine spürbare Reduktion an Reibung.
Autor·in

Kategorien
Weitere Beiträge

Leitfaden zur Auswertung klinischer Daten: Vom Krankenhausdatensatz zur publikationsreifen Analyse
Praxisorientierter Durchgang durch die vollständige Pipeline der klinischen Datenanalyse — vom Export aus dem Krankenhausinformationssystem bis zu publikationsreifen Ergebnissen.


Was Data2Paper leistet: Von Befragungsdaten zum auslieferbaren Forschungsartikel
Data2Paper überführt Survey-Exporte, mehrsprachige Schreibanforderungen und Python-basierte Analyseworkflows in auslieferbare Forschungsartikel.


Reliabilitätsanalyse und Cronbach's α: ein praktischer Leitfaden für Forschende
Wann und wie Sie Cronbach's α für die Reliabilitätsprüfung in Befragungen einsetzen, wie Sie die Werte interpretieren und welche Stolperfallen häufig auftreten.

Newsletter
Werden Sie Teil der Community
Abonnieren Sie unseren Newsletter und erhalten Sie aktuelle News und Updates