Εμφάνιση αναρτήσεων με ετικέτα ποιοτική έρευνα. Εμφάνιση όλων των αναρτήσεων
Εμφάνιση αναρτήσεων με ετικέτα ποιοτική έρευνα. Εμφάνιση όλων των αναρτήσεων

27 Ιαν 2014

Μεθοδολογία Ανάλυσης Περιεχομένου και Ανάλυσης Λόγου στην Ποιοτική Έρευνα


Ανακτήθηκε από media.uoa.gr

Ως προς τη χρήση των γραπτών καί προφορικών κειμένων στή κοινωνική καί πολιτισμική έρευνα δύο αντιθετικές μέθοδοι ανάλυσης κειμένου

-ανάλυση περιεχομένου- content analysis
-ανάλυση λόγου – discourse analysis

Αντιθετικές ώς πρός τό ότι εκπροσωπούν ποσοτικές καί ποιοτικές προσεγγίσεις στήν μελέτη τών κειμένων. Κάθε μία από αυτές τίς προσεγγίσεις παρέχει βαθειά γνώση γιά τούς τρόπους μέ τούς Οποίους ή ομιλία καί τά κείμενα συνεισφέρουν στήν διαμόρφωση καί στήν αναπαραγωγή κοινωνικών νοημάτων καί μορφών γνώσης.

Πεδία στά οποία εφαρμόζονται οί αναλύσεις κειμένου
-κοινωνιολογία
-ψυχολογία
-Μ.Μ.Ε καί επικοινωνία
-ιστορία
-πολιτική καί κοινωνική πολιτική
-πολιτισμικές σπουδές
-κοινωνιο-γλωσσολογία
-νομική
-εκπαίδευση
-οργάνωση καί διοίκηση

Η ανάλυση περιεχομένου είναι μία ποσοτική μέθοδος γιά τήν μελέτη κειμένων Αναλύει κείμενα ‘ως πρός τήν παρουσία καί τή συχνότητασυγκεκριμένων όρων, αφηγήσεων ή εννοιών.Μπορεί νά περιλαμβάνει τήν μέτρηση/απαρίθμηση τού αριθμού τών γραμμών ή τής ποσότητας τού χώρου πού καταλαμβάνουν διάφορα θέματα...


Εχει μία προ-ιστορία στή χρήση της στή ψυχολογία καί στή επικοινωνιακή έρευνα.¨Ομως συχ-νά χρησιμοποιείται στήν ανάλυση κειμένων στά Μ.Μ.Ε ( άρθρα στίς εφημερίδες καί περιοδικά, εκπομπές στά ηλεκτρονικά Μ.Μ.Ε, καθώς καί οπτικό περιεχόμενο ).

Τρείς διακριτές φάσεις 
-Η συλλογή τών στοιχείων
-Η κωδικοποίηση καί η ανάλυση των στοιχείων
-Η παρουσίαση της ανάλυσης 


1. Η κύρια κριτική εναντίον της είναι ότι ασχολείται μέ αυτό πού λέγεται παρά μέ τό πώς λέγεται , δηλαδή μέ τήν περιγραφή κειμένων παρά μέ τήν ερμηνεία των, τίς έννοιές των.
Τοποθετείται δηλαδή σέ μία εμπειριοκρατική καί θετικιστική παράδοση έρευνας, πού ασχολείται μέ τήν ανάλυση παρατηρίσιμων χαρακτηριστικών ή γεγονότων, παρά μέ λιγότερο παρατηρίσιμες – καί συχνά υποκειμενικές ερωτήσεις σχετικά μέ τό τί σημαίνουν ( αυτά τά χαρακτηρι-στικά καί τά γεγονότα). Δηλαδή μέ τό ερώτημα άν μία «επιστημονική» μέθοδος κοινωνικής ερευνας μπορεί νά είναι κατάλληλη γιά τή μελέτη κοινωνικών καί πολιτιστικών αντικειμένων-¨οπως τά κείμενα- πού ορίζονται, κατά κύριο λόγο ( δηλ. έχουν νόημα) από τά νοήματα πού αυτά διαθέτουν σέ σχέση μέ τά άτομα ( μέσα στή κοινωνία ).

Τό σχέδιο τής έρευνας 
-Τό θέμα τής έρευνας
-Ορισμός τού σχετικού πληθυσμού
-Δημιουργία δείγματος από τόν πληθυσμό
Τό δείγμα εδώ είναι δείγμα κειμένων καί ΟΧΙ δείγμα ατόμων, λ.χ
-Πολιτικοί λόγοι
-κείμενα Μ.Μ.Ε 
-Αρχειακές πηγές
-Διαφημίσεις

Αρκετές φορές τό δείγμα μπορεί νά είναι πολύ μεγάλο, άρα μπορεί νά οριοθετηθεί χρονικά, ή ως πρός τό περιεχόμενό του , εφόσον δοθούν επαρκείς λόγοι γιά αυτή τήν επιλογή.Τό δείγμα θά πρέπει νά είναι σχετικό μέ τό θέμα τής έρευνας, αντιπροσωπευτικό καί διαχειρίσιμο.

Η κωδικοποίηση τού περιεχομένου
Η κωδικοποίηση μπορεί νά ορισθεί από πρίν, ή καί όταν υπάρχει μία γενική εικόνα τών κειμέ-νων, ή χρησιμοποιώντας έναν συνδυασμό.
Η κωδικοποίηση πρέπει νά είναι σαφής καί εξαντλητική, καί νά ταιριάζει μέ τό κωδικοποιη-μένο περιεχόμενο μέ έναν συνεπή τρόπο, έτσι ώστε νά είναι αξιόπιστη
Μία εναλλακτική εκκίνηση γιά τήν ανάλυση περιεχομένου είναι ή δημιουργία/καταγραφή τών κυρίων/βασικών λέξεων (keywords), καταγράφοντας τή συχνότητα τής εμφάνισής των.
Διάκριση ανάμεσα στό έκδηλο/φανερό περιεχόμενο (manifest content ), δηλαδή στά νοήματα πού εκφράζονται άμεσα, καί στό λανθάνον περιεχόμενο (latent content).

Ερμηνεία
Μπορεί νά χρησιμοποιηθεί ένας συνδυασμός μεθόδων λ.χ. ποσοτικής ανάλυσης σέ συνδυα-σμό μέ ποιοτική ανάλυση ( λ.χ. focus groups )γιά νά εξετασθεί ή πηγή πληροφόρησης καθώς καί τί κατανόησαν από αυτή τή πληροφόρηση.
Λ.χ. μπορεί νά χρησιμοποιηθεί ή ανάλυση περιεχομένου γιά νά εξετασθεί άν ένα χαμηλό επί-
πεδο κατανόησης ενός θέματος ( από ένα δείγμα ) σχετίζεται μέ μία περιορισμένη έκταση συ-νολικής κατανόησης πληροφοριών σχετικών μέ τό θέμα από τά κύρια Μ.Μ.Ε.

Βέβαια, ή εγκυρότητα αυτής τής μεθόδου τείνει νά βασίζεται σέ ισχυρισμούς σχετικά
-μέ τήν ουδετερότητα τού ερευνητή, καί
-μέ τήν αντικειμενικότητα των αποτελεσμάτων.
Ωστόσο, μπορούμε νά τονίσουμε μερικά σχετικά σημεία
-Η αντικειμενικότητα τής ανάλυσης περιεχομένου μπορεί νά αμφισβητηθεί από τό οτιι ποιοτικές κρίσεις μπορούν νά εμφιλιχωρούν στόν ορισμό τών κατηγοριών κωδικοποίησης
-Ακόμη καί όταν οί ερευνητές χρησιμοποιούν περισσότερο ουδέτερες καταγραφές βασικών λέξεων (Keywords)υπάρχει ή τάση τής παραγωγής ενός ρεπερτόριου από κυρίαρχα θέματα, πράγμα πού ενισχύει τή δύναμη αυτών τών κατηγοριών.
-Η ανάλυση περιεχομένου διαμορφώνει έναν κόσμο νοημάτων πού είναι προσβάσιμος στό περιεχόμενο τών κειμένων πού εξετάζονται.Ομως δέν είναι σαφές άν (οί ) δηλώσεις γιά τό περιεχόμενο ( τών κειμένων) μάς λένε πολλά γιά τίς προθέσεις αυτών πού τά κατασκεύασαν ή γιά τό πώς τά αντιλαμβάνονται αυτοί πού τά διαβάζουν.

Λ.χ δέν διαβάζουμε- ολοι- τίς ειδήσεις μέ τόν ίδιο τρόπο. Ετσι, παραμένουν τά προβλήματα τά σχετικά μέ τό νόημα, πού υπάρχουν σέ όλες τίς αναλύσεις τών κειμένων. 

Ανάλυση λόγου
Η ποιοτική προσέγγιση στήν ανάλυση τών κειμένων χρησιμοποιείται μέ διαφορετικό τρόπο σέ διαφορετικά πεδία.
Ο λόγος μπορεί νά αποτελείται από μερικές προτάσεις (τμήμα συζήτησης μεταξύ ατόμων) έως μία συστηματική χρήση τής γλώσσας, μέ συγκεκριμένους κανόνες, ορολογία καί συμβάσεις( (λ.χ. όπως στλη νομική επιστήμη).Η γλώσσα που χρησιμοποιείται από ένα σώμα ειδικών οριοθετεί ένα γνωστικό πεδίο, υποδηλώνει ότι αυτοί πού τή χρησιμοποιούν ανήκουν σέ αυτό τό πεδίο, καί επιπλέον τούς προσδίδει κύρος. 


httpacademic.csuohio.edu/kneuendorf/content
www.content-analysis.de


H ανάλυση των πολιτιστικών αντικειμένων
Η ερευνητές πρέπει νά μπορούν νά αναλύουν τά πολιτισμικά αντικείμενα μέ ένα τρόπο πού νά περιέχει λιγότερη υποκειμενικότητα από αυτήν ενός συγκεκριμένου ερευνητή.Η ανάλυση θά πρέπει νά βασίζεται σέ μεθοδολογικούς ελέγχους πού μπορεί νά στηρίξει μία συγκεκριμένη ανάγνωση ,τέτοια πού νά επιτρέπει σέ άλλους ερευνητές νά μπορούν νά αναπαράγουν αυτή τήν ανάγνωση, καί νά μπορούν νά προσεγγίζουν διάφορα κείμενα μέ αρκετή συνέπεια ώστε νά επιτρέπεται ή γενίκευση καί ή συγκρισιμότητα.
Βέβεια, ή ερμηνευτική παράδοση τής πολιτισμικής έρευνας είχε μία διαμορφωτική επιρροή στήν Ευρωπαική κονωνική σκέψη.Αλλά ή κύρια γραμμή ανάπτυξης ,ιδιαίτερα τής αγγλοσαξωνικής κοινωνικής επιστήμης ,οδηγείται από τά ιδανικά τής ποσοτικοποί-
Ησης καί τής μεθοδολογίας των φυσικών επιστημών.Μέ αυτή τήν έννοια,η κοινωνική έρευνα πού εξαρτιόταν από στποχεία όπως τά πολιτισμικά νοήματα εθεωρείτο ώς αναξιό-πιστη καί υποκειμενική ,χωρίς νά υπάρχει ή δυνατότητα αυστηρού ελέγχου.

Ομως, τά τελευταία χρόνια έχει υπάρξει μιά διεύρυνση τής έννοιας τού πολιτισμικού αντικειμένου, καί έχει σέ σημαντικό βαθμό υποκατασταθεί από τήν ανάγνωση πολιτι-σμικών κειμένων , υποδηλώνοντας ότι μπορούμε νά μεταχειρισθούμε ένα άπειρο αριθμό κοινωνικών δημιουργημάτων σάν νά είναι κείμενα πρός ανάγνωση.Μπορούμε νά
Εφαρμόσουμε τήν ίδια μεθοδολογία σέ αντικείμενα τόσο διαφορετικά μεταξύ των, όπως ή μουσική τέκνο, μία όπερα, ένα οικογενειακό δείπνο,μία σαπουνόπερα ή οί ειδήσεις στό ραδιόφωνο.Μέ τήν έννοια αυτή, ή λέξη κείμενο περιλαμβάνει τήν όραση, τήν αφή, τήν 
ακοή, ή συνδυασμούς τών παραπάνω.Επιπλέον, ένα πολιτισμικό κείμενο δέν χρειάζεται νά είναι ένα αντικείμενο, πού παράγεται ώστε νά φέρει καί νά επικοινωνεί συγκεκριμένα 
νοήματα.Λ.χ. ό τρόπος πού ντύνονται οί άνθρωποι, τά φαγητά πού τρώνε καί ό τρόπος πού τά μαγειρεύουν, ή δομή τού ίδιου τού φαγητού, μπορουν νά διαβαστούν σάν πολιτισμικά κείμενα 
Μπορεί νά μήν υπάρχει-κάν- ή πρόθεση νά επικοινωνηθεί ένα νόημα.
Η ανάλυση περιεχομένου καί ή σημειολογία αντιπροσωπεύουν δύο σημαντικές προσπάθειες
νά εισαχθούν σταθερές μέθοδοι στήν ερμηνεία τής κουλτούρας.Καί οί δύο είναι μορφές ανάλυ-σης κειμένων, αναφερόμενες στά ίδια τά κείμενα παρά στούς τρόπους μέ τούς οποίους τά κατα-ναλώνουν οί άνθρωποι.Η ανάλυση περιεχομένου, σάν μία μέθοδος μέ θετικιστικές τάσεις, οδηγεί μάλλον σέ μηχανιστικές αναγνώσεις καί συμπεράσματα, ενώ η σημειολογία αναζητεί νά
ανασύρει τήν πλήρη πολυπλοκότητα τού νοήματος /νοημάτων τού κειμένου,χωρίς όμως ιδιαίτερη αυστηρότητα. 

Η ΑΝΑΛΥΣΗ ΠΕΡΙΕΧΟΜΕΝΟΥ
Είναι μία προσπάθεια εφαρμογής συμβατικών, καί μάλιστα θετικιστικών αυστηρών κανόνων
στό ανυπότακτο καί υποκειμενικό πεδίο τού πολιτισμικού νοήματος.Ο κεντρικός στόχος είναι
νά καταστούν τά θέματα τής ερμηνείας ελέγξιμα καί μή-διφορούμενα, ώστε νά μεταφερθούμε
γρήγορα στήν «επιστημονικώτερη» διαδικασία τής μέτρησης πραγμάτων,ουσιαστικά μετρώντας τήν συχνότητα. Μετρώνται οί αριθμοί τών περιπτώσεων σέ ένα καλά ορισμένο δείγμα. Λ.χ.’η ανάλυση τών δειγμάτων πού έχουν ληφθεί από μία συγκεκριμένη σαπουνόπερα μία φορά τόν μήνα από τό 1960 έως τό 1997 μπορεί νά αποκαλύψει τίς μεταβαλλόμενες αναπαραστάσεις τών γυναικών οχι μόνο σε αυτή τή σαπουνόπερα ή στίς σαπουνόπερες γενικά,αλλά γιά ένα μεγάλο μέρος τής λαικής τηλεοπτικής κουλτούρας.Μία τετοια άσκηση έχει περιγραφικό χαρακτήρα, αλλά συχνά παίρνει τή μορφή διαπιστώσεων γιά τήν ακρίβεια μέ τήν οποία τά Μ.Μ.Ε ανα παριστούν όψεις τού κόσμου, ή τό είδος τού κόσμου στό οποίο τά Μ.Μ.Ε εκθέτουν τά ακροατήρια των.Η ανάλυση περιεχομένου είναι περισσότερο σάν μία κοινωνική έρευνα 
ενός δείγματος εικόνων,παρά ατόμων, πού χρησιμοποιεί ένα αυστηρα δομημενο καί κλει-στό ερωτηματολόγιο.
Τό πρώτο πράγμα πού κάνει ή ανάλυση περιεχομένου είναι νά ορίσει ένα πληθυσμό καί νά διαμορφώσει ένα δείγμα από αυτό τόν πληθυσμό-τό δείγμα πρέπει νά διαμορφωθεί μέ τέτοιο τρόπο ώστε νά είναι αντιπροσωπευτικό καί σημαντικό,καί παράλληλα αρκετά μικρό 

ωστε νά μπορεί νά αναλυθεί σέ βάθος.
Τό δεύτερο είναι νά αποφασισθούν οί κατηγορίες μέ βάση τίς οποίες θά γίνει ή κωδικο-ποίηση καθώς καί ή υλοποίησή της.Ενα μεγάλο μέρος τής φαινομενικής αυστηρότητας αυτής τής μεθόδου βασίζεται στή δομή τών κατηγοριών πού θά χρησιμοποιηθούν-καί οί οποίες θά πρέπει νά είναι αμοιβαλια αποκλειστικές .Ενα αμεσα σχετικό σημείο είναι τό θέμα τής αξιοπιστίας ,πού μπορεί νά αποτελέσει πραγματικό πρόβλημα,γι αυτό καί τείνει νά εξαρτάται από τήν αξιοπιστία μεταξύ διαφόρων κωδικοποιήσεων(inter-coder 
reliability)πού αφορά στή σύγκριση κωδικοποιήσεων μεταξύ διαφόρων ερευνητών.Η έρευνα ονομάζεται/αποκαλείται αξιόπιστη όταν αυτη η αξιοπιστία είναι υψηλή.

ΣΗΜΕΙΟΛΟΓΙΑ
Αντιπροσωπεύει τό ακριβώς αντίθετο τής ανάλυσης περιεχομένου.Βρίσκεται πιό κοντά στίς ερμηνευτικές μεθοδολογίες απ’ ότι στίς ποσοτικές μεθόδους, προσφέρει πλούσιες ερμηνείες κειμένων ή κωδίκων αλλά δέν αντέχει σέ μία αυστηρή γενίκευση. Ισχυρίζεται ότι τά στοιχεία ενός κειμένου παίρνουν τό νόημά των από τήν συσχέτισή των μέ ένα κώδικα, παρά άν τά βλέπουμε ως διακριτές οντότητες πού θά πρέπει νά μετρηθούν. Η σημειολογία ασχολείται κυρίως μέ αυτό τό πολιτισμικό χαρακτηριστικό πού θέλει νά αποφεύγει ή ανά-λυση περιεχομένου-τήν διαδικασία τής ερμηνείας.Κατά τόν Saussure,οί σημασίες/τά νοήματα θά πρέπει νά μελετώνται σάν ένα σύστημα σημείων.Οί σημασίες τών λέξεων προκύπτουν από τήν θέση των σέ ένα σύστημα σημείων καί από τίς σχέσεις διαφοράς ή διαδοχής/γειτνίασης πού έχουν μέ τούς άλλους όρους στό σύστημα αυτό.
Τό σημείο αποτελεί τή βασική μονάδα στή γλώσσα-language ( δηλαδή στό σύστημα σημείων). Τό σημείο αποτελείται από δύο συστατικά-τό σημαίνον-signifier ,πού είναι λ.χ ό ήχος ή η εικόνα μιάς λέξης ( λ.χ. ή γάτα ),καί τό σημαινόμενο-signified,πού είναι ή έννοια πού προσδίδουμε στό σημαίνον.Αυτά τά δύο σέ συνδυασμό αποτελούν ένα σημείο καί έχουν μεταξύ τους μία τυχαία σχέση,άν καί αποτελούν τίς δύο πλευρές ενός νομίσματος.Η σχέση μεταξύ αυτών τών δύο είναι κοινωνική ή πολιτισμική, σχέση πού ανήκει στά συστήματα σημασιών πού λειτουργούν σέ μία συγκεκριμένη κουλτούρα καί σέ ένα συγκεκριμένο χρονικό διάστημα. Οί διαφορετικές-μεταξύ των-γλώσσες παράγουν μία διαφορετική αίσθηση τού κόσμου, αποτελούν δηλαδή μία ενεργητική κατασκευή τού κόσμου Τά δύο κεντρικά θέματα στόν Saussureη περιγραφή καί ή ανάλυση πολιτισμικών σημείων σέ σχέση με τά συστήματα σημείων μέσω των οποίων αυτά παίρνουν τό νόημά των καί ή κατανόηση τού τρόπου μέ τόν οποίο ένα συγκεκριμένο σύστημα σημείων χωρίζει (decoupage) τόν κόσμο,φανερώνο-νοντας πώς μία πολιτισμικά αυθαίρετη διαίρεση μοιάζει νά ανήκει στή φύση παρά στή κουλτούρα,διαμορφώνοντας τίς κοινωνικές καί ιδεολογικές συνέπειες τής-κατά κάποιους τρόπους διαίρεσης τού κόσμου. 
Ολα τά νοήματαπροκύπτουν από τίς σχέσεις μεταξύ τών σημείων πού εντάσσονται σέ συσ-τήματα σημείων, άρα οτιδήποτε έχει κάποιο νοημα-τά φανάρια τής τροχαίας,μία φωτογραφία,ένα φαγητό-μπορούν νά αναλυθούν σέ όρους τού συστήματος μέσα στό οποίο αυτά διαθέτουν/έχουν νόημα.
Παραδείγματα-ο μαύρος Γάλλος στρατιώτης πού χαιρετίζει τή γαλλική σημαία(δημοσιευμένη κατά τή διάρκεια τής πάλης τής Αλγερίας εναντίον τής Γαλλικής κατοχής )Εδώ οί πολιτισμικές καί ιδιαίτερα ιδεολογικές έννοιες τού πατριωτισμού καί τής Γαλλικότητας μπορούν νά εμφανισθούν σάν φυσικά χαρακτηριστικά τού πραγματικού κόσμου.
-Τό μπουκάλι μέ κολώνια Chanel No 5 μέ τήν Deneuve-αναπαρτιστάνει τήν εξεζητημένη σοφιστικέ Γαλλική θηλυκότητα.

Οί κώδικες, μέσω τών διαδικασιών ερμηνείας των δείχνουν πώς σχετίζονται τά πράγματα μεταξύ των, καί όχι πόσες φορές καταγράφονται.


ΑΝΑΛΥΣΗ ΛΟΓΟY- DISCOURSE ANALΥSIS- 
Tεχνική γιά τήν ανάλυση κειμένων καί ντοκουμέντων .Προσεγγίζει τή μελέτη τής γλώσσας καί τών κειμένων σάν μορφή λόγου/discourse πού βοηθούν στό νά δημιουργήσουν καί νά παράγουν συστήματα πού νά έχουν νόημα μέσα στή κοινωνία.Αυτό χρειάζεται μία κριτική καί ερμηνευτική σταση ‘ως πρός τή χρήση τής γλώσσας σέ κοινωνικές περιστά-σεις.
Ανήκει σέ ένα ευρύτερο σώμα κοινωνικής καί πολιτισμικής έρευνας πού ασχολείται μέ τήν παραγωγή νοήματος μέσω τής ομιλίας καί τών κειμένων,καί βλέπει τή γλώσσα όχι σάν μία αντανάκλαση τής πραγματικότητας μέ ένα άμεσο ή διαφανή τρόπο, αλλά σάν μία κατασκευή καί οργάνωση αυτής τής κοινωνικής πραγματικότητας γιά μάς.Δηλαδή ένδιαφέρεται γιά τή γλώσσα καί τά κείμενα σάν τόπους όπου τά κοινωνικά νοήματα,οί κοινωνικές σημασίες δημιουργούνται καί αναπαράγονται, και σχηματίζονται /διαμορφώνονται οι κοινωνικές ταυτότητες.
Λ.χ. ή περίπτωση τών Αμεα-μία μετατόπιση στή γλώσσα διαμορφώνει ένα μεγάλο τμήμα τών προσπαθειών γιά τήν δημόσια αύξηση τής ευαισθητοποίησης σέ θέματα αναπηρίας Καί στή μεταβολή τών μέχρι τότε αντιλήψεων καί στερεοτύπων.
Ο τρόπος μέ τόν οποίο χρησιμοποιούμε τή γλώσσα είναι σπάνια αθώος, καί ή ανάλυση τού λόγου μπορεί νά βοηθήσει στό νά αποκαλυφθεί πώς η ομιλία καί τά κείμενα μπορούν νά παράγουν συγκεκριμένα νοήματα καί αποτελέσματα.
Αυτός πού ασχολείται μέ τήν ανάλυση λόγου ενδιαφέρεται μέ τούς τρόπους πού χρησιμοποιούν οί άνθρωποι ώστε νά κατασκευάσουν τίς περιγραφές των αυτών πού συμ-βαίνουν στόν κόσμο.Η γλώσσα είναι δραστήρια καί λειτουργική στην διαμόρφωση καί στήν αναπαραγωγή κοινωνικών σχέσεων, ταυτοτήτων και ιδεών.

Μέ ένα αυστηρότερο τρόπο, σάν λόγο (discourse) αναφερόμαστε σέ ένα σύστημα γλώσσας
πού χρησιμοποιεί μία συγκεκριμένη ορολογία καί κωδικοποιεί συγκεκριμένες μορφές γνώσης.Λ.χ. οί γλώσσες τών εξπέρ.Οι γιατροί χρησιμοποιούν τήν ( γιά τούς εξπέρ ) ιατρική
γλώσσα ώστε νά αναγνωριζουν συμπτώματα, νά κάνουν διαγνώσεις καί νά συνιστούν θεραπείες.Αυτή η γλώσσα δέν είναι οικεία σέ αυτούς πού δέν έχουν ιατρική εκπαίδευση.
Η γλώσσα τών εξπέρ οδηγεί σέ τρία σημαντικά αποτελέσματα-χαρακτηρίζει ένα πεδίο γνώσεων, προσδίδει τήν ιδιότητα τού μέλους καί αποδίδει δικαιοδοσία.

Η γλώσσα μπορεί νά θεωρηθεί ώς κοινωνική πρακτική πού διατάσσει καί διαμορφώνει , μέ ένα ενεργητικό τρόπο, τίς σχέσεις τών ανθρώπων μέ τόν κοινωνικό τους περίγυρο.

Δύο κεντρικά θέματα είναι α) τά ερμηνευτικά συμφραζόμενα τού λόγου καί β)ή ρητορική οργάνωση τού λόγου.
Τά ερμηνευτικά συμφραζόμενα αναφέρονται στήν κοινωνική περίσταση στήν οποία τοποθετείται ένας συγκεκριμένος λόγος-λ.χ οί σχέσεις εξουσίας ώς πρός τό φύλο.
Οι ρητορικές προσεγγίσεις αφορούν τήν διάρθρωση τών επιχειρημάτων πού οργανώνουν ένα κείμενο καί πού εργάζονται πρός τήν κατεύθυνση τής ένίσχυσης τών συγκεκριμένων ισχυρισμών, ένώ αντικρούουν διαφορετικές απόψεις.Παραδειγματα είναι οι πολιτικοί λόγοι ή η υπεράσπιση ενός κατηγορουμένου στό δικαστήριο.










Φάκελλος Ερευνα 
C.W.Mills
Η έμφαση στήν ποσοτικοποίηση τών κοινωνικών δεδομένων καί στήν εφαρμογή στατιστικών μεθόδων οδηγεί στό ότι ή θεωρία εκφράζεται μέσω τής απλής σύνδεσης μεταβλητών καί τά δεδομένα τής έρευνας τείνουν νά περιορίζονται μόνο σέ εκείνα πού είναι μετρήσιμα καί επαναλαμβανόμενα.
Οδηγούμαστε στόν εμπειρισμό πού βασίζεται στήν αφαίρεση (abstracted empiricism ) καί στόν μεγάλο όγκο στοιχείων γιά λεπτομέρειες τής κοινωνικής ζωής, απομακρυνόμενοι από τήν κοινωνιολογική γνώση, δηλ. σέ μία μηχανική διαδικασία .
Η κριτική αυτή τονίζει οτι οί μεταβλητές ορίζονται μέ εξωτερικά κριτήρια καί αγνοείται ή έρμηνεία καί ή σημασία τών κοινωνικών φαινομένων, όπως αυτές τούς αποδίδονται από τά κοινωνικά υποκείμενα.
Αυτό πού έχει σημασία, δηλαδή, δέν είναι τά εξωτερικά γεγονότα αλλά ό τρόπος μέ τόν οποίο αυτά προσλαμβάνονται από τά υποκείμενα, εφόσον τά ίδια γεγονότα μπορούν νά έχουν διαφορετικά νοήματα σέ διαφορετικές συνθήκες, ενώ στήν μέτρηση υποθέτουμε ότι τά νοήματα είναι σταθερά καί ισχύουν γιά όλους.Δηλαδή ό ερευνητής επιβάλλει τά δικά του νοήματα στόν τρόπο μέ τόν οποίο οργανώνει καί επιλέγει τά εμπειρικά στοιχεία.

Γενικά, οί ποιοτικές μέθοδοι επιτρέπουν τή λεπτομερειακή, σέ βάθος περιγραφή λίγων περιπτώσεων καί στοχεύουν στήν ερμηνεία τής κοινωνικής πραγματικότητας από τή σκοπιά τών υποκειμένων καί όχι τού ερευνητή.Δηλ. αποτελούν ένα μεγεθυντικό φακό γιά τά υπό έρευνα στοιχεία.
Η διαφοροποίηση μεταξύ ποιοτικής καί ποσοτικής έρευνας έγκειται στά στοιχεία αυτά πού δέν επιτρέπουν τή γενίκευση τών αποτελεσμάτων όπως αυτή ορίζεται από τήν οπτική τού ποσοτικού μοντέλλου. 

Η ανάλυση περιεχομένου μετατρέπει δευτερογενές υλικό ποιοτικής φύσης σέ μορφή ποσοτικών δεδομένων.
Ανάλυση τού γραπτού καί προφορικού λόγου στό πλαίσιο τών Μ.Μ.Ε.
Σχετικές ερωτήσεις
-Ποιά είναι τά πρότυπα γιά τά δύο φύλα πού προβάλλονται μέσα από τηλεοπτικά προγράμματα;΄
-Ποιά είναι τά χαρακτηριστικά καί οί ικανότητες τών υποψηφίων βουλευτών πού τονίζονται στά προεκλογικά φυλλάδια καί στίς σχετικές διαφημίσεις τους; 
Η ανάλυση περιεχομένου επιτρέπει τή συστηματική διερεύνηση τού κειμένου.Τά κωδικοποιημένα ποσοτικά στοιχεία πού προκύπτουν από τήν ανάλυση περιεχομένου συσχετίζονται μέ στατιστικές μεθόδους.Η στατιστική επεξεργασία τών στοιχείων δίδει στατιστικές συσχετίσεις βάσει τών οποίων ελέγχονται οί θεωρητικές υποθέσεις τής έρευνας ή προκύπτουν νέες θεωρητικές επεξηγήσεις.
Στό βαθμό αυτό ,η ανάλυση περιεχομένου μπορεί νά δεχθεί τήν ίδια κριτική όπως αυτήν τής στατιστικής επεξεργασίας τών στοιχείων.
ΠαράδειγμαΕρώτημα Κατά πόσο ή αντίληψη περί εξωτερικών απειλών μπορεί νά
οδηγησει σέ εκδήλωση μεγαλύτερου σεβασμού καί εμπιστοσύνης πρός
τά ατομα πού έχουν δύναμη καί κατέχουν θέσεις εξουσίας ;΄
Αναλύθηκαν τά comics στίς ΗΠΑ τίς δεκαετίες τού ΄20 καί τού ΄30, καί ή ανάλυση επικεντρωθηκε στά κύρια χαρακτηριστικά πού εμφάνιζαν οί ήρωές τους.Στήν κωδικοποίηση τών χαρακτηριστικών, οί δύο βασικές κατηγορίες είταν «σωματικά δυνατός ή σέ ισχυρή θέση» καί «όχι ιδιαίτερα ισχυρός».
Κατάληξηστή δεκαετία τού ΄30, περίοδο οικονομικής ύφεσης καί τεράστιας οικονομι-κής ανασφάλειας, οί βασικοί χαρακτήρες στα δημοφιλή κόμικς τής εποχής είχαν πιό ισχυρή καί εξουσιαστική προσωπικότητα από αυτήν τής ήρεμης δεκαετίας του ΄20.Η
Υπόθεση στήν οποία στηρίχθηκε ή έρευνα, επιβεβαιώθηκε από τά δεδομένα.

Στήν ανάλυση περιεχομένου, ή θεωρία υπάρχει από τά πρίν. 


Διαβάστε τη συνέχεια του άρθρου εδώ...

5 Ιουν 2013

Εισαγωγή στην Ανάλυση Δεδομένων Ποιοτικής Κοινωνικής Έρευνας (Πανεπιστημιακές Σημειώσεις)


Τ
ου Αναπληρωτή Καθηγητή στο τμήμα Γεωγραφίας στο Πανεπιστήμιο Αιγαίου, Θεόδωρου Ιωσηφίδη


ΠΕΡΙΕΧΟΜΕΝΑ
ΕΥΡΕΤΗΡΙΟ ΠΛΑΙΣΙΩΝ
ΠΡΟΛΟΓΟΣ
1. ΕΙΣΑΓΩΓΗ: ΟΙ ΠΟΙΟΤΙΚΕΣ ΜΕΘΟΔΟΙ ΕΡΕΥΝΑΣ ΣΤΙΣ ΚΟΙΝΩΝΙΚΕΣ ΕΠΙΣΤΗΜΕΣ ΚΑΙ Η ΑΝΑΛΥΣΗ ΤΩΝ ΔΕΔΟΜΕΝΩΝ
2. ΕΠΙΣΤΗΜΟΛΟΓΙΑ ΚΑΙ ΘΕΩΡΗΤΙΚΟ ΥΠΟΒΑΘΡΟ ΤΗΣ ΠΟΙΟΤΙΚΗΣ ΚΟΙΝΩΝΙΚΗΣ ΕΡΕΥΝΑΣ
2.1 ΤΟ ΘΕΤΙΚΙΣΤΙΚΟ ΠΑΡΑΔΕΙΓΜΑ
2.2 ΚΡΙΤΙΚΕΣ ΘΕΩΡΗΣΕΙΣ
2.3 ΕΡΜΗΝΕΥΤΙΚΗ ΚΑΙ ΦΑΙΝΟΜΕΝΟΛΟΓΙΑ
2.4 ΜΕΤΑΜΟΝΤΕΡΝΙΣΜΟΣ, ΣΧΕΤΙΚΙΣΜΟΣ ΚΑΙ ΚΟΝΣΤΡΟΥΚΤΙΒΙΣΜΟΣ
2.5 ΡΕΑΛΙΣΜΟΣ ΚΑΙ ΚΡΙΤΙΚΟΣ ΡΕΑΛΙΣΜΟΣ
3. ΜΕΘΟΔΟΙ ΣΥΛΛΟΓΗΣ ΠΟΙΟΤΙΚΩΝ ΔΕΔΟΜΕΝΩΝ
3.1 Η ΣΥΝΕΝΤΕΥΞΗ ΕΡΕΥΝΑΣ
3.2 ΠΑΡΑΤΗΡΗΣΗ ΚΑΙ ΣΥΜΜΕΤΟΧΙΚΗ ΠΑΡΑΤΗΡΗΣΗ
3.3 ΟΜΑΔΕΣ ΕΣΤΙΑΣΗΣ (FOCUS GROUPS)
3.4 ΕΡΕΥΝΑ ΔΡΑΣΗΣ
3.5 Η ΑΝΑΛΥΣΗ ΠΕΡΙΕΧΟΜΕΝΟΥ
3.6 ΑΛΛΕΣ ΜΕΘΟΔΟΛΟΓΙΕΣ ΣΤΗΝ ΠΟΙΟΤΙΚΗ ΚΟΙΝΩΝΙΚΗ ΕΡΕΥΝΑ

ΕΙΣΑΓΩΓΗ: ΟΙ ΠΟΙΟΤΙΚΕΣ ΜΕΘΟΔΟΙ ΕΡΕΥΝΑΣ ΣΤΙΣ ΚΟΙΝΩΝΙΚΕΣ ΕΠΙΣΤΗΜΕΣ ΚΑΙ Η ΑΝΑΛΥΣΗ ΤΩΝ ΔΕΔΟΜΕΝΩΝ

H ποιοτική κοινωνική έρευνα και οι ποιοτικές μεθοδολογίες γενικότερα αποτελούν σχηματικά, ένα από τα δύο μεγάλα μεθοδολογικά παραδείγματα και ερευνητικά εργαλεία στις κοινωνικές επιστήμες. Τα βασικά ζητήματα που σχετίζονται με την ποιοτική μεθοδολογία (όπως και με κάθε μεθοδολογία) είναι η ερευνητική και μεθοδολογική προσέγγιση, το ερευνητικό πρόβλημα, η θεωρητική αφετηρία του ερευνητή και τα συγκεκριμένα μεθοδολογικά εργαλεία άντλησης γνώσης από το ερευνητικό πεδίο.

Η ποιοτικές μέθοδοι εφαρμόζονται σε ερευνητικά εγχειρήματα και προσεγγίσεις που έχουν ως βασικό στόχο την διερεύνηση ποιοτήτων και πιο συγκεκριμένα κοινωνικών ποιοτήτων. Με άλλα λόγια έχουν στόχο την αποκάλυψη σχέσεων ή συσχετίσεων ανάμεσα σε κοινωνικά υποκείμενα και κοινωνικές ομάδες, την περιγραφή, ανάλυση και κατανόηση κοινωνικών διαδικασιών, την διατύπωση ή αναδιατύπωση υποθέσεων και θεωρητικών θέσεων για το κοινωνικό γίγνεσθαι και την διακρίβωση κοινωνικών σχέσεων, θέσεων και ρόλων. Η ποιοτική έρευνα στοχεύει στην περιγραφή, ανάλυση, ερμηνεία και κατανόηση κοινωνικών φαινομένων, καταστάσεων και ομάδων απαντώντας κυρίως στα ερωτήματα «πως» και «γιατί» (Ιωσηφίδης 2001)...

Για να κατεβάσετε τις σημειώσεις του Θεόδωρου Ιωσηφίδη...



πατήστε εδώ
Διαβάστε τη συνέχεια του άρθρου εδώ...

24 Απρ 2012

ΒΙΟΓΡΑΦΙΚΗ ΕΡΕΥΝΑ ΚΑΙ ΕΡΕΥΝΑ ΙΣΤΟΡΙΩΝ ΖΩΗΣ ΜΙΑ ΝΕΑ ΠΟΙΟΤΙΚΗ ΠΡΟΣΕΓΓΙΣΗ ΣΤΙΣ ΚΟΙΝΩΝΙΚΕΣ ΕΠΙΣΤΗΜΕΣ ΜΙΑ ΕΙΣΑΓΩΓΗ

Των Peter Alheit & Stefania Bergamini

Στην αρχική  του μορφή το  παρόν άρθρο έχει περιληφθεί, στο Skevos Papaioannou κ.α.(Eds): Education, Culture and Modernization, Anogia Workbook:, vol. 1 Roskilde University, 1995


"Τη ζωή μπορούμε να την κατανοήσουμε μόνο προς τα πίσω. Στο μεταξύ πρέπει να τη ζούμε προς τα εμπρός". Αυτό το απόσπασμα από τα Φιλοσοφικά Κείμενα του Soren KIERKEGAARD (1 έχει γραφτεί εδώ και 150 χρόνια περίπου, αλλά ακόμα και σήμερα διατηρεί τη θεματική και φιλοσοφική του συνάφεια. Την περίοδο ακριβώς που οι κοινωνικές και ανθρωπιστικές επιστήμες συμπεριλαμβανομένης και της επιμόρφωσης ενηλίκων) επιζητούν να κατανοήσουν τι είναι "βίος" - τροχιά ζωής (life course), καταγραφή του βίου (life record, βιογραφία (biography) (δες Alheit & Dausien 1992) - το ποικιλόνυμο αυτό φαινόμενο είναι δύσκολο να κατανοηθεί. Πριν καλά καλά αποκτήσουμε μια σαφή αντίληψη για το τι θα μπορούσε να σημαίνει ο όρος σύγχρονη ζωή (modern life), τα δεδομένα έχουν αλλάξει κι έτσι τα προηγούμενα συμπεράσματα μας πρέπει να εξεταστούν εκ νέου (Evans 1993 σελ 5κ.ε ). Οι σύγχρονες "τροχιές ζωής" φαίνεται ότι έχουν γίνει πιο περίπλοκες: η εναλλαγή των φάσεων της ζωής κατά ένα προβλέψιμο τρόπο, τα γνωστά ως παραδοσιακά σχέδια ζωής (traditional life plans), έχουν αναδιαταχθεί και τίθενται υπό αμφισβήτηση. Σε κάθε περίπτωση υπάρχουν συγκεκριμένες πολύ ενδιαφέρουσες ενδείξεις από εκπαιδευτική πλευρά, τις οποίες δεν είναι δυνατό πλέον να τις παραβλέπουμε.

Για να διαβάσετε τη συνέχεια του άρθρου, πατήστε εδώ


Διαβάστε τη συνέχεια του άρθρου εδώ...

28 Σεπ 2011

Μεθοδολογία ποιοτικής έρευνας στις κοινωνικές επιστήμες

Της Δρ. Ευφροσύνης-Άλκηστης Παρασκευοπούλου-Κόλλια (Κοινωνιολόγου της Εκπαίδευσης)

στο Open Education - The Journal for Open and Distance Education and Educational Technology
Volume 4, Number 1, 2008 / Section one. © Open Education ISSN: 1791-9312

Περίληψη
Στο άρθρο αυτό αναλύονται οι κύριοι λόγοι για τους οποίους ένας ερευνητής επιλέγει την ποιοτική εθοδολογία και ειδικότερα τις συνεντεύξεις. Περιγράφονται τα είδη των συνεντεύξεων και οι διαφορές στον ορισμό -ονο ματολογία τους ανάλογα τον ειδικό επιστήμ ονα που αναφέρεται σε αυτές. Γίνεται, επίσης, η παράθεση των στοιχείων εκείνων που πρέπει να έχει ένας ερευνητής προκειμ ένου να διεξάγει έρευνα χρησιμ οποιώντας δεδομ ένα και υλικό που προκύπτει από συνεντεύξεις.

Για να διαβάσετε ολόκληρο το άρθρο πατήστε εδώ Διαβάστε τη συνέχεια του άρθρου εδώ...

14 Δεκ 2010

Statistical software for audience research - Προγράμματα στατιστικής επεξεργασίας ερευνών κοινού

Ανακτήθηκε από audiencedialogue




------------------------------------------------------------------------------
Ένα δωρεάν πρόγραμμα διαχείρισης ποιοτικών δεδομένων
μπορείτε να κατεβάσετε από
εδώ
------------------------------------------------------------------------------

A guide to some of the widely available statistical and survey software packages, with comments on their suitability for various types of research.

If you're a statistician this page may seem insultingly over-simplified - but it's not aimed at you. For a thorough overview of research software, try this Glasgow University stats site instead.

With audience research (as with social and market research) there are three types of things that software needs to do:
(1) Get data into a computer (input)
(2) Process data (analysis)
(3) Get data out of the computer, in a form which human brains can understand (output).

The data comes in two quite different varieties:
(a) The numbers and coded data produced by questionnaires (covered on this page)
(b) The words produced by qualitative research (covered on a separate page).

This page covers...
1. Software for coded data entry
2. Statistical software
3. Survey tabulation programs
4. Software for web survey
5. Using spreadsheets and database programs for surveys
...

1. Software for coded data entry

This sounds incredibly technical, but what it actually means is typing in all the answers given in a survey. If you've only used spreadsheet or database software before, you may not have encountered coded data entry. Because most survey questions are multiple-choice, and a respondent is asked to choose from a limited range of answers, the tradition in surveys has been to give each possible answer a code - usually a single-digit number. 1 means the first possible answer to the question, 2 is the second listed, and so on.

For example, the survey might include the question:

Q26. How much do you like reading this page?
To answer, tick the appropriate box
[]1 Not at all
[]2 A little
[]3 A lot
[]4 Won't know till I've finished it
Notice the number beside each box? Instead of keying in "not at all", the data entry operator keys in 1. A "codebook" is set up in a computer file, which tells the survey software that "1" in Q26 means "not at all" - and so on.

The survey software turns the codes back into full wording when the results are displayed. This method of coding produces small data files, fast processing, and very fast data entry. But it's also possible to make serious mistakes. If the first possible answer for every question is 1, you can easily miss a question or enter the same answer twice. Such errors are prevented by good coding design, and good data entry software. If the operator tries to answer "5" to that question, the software should beep, display an error message, and refuse to continue.

Most of the statistical programs allow spreadsheet-style data entry. After a survey has been done, with printed questionnaires, you can sit down and enter all the results into this spreadsheet. It works, but it's not very efficient. And it's very easy to make a mistake.

Of the statistical packages listed below, SPSS has a data entry module, but that costs a lot extra. Epi Info shines here: it has a built-in data entry system which enables extensive checking - though not as thorough as a purpose-built data entry program.

The easiest data entry program I've ever seen is Epidata. A friend of mine did a small survey - his first survey ever - and he's no computer expert. Not knowing how to process survey data on a computer, he asked me for help. At this stage I'd discovered Epidata, but hadn't yet tried it. My friend agreed to be a guinea pig for Epidata. So one afternoon I visited him. We downloaded Epidata (which is freeware) from the Web, unzipped the file, created a data entry template, and set up a file to enter the data into. In less than an hour he was entering data from his questionnaires. That's how easy it was.

I left him to it. A few days later I called him, and asked how he was going with Epidata. No problems, he said - in fact he had changed the template to include another question, which he hadn't originally planned to enter into the file. Any beginners who tried that with most other statistical software would either create horrible errors, or not be able to convert the file.

Computer based interviewing systems

Many statistical packages seem to assume that data from a survey has already been entered into a computer system, somehow. (They don't care how - they don't see it as their concern.) This was a safe assumption back in the days when printed questionnaires were filled in by interviewers, and the codes were punched onto cards. These days, things are different - and not all the software has caught up. A lot of this software has been around for decades. I first used SPSS in the late 1970s, and apart from the Windows interface, most aspects of it have hardly changed.

These days, many interviews are done by phone. The interviewer sits in front of a computer, reading questions off the screen and typing the answers in directly, without ever seeing a printed questionnaire. And with more and more people able to use computers, the respondents themselves can sit at a computer and answer the questions. Typically, each question occupies a full screen. When the answer is given, the screen is cleared and the next question appears. Elaborate branching is thus possible. Instead of everybody being asked the same questions, you can design a tree-like questionnaire, of which most respondents might see only a small part. Some programs which enable this are:

Sawtooth Ci3 and Sensus Q&A

Produced by Sawtooth Software, one of the pioneers of CATI (computer-assisted telephone interviewing), as it used to be called. A powerful program, designed for regular users. Its easy for them to set up a survey quickly, not so easy for beginners.

Scytab

Surveycraft (recently acquired by SPSS) has produced an incredibly powerful program. You want to enter dates in the Japanese Imperial Calendar? No problem. But data entry can be surprisingly complex, as I discovered when I designed a customized CATI program. Scytab seems to do everything possible - but the disadvantage is the learning time involved. Not for casual users.

2. Statistical software

SPSS

SPSS is the most widely used software in social research. It's been around since the 1970s, seems to be used in every university, and includes the most common procedures of social statistics. Its manuals are comprehensive, clear, and well-indexed - I suspect they were a large part of the reason for the success of SPSS. It has always been reasonably easy to use (compared with other statistical programs) but until recently has been fairly slow, and its output has looked messy - not suitable for including in reports directed to non-statisticians. In the late 1990s (at last!), the usability of SPSS took a leap forward. Even so (and it's now up to version 15) the interface could still stand a lot of improvement. In many ways the "easy" GUI version is harder to use than the ancient version for which commands had to be written. All the regular users I know prefer to write syntax files than endless pointing and clicking with the mouse.

One problem with SPSS is the price - around 1000 US dollars for the basic system. You can do a lot with the basic system, but if you want to use advanced statistical techniques, you have to buy more modules. If you buy them all, it costs around 10,000 dollars. At the other extreme, there's an annoyingly limited student version, available (only to full-time students) for about 50 dollars.

On top of the initial price, you have to pay an annual fee to use it. If you forget to renew the license, SPSS stops working. (Of course, this always happens at the most inconvenient possible time.) To add to the bad news, the manuals are no longer supplied with the software - nor are they as clear as they used to be. Our view: SPSS has become stale, resting on its laurels - and probably can't change much without upsetting its millions of users. So it's ready to be swept away by some new software that's much more convenient and user-friendly: the only question is when this will happen. When it does happen, it will be quick, because of the annual licensing system. If your SPSS stops working till you type in a new 80-character(!) serial number, it's a great incentive to look around for an alternative.

Epi Info 6
Epi Info 6 is designed for epidemiologists, so it includes a slightly different set of statistical procedures from most of the other programs: mapping tools for measuring the spread of epidemics, and so on. I've found Epi Info very useful for audience research: some key epidemiological concepts are media research concepts under another name - and audiences spread in much the same way as contagious diseases do. The two big advantages of Epi Info are that it's free - it was funded by the World Health Organization, and it's available in 13 languages. Courses on it are taught at schools of public health in many countries. Its main disadvantage is that it's not good at labelling data. The key programs fit on a single floppy disk, so it's ideal for anybody using an old, slow PC. Unlike SPSS - which only deals with the actual statistical analysis, unless you buy extra modules, Epi Info 6 is a complete statistical system. It includes a word processing program for producing questionnaires and writing reports, and has a powerful data entry program which can detect many errors as soon as they%27re typed in. If you're doing mail surveys, it can automatically generate reminder letters, to people who haven't returned their questionnaires yet. Sounds great, doesn't it?" There's only one catch - Epi Info 6 is a DOS program. Remember MS-DOS? Maybe you don't...it seems like a long, long time ago. But if you hunt for "Command prompt" in WIndows, it's still there.

But if you don't want to learn DOS, there's a WIndows alternative...

Epi Info 2002

Epi Info 2002 (or whatever year it's up to now) is more difficult to use than the DOS version, but more powerful. It's a 37 megabyte download, so its former slimness has gone. It uses the Microsoft Access file format, though you don't need to have MS Access to run Epi Info 2002. Don't even think of running this on an old PC.

We tried Epi Info 2000 (very similar to the 2002 version) for one project, and found it cumbersome and awkward to use, specially for data entry. Other people think so too, because there's a third-party piece of software that does data entry in the old Epi Info style, but runs on Windows. This is Epidata (described above). Epi Info 2002 doesn't seem to include the mail-merge features for generating reminder letters, etc, which were a useful part of Epi Info 6. You could probably achieve the same result by writing a Visual Basic for Applications macro, but that would be a lot more difficult.

Update, February 2006: The analysis module of Epidata is working now, though it still has a few minor bugs. (We've tried it, and haven't found anything that affects results - just a few annoying usability problems). So former Epi Info users will no longer need to use DOS any more to analyse their files. The program offers only basic statistical analysis (frequencies, tables, regression), so you'll need other software for anything more elaborate, but for simple surveys not analysed by professionals, Epidata should be fine.

Statistica

This program, similar to SPSS in scope and cost, seems easier to use than SPSS. (I haven't used the real thing, only a demo version.) Its particular strength is its graphing capability. There's a slightly cheaper cut-down version called Quick Statistica, which might handle most people's needs.

SAS

SAS is at heart a database system, which also does statistics. The complete set of manuals is a horrifying sight: it sprawls for a whole metre across a bookcase. The particular strength of SAS is handling large samples: a million cases can be processed in a few seconds, as long as the computer has enough memory. SAS is more of a mainframe program, though there is a PC version. It's not difficult to use for basic statistics, but to me it feels like using the end of an elephant's tail as a paintbrush. Recent versions include a useful "wizard" interface, which helps inexpert users work out which statistical procedures they should use.

Statview

Once this was a Macintosh-only program, but now there's a Windows version as well. The user interface is rather different from other statistical software I've seen: confusing at first, but when you get used to it, its advantages become more obvious. Statview is very fast, and as its name implies it can produce a wide variety of graphs.

Datadesk and JMP

The strength of these two programs is in exploratory statistics, displayed in graphic form. Both of these help you to understand your data better - something the heavy-duty programs such as SPSS often fail to do.

The trouble with all the programs in the above section (except Epi Info and Epidata) is the price. You won't get much change from $1000 for most of these. In my view, a fair price for software is about the same as a large textbook - around $50 to $100: about what most shareware programs charge. Writing a big book and writing software involve about the same amount of work, but CDs and downloads are far cheaper to produce than printed books.

Other general-purpose statistical programs

The peculiarity of surveys, compared with other kinds of statistical data, is that most survey data is measured at a fairly primitive level: mostly nominal, occasionally ordinal, but seldom ratio data. (If you didn't understand that, maybe you need to learn more about statistics. Consult our Learning statistics page.)

However, most statistical programs are designed around ratio or interval data. Even SPSS, designed specifically for the social sciences, expects its input to be in numeric form. There's nothing numeric about a survey question like "Which TV programs did you watch yesterday?" However, to do statistical analysis, each program has to be allocated an arbitrary number. Statistical programs, which pride themselves on their numerical accuracy, will report the mean TV program to an accuracy of at least 8 decimal points.

If you're dealing with data where the difference between 1.000012 and 1.000013 is meaningful, and big numbers give your brain a nice tingling feeling, I recommend these heavy-duty number-crunchers - the software that real statisticians use:

Stata - it's "intercooled" - i.e. like a truck, complete with a plain DOS-style interface. (Truck drivers are supposedly interested in power, not looks!) The 2004 version (Stata/SE 8) can produce publication quality graphics
S-Plus includes a powerful statistical programming language, and has excellent graphics capabilities, but the way it handles files is a bit tricky. Like Stata, S-Plus was designed for professional statisticians, who use it every day. They don't need their hands held - they just want the job done without fuss.
R like S-Plus,is based on the statistical programming language S, but is freeware. Windows and Macintosh versions are available. An good Introduction to R is a book of that title, by WN Venables, D M Smith, and the "R Development core team" (echoes of Sesame Street!). Development teams often don't realize that others have problems with their concepts, but this book avoids such traps. However, this is not a book for novices at either statistics or programming.
Other software - more specialized

John Pezzullo's Statpages website has a lot of interesting material, including a detailed page on free and "free, but" statistical software. Very comprehensive, and regularly updated. Interesting specialized software described there includes:

Instat Plus - interactive statistics package
WinIDAMS - free statistical package produced for UNESCO
SISA - Simple Interactive Statistical Analysis. You don't need statistical software at all, for this: just feed in your data and SISA calculates results online. Of course, feeding in data is the most tedious part of statistical computing - but when there's not much to be fed in, SISA is great.
The Bayesware Discoverer: handles incomplete data.
Amelia: imputation software that substitutes plausible values for missing data.
Clarify: software for interpreting and presenting statistical results
TURNER: Mac software for exploratory data analysis. Also, there's Turner's colleague...
MANET - "Missings are now equally treated" - another interactive tool that takes account of missing data. (Do you begin to get the impression that a recurring issue for Audience Dialogue is how to handle missing data? Our stance: however you handle missing data, you're making some assumption, even if you don't realize it. For accurate analysis, you must be aware of the assumptions you're making.)
Also at www.statpages.net is a page on websites that do statistical calculations. So if you're using Excel, you need to do some statistical tests, and you don't want to do them the long-winded Excel way, find an appropriate calculator here, and paste your data into it.

You'd like more still? Try the ASC Software Register, which has details of more than 200 software packages for statistical and social survey analysis, but not including most of the programs described on this page. See also the Wikipedia page on statistics.

3. Survey tabulation programs

A slightly different class of program is those intended only for processing survey data. They tend to be more limited than statistical software, but this also makes them easier to use. They're designed for market research companies, and their strength lies in producing tables of numbers rather than exploring hypotheses. Many of these programs are described in the Market Research Software Archive, which also offers downloadable demos for most of them.

Like the statistical packages described above, most of these tabulation programs are designed to be used constantly. If you use them only occasionally, you forget the details, and you run up against the same problems every time you begin a new study. Two that I've used and found OK are Statpac, and The Survey System. Serving the same purpose, in a different way, is Quantrix.

Statpac

Statpac is user-friendly statistical software, designed mainly for use with surveys. Only a Windows version is available. Its ability to automatically code open-ended questions looks very promising.

The Survey System

This is more of a market research system than a statistics system - though the differences are becoming less marked. Its strength is in producing extra-wide "banner tables" that market researchers love - but most other people have trouble interpreting accurately.

Quantrix

Around 1990, Lotus released Improv: a program that was not quite a spreadsheet, not quite a database, but between the two. Think of something like a spreadsheet with any number of dimensions instead of just two, with easy access to reordering the data. It was great for statistical tables, but Lotus dropped Improv after a few years. The good news is that it's been improved and re-released (for Windows only) under the name of Quantrix.

Like the statistical packages, the tabulation programs aren't cheap: mostly around 1000 US dollars. I've tried various shareware tabulation programs, but haven't yet found one without serious bugs and limitations. If you know of a good one, please tell me about it, and I'll include it here.

4. Software for web surveys

When I first wrote this page in 1997, I could find only one piece of software for use with web surveys. A few years later, several appeared, such as Powertab for Macintosh and Perseus Survey Solutions for Windows. By 2007, Powertab has vanished, and Perseus has been repurposed on a much larger scale. What happened there? I think the big statistics companies like SPSS decided they'd get into this market - and they already had the customers - large market research companies, government agencies, and the like. But if you just want to do occasional small surveys, such software is overkill.

Web-based software can be very different. Sometimes you don't have to buy it, or install it on your own computer. You can have a questionnaire on your own web site, and get the answers sent to another site for analysis. Two companies which do this particularly well (both American) are Customersat) and Surveypro.

If you're doing small surveys, there are free services around, usually easy to use. Good examples are Zoomerang, Free Online Surveys, and Sysurvey. These suppliers are constantly coming and going. Zoomerang is the best known, Free Online Surveys is the easiest to use (according to students on a course I ran), and Sysurvey is about the most powerful. You can check out the current suppliers by going to the Google search engine and typing in "free web online surveys". About 60 come up - but beware! A lot aren't free at all, some are free only for small surveys (often up to 50 cases), and sometimes you don't discover till you finish your survey that you have to pay to see the results! If you're thinking of using one of these, check its privacy statement very carefully - some have no qualms about passing respondents' email addresses on to advertisers. However, even when these services aren't free, they are cheap, and easier to use than most statistical software.

A different approach is taken by Webstat: free software that you download to run in your browser. Similar to this is OpenEpi - open source software for epidemiological statistics in Javascript and HTML. It can be run from a web site, or downloaded and run without a web connection.

A program with no direct competition is Inspiredata, from www.inspiration.com, which has long produced excellent graphical software. Inspiredata is designed for use in schools, but it looks as if it would work nicely for small surveys that don't need complex analysis, both online and offline. It comes in both PC and Mac versions, making it one of the few low-cost options for survey analysis on the Macintosh.

5. Using spreadsheets and database software for surveys

Spreadsheets

All the main spreadsheet programs - Excel and its competitors - have statistical routines built in. But they are cumbersome to use. It's all too easy to make a serious mistake - and never know it. Missing data can be a problem with spreadsheets, too: if you leave a cell blank when a respondent couldn't answer a question, the cell is usually ignored. If you use survey or statistical software, you can make the often-important distinction between "don't know", "not applicable", and "not answered".

Excel has pivot tables and a Frequency command, but both are cumbersome to use, compared with software like Epi Info or SPSS. I don't recommend using Excel for survey analysis - but it's better than counting questionnaires by hand! If Excel is all you have, consult our Beginner's guide for survey analysis with Excel. See also these helpful notes by Eva Goldwater .

Another problem with spreadsheets is that they're weak on data entry. Most statistical software will let you enter answers to survey questions in time-saving coded form (e.g. "M" for male) and check the validity of answers as you type them in. Though most spreadsheet software allows that, it's not easy to set up - and just because you select a value with a mouse doesn't always mean it's the correct value. (It's very easy to let go of the mouse button in the wrong place, and not notice.)

But the biggest problem with spreadsheets is that it's horrifyingly easy to make mistakes - specially when you're modifying an existing spreadsheet for a new purpose. Two tricks we've found helpful are

showing entered and calculated data in different colours,
calculating everything in two different ways, comparing the results, and showing the difference between the two results in another cell. When that difference is not zero, you know there's a problem.
Errors are specially likely when you add rows or columns to an existing spreadsheet. If you remove columns, and a formula is based on them, you'll get an error message - but if you add rows or columns, the software assumes you know what you're doing. The meaning you intend may not be the meaning the software assumes. Beware!
The University of Leeds has an excellent summary of spreadsheets, and what they are good at.

Using database programs for statistical analysis

Databases are better than spreadsheets for data entry, but weaker for analysis. Some programs I've tried are Filemaker Pro, Lotus Approach, Microsoft Access, and several variants of Dbase, such as Foxpro. These programs let you set up validity checking for data entry, but can't manage coded data efficiently. Quantrix (described above) fits this category too.

When all the questionnaires have been entered on the database, you then face the problem of summarizing the results. Database software is mostly designed for business record-keeping, so these programs have extremely limited ability to find patterns in data - the main purpose of statistics.

Recommendation: by all means use a database for entering data, but export the data to another program for analysis - even a spreadsheet is better. This is most annoying, because there's no reason why you shouldn't be able to do statistics with a database. Epi Info 2000 (see above), which uses the Microsoft Access format, proves that it's possible.

6. How to choose research software

If you want to produce detailed tables, in which the unit is cases or interviews, go for a survey tabulation program.
To produce detailed tables based on aggregates rather than cases (e.g. monthly sales in each province), without doing statistical calculations, I recommend database software that's fairly simple to use, such as Filemaker.
If you have a set of inherently numerical data and want to analyse causes and effects, use a statistical package.
If you have repetitive tasks (e.g. doing the same survey regularly) go for software that allows scripting (e.g. SPSS, Epi Info, or SAS).
If you are trying to make sense of a mountain of words, you need a qualitative data analysis program.
If you have survey data with open-ended answers of more than 80 characters, avoid SPSS, which can truncate long answers if you resize columns - deleting the end of long comments. (A spreadsheet is much better for this.)
Which program is best?

There's no single answer to this question. It depends on:

What level of analysis you need to use
How much money you have available
Which operating system you are using
How much time you're willing to spend learning the program
What skills and statistical knowledge you already have
What software your friends are using (maybe you can ask them for help)
Whichever option applies, you should have - or be prepared to acquire - a reasonable command of descriptive statistics.For a start, you need to understand averages, medians, percentages, frequency distributions, and so on. If you know nothing about statistics to begin with, and decide to do a course, it would need to include the equivalent of a solid week of class time. Even if you plan a qualitative approach, you should at least be able to defend your choice when somebody asks "Why didn't you do a survey?"

As well as knowing something about statistics, you also need to know how to use the software. If you're not willing to do that, find somebody else who will do your survey analysis for you - perhaps in a social science department in a nearby university.

If you're already an expert with a spreadsheet and/or database program, and not planning to do more than one survey, use the program you know. You may have to stretch its facilities, but the latest spreadsheets and databases have some capability for statistical analysis.

If money's not a problem, and you have a computer running Windows, with at least 256 megabytes of memory, I recommend SPSS. It's far from cheap, but it's widely used - so there's a good chance you can take a local course on it, or get help from a local expert. Also, it has several well written books, such as Statistics with Confidence by Mark Rodeghier, and (more detailed) the SPSS Guide to Statistics, by Marija J Norusis. (The latter book can be used as an excellent introduction to statistics, replacing a basic statistics textbook.)

The latest version of SPSS (version 15) is a slight improvement on earlier versions. Though it still has many annoying features, so do its competitors. Its weakness is perhaps in data management - something that SAS and Epi Info do better. The graphical presentation is also a bit lame by 21st- century standards: Statistica and S-Plus are much more versatile with graphs.

If you want to use your file as a database, rather than simply doing statistics with it, SAS could be a better option than SPSS. The SAS manuals, though, are daunting: not just one thick book, but an entire shelf of them. If you're using it every day, SAS would be great. If you're using it only now and again, you'll forget how it works. For one-off surveys, SAS is even less convenient than SPSS.

SPSS is available for the Mac, but a cheaper option is Powertab, which seems very easy to use, judging from the demo version I tried (but is maybe no longer available). (I'm being cautious here - you never discover the problems with a piece of software unless you use it for a real project.) Another Mac program is Datadesk, which is reported to be excellent, though it's very expensive.

If money's a problem for you, and you have access to a computer running Windows, currently the best option is Epidata. Its weak point is the labelling of variables, so the tables and graphs it produces always need to be embedded in an explanation of the exact variables and values being analysed. However, adding labels is not particularly difficult.

If you use neither a Mac nor a PC, SPSS is available on a huge range of computers, though some versions are more advanced than others. SAS is also available for a very wide range of operating systems, including Linux, as is (or will be) PSPP.

Please bear in mind that the above comments are based on my own experience. As it's a few years since I've used some of the programs, some of the problems I've mentioned may no longer exist. Please let me (Dennis List) know if you've found a mistake, and I'll correct it.

For all I know, there's a marvellous piece of survey analysis software that I've never heard of. (After all, I discovered Epi Info only in 1997 - after working with surveys since the 1970s.) If you know of such a software gem, please tell me about it, instantly!. I'm thinking of something easier for beginners than recent versions of SPSS, and as lean as Epidata, but with...

1. Data entry facilities optimized for accuracy and speed (in other words, not a spreadsheet format - which is great for checking data, but terrible for entering it).
2. No problems processing long text data - e.g open-ended answers of 500 characters or more.
3. Powerful data-sifting abilities (e.g. automatically flagging doubtful data).
4. Allowing macros or scripting, to automate repetitive work.
5. Online help that can solve your immediate problems without your having to scroll through endless screens of irrelevant stuff (i.e. as good as the DOS version of Epi Info).
6. A clearly written manual - which exactly matches the software.
7. Quickly producing presentation-quality tables and graphs, in standard formats that can be pasted into reports.
8. Population projection options that take account of the various types of missing data.
9. A "wizard" to help less expert users choose the most appropriate statistical tests for their needs - and explain why.
10. Ability to handle multiple record types - e.g. both household questionnaires and individual questionnaires, for one study.
11. Using auto-saving to make it all but impossible to lose your data or work.
12. Using a standard data format that can be read by other software without using special filters - e.g. tab-delimited. (Not XML - too clumsy!)
13. No errors in the calculations - an obvious criterion, but many statistical programs sometimes produce incorrect results, as noted by an article by B D McCullough in the International Journal of Forecasting in 2000). 14. Finally: a reasonable price - no more than about 100 US dollars.

I haven't yet found any software that meets all those criteria. In fact, most of the software I've tried meets only 3 or 4 of them. Epidata meets nearly all the above criteria, but has no real manual for analysis - yet. The old Epi Info DOS manual often applies, but not always.
Διαβάστε τη συνέχεια του άρθρου εδώ...

2 Νοε 2010

Τεχνικές συλλογής δεδομένων στην ποιοτική έρευνα

Το κείμενο αυτό είναι ένα απόσπασμα από το Κεφάλαιο 16: Ποιοτικές – ερμηνευτικές μέθοδοι έρευνας στη φυσική αγωγή (σελ.341-364) του βιβλίου «Για μία καλύτερη φυσική αγωγή»
(Παπαιωάννου, Α., Θεοδωράκης Ι., & Γούδας, Μ.). Θεσσαλονίκη Εκδόσεις Χριστοδουλίδη (www.xristodoulidi.gr). ISBN960-81-83-36-7




Διαβάστε τη συνέχεια του άρθρου εδώ...

16 Οκτ 2010

Μεθοδολογία ποιοτικής έρευνας στις κοινωνικές επιστήμες και συνεντεύξεις

Της Δρ. Ευφροσύνης-Άλκηστης Παρασκευοπούλου-Κόλλια,
Κοινωνιολόγου της Εκπαίδευσης

Στο Open Education - The Journal for Open and Distance Education and Educational Technology
Volume 4, Number 1, 2008 / Section one. © Open Education ISSN: 1791-9312




Διαβάστε τη συνέχεια του άρθρου εδώ...