Έκδοση: 02 / 05 / 2024
Προετοιμασία περιβάλλοντος R
Οι παρακάτω εντολές, ελέγχουν αν έχουν εγκατασταθεί τα απαιτούμενα
πακέτα για την εκτέλεση του συνόλου του κώδικα της ενότητας.
list.of.packages <- c("dplyr", "ggplot2", "moments", "nortest", "BSDA", "gplots", "car", "ggpubr", "RColorBrewer", "plyr", "expss", "htmlTable", "forcats", "tidyverse")
new.packages <- list.of.packages[!(list.of.packages %in% installed.packages()[,"Package"])]
if(length(new.packages)) install.packages(new.packages)
Όλες οι συναρτήσεις που χρησιμοποιούνται στην ενότητα αυτή βρίσκονται στο αρχείο της γλώσσας R: MyRFunctions.R.
Για να γίνουν διαθέσιμες για χρήση αρκεί να φορτωθούν στο περιβάλλον της R, εκτελώντας την εντολή
source("https://utopia.duth.gr/epdiaman/files/kedivim/MyRFunctions.R")
(Στην περίπτωση όπου γίνει λήψη τοπικά το αρχείο MyRFunctions.R, πρέπει να αλλαξει ανάλογα και η διεύθυνση του αρχείου)
Η δοκιμασία χ2 ως έλεγχος ομοιογένειας είναι ο τρόπος για
να ελέγξουμε πως ένα δείγμα ποιοτικής μεταβλητής προέρχεται από πληθυσμό
που περιέχει τις τιμές του δείγματος σε μία προκαθορισμένη αναλογία.
Απαραίτητη προϋπόθεση είναι οι αναμενόμενες συχνότητες να μην είναι
ιδιαίτερα μικρές.
Ένας ερευνητής βιολόγος ισχυρίζεται πως στον πληθυσμό ενός είδους εντόμου, τα μισά έχουν κίτρινο χρώμα, ενώ τα άλλα μισά από πράσινο και κόκκινο με την ίδια πιθανότητα. Ο παραπάνω ισχυρισμός ισοδυναμεί με την υπόθεση πως τα ποσοστά των τριών χρωμάτων στον πληθυσμό είναι
Η0 (υπόθεση του ερευνητή σχετικά με την κατανομή των χρωμάτων):Ο ερευνητής συνέλεξε ένα τυχαίο δείγμα από 20 τέτοια έντομα και κατέγραψε τα στοιχεία στο διάνυσμα bug.colors. Η γλώσσα R επιτρέπει να καταχωρήσουμε τα χρώματα ως αριθμούς (Κίτρινο = 1, Πράσινο = 2, Κόκκινο = 3) και μετά να ορίσουμε τις αντίστοιχες ετικέτες για κάθε έναν αριθμό. Οι εντολές που πρέπει να εκτελεστούν είναι οι εξής:
bug.colors = c(1, 2, 1, 3, 3, 2, 2, 1, 1, 1, 2, 3, 3, 2, 1, 1 ,1 ,2, 3, 2)
bug.colors = factor(bug.colors, levels = c(1,2,3), labels = c("Κίτρινο", "Πράσινο", "Κόκκινο"))
Εκτελούμε τη δοκιμασία ομοιογένειας με τη συνάρτηση my_homogeneity_chi_square η οποία αποδίδει τους απαραίτητους πίνακες και στατιστικά για την αναφορά της δοκιμασίας.
expected.percent = c(0.5, 0.25, 0.25) # θεωρητικές πιθανότητες
my_homogeneity_chi_square(bug.colors, expected.percent)
Frequency distribution | |||||
vector | Count | Valid percent | Percent | Responses, % | Cumulative responses, % |
---|---|---|---|---|---|
Κίτρινο | 8 | 40 | 40 | 40 | 40 |
Πράσινο | 7 | 35 | 35 | 35 | 75 |
Κόκκινο | 5 | 25 | 25 | 25 | 100 |
#Total | 20 | 100 | 100 | 100 | |
<NA> | 0 | 0 |
H0: Κίτρινο: 0.5, Πράσινο: 0.25, Κόκκινο: 0.25 |
Observed and expected frequencies under H0 | |||
Κίτρινο | Πράσινο | Κόκκινο | |
---|---|---|---|
Observed | 8 | 7 | 5 |
Expected | 10 | 5 | 5 |
Difference | 2 | -2 | 0 |
Result |
x2(2) = 1.2, p = 0.549. H0 is not rejected. |
Παρατηρούμε ότι η κατανομή των χρωμάτων (και τα αντίστοιχα ποσοστά)
στο δείγμα των 20 εντόμων είναι:
Αν η υπόθεση Η0 του ερευνητή είναι σωστή τότε (ιδανικά) θα
περιμέναμε οι συχνότητες να ήταν
Άρα, το ερώτημα που ανακύπτει είναι:
Περισσότερο μεθοδικά, αν pκίτρινων, pπράσινων,
pκόκκινων τα ποσοστό στον πληθυσμό των κίτρινων, πράσινων και
κόκκινων εντόμων τότε επιθυμούμε να βρούμε αν από τα δεδομένα του
δείγματος απορρίπτεται ή όχι η στατιστική υπόθεση:
Η κατάλληλη στατιστική δοκιμασία για αυτό το σκοπό είναι η δοκιμασία ομοιογένειας χ2.
Παρατηρούμε πως η τιμή του στατιστικού χ2 που αντιστοιχεί στην παρατηρούμενη διαφοροποίηση είναι ίση με 1,2. Καθώς το στατιστικό αυτό ακολουθεί την κατανομή χ2 με 2 βαθμούς ελευθερίας (συμβολικά χ2 ~ χ2(2)) αναζητούμε την πιθανότητα μία τέτοια τιμή ή μεγαλύτερη τιμή να οφείλεται στο τυχαίο σφάλμα της δειγματοληψίας.
Η πιθανότητα αυτή είναι ίση με:
άρα συμπεραίνουμε πως δεν έχει συμβεί κάτι ιδιαίτερα ξένο προς την
υπόθεση πως το δείγμα προέρχεται από πληθυσμό με ποσοστά 50%, 25% και
25% για τα χρώματα Κίτρινο, Πράσινο και Κόκκινο αντίστοιχα και κατά
συνέπεια δεν έχουμε ένδειξη πως πρέπει να την απορρίψουμε έναντι της
εναλλακτικής υπόθεσης.
Στοιχεία που πρέπει να αναφερθούν
• το συνολικό πλήθος των παρατηρήσεων,
• η τιμή του στατιστικού χ2
• οι βαθμοί ελευθερίας
• η στατιστική σημαντικότητα p της διαφοροποίησης από τη στατιστική
υπόθεση Η0
Α. Μη σημαντική διαφοροποίηση.
Η εφαρμογή της δοκιμασίας χ2 κατέδειξε πως το ποσοστό των χρωμάτων στον πληθυσμό των εντόμων δεν διαφέρει σημαντικά από την υπόθεση πως το Κίτρινο, Πράσινο και Κόκκινο χρώμα εμφανίζονται με τα ποσοστά 50%, 25%, 25% αντίστοιχα (χ2(2, N = 20) = 1,2, p = 0,549) (ή απλούστερα χ2(2) = 1,2, p = 0,549).
Β. Σημαντική διαφοροποίηση.
Η δοκιμασία χ2 κατέδειξε πως το ποσοστό των μαθητών που
κάνουν δίαιτα διαφέρει σημαντικά ανάμεσα στα δύο φύλα (χ2(1,
N = 24) = 8,4, p = 0,003) (ή απλούστερα χ2(1) = 8,4, p =
0,003).
Το ChatGPT έχει τη δυνατότητα να δημιουργεί μία αναφορά που μπορεί να αποτελέσει τη βάση της τελικής αναφοράς. Μία ενδεικτική ερώτηση που μπορεί να οδηγήσει σε αναφορά είναι η εξής:
Ερώτηση
I will give you the results of a chi square homogeneity test. Please
provide a short statistical report for the results section of a research
article. Use APA v7 style. The results are: “H0: Κίτρινο: 0.5, Πράσινο:
0.25, Κόκκινο: 0.25 Observed and expected frequencies under H0 Κίτρινο
Πράσινο Κόκκινο Observed 8 7 5 Expected 10 5 5 Difference 2 -2 0 Result
x2(2) = 1.2, p = 0.549. H0 is not rejected.”
Η παραπάνω ερώτηση δίνει απάντηση όπως η παρακάτω:
Απάντηση ChatGPT
A chi-square homogeneity test was conducted to examine whether the
observed frequencies of color choices (yellow, green, and red) differed
significantly from the expected frequencies under the null hypothesis
(H0). The null hypothesis posited that the proportions of colors were
50% yellow, 25% green, and 25% red.
Under H0, the observed frequencies for yellow, green, and red were 8, 7, and 5, respectively, while the expected frequencies were 10, 5, and 5, respectively. The differences between observed and expected frequencies were 2 for yellow, -2 for green, and 0 for red.
The chi-square test statistic (χ²) was calculated to be 1.2 with 2 degrees of freedom, resulting in a p-value of 0.549.
Based on the analysis, the null hypothesis (H0) was not rejected at the 0.05 significance level. Therefore, there was insufficient evidence to conclude that the observed frequencies significantly differed from the expected frequencies.
In summary, the findings suggest that the proportions of color choices (yellow, green, and red) did not deviate significantly from the proportions specified in the null hypothesis (χ²(2) = 1.2, p = 0.549).
Η0: pκίτρινων = pπράσινων =
pκόκκινων,
και εξετάζεται έναντι της ερευνητικής υπόθεσης:
Ο ερευνητής μπορεί να υλοποιήσει τον έλεγχο αυτό με την εντολή:
my_homogeneity_chi_square(bug.colors)
Frequency distribution | |||||
vector | Count | Valid percent | Percent | Responses, % | Cumulative responses, % |
---|---|---|---|---|---|
Κίτρινο | 8 | 40 | 40 | 40 | 40 |
Πράσινο | 7 | 35 | 35 | 35 | 75 |
Κόκκινο | 5 | 25 | 25 | 25 | 100 |
#Total | 20 | 100 | 100 | 100 | |
<NA> | 0 | 0 |
H0: Κίτρινο: 0.33, Πράσινο: 0.33, Κόκκινο: 0.33 |
Observed and expected frequencies under H0 | |||
Κίτρινο | Πράσινο | Κόκκινο | |
---|---|---|---|
Observed | 8 | 7 | 5 |
Expected | 6.7 | 6.7 | 6.7 |
Difference | -1.3 | -0.3 | 1.7 |
Result |
x2(2) = 0.7, p = 0.705. H0 is not rejected. |
Σύμφωνα με τον Cochran (1952) η δοκιμασία χ2 έχει μειωμένη
ισχύ αν οι αναμενόμενες τιμές είναι μικρότερες από 1 ή αν το 20% των
αναμενόμενων κελιών είναι μικρότερες από το 5, ωστόσο νεότερες αναφορές
καταδεικνύουν πως τα όρια αυτά είναι συντηρητικά και πως ο ερευνητής
μπορεί να θεωρεί αξιόπιστο το αποτέλεσμα της μεθόδου όταν οι
αναμενόμενες συχνότητες είναι μεγαλύτερες από 0,5 και οι περισσότερες να
είναι μεγαλύτερες από τη μονάδα.
Στην περίπτωση όπου η παραπάνω προϋπόθεση δεν τηρείται υπάρχει η δυνατότητα υπολογισμού του p με προσομοίωση Monte Carlo, εφαρμόζοντας τη συνάρτηση με τον παρακάτω τρόπο:
my_homogeneity_chi_square(bug.colors, simulate.p.value = TRUE)
Frequency distribution | |||||
vector | Count | Valid percent | Percent | Responses, % | Cumulative responses, % |
---|---|---|---|---|---|
Κίτρινο | 8 | 40 | 40 | 40 | 40 |
Πράσινο | 7 | 35 | 35 | 35 | 75 |
Κόκκινο | 5 | 25 | 25 | 25 | 100 |
#Total | 20 | 100 | 100 | 100 | |
<NA> | 0 | 0 |
H0: Κίτρινο: 0.33, Πράσινο: 0.33, Κόκκινο: 0.33 |
Observed and expected frequencies under H0 | |||
Κίτρινο | Πράσινο | Κόκκινο | |
---|---|---|---|
Observed | 8 | 7 | 5 |
Expected | 6.7 | 6.7 | 6.7 |
Difference | -1.3 | -0.3 | 1.7 |
Result |
Monte Carlo Simulation: p = 0.794. H0 is not rejected. |
Για την επίδειξη του τρόπου που υπολογίζεται το στατιστικό x2, και για τον τρόπο που υπολογίζεται η στατιστική σημαντικότητα της διαφοράς, μπορεί να αξιοποιηθεί η συνάρτηση simulate_x2_homogeneity_test. Η εκτέλεσή της πολλές φορές διαφωτίζει τον τρόπο με τον οποίο λειτουργεί η στατιστική συμπερασματολογία στη δοκιμασία αυτή.
Hypothesis = c(0.5, 0.25, 0.25)
N = 20
simulate_x2_homogeneity_test(Hypothesis, N)
Δραστηριότητα I
Για να ελέγξουμε την υπόθεση πως ένα ζάρι είναι αμερόληπτο, το ρίξαμε
120 φορές και βρήκαμε τις παρακάτω συχνότητες αντίστοιχα για τους
αριθμούς 1, 2, 3, 4, 5, 6: 23, 18, 18, 22, 17, 22.
α) Να ελεγχθεί η υπόθεση πως Η0: p1 =
p2 = p3= p4= p5=
p6 = 1/6,
έναντι της ερευνητικής υπόθεσης: Η1: όχι η
Η0.
Χρησιμοποιήστε τον κώδικα:
die.results = c(rep(1, 23), rep(2, 18), rep(3, 18), rep(4, 22), rep(5, 17), rep(6, 22))
my_homogeneity_chi_square(die.results)
Στη συνέχεια, καταγράψτε το αποτέλεσμα συμπληρώνοντας κατάλληλα το παρακάτω πρότυπο: Η εφαρμογή της δοκιμασίας ομοιογένειας χ2 κατέδειξε πως ___________________________________________________________________________ (χ2(_____) = ________, p = _________).
Δραστηριότητα II (Δεδομένα parents)
Θέλουμε να ελέγξουμε την υπόθεση πως οι γονείς είναι ομοιόμορφα
κατανεμημένοι ανά τόπο κατοικίας (Χωριό/Κωμόπολη και Πόλη).
α) Να ελεγχθεί η υπόθεση πως Η0: pΧΚ =
pΠ = 0.5,
έναντι της ερευνητικής υπόθεσης: Η1: όχι η Η0.
Χρησιμοποιήστε τον κώδικα:
my_homogeneity_chi_square(parents$place_live)
Στη συνέχεια, καταγράψτε το αποτέλεσμα συμπληρώνοντας κατάλληλα το παρακάτω πρότυπο: Η εφαρμογή της δοκιμασίας ομοιογένειας χ2 κατέδειξε πως ___________________________________________________________________________ (χ2(_____) = ________, p = _________).
Η δοκιμασία χ2 ως έλεγχος ανεξαρτησίας είναι ο τρόπος για
να ελέγξουμε αν δύο ποιοτικές μεταβλητές έχουν στατιστική εξάρτηση.
Απαραίτητη προϋπόθεση είναι οι αναμενόμενες συχνότητες των συνδυασμών
των τιμών των δύο ποιοτικών μεταβλητών να μην είναι ιδιαίτερα μικρές
(δες παρατήρηση 2 της προηγούμενης παραγράφου)
Μετά από το τέλος του εξαμήνου, καταγράφηκε η άποψη 102 φοιτητών για
τον καθηγητή του μαθήματος της Στατιστικής σε κλίμακα 1 = Πολύ αρνητική
έως 5 = Πολύ θετική όπως και η επιτυχία τους στις τελικές εξετάσεις. Οι
παρατηρήσεις συγκεντρώθηκαν στον παρακάτω διμεταβλητό πίνακα
συχνοτήτων.
Αποτέλεσμα | Πολύ αρνητική | Αρνητική | Ουδέτερη | Θετική | Πολύ θετική | Σύνολο |
---|---|---|---|---|---|---|
Αποτυχία | 10 | 11 | 5 | 8 | 8 | 42 |
Επιτυχία | 6 | 8 | 6 | 15 | 25 | 60 |
Σύνολο | 16 | 19 | 11 | 23 | 33 | 102 |
Τα δεδομένα καταχωρούνται στον πίνακα the.table
με τις
παρακάτω εντολές
the.table = matrix(c(10, 11, 5, 8, 8, 6, 8, 6, 15, 25), 2, 5, byrow=TRUE)
rownames(the.table) = c('Αποτυχία', 'Επιτυχία')
colnames(the.table) = c('Πολύ αρνητική', 'Αρνητική', 'Ουδέτερη', 'Θετική', 'Πολύ θετική')
Επιθυμούμε να βρούμε αν από τα δεδομένα του δείγματος απορρίπτεται η
στατιστική υπόθεση:
έναντι της ερευνητικής υπόθεσης:
Αν η υπόθεση Η0 της ανεξαρτησίας είναι αληθινή, τότε θα
πρέπει οι παρατηρούμενες και οι αναμενόμενες συχνότητες να είναι ίσες.
Ωστόσο, λόγω του τυχαίου σφάλματος της δειγματοληψίας, αυτές μπορεί και
να διαφοροποιούνται. Στο στατιστικό χ2 αντανακλάται η
συνολική διαφορά των παρατηρούμενων από τις θεωρητικώς αναμενόμενες
συχνότητες, δηλαδή η “απόσταση” του δείγματος από την στατιστική υπόθεση
Η0.
Υλοποιούμε τη δοκιμασία ανεξαρτησίας με την εντολή:
my_chi_square(the.table)
Test Var1 - Var2.
x2(4) = 9.57, p =
0.048. Result: DEPENDEND VARIABLES.
Observed Frequencies between combinations of Var1 -
Var2 The statistic x2 reflects the overall difference between observed and expected frequencies. |
||||||
Πολύ αρνητική | Αρνητική | Ουδέτερη | Θετική | Πολύ θετική | Sum | |
---|---|---|---|---|---|---|
Αποτυχία | 10 | 11 | 5 | 8 | 8 | 42 |
Επιτυχία | 6 | 8 | 6 | 15 | 25 | 60 |
Sum | 16 | 19 | 11 | 23 | 33 | 102 |
Expected Frequencies Less Than 5: 1 (10%) According to Moore & McCabe, no more than 20% of the expected counts should be less than 5. Some expected counts can be <5, provided none <1, and 80% of the expected counts should be equal to or greater than 5. |
||||||
Πολύ αρνητική | Αρνητική | Ουδέτερη | Θετική | Πολύ θετική | Sum | |
---|---|---|---|---|---|---|
Αποτυχία | 6.6 | 7.8 | 4.5 | 9.5 | 13.6 | 42 |
Επιτυχία | 9.4 | 11.2 | 6.5 | 13.5 | 19.4 | 60 |
Sum | 16 | 19 | 11 | 23 | 33 | 102 |
Η πιθανότητα p, εκφράζει με στιστικό τρόπο την “απόσταση” του
δείγματος από την υπόθεση Η0. Αν αυτή η πιθανότητα είναι
εξαιρετικά μικρή τότε είναι εύλογο να αποφασίσουμε να απορρίψουμε την
Η0 καθώς θα είναι εξαιρετικά απίθανο η Η0 να είναι
αληθινή και να εμφανίστηκε ένα δείγμα με αυτά τα χαρακτηριστικά.
Το αν θα απορρίψουμε ή όχι την Η0 εξαρτάται από το όριο απόρριψης που έχουμε θέσει από πριν. Αυτό συμβολίζεται με α και συνήθως τίθεται να είναι 0,05 ή 0,01. Σε κάθε περίπτωση, η σύγκριση του p με το α, οδηγεί και στο συμπέρασμα και ολοκληρώνει τη διαδικασία.
Καθώς η σημαντικότητα p του ελέγχου είναι μικρότερη από το όριο του
0,05 συμπεραίνουμε πως η στατιστική υπόθεση μπορεί να απορριφθεί έναντι
της εναλλακτικής υπόθεσης ή πιο απλά συνάγουμε πως υπάρχει στατιστική
εξάρτηση της επιτυχίας στις εξετάσεις και της εντύπωσης του φοιτητή για
τον καθηγητή που δίδασκε το μάθημα.
Για να διευκρινίσουμε τη φύση αυτής της εξάρτησης αρκεί να παρατηρήσουμε τις διαφορές μεταξύ των παρατηρούμενων από τις αναμενόμενες συχνότητες, ή απλούστερα να σχεδιάσουμε ένα κατάλληλο ραβδόγραμμα στοίβας.
my_stack_plot(the.table, type = 3, flip.plot = TRUE)
Συμπεραίνουμε πως οι φοιτητές που πέτυχαν στις εξετάσεις τείνουν να έχουν θετικότερη άποψη για τον καθηγητή τους από ότι αυτοί που απέτυχαν στις εξετάσεις.
Γράφουμε:
Η δοκιμασία χ2 κατέδειξε πως η άποψη των μαθητών για τον καθηγητή ήταν στατιστικώς εξαρτημένη με την επιτυχία στις εξετάσεις (χ2(4) = 9.574, p = 0.048).
Τα στοιχεία που πρέπει να αναφέρονται είναι
• το συνολικό πλήθος των παρατηρήσεων,
• η τιμή του στατιστικού χ2,
• οι βαθμοί ελευθερίας (df),
• η σημαντικότητα p της διαφοροποίησης από τη στατιστική υπόθεση
Η0 .
Όπως και στην περίπτωση του ελέγχου χ2 ομοιογένειας, έτσι
και στον έλεγχο ανεξαρτησίας ισχύουν οι ίδιοι περιοδισμοί για τις
αναμενόμενες συχνότητες. Πιο συγκεκριμένα, δεν πρέπει:
(α) να υπάρχουν αναμενόμενες τιμές μικρότερες από 1.
(β) περισσότερο από το 20% των αναμενόμενων κελιών να είναι μικρότερες
από το 5.
Στην περίπτωση όπου οι παραπάνω προϋποθέσεις δεν τηρούνται υπάρχει η δυνατότητα υπολογισμού του p με προσομοίωση Monte Carlo, εφαρμόζοντας τη συνάρτηση με τον παρακάτω τρόπο:
my_chi_square(the.table, simulate.p.value = TRUE)
Test Var1 - Var2.
Monte Carlo Simulation: p =
0.05. Result: DEPENDEND VARIABLES.
Observed Frequencies between combinations of Var1 -
Var2 The statistic x2 reflects the overall difference between observed and expected frequencies. |
||||||
Πολύ αρνητική | Αρνητική | Ουδέτερη | Θετική | Πολύ θετική | Sum | |
---|---|---|---|---|---|---|
Αποτυχία | 10 | 11 | 5 | 8 | 8 | 42 |
Επιτυχία | 6 | 8 | 6 | 15 | 25 | 60 |
Sum | 16 | 19 | 11 | 23 | 33 | 102 |
Expected Frequencies Less Than 5: 1 (10%) According to Moore & McCabe, no more than 20% of the expected counts should be less than 5. Some expected counts can be <5, provided none <1, and 80% of the expected counts should be equal to or greater than 5. |
||||||
Πολύ αρνητική | Αρνητική | Ουδέτερη | Θετική | Πολύ θετική | Sum | |
---|---|---|---|---|---|---|
Αποτυχία | 6.6 | 7.8 | 4.5 | 9.5 | 13.6 | 42 |
Επιτυχία | 9.4 | 11.2 | 6.5 | 13.5 | 19.4 | 60 |
Sum | 16 | 19 | 11 | 23 | 33 | 102 |
Σε πολλές στατιστικές δοκιμασίες η εγκυρότητα των αποτελεσμάτων εξαρτάται από την υπόθεση πως το δείγμα των τιμών προέρχεται πληθυσμό που ακολουθεί την κανονική κατανομή. Στις επόμενες ενότητες περιγράφονται κάποιοι τρόποι με τους οποίους μπορεί να ελεγχθεί αυτή η προϋπόθεση. Τα δεδομένα που θα ελεγχθούν είναι τα παρακάτω:
one.sample.data = c(490, 503, 499, 492, 500, 501, 489, 478, 498, 508)
Ο απλούστερος έλεγχος είναι με το ιστόγραμμα συχνοτήτων, εφοδιασμένο με την καμπύλη της κανονικής κατανομής. Η συνάρτηση my_histFrequency_with_normal_curve υλοποιεί αυτήν την ενέργεια.
Η εφαρμογή της στα δεδομένα one.sample.data
αποδίδει το
παρακάτω διάγραμμα:
my_histFrequency_with_normal_curve(one.sample.data, xlab = 'Βάρος', ylab = 'Συχνότητα', main = 'Ιστόγραμμα τιμών')
Στατιστικά μέτρα κανονικότητας και οι αντίστοιχες στατιστικές δοκιμασίες μπορού να υλοποιηθούν με τη συνάρτηση συνάρτηση my_check_normality_of_vector.
Εφαρμόζουμε τη συνάρτηση με την εντολή:
my_check_normality_of_vector(one.sample.data)
Normality statistics | ||
Statistic | Description | |
---|---|---|
Skewness & Kurtosis | ||
Skewness | -0.683 | Normal distribution has skew = 0. For a unimodal distribution, negative skew commonly indicates that the tail is on the left side of the distribution, and positive skew indicates that the tail is on the right. |
Kurtosis | 2.879 | Normal distribution has kurtosis = 3. Values over 3 indicates a platykurtic distribution and values less than 3 indicates a leptokurtic distribution. |
Normality Tests. Η0: This sample is from a normal distribution vs Η1: Not the Η0. | ||
Shapiro–Wilk | W = 0.945, p = 0.614 | This test is more appropriate method for small sample sizes (<50 samples) although it can also be handling on larger sample size. |
Lilliefors | D = 0.201, p = 0.305 | The Lilliefors test uses the same calculations as the Kolmogorov-Smirnov test, but it is more conservative in the sense that the Lilliefors Test is less likely to show that data is normally distributed. |
Παρατηρούμε πως η κυρτότητα του δείγματος (Kurtosis) είναι ίση με
2,87, περίπου ίση με 3 αλλά και ο δείκτης ασυμμετρίας (Skewness) είναι
-0,68, μικρότερος της μονάδας κατά απόλυτη τιμή, άρα η κατανομή του
δείγματος προσομοιάζει στην κανονική και μπορούμε να υποθέσουμε πως το
ίδιο συμβαίνει για όλο τον πληθυσμό.
Η δοκιμασία Agostino ελέγχει την υπόθεση
έναντι της
Από το output παρατηρούμε πως η υπόθεση της συμμετρίας δεν
απορρίπτεται (p = 0,230 > 0,05).
Επιπλέον, η δοκιμασία Anscombe ελέγχει την υπόθεση
έναντι της
Από το output παρατηρούμε πως η υπόθεση της απόκλισης της κυρτότητας
από αυτήν της κανονικής δεν απορρίπτεται (p = 0,462 > 0,05).
Με τον έλεγχο Shapiro – Wilk γίνεται απευθείας έλεγχος της απόκλισης
της δειγματικής κατανομής από την κανονική. Με αυτόν, ελέγχεται η
υπόθεση
έναντι της
Από το output παρατηρούμε πως η υπόθεση της απόκλισης της κατανομής από την κανονική δεν απορρίπτεται (p = 0,614 > 0,05).
Με τον έλεγχο Kolmogorov - Smirnov γίνεται απευθείας έλεγχος της
απόκλισης της δειγματικής κατανομής από την κανονική. Δεν είναι
κατάλληλος για μεταβλητές που έχουν επαναλαμβανόμενες τιμές. Με
αυτόν, ελέγχεται η υπόθεση
έναντι της
Από το output παρατηρούμε πως η υπόθεση της απόκλισης της κατανομής από την κανονική δεν απορρίπτεται (p = 0,746 > 0,05).
Η δοκιμασία Lilliefors αποτελεί μία περισσότερο αξιόπιστη εκδοχή του
ελέγχου Kolmogorov - Smirnov. Με αυτόν, ελέγχεται η υπόθεση
έναντι της
Από το output παρατηρούμε πως η υπόθεση της απόκλισης της κατανομής από την κανονική δεν απορρίπτεται (p = 0,305 > 0,05).
Η δοκιμασία t-test για ένα δείγμα (one sample t - test)
χρησιμοποιείται όταν θέλουμε να ελέγξουμε την ισότητα με έναν
προκαθορισμένο αριθμό της μέσης τιμής μίας μεταβλητής σε κάποιον
πληθυσμό μετρώντας ένα αντιπροσωπευτικό δείγμα του από Ν άτομα.
Η υλοποίηση της δοκιμασίας t - test βασίζεται στην υπόθεση πως ο
δειγματικός μέσος των Ν στοιχείων ακολουθεί προσεγγιστικά την κανονική
κατανομή. Από το Κεντρικό Οριακό Θεώρημα γνωρίζουμε ότι για αρκετά
μεγάλο Ν, ο δειγματικός μέσος πράγματι ακολουθεί την κανονική κατανομή
με την προσέγγιση αυτή να είναι όλο και καλύτερη όσο μεγαλύτερο είναι το
πλήθος των στοιχείων.
Στην περίπτωση όπου το Ν δεν είναι μεγάλο, τότε το Κ.Ο.Θ. δεν μπορεί να βεβαιώσει την κανονικότητα της κατανομής και πρέπει να υποθέσουμε πως τα ίδια τα στοιχεία προέρχονται από την κανονική κατανομή. Το όριο κάτω από το οποίο δεχόμαστε ότι το δείγμα είναι μικρό είναι το Ν = 30. Δηλαδή:
Αν το δείγμα είναι μικρό (Ν < 30) τότε απαραίτητη
προϋπόθεση είναι η κανονικότητα της κατανομής της συνεχούς μεταβλητής
που μελετούμε.
Αν το δείγμα είναι μεγάλο (Ν ≥ 30) τότε η δοκιμασία είναι
έγκυρη ακόμα και χωρίς την προϋπόθεση της κανονικότητας.
Θέλουμε να ελέγξουμε αν μία συσκευή τυποποίησης γάλακτος σε
συσκευασίες των 500 γραμμαρίων παράγει πράγματι συσκευασίες με αυτό το
βάρος. Λόγω των μικρών μηχανικών σφαλμάτων που υπάρχουν στην διαδικασία
τυποποίησης σε συσκευασίες του γάλακτος, το βάρος μίας συσκευασίας δεν
περιμένουμε να είναι ακριβώς 500 γραμμάρια αλλά θα είναι λίγο μεγαλύτερο
ή λίγο μικρότερο.
Αυτό που ενδιαφέρει είναι το μέσο βάρος όλων των συσκευασιών να μη
διαφέρει σημαντικά από τα 500 γραμμάρια. Καθώς είναι αδύνατον να
ζυγίσουμε το σύνολο όλων των συσκευασιών γάλακτος που βγήκαν ή θα βγούνε
στο μέλλον από τη γραμμή παραγωγής, παίρνουμε ένα δείγμα 10 συσκευασιών
από την παραγωγή:
490, 503, 499, 492, 500, 501, 489, 478, 498, 508
Με βάση αυτό το δείγμα, χρησιμοποιώντας τον κατάλληλο έλεγχο για ένα
δείγμα θα ελέγξουμε αν δεχόμαστε ή απορρίπτουμε τον ισχυρισμό πως το
μέσο βάρος όλης της παραγωγής είναι ίσο με 500 γραμμάρια. Δηλαδή, αν μ
είναι το (άγνωστο) μέσο βάρος όλης της παραγωγής τότε ελέγχουμε τη
στατιστική υπόθεση:
έναντι της ερευνητικής υπόθεσης:
Τα δεδομένα τα καταχωρούμε στη μεταβλητή one.sample.data με την
εντολή
one.sample.data = c(490, 503, 499, 492, 500, 501, 489, 478, 498, 508)
Εκτελώντας
my_mean_sd(one.sample.data)
## [1] "M = 496. (8.64), 95% C.I. 490. - 501."
βρίσκουμε πως η μέση τιμή και η τυπική απόκλιση του δείγματος είναι
495,8 γραμμάρια και 8,6 γραμμάρια αντίστοιχα.
Η μέση τιμή του δείγματος είναι μικρότερη από την θεωρητική τιμή των
500 γραμμαρίων. Η διαφορά μεταξύ της υποτιθέμενης μέσης τιμής και της
παρατηρούμενης δειγματικής μέσης τιμής είναι δ = 4,2 γραμμάρια. Ωστόσο,
από τη στιγμή που οι συσκευασίες δεν έχουν βάρος ακριβώς ίσο με 500
γραμμάρια, είναι αναμενόμενο πως το δειγματικό μέσο βάρος δεν θα
προκύψει ακριβώς ίσο με 500 γραμμάρια.
Η θεωρία πιθανοτήτων μας ενημερώνει πως αν η υπόθεση μ = 500 ήταν αληθής τότε ο δειγματικός μέσος 10 τιμών θα έπρεπε να διαφέρει από την τιμή των 500 όπως περιγράφεται από την κατανομή t(9). Αυτό το γεγονός μας δίνει την δυνατότητα να βρούμε την πιθανότητα αυτή η δειγματική μέση τιμή να διαφέρει όσο και στην περίπτωση του δείγματος.
Η εφαρμογή της δοκιμασίας t - test για ένα δείγμα υλοποιείται με τη συνάρτηση my_t_test_one_sample
my_t_test_one_sample(one.sample.data, mu = 500)
M(SD) (496 ± 8.64), N = 10. H0: μ = 500 vs H1: μ ≠
500. H0 is not rejected (t(9) = 1.538, p = 0.159). |
Η τιμή του στατιστικού t είναι ίση με 1,538 και η πιθανότητα να
προκύψει μία μεγαλύτερη ή ίση από αυτήν την τιμή στην κατανομή student
με 9 βαθμούς ελευθερίας είναι ίση με p = 0,1585 = 15,9%, κάτι που
σημαίνει πως αν η συνολική παραγωγή είχε πράγματι μέσο βάρος 500
γραμμάρια και παίρναμε 100 δείγματα των 10 συσκευασιών, τότε σε περίπου
16 από αυτά θα περιμέναμε να είχαμε μεγαλύτερη διαφορά στη δειγματική
μέση τιμή από τα 4,2 γραμμάρια που παρατηρήθηκε στο δείγμα μας.
Καθώς p = 0,1585 > 0,05 δεν υπάρχει επαρκής ένδειξη για να
απορρίψουμε τον ισχυρισμό Η0: μ = 500, δηλαδή δεν έχουμε
επαρκής στατιστική ένδειξη πως η παραγωγή είναι ελλιποβαρής και η
εταιρεία δικαιούται να συνεχίσει να γράφει στις συσκευασίες της πως το
βάρος κάθε συσκευασίας είναι 500 γραμμάρια!
Το είδος του ελέγχου προσδιορίζεται από τα ενδιαφέροντα του ατόμου ή
του οργανισμού που διεξάγει την ανάλυση.
Αν τον έλεγχο τον υλοποιούσε η ίδια η βιομηχανία που συσκευάζει το
γάλα θα την απασχολούσε το ενδεχόμενο οι συσκευασίες της να μην είχαν
περισσότερο γάλα από ότι πρέπει ώστε να μην χάνει χρήματα. Ως εκ τούτου,
θα ήθελε να βρει αν απορρίπτεται η υπόθεση:
έναντι της ερευνητικής υπόθεσης:
Στην περίπτωση αυτή ο έλεγχος ονομάζεται μονόπλευρος και η πιθανότητα p με την οποία κρίνουμε αν η Η0 απορρίπτεται έναντι της Η1.είναι η μισή αυτής που αναφέρεται και που είναι πάντα αυτή του δίπλευρου ελέγχου.
Αν τον έλεγχο τον υλοποιούσε η ίδια η βιομηχανία που συσκευάζει το
γάλα θα την απασχολούσε το ενδεχόμενο οι συσκευασίες της να μην ήταν
ελλιποβαρείς ώστε να μην αντιμετώπιζε πρόβλημα με τον νόμο. Ως εκ
τούτου, θα ήθελε να ελέγξει την υπόθεση:
έναντι της ερευνητικής υπόθεσης:
Στην περίπτωση αυτή ο έλεγχος είναι μονόπλευρος και η πιθανότητα p με την οποία κρίνουμε αν η Η0 απορρίπτεται έναντι της Η1.είναι η μισή αυτής που αναφέρεται κατά την υλοποίηση της δοκιμασίας.
Αντίστοιχα, αν τον έλεγχο τον υλοποιούσε η υπηρεσία ελέγχου
εξαπάτησης καταναλωτών, θα ήθελε να ελέγξει αν οι συσκευασίες ήταν
ελλιποβαρείς ώστε να μην εξαπατούσε η εταιρεία τους καταναλωτές. Ως εκ
τούτου, θα ήθελε να ελέγξει την υπόθεση:
έναντι της ερευνητικής υπόθεσης:
Για την επίδειξη του τρόπου που υπολογίζεται η στατιστική σημαντικότητα της διαφοράς της μέσης τιμής του δείγματος από τη μέση τιμή του πληθυσμού, μπορεί να αξιοποιηθεί η συνάρτηση simulate_one_sample_t_test. Η εκτέλεσή της πολλές φορές διαφωτίζει τον τρόπο με τον οποίο λειτουργεί η στατιστική συμπερασματολογία στη δοκιμασία αυτή.
mu = 500; sdp = 8.64; N = 10
simulate_one_sample_t_test(mu, sdp, N)
Δραστηριότητα
Κάποιος ισχυρίζεται πως σε ένα χωριό με 3.000 κατοίκους το μέσο εισόδημα
είναι 30 χιλιάδες ευρώ. Για να ελέγξει την υπόθεση, κατέγραψε δεδομένα
από 15 κατοίκους και βρήκε τα παρακάτω στοιχεία: 35, 25, 20, 25, 15, 30,
32, 38, 60, 14, 7, 20, 23, 27, 12.
α) Να ελεγχθεί η υπόθεση πως Η0: μ =
30,
έναντι της ερευνητικής υπόθεσης:
my.sample = c(25, 25, 20, 25, 15, 30, 32, 38, 40, 14, 7, 20, 23, 27, 12)
my_t_test_one_sample(my.sample, mu = 30)
β) Αναπαραστήστε πολλά πιθανά αποτελέσματα της δοκιμασίας εκτελώντας πολλές φορές τις παρακάτω εντολές:
mu = 30; sdp = 9.29; N = 15
simulate_one_sample_t_test(mu, sdp, N)
Αποφασίζουμε τη χρήση μη παραμετρικής δοκιμασίας για ένα δείγμα στις
εξής περιπτώσεις:
• Η μεταβλητή δεν είναι συνεχής αλλά διατακτική (π.χ. παίρνει τις τιμές
1, 2, 3, 4, 5 όπως σε ένα ερωτηματολόγιο) και έχουμε μικρό δείγμα.
• Υπάρχει μεγάλη απόκλιση από την κανονική κατανομή.
Στην περίπτωση αυτή, μία ενδεδειγμένη λύση είναι η συνάρτηση SIGN.test από το πακέτο BSDA που υλοποιεί τη προσημική δοκιμασία. Οι εντολές που απαιτούνται είναι οι εξής:
library(BSDA)
SIGN.test(one.sample.data, md = 500)
##
## One-sample Sign-Test
##
## data: one.sample.data
## s = 3, p-value = 0.5078
## alternative hypothesis: true median is not equal to 500
## 95 percent confidence interval:
## 489.3244 502.3511
## sample estimates:
## median of x
## 498.5
##
## Achieved and Interpolated Confidence Intervals:
##
## Conf.Level L.E.pt U.E.pt
## Lower Achieved CI 0.8906 490.0000 501.0000
## Interpolated CI 0.9500 489.3244 502.3511
## Upper Achieved CI 0.9785 489.0000 503.0000
Με την παραπάνω εντολή, αν δ είναι η (άγνωστη) διάμεσος του βάρους
όλης της παραγωγής, ελέγχεται η στατιστική υπόθεση:
έναντι της ερευνητικής υπόθεσης:
Από το output συμπεραίνουμε πως η υπόθεση πως η διάμεσος του
πληθυσμού είναι ίση με 500 γραμμάρια, δεν απορρίπτεται (p = 0,508 >
0,05).
Εναλλακτικά, αν γνωρίζουμε ότι η κατανομή είναι συμμετρική, μπορούμε να ελέγξουμε την ίδια υπόθεση, εφαρμόζοντας τη δοκιμασία Wilkoxon για ένα σύνολο (One Sample Wilkoxon Test), με την εντολή
wilcox.test(one.sample.data, mu = 500, alternative = 'two.sided')
##
## Wilcoxon signed rank test with continuity correction
##
## data: one.sample.data
## V = 11, p-value = 0.1917
## alternative hypothesis: true location is not equal to 500
Στοιχεία που πρέπει να αναφερθούν
• τα στοιχεία του δείγματος (πλήθος παρατηρήσεων, μέση τιμή και τυπική
απόκλιση),
• η τιμή του στατιστικού t (στήλη t στο output) ως απόλυτη τιμή,
• οι βαθμοί ελευθερίας (στήλη df στο output),
• το είδος του στατιστικού ελέγχου (μονόπλευρος ή δίπλευρος),
• η στατιστική σημαντικότητα p της διαφοροποίησης από τη στατιστική
υπόθεση Η0 (από τη στήλη Sig.(2-tailed) για τη δίπλευρη
δοκιμασία ή το μισό αυτής της τιμής για μονόπλευρη δοκιμασία).
Μη σημαντική διαφοροποίηση (δίπλευρος
έλεγχος).
Ο στατιστικός έλεγχος t - test για ένα δείγμα κατέδειξε πως η μέση τιμή
του βάρους του δείγματος των 30 συσκευασιών (M = 497,5γρ, SD = 7,2γρ)
δεν είναι στατιστικά διαφορετική από την τιμή των 500 γραμμαρίων, t(29)
= 1.901, p = 0,067, (δίπλευρος έλεγχος)
Σημαντική διαφοροποίηση (δίπλευρος έλεγχος).
Ο στατιστικός έλεγχος t - test για ένα δείγμα κατέδειξε πως η μέση τιμή
του βάρους του δείγματος των 30 συσκευασιών (M = 496,5γρ, SD = 7,2γρ)
είναι στατιστικά διαφορετική από την τιμή των 500 γραμμαρίων, t(29) =
2.662, p = 0,012, (δίπλευρος έλεγχος)
Σημαντική διαφοροποίηση (μονόπλευρος έλεγχος).
Ο στατιστικός έλεγχος t - test για ένα δείγμα κατέδειξε πως η μέση τιμή
του βάρους του δείγματος των 30 συσκευασιών (M = 497,5γρ, SD = 7,2γρ)
είναι στατιστικά μικρότερη από την τιμή των 500 γραμμαρίων, t(29) =
1.901, p = 0,034, (μονόπλευρος έλεγχος)
Η δοκιμασία t-test για δύο ανεξάρτητα δείγματα (independent samples t
- test) χρησιμοποιείται όταν θέλουμε να ελέγξουμε την υπόθεση πως δύο
πληθυσμοί δεν διαφέρουν σημαντικά ως προς τη μέση τιμή μίας συνεχούς
μεταβλητής μετρώντας από ένα αντιπροσωπευτικό δείγμα τους.
Απαραίτητες προϋποθέσεις είναι
(α) η κανονικότητα της κατανομής της συνεχούς μεταβλητής που μελετούμε
σε κάθε μία από τις δύο ανεξάρτητες ομάδες,
(β) η ομοιογένεια των δύο ομάδων (δηλαδή να έχουν τυπική απόκλιση που
δεν διαφέρει σημαντικά).
Μία αλυσίδα supermarket στην προσπάθεια της να ενισχύσει τις πωλήσεις
επιθυμεί να ελέγξει ποια από τις δύο παρακάτω προτεινόμενες πρακτικές
είναι περισσότερο αποδοτική.
Πρακτική Α: επιστροφή 4% στις αγορές των πελατών όταν αυτοί
χρησιμοποιούν πιστωτική κάρτα μίας τράπεζας που συνεργάζεται με την
εταιρεία ή
Πρακτική Β: προσφορά κουπόνια για έκπτωση σε αγορές των προϊόντων που
εμπορεύεται.
Για να συγκρίνει την αποτελεσματικότητα των δύο αυτών διαφορετικών
πρακτικών επιλέγει τυχαία 21 συχνούς πελάτες τους οποίους χωρίζει με
τυχαίο τρόπο σε δύο ομάδες (Ομάδα Α και Β) των 10 και 11 ατόμων
αντίστοιχα και παρακολουθεί τις αγορές τους για ένα έτος.
Τα δεδομένα καταχωρήθηκαν σε δύο μεταβλητές και στη συνέχεια σε ένα πλαίσιο δεδομένων.
purchases.A = c(2233, 2327, 1280, 1477, 1461, 1495, 1950, 1857, 1471, 1567, 1627)
purchases.B = c(1404, 1514, 1730, 1610, 1854, 1107, 2145, 784, 1410, 2226)
group = c(rep(1, 11), rep(2, 10))
group = factor(group, levels = c(1, 2), labels = c("Α", "Β"))
purchases = c(purchases.A, purchases.B)
data.t.test = data.frame(group, purchases)
Αν μΑ και μΒ είναι οι μέσες καταναλώσεις που
αναμένουμε να έχουν οι πελάτες των ομάδων Α και Β αντίστοιχα, αναζητούμε
την απάντηση στην ερώτηση σχετικά με το αν απορρίπτεται ή όχι η
στατιστική υπόθεση:
έναντι της ερευνητικής υπόθεσης:
Η δοκιμασία t-test για δύο ανεξάρτητα δείγματα υλοποιείται με τη συνάρτηση my_t_test_independent_samples.
my_t_test_independent_samples(data.t.test, 'purchases', 'group')
purchases over group H0: μΑ = μΒ vs
H1: μΑ ≠ μΒ. H0 is not
rejected. Group Α (N = 11): 1700 ± 341 vs Group Β (N = 10): 1580 ± 442, t(19) = 0.734, p = 0.472. Equality of variances: F(10, 9) = 0.597, p = 0.433. |
Παρατηρούμε πως:
Η ομάδα Α που χρησιμοποίησε την πιστωτική κάρτα έκανε αγορές 1704,1
ευρώ, 125,7 ευρώ περισσότερες αγορές από την ομάδα Β η οποία έκανε κατά
μέσο όρο 1578,4 ευρώ στην οποία είχαν σταλεί κουπόνια.
Η διαφορά των 125,7 ευρώ δεν είναι τόσο μεγάλη ώστε να απορριφθεί η υπόθεση Η0: μΑ = μΒ της ισότητας των δύο μέσων τιμών (p = 0,472 = 47,2% > 5% = 0,05), δηλαδή δεν έχουμε στατιστική ένδειξη πως η πιστωτική κάρτα αποτελεί μεγαλύτερο κίνητρο για κατανάλωση από ότι τα κουπόνια!
Η διαφορά μεταξύ των ομάδων αναπαριστάται στο παρακάτω διάγραμμα:
library(gplots)
plotmeans(data.t.test$purchases~data.t.test$group,xlab="Ομάδα",ylab="Πωλήσεις", main="Πωλήσεις ανά ομάδα (95% C.I.)")
Η προϋπόθεση της κανονικότητας
Η εγκυρότητα του αποτελέσματος βασίζεται στην υπόθεση πως η διαφορά των
δύο μέσων τιμών ακολουθεί την κατανομή t. Αυτό είναι βέβαιο όταν τα δύο
δείγματα προέρχονται από κανονικές κατανομές, ωστόσο δεν είναι σίγουρο
όταν δεν ισχύει αυτήν η προϋπόθεση. Αν τα δείγματα έχουν μεγάλο μέγεθος
τότε η δοκιμασία εξακολουθεί να είναι έγκυρη ακόμα και σε συνθήκες μη
κανονικότητας.
Καθώς έχουμε μικρά δείγματα, καλό είναι να ελέγξουμε την κανονικότητα των κατανομών.
my_check_normality_of_vector(purchases.A)
Normality statistics | ||
Statistic | Description | |
---|---|---|
Skewness & Kurtosis | ||
Skewness | 0.741 | Normal distribution has skew = 0. For a unimodal distribution, negative skew commonly indicates that the tail is on the left side of the distribution, and positive skew indicates that the tail is on the right. |
Kurtosis | 2.243 | Normal distribution has kurtosis = 3. Values over 3 indicates a platykurtic distribution and values less than 3 indicates a leptokurtic distribution. |
Normality Tests. Η0: This sample is from a normal distribution vs Η1: Not the Η0. | ||
Shapiro–Wilk | W = 0.883, p = 0.113 | This test is more appropriate method for small sample sizes (<50 samples) although it can also be handling on larger sample size. |
Lilliefors | D = 0.226, p = 0.121 | The Lilliefors test uses the same calculations as the Kolmogorov-Smirnov test, but it is more conservative in the sense that the Lilliefors Test is less likely to show that data is normally distributed. |
my_check_normality_of_vector(purchases.B)
Normality statistics | ||
Statistic | Description | |
---|---|---|
Skewness & Kurtosis | ||
Skewness | -0.188 | Normal distribution has skew = 0. For a unimodal distribution, negative skew commonly indicates that the tail is on the left side of the distribution, and positive skew indicates that the tail is on the right. |
Kurtosis | 2.381 | Normal distribution has kurtosis = 3. Values over 3 indicates a platykurtic distribution and values less than 3 indicates a leptokurtic distribution. |
Normality Tests. Η0: This sample is from a normal distribution vs Η1: Not the Η0. | ||
Shapiro–Wilk | W = 0.975, p = 0.929 | This test is more appropriate method for small sample sizes (<50 samples) although it can also be handling on larger sample size. |
Lilliefors | D = 0.147, p = 0.786 | The Lilliefors test uses the same calculations as the Kolmogorov-Smirnov test, but it is more conservative in the sense that the Lilliefors Test is less likely to show that data is normally distributed. |
Από το output, συνάγουμε πως η προϋπόθεση της κανονικότητας για τα δύο ανεξάρτητα δείγματα δεν απορρίπτεται, γεγονός που επιβεβαιώνει την καταληλότητα της παραμετρικής δοκιμασίας t-test.
Σημείωση
Το t - test μπορεί να υλοποιηθεί με την εναλλακτική εκδοχή:
t.test(purchases ~ group, data = data.t.test, var.equal = TRUE)
##
## Two Sample t-test
##
## data: purchases by group
## t = 0.73361, df = 19, p-value = 0.4721
## alternative hypothesis: true difference in means between group Α and group Β is not equal to 0
## 95 percent confidence interval:
## -232.9110 484.2928
## sample estimates:
## mean in group Α mean in group Β
## 1704.091 1578.400
Η δοκιμασία Welch εφαρμόζεται έναντι της Student t – test στην περίπτωση όπου οι κατανομές των δύο ανεξάρτητών πληθυσμών είναι κανονικές αλλά οι διακυμάνσεις δεν είναι ίσες. Επιλέγεται αυτόματα για εφαρμογή από τη συνάρτηση my.t.test.independent.samples.
Αποφασίζουμε τη χρήση της μη παραμετρικής δοκιμασίας Wilcoxon για δύο
ανεξάρτητα δείγματα στις εξής περιπτώσεις:
• Η μεταβλητή δεν είναι συνεχής αλλά διατακτική (π.χ. παίρνει τις τιμές
1, 2, 3, 4, 5 όπως σε ένα ερωτηματολόγιο) και έχουμε μικρό δείγμα.
• Η μεταβλητή είναι συνεχής αλλά η κανονικότητα του πληθυσμού δεν μπορεί
να υποτεθεί.
• Τα δείγματα είναι μικρού μεγέθους, υπάρχει μεγάλη διαφορά μεταξύ των
δύο διακυμάνσεων και δεν είναι δυνατή η επιλογή τυχαίου υποδείγματος με
ίδιο μέγεθος.
Στην R η δοκιμασία αυτή υλοποιείται με την εντολή:
wilcox.test(purchases.A, purchases.B)
##
## Wilcoxon rank sum exact test
##
## data: purchases.A and purchases.B
## W = 65, p-value = 0.5116
## alternative hypothesis: true location shift is not equal to 0
Η δοκιμασία Mann Whitney αφορά τη συνολική θέση των κατανομών και όχι
τις μέσες τιμές των δειγμάτων. Ελέγχεται η υπόθεση:
έναντι της:
Η υπόθεση Η0 απορρίπτεται όταν το p είναι μικρότερο από το
0,05 (ή άλλο όριο που έχει τεθεί από τον ερευνητή πριν τη συλλογή των
δεδομένων).
Παρατηρούμε πως για τα δεδομένα του παραδείγματος η μη παραμετρική δοκιμασία θα κατέληγε πως η κατανομή του συνολικού κόστους των αγορών των πελατών δεν διαφέρει σημαντικά μεταξύ των δύο ομάδων Α και Β (W = 65, p = 0,512 > 0,05).
Στοιχεία που πρέπει να αναφερθούν
• τα στοιχεία των δειγμάτων (πλήθος παρατηρήσεων, μέση τιμή και τυπική
απόκλιση για κάθε ένα από αυτά),
• η τιμή του στατιστικού t (στήλη t στο output) ως απόλυτη τιμή,
• οι βαθμοί ελευθερίας (στήλη df στο output),
• το είδος του στατιστικού ελέγχου (μονόπλευρος ή δίπλευρος),
• η στατιστική σημαντικότητα p της διαφοροποίησης από τη στατιστική
υπόθεση Η0 (από τη στήλη Sig.(2-tailed) για τη δίπλευρη
δοκιμασία ή το μισό αυτής της τιμής για μονόπλευρη δοκιμασία).
Μη σημαντική διαφοροποίηση.
Ο στατιστικός έλεγχος t - test για δύο ανεξάρτητα δείγματα κατέδειξε πως
οι μέσες αγορές της ομάδας Α (M = 1.704,1, SD = 341,3), δεν είχαν
στατιστικά διαφορετική μέση τιμή από τις αγορές της ομάδας Β (M =
1.578,4, SD = 441,8), t(19) = 0,734, p = 0,472, (δίπλευρος
έλεγχος).
Σημαντική διαφοροποίηση (δίπλευρος έλεγχος).
Ο στατιστικός έλεγχος t - test για δύο ανεξάρτητα δείγματα κατέδειξε πως
η μέση τιμή των αγορών της ομάδας Α (M = 1.578,4, SD = 441,8), είναι
στατιστικά διαφορετική από τη μέση τιμή των αγορών της ομάδας Β (M =
2.940,2, SD = 671,3), t(19) = 6,631, p < 0,001, (δίπλευρος
έλεγχος).
Σημαντική διαφοροποίηση (μονόπλευρος έλεγχος).
Ο στατιστικός έλεγχος t - test για δύο ανεξάρτητα δείγματα κατέδειξε πως
υπάρχει στατιστική διαφοροποίηση στη μέση τιμή των αγορών μεταξύ των
ομάδων Α και Β, t(19) = 6,631, p < 0,001, (μονόπλευρος έλεγχος).
Ειδικότερα, οι πελάτες της ομάδας Β (M = 2.940,2, SD = 671,3) έκαναν
στατιστικά περισσότερες αγορές από τους πελάτες της ομάδας Α (M =
1.578,4, SD = 441,8).
Η δοκιμασία t - test για ζευγαρωτές παρατηρήσεις (paired samples t -
test) χρησιμοποιείται όταν θέλουμε να ελέγξουμε τη μεταβολή της μέσης
τιμής μεταξύ δύο μετρήσεων σε μία συνεχή παράμετρο ενός πληθυσμού
παρατηρώντας τι συμβαίνει σε ένα δείγμα του πληθυσμού. Απαραίτητες
προϋποθέσεις είναι
(α) η κανονικότητα της κατανομής των διαφορών των τιμών της συνεχούς
μεταβλητής που μελετούμε,
(β) να μην υπάρχουν εξαιρετικά μικρές ή μεγάλες διαφορές στις δύο
μετρήσεις.
Με σκοπό την αξιολόγηση μίας δίαιτας ως προς τη μείωση του βάρους όσων την εφαρμόζουν, επιλέχθηκαν 16 ενήλικες εθελοντές οι οποίοι την ακολούθησαν πιστά για 6 μήνες. Το βάρος μετρήθηκε στην αρχή και στο τέλος της διαδικασίας και τα αποτελέσματα καταχωρήθηκαν στις μεταβλητές weight1 και weight2 αντίστοιχα:
weight1 = c(89.8, 107.5, 105.7, 81.2, 99.3, 76.7, 100.7, 75.7, 90.3, 105.7, 81.2, 71.7, 71.2, 98, 116.6, 68.5)
weight2 = c(87.1, 102.1, 102.5, 78, 97.1, 73, 95.3, 73, 87.5, 102.5, 78.5, 69.9, 64.9, 93.4, 112.9, 63.5)
Οι παρατηρήσεις αυτές αναπαριστώνται διαγραμματικά με τις παρακάτω εντολές:
data.paired <- data.frame(Πριν = weight1, Μετά = weight2)
library(ggpubr)
library(RColorBrewer)
cols = brewer.pal(3, name = "Dark2")
ggpaired(data.paired, cond1 = "Πριν", cond2 = "Μετά", fill = cols[1:2], palette = "lancet", ylab = "Βάρος", xlab = "Μέτρηση")
Παρατηρούμε πως στο δείγμα των 16 εθελοντών παρατηρήθηκε μείωση στο
βάρος. Ωστόσο, καθώς σε κάθε ενήλικα υπάρχουν μικρές αυξομειώσεις στο
βάρος με την πάροδο του χρόνου, δεν περιμέναμε το βάρος να είναι το ίδιο
πριν και μετά τη δίαιτα.
Άρα τίθεται το ερώτημα:
Είναι η μείωση στο μέσο βάρος τόσο μεγάλη ώστε να συμπεράνουμε πως δεν
οφείλεται στο τυχαίο σφάλμα της δειγματοληψίας αλλά στη δίαιτα που
ακολούθησαν οι εθελοντές;
Περισσότερο μεθοδολογικά, αν μπριν και μμετά είναι το μέσο βάρος του
πληθυσμού πριν και μετά τη δίαιτα, αναζητούμε την απάντηση στην ερώτηση
σχετικά με το αν απορρίπτεται ή όχι η στατιστική υπόθεση:
έναντι της ερευνητικής υπόθεσης:
Υλοποιούμε τη δοκιμασία t-test για ζευγαρωτές παρατηρήσεις με τη
συνάρτηση
my_t_test_paired_samples:
my_t_test_paired_samples(data.paired, c('Πριν', 'Μετά'))
Πριν (90 ± 15.2) vs Μετά (86.3 ± 15.2), N = 16 pairs. H0:
μΠριν = μΜετά vs H1: μΠριν ≠
μΜετά. H0 is rejected
(t(15) = 11.2, p < 0.001). |
Είναι φανερό πως από τη στιγμή που μελετούμε την αποτελεσματικότητα
μίας δίαιτας μας ενδιαφέρει όχι γενικά η διαφοροποίηση του βάρους πριν
και μετά τη δίαιτα αλλά ειδικότερα το αν η δίαιτα μειώνει το μέσο βάρος,
άρα διεξάγουμε μονόπλευρο στατιστικό έλεγχο και διατυπώνουμε ανάλογα την
ερευνητική υπόθεση.
Παρατηρούμε πως η τιμή του στατιστικού t είναι ίση με 11,25 και η πιθανότητα να εμφανιστεί μία τιμή μεγαλύτερη από αυτή (μονόπλευρος έλεγχος) στην κατανομή t με 15 βαθμούς ελευθερίας είναι ίση με p = 1.039 x 10-8 < 0,05. Συμπεραίνουμε πως η στατιστική υπόθεση
απορρίπτεται έναντι της εναλλακτικής Η1: μ~μετά <
μ~πριν, δηλαδή με απλά λόγια συμπεραίνουμε πως η δίαιτα μειώνει το βάρος
όσων την εφαρμόζουν.
Η προϋπόθεση της κανονικότητας
Η δοκιμασία t-test προϋποθέτει κανονικότητα της κατανομής των διαφορών
των τιμών, προϋπόθεση που δεν επηρεάζει πολύ την εγκυρότητα της
διαδικασίας, όταν το δείγμα είναι μεγάλο. Στην περίπτωσή μας το δείγμα
δεν θεωρείται μεγάλο, άρα είναι καλό να ελεγχθεί η προϋπόθεση της
κανονικότητας των διαφορών. Για το σκοπό αυτό δημιουργούμε τις διαφορές
και υπολογίζουμε τα στατιστικά κανονικότητας.
diff = weight1 - weight2
my_check_normality_of_vector(diff)
Normality statistics | ||
Statistic | Description | |
---|---|---|
Skewness & Kurtosis | ||
Skewness | 0.588 | Normal distribution has skew = 0. For a unimodal distribution, negative skew commonly indicates that the tail is on the left side of the distribution, and positive skew indicates that the tail is on the right. |
Kurtosis | 2.237 | Normal distribution has kurtosis = 3. Values over 3 indicates a platykurtic distribution and values less than 3 indicates a leptokurtic distribution. |
Normality Tests. Η0: This sample is from a normal distribution vs Η1: Not the Η0. | ||
Shapiro–Wilk | W = 0.925, p = 0.2 | This test is more appropriate method for small sample sizes (<50 samples) although it can also be handling on larger sample size. |
Lilliefors | D = 0.201, p = 0.082 | The Lilliefors test uses the same calculations as the Kolmogorov-Smirnov test, but it is more conservative in the sense that the Lilliefors Test is less likely to show that data is normally distributed. |
Από το output, συνάγουμε πως η υπόθεση της κανονικότητας των διαφορών
δεν απορρίπτεται (p = 0,2 > 0,05).
Αποφασίζουμε τη χρήση της δοκιμασίας Wilcoxon για επαναλαμβανόμενες
μετρήσεις στις εξής περιπτώσεις:
• Η μεταβλητή δεν είναι συνεχής αλλά διατακτική (π.χ. παίρνει τις τιμές
1, 2, 3, 4, 5 όπως σε ένα ερωτηματολόγιο) και έχουμε μικρό δείγμα.
• Υπάρχει μεγάλη απόκλιση από την κανονική κατανομή.
Στην R η δοκιμασία αυτή υλοποιείται με την εντολή:
wilcox.test(weight1, weight2, paired = TRUE)
##
## Wilcoxon signed rank test with continuity correction
##
## data: weight1 and weight2
## V = 136, p-value = 0.000473
## alternative hypothesis: true location shift is not equal to 0
Η δοκιμασία Mann Whitney αφορά τη συνολική θέση των κατανομών και όχι
τις μέσες τιμές των δειγμάτων. Ελέγχεται η υπόθεση:
έναντι της:
Σημείωση: Η προειδοποίηση (warning message) πως δεν είναι δυνατός ο ακριβής υπολογισμός του p (cannot compute exact p-value with ties), εμφανίζεται γιατί στη διαφορά weight1 – weight2 υπάρχουν τιμές που εμφανίζονται περισσότερο από μία φορά ενώ στη διαδικασία του p λαμβάνονται υπόψη ακριβώς μία φορά, άρα υπάρχει απώλεια πληροφορίας.
Παρατηρούμε πως για τα δεδομένα του παραδείγματος η μη παραμετρική
δοκιμασία θα κατέληγε πως οι δύο κατανομές είναι σημαντικά διαφορετικές,
ή ισοδύναμα πως η κατανομή των μετρήσεων πριν και μετά τη δίαιτα είναι
στατιστικά διαφορετική (p = 0,000473).
Καθώς η διάμεσος των παρατηρήσεων πριν τη δίαιτα είναι ίση με 90,04 ενώ μετά τη δίαιτα γίνεται 87,31 συμπεραίνουμε και σε αυτήν την περίπτωση στατιστικού ελέγχου πως η δίαιτα μειώνει το βάρος όσων την εφαρμόζουν.
Στοιχεία που πρέπει να αναφερθούν:
• τα στοιχεία των δύο μετρήσεων (πλήθος παρατηρήσεων, η μέση τιμή και η
τυπική απόκλιση για κάθε μία από αυτές),
• η τιμή του στατιστικού t (στήλη t στο output) ως απόλυτη τιμή,
• οι βαθμοί ελευθερίας (στήλη df στο output),
• το είδος του στατιστικού ελέγχου (μονόπλευρος ή δίπλευρος),
• η στατιστική σημαντικότητα p της διαφοροποίησης από τη στατιστική
υπόθεση Η0 (από τη στήλη Sig.(2-tailed) για τη δίπλευρη
δοκιμασία ή το μισό αυτής της τιμής για μονόπλευρη δοκιμασία).
Μη σημαντική διαφοροποίηση.
Ο στατιστικός έλεγχος t - test για ζευγαρωτές παρατηρήσεις κατέδειξε πως
δεν υπάρχει σημαντική διαφοροποίηση της μέσης τιμής του βάρους μεταξύ
των δύο μετρήσεων, t(16) = 1,232, p = 0,236, (δίπλευρος έλεγχος).
Σημαντική διαφοροποίηση (δίπλευρος έλεγχος).
Ο στατιστικός έλεγχος t - test για ζευγαρωτές παρατηρήσεις κατέδειξε πως
υπάρχει σημαντική διαφοροποίηση της μέσης τιμής του βάρους μεταξύ των
δύο μετρήσεων, t(16) = 2,432, p = 0,027, (δίπλευρος έλεγχος).
Σημαντική διαφοροποίηση (μονόπλευρος έλεγχος).
Ο στατιστικός έλεγχος t - test για ζευγαρωτές παρατηρήσεις κατέδειξε πως
η μέση τιμή της 2ης μέτρησης (Μ = 86,3kg, SD = 15,2) είναι σημαντικά
μεγαλύτερη από τη μέση τιμή της 1ης μέτρησης (Μ = 90kg, SD = 15,2),
t(16) = 2,032, p = 0,029, (μονόπλευρος έλεγχος). Το 95% διάστημα
εμπιστοσύνης για τη διαφορά των δύο μετρήσεων είναι από 3 έως 4,4
kg.
Στα πλαίσια διπλωματικής εργασίας με τίτλο “Ψυχολογικά Χαρακτηριστικά
Γονέων με Παιδιά με Αναπηρία” καταγράφηκαν ορισμένα δημογραφικά και
ψυχομετρικά χαρακτηριστικά γονεων από 100 οικογένειες δύο νομων της
χώρας. Τα δεδομένα είναι σε ένα αρχείο Excel διαθέσιμα για λήψη εδώ.
1) Να κάνετε λήψη τα δεδομένα.
2) Να εισάγετε τα δεδομένα στο R Studio ως data.frame με όνομα
parents.
3) Εκτελέστε την εντολή head(parents)
4) Μετατρέψτε όσες στήλες πρέπει από αλφαριθμητικές (character) σε
παράγοντες (factors), αξιοποιώντας τη συνάρτηση η συνάρτηση
create.factors:
parents = create_factors(parents)
summary(parents)
parents$child_gender = plyr::revalue(parents$child_gender, c("αγορι"="Αγόρι", "κορη"="Κορίτσι"))
parents$child_disease = ordered(parents$child_disease, levels = c('Σε αρχικά στάδια η νόσος', 2, 3, 4, 'Πολύ βαριά'))
library(Hmisc)
label(parents$gender) = 'Φύλο'
label(parents$marital) = 'Οικογενειακή κατάσταση'
label(parents$job) = 'Εργασιακή κατάσταση'
label(parents$age_category) = 'Ηλικιακή κατηγορία'
label(parents$schico) = 'Καταφυγή σε ψυχολόγο'
label(parents$schico_drugs) = 'Λήψη φαρμάκων'
label(parents$child_gender) = 'Φύλο Παιδιού'
label(parents$child_disease) = 'Εκτίμηση ασθένειας παιδιού'
label(parents$hdhq.total) = 'Επιθετικότητα (HDHQ)'
label(parents$scl_90_gen_deikt_sympt) = 'Ψυχοπαθολογία (GSI)'
label(parents$oas_total_score) = 'Εξωτερική Ντροπή'
label(parents$ess_total) = 'Εσωτερική Ντροπή'
label(parents$stai_present) = 'Άγχος ως κατάσταση'
label(parents$stai_general) = 'Άγχος ως χαρακτηριστικό της προσωπικότητας'
label(parents$grad_level_new) = 'Εκπαιδευτικό επίπεδο'
Στα πλαίσια της ανάλυσης τέθηκε το ερώτημα αν τα δύο φύλα
εκπροσωπούνται εξίσου στα παιδιά (μεταβλητή parents$child_gender).
Αξιοποιείστε τη συνάρτηση nice_pie_plot για να δημιουργήσετε το αντίστοιχο κυκλικό διάγραμμα
Εφαρμόστε τη συνάρτηση για να αποκτήσετε μία ένδειξη σχετικά με την υπόθεση
my_pie_plot(parents$child_gender)
my_homogeneity_chi_square(parents$child_gender)
Η εφαρμογή της δοκιμασίας ομοιογένειας χ2 απέδειξε ότι μεταξύ των _______ μαθητών δεν υπήρχε σημαντική διαφοροποίηση ως προς το φύλο των παιδιών, επικυρώνοντας την αντιπροσωπευτικότητα του δείγματος σε σχέση με αυτόν τον παράγοντα (χ2(_______) = _______, p = _______).
nice_pie_plot(parents$gender)
my_homogeneity_chi_square(parents$gender)
Στη συνέχεια, συμπληρώστε την πρόταση:
Η εφαρμογή της δοκιμασίας ομοιογένειας χ2 κατέδειξε ότι υπήρχε σημαντική διαφοροποίηση μεταξύ των γονέων ως προς το φύλο (χ2(_______) = _______, p = _______). Συγκεκριμένα, οι μητέρες αποτελούσαν σημαντικά μεγαλύτερο ποσοστό του δείγματος σε σχέση με τους πατέρες των παιδιών (_______ έναντι _______).
Σημείωση
Το παραπάνω εύρημα υποδεικνύει πως το δείγμα της έρευνας δεν είναι
ισορροπημένο (balanced) ως προς το φύλο των γονέων. Αυτό δεν είναι
απαραίτητα μεγάλο πρόβλημα, ωστόσο αν το φύλο συμμετέχει σε κάποιο πιο
περίπλοκο μοντέλο (π.χ. γραμμική παλινδρόμηση ή ανάλυση διακύμανσης), θα
πρέπει να τεκμηριώνονται επαρκώς οι προυποθέσεις εγκυρότητας των
αποτελεσμάτων.
Ελέγξτε την υπόθεση εφαρμόζοντας τη δοκιμασία ανεξαρτησίας x2:
my_chi_square(parents, c('marital', 'gender'))
Παρατηρήστε ότι η δοκιμασία x2 δεν είναι αξιόπιστη και συγχωνεύστε κατηγορίες με λίγες τιμές:
library(forcats)
parents$marital2 <- fct_collapse(parents$marital,
"Χήρος/α/Διαζευγμένος/η" = c("Χήρος/α", "Διαζευγμένος/η"),
"Έγγαμος/η" = c("Έγγαμος/η"))
Στη συνέχεια, εφαρμόστε ξανά τη δοκιμασία x2:
my_chi_square(parents, c('marital2', 'gender'))
Οπτικοποιήστε το αποτέλεσμα με το κατάλληλο ραβδόγραμμα στοίβας:
my_stack_plot(parents, 'marital2', 'gender', type = 3, flip.plot = TRUE)
Στη συνέχεια, συμπληρώστε την πρόταση:
Η εφαρμογή της δοκιμασίας ανεξαρτησίας χ2 κατέδειξε ότι υπήρχε στοχαστική ανεξαρτησία μεταξύ του φύλου και της οικογενειακής κατάστασης των γονέων (χ2(_______) = _______, p = _______).
Επαναλάβετε τη διαδικασία για να ελέγξετε αν η επαγγελματική κατάσταση (marital) διαφοροποιείται σημαντικά μεταξύ των δύο φύλων των γονέων (μεταβλητή gender)
Επαναλάβετε τη διαδικασία για να ελέγξετε αν ο τόπος κατοικίας (place_live) διαφοροποιείται σημαντικά μεταξύ των δύο φύλων των γονέων (μεταβλητή gender)
Επαναλάβετε τη διαδικασία για να ελέγξετε αν η καταφυγή σε ψυχολόγο (schico) διαφοροποιείται σημαντικά μεταξύ των δύο φύλων των γονέων (μεταβλητή gender)
Ένα από τα ερευνητικά ερωτήματα αφορά το κατά πόσο διαφοροποιούνται οι άνδρες και οι γυναίκες ως προς τα ψυχομετρικά τους χαρακτηριστικά. Το φύλο είναι η μεταβλητή gender είναι το φύλο ενώ τα ψυχομετρικά χαρακτηριστικά είναι οι μεταβλητές: “hdhq.total”, “scl_90_gen_deikt_sympt”, “oas_total_score”, “ess_total”, “stai_present”, “stai_general”.
Να ελέγξετε τις παραπάνω υποθέσεις εκτελώντας τις εντολές:
my_t_test_independent_samples(parents, c("hdhq.total", "scl_90_gen_deikt_sympt", "oas_total_score", "ess_total", "stai_present", "stai_general"), "gender")
Ο στατιστικός έλεγχος t - test για δύο ανεξάρτητα δείγματα κατέδειξε πως δεν υπήρχε σημαντική διαφοροποίηση στην επιθετικότητα μεταξύ των 63 γυναικών και των 27 ανδρών (20 ± 8.4 vs 20 ± 8.82, t(_____) = _____, p = _____) (δίπλευρος έλεγχος).
Σημείωση
Καθώς το δείγμα είναι αρκετά μεγάλο, η προϋπόθεση της κανονικότητας των
κατανομών δεν επηρεάζει σημαντικά την εγκυρότητα του αποτελέσματος. Αν
ωστόσο, είναι επιθυμητός ο έλεγχος της κανονικότητας της κατανομής ανά
ομάδα φύλου, για κάποια από τις μεταβλητές (π.χ. την hdhq.total) αυτό
μπορεί να γίνει με την εντολή:
check_normality_of_column_by_group(parents$hdhq.total, parents$gender)
Στην περίπτωση που απαιτείται, η μη παραμετρική δοκιμασία Wilcoxon μπορεί να υλοποιηθεί με την εντολή:
wilcox.test(parents$hdhq.total ~ parents$gender)
my_t_test_paired_samples(parents, c('stai_general', 'stai_present'))
diff = parents$stai_present - parents$stai_general
my_check_normality_of_vector(diff)
Ο έλεγχος t-test για ζευγαρωτές παρατηρήσεις κατέδειξε πως δεν υπήρχε στατιστικά σημαντική διαφορά στο άγχος ως προς τις δύο μετρήσεις ως χαρακτηριστικό της προσωπικότητας (Μ = ________, SD = ________) και ως κατάσταση (Μ = ________, SD = ________), t(________) = ________, p = ________ (δίπλευρος έλεγχος).
Σημείωση
Αν η κανονικότητα των διαφορών δεν υποστηρίζεται από τα δεδομένα,
εφαρμόστε την δοκιμασία Wilcoxon:
wilcox.test(parents$stai_present, parents$stai_general, paired = TRUE)
Στα πλαίσια έρευνας καταγράφηκαν ορισμένα δημογραφικά και ψυχομετρικά
χαρακτηριστικά νοσηλευτών που εργάζονται σε μονάδες εντατικής θεραπείας.
Τα δεδομένα είναι σε ένα αρχείο SPSS διαθέσιμα για λήψη εδώ.
1) Να κάνετε λήψη τα δεδομένα.
2) Να εισάγετε τα δεδομένα στο R Studio ως data.frame με όνομα
nurses.
3) Εκτελέστε την εντολή head(nurses)
4) Μετατρέψτε όσες στήλες πρέπει από αλφαριθμητικές (character) σε
παράγοντες (factors), αξιοποιώντας τη συνάρτηση η συνάρτηση
create.factors:
nurses = create_factors(nurses)
summary(nurses)
levels(nurses$gender) = c('Γυναίκα', 'Ανδρας')
levels(nurses$marital) = c('Ελεύθερος/η', 'Παντρεμένος/η', 'Άλλο (Διαζευγμένος/Χήρος)')
levels(nurses$married) = c('Όχι', 'Ναι')
levels(nurses$livingplace) = c('Χωριό', 'Μικρή Πόλη', 'Μεγάλη Πόλη')
levels(nurses$children) = c('Όχι', 'Ναι')
levels(nurses$siblings) = c('Όχι', 'Ναι')
levels(nurses$closerelativepassedaway) = c('Όχι', 'Ναι')
library(Hmisc)
label(nurses$age) = 'Ηλικία'
label(nurses$gender) = 'Φύλο'
label(nurses$marital) = 'Οικογενειακή κατάσταση'
label(nurses$married) = 'Παντρεμένος/η'
label(nurses$livingplace) = 'Τόπος Κατοικίας'
label(nurses$children) = 'Παιδιά'
label(nurses$childrenhwowmany) = 'Πλήθος Παιδιών'
label(nurses$siblings) = 'Συγγενείς'
label(nurses$siblingshowmany) = 'Πλήθος Συγγενών'
label(nurses$experience) = 'Εμπειρία'
label(nurses$satisfactionfromprofession) = 'Ικανοποίηση από το επάγγελμα'
label(nurses$satisfactionfromjobposition) = 'Ικανοποίηση από τη θέση'
label(nurses$closerelativepassedaway) = 'Κάποιος συγγενής απεβίωσε πρόσφατα'
label(nurses$DEP) = 'Depression'
label(nurses$ANX) = 'Anxiety'
label(nurses$SpREUK) = 'Spirituality'
label(nurses$Extraversion) = 'Extraversion'
label(nurses$Neuroticism) = 'Neuroticism'
label(nurses$Psychotism) = 'Psychotism'
label(nurses$EE) = 'Emotional Exhaustion'
label(nurses$DP) = 'Depersonalization'
label(nurses$PA) = 'Personal Accomplishment'
frequency_table(nurses, c('gender', 'marital', 'married', 'livingplace', 'children', 'childrenhwowmany', 'siblings', 'siblingshowmany', 'experience', 'satisfactionfromprofession', 'satisfactionfromjobposition', 'closerelativepassedaway'))
my_pie_plot(nurses$gender)
my_bar_plot(nurses$marital)
Οι ισχυρισμοί είναι οι εξής:
α) Τα δύο φύλα εκπροσωπούνται το ίδιο στο δείγμα.
β) Το φύλο είναι ανεξάρτητο από την οικογενειακή κατάσταση.
γ) Το μέσο πλήθος παιδιών δεν είναι σημαντικά διαφορετικό από το
2.
δ) Το μέσο πλήθος παιδιών δεν διαφέρει σημαντικά μεταξύ στους άνδρες
και στις γυναίκες.
ε) Υπάρχει σημαντική διαφοροποίηση στα ψυχολογικά χαρακτηριστικά
μεταξύ ανδρών και γυναικών.
ζ) Υπάρχει σημαντική διαφοροποίηση στα ψυχολογικά χαρακτηριστικά
μεταξύ παντρεμένων και μη παντρεμένων.
η) Υπάρχει σημαντική διαφοροποίηση στα ψυχολογικά χαρακτηριστικά
μεταξύ αυτών που έχουν παιδιά και αυτών που δεν έχουν.
θ) Υπάρχει σημαντική διαφοροποίηση στα ψυχολογικά χαρακτηριστικά
μεταξύ αυτών που έχουν χάσει πρόσφατα κάποιον συγγενή τους και των
υπολοίπων.
ι) Υπάρχει σημαντική διαφορά στην ικανοποίηση από το επάγγελμα και
στην ικανοποίηση από τη θέση.
Στα πλαίσια έρευνας καταγράφηκαν ορισμένα δημογραφικά και ψυχομετρικά
χαρακτηριστικά ηλικιωμένων ανθρώπων που επισκεπτόταν ένα οδοντριατρείο
για σχετικές θεραπείες. Τα δεδομένα είναι σε ένα αρχείο SPSS διαθέσιμα
για λήψη εδώ.
1) Να κάνετε λήψη τα δεδομένα.
2) Να εισάγετε τα δεδομένα στο R Studio ως data.frame με όνομα
patients.
3) Εκτελέστε την εντολή head(patients.)
4) Μετατρέψτε όσες στήλες πρέπει από αλφαριθμητικές (character) σε
παράγοντες (factors), αξιοποιώντας τη συνάρτηση η συνάρτηση
create.factors:
patients = create_factors(patients)
summary(patients)
levels(patients$gender) = c('Γυναίκα', 'Ανδρας')
levels(patients$marital) = c('Ελεύθερος/η', 'Παντρεμένος/η', 'Διαζευγμένος/η', 'Χήρος/α)')
levels(patients$livingplace) = c('Χωριό', 'Μικρή Πόλη', 'Μεγάλη Πόλη')
levels(patients$educational) = c('Αναλφάβητος/Πρωτοβάθμια', 'Δευτεροβάθμια/Τριτοβάθμια')
levels(patients$pension) = c('Όχι', 'Ναι')
levels(patients$pensionisgood) = c('Όχι', 'Ναι')
levels(patients$worktodayformoney) = c('Όχι', 'Ναι')
levels(patients$siblings) = c('Όχι', 'Ναι')
levels(patients$sister) = c('Όχι', 'Ναι')
levels(patients$brother) = c('Όχι', 'Ναι')
levels(patients$children) = c('Όχι', 'Ναι')
levels(patients$daughter) = c('Όχι', 'Ναι')
levels(patients$son) = c('Όχι', 'Ναι')
levels(patients$daughterlivenearyou) = c('Όχι', 'Ναι')
levels(patients$sonlivesnearyou) = c('Όχι', 'Ναι')
levels(patients$holidays) = c('Όχι', 'Ναι')
levels(patients$walking) = c('Όχι', 'Ναι')
levels(patients$garden) = c('Όχι', 'Ναι')
levels(patients$difficultgiratia) = c('Όχι', 'Ναι')
levels(patients$friendsinthepast) = c('Όχι', 'Ναι')
levels(patients$friendstoday) = c('Όχι', 'Ναι')
library(Hmisc)
label(patients$age) = 'Ηλικία'
label(patients$gender) = 'Φύλο'
label(patients$marital) = 'Οικογενειακή κατάσταση'
label(patients$livingplace) = 'Τόπος Κατοικίας'
label(patients$children) = 'Παιδιά'
label(patients$siblings) = 'Συγγενείς'
label(patients$sister) = 'Αδελφή'
label(patients$brother) = 'Αδελφός'
label(patients$daughter) = 'Κόρη'
label(patients$son) = 'Γιος'
label(patients$daughterlivenearyou) = 'Η κόρη ζει κοντά'
label(patients$sonlivesnearyou) = 'Ο γιος ζει κοντά'
label(patients$holidays) = 'Διακοπές'
label(patients$walking) = 'Περπάτημα'
label(patients$garden) = 'Κηπουρική'
label(patients$difficultgiratia) = 'Δύσκολα γηρατειά'
label(patients$friendsinthepast) = 'Φίλοι στο παρελθόν'
label(patients$friendstoday) = 'Φίλοι σήμερα'
label(patients$DEP) = 'Depression'
label(patients$ANX) = 'Anxiety'
label(patients$OAS) = 'External Shame'
label(patients$ESS) = 'Internal Shame'
label(patients$SELF_COMPASSION) = 'Self Compassion'
label(patients$CDRISC) = 'Resilience'
label(patients$GOHAI.PF) = 'Physical Functioning'
label(patients$GOHAI.PS) = 'Psyhosocial Functioning'
label(patients$GOHAI.PD) = 'Pain / Discomfort'
frequency_table(patients, c('gender', 'marital', 'livingplace', 'children', 'siblings', 'sister', 'brother', 'daughter', 'son'))
my_pie_plot(patients$gender)
my_bar_plot(patients$marital)
Οι ισχυρισμοί είναι οι εξής:
α) Τα δύο φύλα (gender) εκπροσωπούνται το ίδιο στο δείγμα.
β) Το φύλο (gender) είναι ανεξάρτητο από τον τόπο κατοικίας
(livingplace).
γ) Η μέση τιμή στην κατάθλιψη (DEP) είναι σημαντικά διαφορετική από
το 12.
δ) H μέση τιμή στην κατάθλιψη (DEP) δεν διαφέρει σημαντικά μεταξύ
ανδρών και γυναικών.
ε) Υπάρχει σημαντική διαφοροποίηση μεταξύ Physical Functioning και
Psyhosocial Functioning.
Επικοινωνία: Επαμεινώνδας Διαμαντοπουλος, Τμήμα ΗΜ/ΜΥ, Δ.Π.Θ. Email: epdiaman@ee.duth.gr. Τηλ: 25410 79757, 6944683327↩︎