Έκδοση: 02 / 05 / 2024

Προετοιμασία περιβάλλοντος R
Οι παρακάτω εντολές, ελέγχουν αν έχουν εγκατασταθεί τα απαιτούμενα πακέτα για την εκτέλεση του συνόλου του κώδικα της ενότητας.

list.of.packages <- c("dplyr", "ggplot2", "moments", "nortest", "BSDA", "gplots", "car", "ggpubr", "RColorBrewer", "plyr", "expss",  "htmlTable", "forcats", "tidyverse")
new.packages <- list.of.packages[!(list.of.packages %in% installed.packages()[,"Package"])]
if(length(new.packages)) install.packages(new.packages)

Όλες οι συναρτήσεις που χρησιμοποιούνται στην ενότητα αυτή βρίσκονται στο αρχείο της γλώσσας R: MyRFunctions.R.

Για να γίνουν διαθέσιμες για χρήση αρκεί να φορτωθούν στο περιβάλλον της R, εκτελώντας την εντολή

source("https://utopia.duth.gr/epdiaman/files/kedivim/MyRFunctions.R")

(Στην περίπτωση όπου γίνει λήψη τοπικά το αρχείο MyRFunctions.R, πρέπει να αλλαξει ανάλογα και η διεύθυνση του αρχείου)

1 Δοκιμασία χ2 ως έλεγχος ομοιογένειας.

Η δοκιμασία χ2 ως έλεγχος ομοιογένειας είναι ο τρόπος για να ελέγξουμε πως ένα δείγμα ποιοτικής μεταβλητής προέρχεται από πληθυσμό που περιέχει τις τιμές του δείγματος σε μία προκαθορισμένη αναλογία. Απαραίτητη προϋπόθεση είναι οι αναμενόμενες συχνότητες να μην είναι ιδιαίτερα μικρές.

1.1 Παράδειγμα : Έλεγχος σύστασης ενός πληθυσμού εντόμων

Ένας ερευνητής βιολόγος ισχυρίζεται πως στον πληθυσμό ενός είδους εντόμου, τα μισά έχουν κίτρινο χρώμα, ενώ τα άλλα μισά από πράσινο και κόκκινο με την ίδια πιθανότητα. Ο παραπάνω ισχυρισμός ισοδυναμεί με την υπόθεση πως τα ποσοστά των τριών χρωμάτων στον πληθυσμό είναι

Η0 (υπόθεση του ερευνητή σχετικά με την κατανομή των χρωμάτων):
Κίτρινο: 50%
Πράσινο: 25%
Κόκκινο: 25%

Ο ερευνητής συνέλεξε ένα τυχαίο δείγμα από 20 τέτοια έντομα και κατέγραψε τα στοιχεία στο διάνυσμα bug.colors. Η γλώσσα R επιτρέπει να καταχωρήσουμε τα χρώματα ως αριθμούς (Κίτρινο = 1, Πράσινο = 2, Κόκκινο = 3) και μετά να ορίσουμε τις αντίστοιχες ετικέτες για κάθε έναν αριθμό. Οι εντολές που πρέπει να εκτελεστούν είναι οι εξής:

bug.colors = c(1, 2, 1, 3, 3, 2, 2, 1, 1, 1, 2, 3, 3, 2, 1, 1 ,1 ,2, 3, 2)
bug.colors = factor(bug.colors, levels = c(1,2,3), labels = c("Κίτρινο", "Πράσινο", "Κόκκινο"))

Εκτελούμε τη δοκιμασία ομοιογένειας με τη συνάρτηση my_homogeneity_chi_square η οποία αποδίδει τους απαραίτητους πίνακες και στατιστικά για την αναφορά της δοκιμασίας.

expected.percent = c(0.5, 0.25, 0.25) # θεωρητικές πιθανότητες
my_homogeneity_chi_square(bug.colors, expected.percent)
Frequency distribution
vector  Count   Valid percent   Percent   Responses, %   Cumulative responses, % 
 Κίτρινο  8 40 40 40 40
 Πράσινο  7 35 35 35 75
 Κόκκινο  5 25 25 25 100
 #Total  20 100 100 100
 <NA>  0 0
H0: Κίτρινο: 0.5, Πράσινο: 0.25, Κόκκινο: 0.25
Observed and expected frequencies under H0
Κίτρινο Πράσινο Κόκκινο
Observed 8 7 5
Expected 10 5 5
Difference 2 -2 0
Result
x2(2) = 1.2, p = 0.549. H0 is not rejected.

Παρατηρούμε ότι η κατανομή των χρωμάτων (και τα αντίστοιχα ποσοστά) στο δείγμα των 20 εντόμων είναι:

Κίτρινο: 8 (40%)
Πράσινο: 7 (35%)
Κόκκινο: 5 (25%)

Αν η υπόθεση Η0 του ερευνητή είναι σωστή τότε (ιδανικά) θα περιμέναμε οι συχνότητες να ήταν

Κίτρινο: 10 (50%)
Πράσινο: 5 (25%)
Κόκκινο: 5 (25%)

Άρα, το ερώτημα που ανακύπτει είναι:

Ποια είναι η πιθανότητα η διαφοροποίηση του δείγματος από την υπόθεση να οφείλεται στο τυχαίο σφάλμα της δειγματοληψίας;

Περισσότερο μεθοδικά, αν pκίτρινων, pπράσινων, pκόκκινων τα ποσοστό στον πληθυσμό των κίτρινων, πράσινων και κόκκινων εντόμων τότε επιθυμούμε να βρούμε αν από τα δεδομένα του δείγματος απορρίπτεται ή όχι η στατιστική υπόθεση:

Η0: pκίτρινο = 0,5, pπράσινο = 0,25, pκόκκινο = 0,25,
έναντι της ερευνητικής υπόθεσης:
Η1: όχι η Η0.

Η κατάλληλη στατιστική δοκιμασία για αυτό το σκοπό είναι η δοκιμασία ομοιογένειας χ2.

Παρατηρούμε πως η τιμή του στατιστικού χ2 που αντιστοιχεί στην παρατηρούμενη διαφοροποίηση είναι ίση με 1,2. Καθώς το στατιστικό αυτό ακολουθεί την κατανομή χ2 με 2 βαθμούς ελευθερίας (συμβολικά χ2 ~ χ2(2)) αναζητούμε την πιθανότητα μία τέτοια τιμή ή μεγαλύτερη τιμή να οφείλεται στο τυχαίο σφάλμα της δειγματοληψίας. 

Η πιθανότητα αυτή είναι ίση με:

p = 0,5488 = 54,88% > 5% = 0,05


άρα συμπεραίνουμε πως δεν έχει συμβεί κάτι ιδιαίτερα ξένο προς την υπόθεση πως το δείγμα προέρχεται από πληθυσμό με ποσοστά 50%, 25% και 25% για τα χρώματα Κίτρινο, Πράσινο και Κόκκινο αντίστοιχα και κατά συνέπεια δεν έχουμε ένδειξη πως πρέπει να την απορρίψουμε έναντι της εναλλακτικής υπόθεσης.

1.2 Καταγραφή της δοκιμασίας χ2 ως έλεγχος ομοιογένειας.

Στοιχεία που πρέπει να αναφερθούν
• το συνολικό πλήθος των παρατηρήσεων,
• η τιμή του στατιστικού χ2
• οι βαθμοί ελευθερίας
• η στατιστική σημαντικότητα p της διαφοροποίησης από τη στατιστική υπόθεση Η0

Α. Μη σημαντική διαφοροποίηση.

Η εφαρμογή της δοκιμασίας χ2 κατέδειξε πως το ποσοστό των χρωμάτων στον πληθυσμό των εντόμων δεν διαφέρει σημαντικά από την υπόθεση πως το Κίτρινο, Πράσινο και Κόκκινο χρώμα εμφανίζονται με τα ποσοστά 50%, 25%, 25% αντίστοιχα (χ2(2, N = 20) = 1,2, p = 0,549) (ή απλούστερα χ2(2) = 1,2, p = 0,549).

Β. Σημαντική διαφοροποίηση.

Η δοκιμασία χ2 κατέδειξε πως το ποσοστό των μαθητών που κάνουν δίαιτα διαφέρει σημαντικά ανάμεσα στα δύο φύλα (χ2(1, N = 24) = 8,4, p = 0,003) (ή απλούστερα χ2(1) = 8,4, p = 0,003).

1.2.1 Αξιοποίηση του ChatGPT για την καταγραφή των αποτελεσμάτων

Το ChatGPT έχει τη δυνατότητα να δημιουργεί μία αναφορά που μπορεί να αποτελέσει τη βάση της τελικής αναφοράς. Μία ενδεικτική ερώτηση που μπορεί να οδηγήσει σε αναφορά είναι η εξής:

Ερώτηση
I will give you the results of a chi square homogeneity test. Please provide a short statistical report for the results section of a research article. Use APA v7 style. The results are: “H0: Κίτρινο: 0.5, Πράσινο: 0.25, Κόκκινο: 0.25 Observed and expected frequencies under H0 Κίτρινο Πράσινο Κόκκινο Observed 8 7 5 Expected 10 5 5 Difference 2 -2 0 Result x2(2) = 1.2, p = 0.549. H0 is not rejected.”

Η παραπάνω ερώτηση δίνει απάντηση όπως η παρακάτω:

Απάντηση ChatGPT
A chi-square homogeneity test was conducted to examine whether the observed frequencies of color choices (yellow, green, and red) differed significantly from the expected frequencies under the null hypothesis (H0). The null hypothesis posited that the proportions of colors were 50% yellow, 25% green, and 25% red.

Under H0, the observed frequencies for yellow, green, and red were 8, 7, and 5, respectively, while the expected frequencies were 10, 5, and 5, respectively. The differences between observed and expected frequencies were 2 for yellow, -2 for green, and 0 for red.

The chi-square test statistic (χ²) was calculated to be 1.2 with 2 degrees of freedom, resulting in a p-value of 0.549.

Based on the analysis, the null hypothesis (H0) was not rejected at the 0.05 significance level. Therefore, there was insufficient evidence to conclude that the observed frequencies significantly differed from the expected frequencies.

In summary, the findings suggest that the proportions of color choices (yellow, green, and red) did not deviate significantly from the proportions specified in the null hypothesis (χ²(2) = 1.2, p = 0.549).

1.3 Παρατηρήσεις

1.3.1 Ο έλεγχος ομοιογένειας στην κυριολεκτική του εφαρμογή!

Ως ειδική περίπτωση ο έλεγχος ομοιογένειας εφαρμόζεται για να ελέγξει αν ένα δείγμα μίας ποιοτικής μεταβλητής προέρχεται από πληθυσμό στον οποίο όλα τα στοιχεία του εκπροσωπούνται με την ίδια αναλογία, δηλαδή πληθυσμό ομοιογενή ως προς τις τιμές του. Από αυτήν την ειδική περίπτωση έχει υιοθετηθεί ο προσδιορισμός «ομοιογένειας» στον τίτλο της μεθόδου. Η στατιστική υπόθεση σε αυτήν την περίπτωση παίρνει τη μορφή:

Η0: pκίτρινων = pπράσινων = pκόκκινων,

και εξετάζεται έναντι της ερευνητικής υπόθεσης:

Η1: όχι η Η0.


Ο ερευνητής μπορεί να υλοποιήσει τον έλεγχο αυτό με την εντολή:

my_homogeneity_chi_square(bug.colors)
Frequency distribution
vector  Count   Valid percent   Percent   Responses, %   Cumulative responses, % 
 Κίτρινο  8 40 40 40 40
 Πράσινο  7 35 35 35 75
 Κόκκινο  5 25 25 25 100
 #Total  20 100 100 100
 <NA>  0 0
H0: Κίτρινο: 0.33, Πράσινο: 0.33, Κόκκινο: 0.33
Observed and expected frequencies under H0
Κίτρινο Πράσινο Κόκκινο
Observed 8 7 5
Expected 6.7 6.7 6.7
Difference -1.3 -0.3 1.7
Result
x2(2) = 0.7, p = 0.705. H0 is not rejected.

1.3.2 Περιορισμοί στην ερμηνεία του αποτελέσματος

Σύμφωνα με τον Cochran (1952) η δοκιμασία χ2 έχει μειωμένη ισχύ αν οι αναμενόμενες τιμές είναι μικρότερες από 1 ή αν το 20% των αναμενόμενων κελιών είναι μικρότερες από το 5, ωστόσο νεότερες αναφορές καταδεικνύουν πως τα όρια αυτά είναι συντηρητικά και πως ο ερευνητής μπορεί να θεωρεί αξιόπιστο το αποτέλεσμα της μεθόδου όταν οι αναμενόμενες συχνότητες είναι μεγαλύτερες από 0,5 και οι περισσότερες να είναι μεγαλύτερες από τη μονάδα.

Στην περίπτωση όπου η παραπάνω προϋπόθεση δεν τηρείται υπάρχει η δυνατότητα υπολογισμού του p με προσομοίωση Monte Carlo, εφαρμόζοντας τη συνάρτηση με τον παρακάτω τρόπο:

my_homogeneity_chi_square(bug.colors, simulate.p.value = TRUE)
Frequency distribution
vector  Count   Valid percent   Percent   Responses, %   Cumulative responses, % 
 Κίτρινο  8 40 40 40 40
 Πράσινο  7 35 35 35 75
 Κόκκινο  5 25 25 25 100
 #Total  20 100 100 100
 <NA>  0 0
H0: Κίτρινο: 0.33, Πράσινο: 0.33, Κόκκινο: 0.33
Observed and expected frequencies under H0
Κίτρινο Πράσινο Κόκκινο
Observed 8 7 5
Expected 6.7 6.7 6.7
Difference -1.3 -0.3 1.7
Result
Monte Carlo Simulation: p = 0.794. H0 is not rejected.

1.3.3 Αναπαράσταση της δοκιμασίας στην R

Για την επίδειξη του τρόπου που υπολογίζεται το στατιστικό x2, και για τον τρόπο που υπολογίζεται η στατιστική σημαντικότητα της διαφοράς, μπορεί να αξιοποιηθεί η συνάρτηση simulate_x2_homogeneity_test. Η εκτέλεσή της πολλές φορές διαφωτίζει τον τρόπο με τον οποίο λειτουργεί η στατιστική συμπερασματολογία στη δοκιμασία αυτή.

Hypothesis = c(0.5, 0.25, 0.25)
N = 20
simulate_x2_homogeneity_test(Hypothesis, N)

Δραστηριότητα I
Για να ελέγξουμε την υπόθεση πως ένα ζάρι είναι αμερόληπτο, το ρίξαμε 120 φορές και βρήκαμε τις παρακάτω συχνότητες αντίστοιχα για τους αριθμούς 1, 2, 3, 4, 5, 6: 23, 18, 18, 22, 17, 22.

α) Να ελεγχθεί η υπόθεση πως Η0: p1 = p2 = p3= p4= p5= p6 = 1/6,

έναντι της ερευνητικής υπόθεσης: Η1: όχι η Η0.

Χρησιμοποιήστε τον κώδικα:

die.results = c(rep(1, 23), rep(2, 18), rep(3, 18), rep(4, 22), rep(5, 17), rep(6, 22))
my_homogeneity_chi_square(die.results)

Στη συνέχεια, καταγράψτε το αποτέλεσμα συμπληρώνοντας κατάλληλα το παρακάτω πρότυπο: Η εφαρμογή της δοκιμασίας ομοιογένειας χ2 κατέδειξε πως ___________________________________________________________________________ (χ2(_____) = ________, p = _________).

Δραστηριότητα II (Δεδομένα parents)
Θέλουμε να ελέγξουμε την υπόθεση πως οι γονείς είναι ομοιόμορφα κατανεμημένοι ανά τόπο κατοικίας (Χωριό/Κωμόπολη και Πόλη).

α) Να ελεγχθεί η υπόθεση πως Η0: pΧΚ = pΠ = 0.5,

έναντι της ερευνητικής υπόθεσης: Η1: όχι η Η0.

Χρησιμοποιήστε τον κώδικα:

my_homogeneity_chi_square(parents$place_live)

Στη συνέχεια, καταγράψτε το αποτέλεσμα συμπληρώνοντας κατάλληλα το παρακάτω πρότυπο: Η εφαρμογή της δοκιμασίας ομοιογένειας χ2 κατέδειξε πως ___________________________________________________________________________ (χ2(_____) = ________, p = _________).

2 Δοκιμασία χ2 ως έλεγχος ανεξαρτησίας

Η δοκιμασία χ2 ως έλεγχος ανεξαρτησίας είναι ο τρόπος για να ελέγξουμε αν δύο ποιοτικές μεταβλητές έχουν στατιστική εξάρτηση. Απαραίτητη προϋπόθεση είναι οι αναμενόμενες συχνότητες των συνδυασμών των τιμών των δύο ποιοτικών μεταβλητών να μην είναι ιδιαίτερα μικρές (δες παρατήρηση 2 της προηγούμενης παραγράφου)

2.1 Παράδειγμα

Μετά από το τέλος του εξαμήνου, καταγράφηκε η άποψη 102 φοιτητών για τον καθηγητή του μαθήματος της Στατιστικής σε κλίμακα 1 = Πολύ αρνητική έως 5 = Πολύ θετική όπως και η επιτυχία τους στις τελικές εξετάσεις. Οι παρατηρήσεις συγκεντρώθηκαν στον παρακάτω διμεταβλητό πίνακα συχνοτήτων.

Αποτέλεσμα Πολύ αρνητική Αρνητική Ουδέτερη Θετική Πολύ θετική Σύνολο
Αποτυχία 10 11 5 8 8 42
Επιτυχία 6 8 6 15 25 60
Σύνολο 16 19 11 23 33 102

Τα δεδομένα καταχωρούνται στον πίνακα the.table με τις παρακάτω εντολές

the.table = matrix(c(10, 11, 5, 8, 8, 6, 8, 6, 15, 25), 2, 5, byrow=TRUE)
rownames(the.table) = c('Αποτυχία', 'Επιτυχία')
colnames(the.table) = c('Πολύ αρνητική', 'Αρνητική', 'Ουδέτερη', 'Θετική',  'Πολύ θετική')

Επιθυμούμε να βρούμε αν από τα δεδομένα του δείγματος απορρίπτεται η στατιστική υπόθεση:

Η0: Η επιτυχία στις εξετάσεις είναι ανεξάρτητη από την αξιολόγηση.


έναντι της ερευνητικής υπόθεσης:

Η1: όχι η Η0.


Αν η υπόθεση Η0 της ανεξαρτησίας είναι αληθινή, τότε θα πρέπει οι παρατηρούμενες και οι αναμενόμενες συχνότητες να είναι ίσες. Ωστόσο, λόγω του τυχαίου σφάλματος της δειγματοληψίας, αυτές μπορεί και να διαφοροποιούνται. Στο στατιστικό χ2 αντανακλάται η συνολική διαφορά των παρατηρούμενων από τις θεωρητικώς αναμενόμενες συχνότητες, δηλαδή η “απόσταση” του δείγματος από την στατιστική υπόθεση Η0.

Υλοποιούμε τη δοκιμασία ανεξαρτησίας με την εντολή:

my_chi_square(the.table)

Test Var1 - Var2.
x2(4) = 9.57, p = 0.048. Result: DEPENDEND VARIABLES.

Observed Frequencies between combinations of Var1 - Var2
The statistic x2 reflects the overall difference between observed and expected frequencies.
Πολύ αρνητική Αρνητική Ουδέτερη Θετική Πολύ θετική Sum
Αποτυχία 10 11 5 8 8 42
Επιτυχία 6 8 6 15 25 60
Sum 16 19 11 23 33 102
Expected Frequencies
Less Than 5: 1 (10%)
According to Moore & McCabe, no more than 20% of the expected counts should be less than 5. Some expected counts can be <5, provided none <1, and 80% of the expected counts should be equal to or greater than 5.
Πολύ αρνητική Αρνητική Ουδέτερη Θετική Πολύ θετική Sum
Αποτυχία 6.6 7.8 4.5 9.5 13.6 42
Επιτυχία 9.4 11.2 6.5 13.5 19.4 60
Sum 16 19 11 23 33 102

Η πιθανότητα p, εκφράζει με στιστικό τρόπο την “απόσταση” του δείγματος από την υπόθεση Η0. Αν αυτή η πιθανότητα είναι εξαιρετικά μικρή τότε είναι εύλογο να αποφασίσουμε να απορρίψουμε την Η0 καθώς θα είναι εξαιρετικά απίθανο η Η0 να είναι αληθινή και να εμφανίστηκε ένα δείγμα με αυτά τα χαρακτηριστικά.

Το αν θα απορρίψουμε ή όχι την Η0 εξαρτάται από το όριο απόρριψης που έχουμε θέσει από πριν. Αυτό συμβολίζεται με α και συνήθως τίθεται να είναι 0,05 ή 0,01. Σε κάθε περίπτωση, η σύγκριση του p με το α, οδηγεί και στο συμπέρασμα και ολοκληρώνει τη διαδικασία.

Καθώς η σημαντικότητα p του ελέγχου είναι μικρότερη από το όριο του 0,05 συμπεραίνουμε πως η στατιστική υπόθεση μπορεί να απορριφθεί έναντι της εναλλακτικής υπόθεσης ή πιο απλά συνάγουμε πως υπάρχει στατιστική εξάρτηση της επιτυχίας στις εξετάσεις και της εντύπωσης του φοιτητή για τον καθηγητή που δίδασκε το μάθημα.

Για να διευκρινίσουμε τη φύση αυτής της εξάρτησης αρκεί να παρατηρήσουμε τις διαφορές μεταξύ των παρατηρούμενων από τις αναμενόμενες συχνότητες, ή απλούστερα να σχεδιάσουμε ένα κατάλληλο ραβδόγραμμα στοίβας.

my_stack_plot(the.table, type = 3, flip.plot = TRUE)

Συμπεραίνουμε πως οι φοιτητές που πέτυχαν στις εξετάσεις τείνουν να έχουν θετικότερη άποψη για τον καθηγητή τους από ότι αυτοί που απέτυχαν στις εξετάσεις.

Γράφουμε:

Η δοκιμασία χ2 κατέδειξε πως η άποψη των μαθητών για τον καθηγητή ήταν στατιστικώς εξαρτημένη με την επιτυχία στις εξετάσεις (χ2(4) = 9.574, p = 0.048).

Τα στοιχεία που πρέπει να αναφέρονται είναι
• το συνολικό πλήθος των παρατηρήσεων,
• η τιμή του στατιστικού χ2,
• οι βαθμοί ελευθερίας (df),
• η σημαντικότητα p της διαφοροποίησης από τη στατιστική υπόθεση Η0 .

2.1.1 Περιορισμοί στην ερμηνεία του αποτελέσματος

Όπως και στην περίπτωση του ελέγχου χ2 ομοιογένειας, έτσι και στον έλεγχο ανεξαρτησίας ισχύουν οι ίδιοι περιοδισμοί για τις αναμενόμενες συχνότητες. Πιο συγκεκριμένα, δεν πρέπει:
(α) να υπάρχουν αναμενόμενες τιμές μικρότερες από 1.
(β) περισσότερο από το 20% των αναμενόμενων κελιών να είναι μικρότερες από το 5.

Στην περίπτωση όπου οι παραπάνω προϋποθέσεις δεν τηρούνται υπάρχει η δυνατότητα υπολογισμού του p με προσομοίωση Monte Carlo, εφαρμόζοντας τη συνάρτηση με τον παρακάτω τρόπο:

my_chi_square(the.table, simulate.p.value = TRUE)

Test Var1 - Var2.
Monte Carlo Simulation: p = 0.05. Result: DEPENDEND VARIABLES.

Observed Frequencies between combinations of Var1 - Var2
The statistic x2 reflects the overall difference between observed and expected frequencies.
Πολύ αρνητική Αρνητική Ουδέτερη Θετική Πολύ θετική Sum
Αποτυχία 10 11 5 8 8 42
Επιτυχία 6 8 6 15 25 60
Sum 16 19 11 23 33 102
Expected Frequencies
Less Than 5: 1 (10%)
According to Moore & McCabe, no more than 20% of the expected counts should be less than 5. Some expected counts can be <5, provided none <1, and 80% of the expected counts should be equal to or greater than 5.
Πολύ αρνητική Αρνητική Ουδέτερη Θετική Πολύ θετική Sum
Αποτυχία 6.6 7.8 4.5 9.5 13.6 42
Επιτυχία 9.4 11.2 6.5 13.5 19.4 60
Sum 16 19 11 23 33 102

3 Έλεγχος κανονικότητας της κατανομής

Σε πολλές στατιστικές δοκιμασίες η εγκυρότητα των αποτελεσμάτων εξαρτάται από την υπόθεση πως το δείγμα των τιμών προέρχεται πληθυσμό που ακολουθεί την κανονική κατανομή. Στις επόμενες ενότητες περιγράφονται κάποιοι τρόποι με τους οποίους μπορεί να ελεγχθεί αυτή η προϋπόθεση. Τα δεδομένα που θα ελεγχθούν είναι τα παρακάτω:

one.sample.data = c(490, 503, 499, 492, 500, 501, 489, 478, 498, 508)

3.1 Έλεγχος κανονικότητας με ιστόγραμμα

Ο απλούστερος έλεγχος είναι με το ιστόγραμμα συχνοτήτων, εφοδιασμένο με την καμπύλη της κανονικής κατανομής. Η συνάρτηση my_histFrequency_with_normal_curve υλοποιεί αυτήν την ενέργεια.

Η εφαρμογή της στα δεδομένα one.sample.data αποδίδει το παρακάτω διάγραμμα:

my_histFrequency_with_normal_curve(one.sample.data, xlab = 'Βάρος', ylab = 'Συχνότητα', main = 'Ιστόγραμμα τιμών')

Στατιστικά μέτρα κανονικότητας και οι αντίστοιχες στατιστικές δοκιμασίες μπορού να υλοποιηθούν με τη συνάρτηση συνάρτηση my_check_normality_of_vector.

Εφαρμόζουμε τη συνάρτηση με την εντολή:

my_check_normality_of_vector(one.sample.data)
Normality statistics
Statistic Description
Skewness & Kurtosis
  Skewness -0.683 Normal distribution has skew = 0. For a unimodal distribution, negative skew commonly indicates that the tail is on the left side of the distribution, and positive skew indicates that the tail is on the right.
  Kurtosis 2.879 Normal distribution has kurtosis = 3. Values over 3 indicates a platykurtic distribution and values less than 3 indicates a leptokurtic distribution.
Normality Tests. Η0: This sample is from a normal distribution vs Η1: Not the Η0.
  Shapiro–Wilk W = 0.945, p = 0.614 This test is more appropriate method for small sample sizes (<50 samples) although it can also be handling on larger sample size.
  Lilliefors D = 0.201, p = 0.305 The Lilliefors test uses the same calculations as the Kolmogorov-Smirnov test, but it is more conservative in the sense that the Lilliefors Test is less likely to show that data is normally distributed.

Παρατηρούμε πως η κυρτότητα του δείγματος (Kurtosis) είναι ίση με 2,87, περίπου ίση με 3 αλλά και ο δείκτης ασυμμετρίας (Skewness) είναι -0,68, μικρότερος της μονάδας κατά απόλυτη τιμή, άρα η κατανομή του δείγματος προσομοιάζει στην κανονική και μπορούμε να υποθέσουμε πως το ίδιο συμβαίνει για όλο τον πληθυσμό.

Η δοκιμασία Agostino ελέγχει την υπόθεση

Η0: Η κατανομή είναι συμμετρική.

έναντι της

Η1: Η κατανομή δεν είναι συμμετρική.

Από το output παρατηρούμε πως η υπόθεση της συμμετρίας δεν απορρίπτεται (p = 0,230 > 0,05).

Επιπλέον, η δοκιμασία Anscombe ελέγχει την υπόθεση

Η0: Η κυρτότητα της κατανομής είναι ίση με αυτήν της κανονικής.

έναντι της

Η1: Όχι η Η0.

Από το output παρατηρούμε πως η υπόθεση της απόκλισης της κυρτότητας από αυτήν της κανονικής δεν απορρίπτεται (p = 0,462 > 0,05).

Με τον έλεγχο Shapiro – Wilk γίνεται απευθείας έλεγχος της απόκλισης της δειγματικής κατανομής από την κανονική. Με αυτόν, ελέγχεται η υπόθεση

Η0: Το δείγμα προέρχεται από κανονική κατανομή.

έναντι της

Η1: Όχι η Η0.

Από το output παρατηρούμε πως η υπόθεση της απόκλισης της κατανομής από την κανονική δεν απορρίπτεται (p = 0,614 > 0,05).

Με τον έλεγχο Kolmogorov - Smirnov γίνεται απευθείας έλεγχος της απόκλισης της δειγματικής κατανομής από την κανονική. Δεν είναι κατάλληλος για μεταβλητές που έχουν επαναλαμβανόμενες τιμές. Με αυτόν, ελέγχεται η υπόθεση

Η0: Το δείγμα προέρχεται από κανονική κατανομή με μέση τιμή μ και τυπική απόκλιση σ.

έναντι της

Η1: Όχι η Η0.

Από το output παρατηρούμε πως η υπόθεση της απόκλισης της κατανομής από την κανονική δεν απορρίπτεται (p = 0,746 > 0,05).

Η δοκιμασία Lilliefors αποτελεί μία περισσότερο αξιόπιστη εκδοχή του ελέγχου Kolmogorov - Smirnov. Με αυτόν, ελέγχεται η υπόθεση

Η0: Το δείγμα προέρχεται από κανονική κατανομή με μέση τιμή μ και τυπική απόκλιση σ.

έναντι της

Η1: Όχι η Η0.

Από το output παρατηρούμε πως η υπόθεση της απόκλισης της κατανομής από την κανονική δεν απορρίπτεται (p = 0,305 > 0,05).

4 Δοκιμασία Student (t - test) για ένα δείγμα.

Η δοκιμασία t-test για ένα δείγμα (one sample t - test) χρησιμοποιείται όταν θέλουμε να ελέγξουμε την ισότητα με έναν προκαθορισμένο αριθμό της μέσης τιμής μίας μεταβλητής σε κάποιον πληθυσμό μετρώντας ένα αντιπροσωπευτικό δείγμα του από Ν άτομα.

Η υλοποίηση της δοκιμασίας t - test βασίζεται στην υπόθεση πως ο δειγματικός μέσος των Ν στοιχείων ακολουθεί προσεγγιστικά την κανονική κατανομή. Από το Κεντρικό Οριακό Θεώρημα γνωρίζουμε ότι για αρκετά μεγάλο Ν, ο δειγματικός μέσος πράγματι ακολουθεί την κανονική κατανομή με την προσέγγιση αυτή να είναι όλο και καλύτερη όσο μεγαλύτερο είναι το πλήθος των στοιχείων.

Στην περίπτωση όπου το Ν δεν είναι μεγάλο, τότε το Κ.Ο.Θ. δεν μπορεί να βεβαιώσει την κανονικότητα της κατανομής και πρέπει να υποθέσουμε πως τα ίδια τα στοιχεία προέρχονται από την κανονική κατανομή. Το όριο κάτω από το οποίο δεχόμαστε ότι το δείγμα είναι μικρό είναι το Ν = 30. Δηλαδή:

Αν το δείγμα είναι μικρό (Ν < 30) τότε απαραίτητη προϋπόθεση είναι η κανονικότητα της κατανομής της συνεχούς μεταβλητής που μελετούμε.

Αν το δείγμα είναι μεγάλο (Ν ≥ 30) τότε η δοκιμασία είναι έγκυρη ακόμα και χωρίς την προϋπόθεση της κανονικότητας.

4.1 Παράδειγμα

Θέλουμε να ελέγξουμε αν μία συσκευή τυποποίησης γάλακτος σε συσκευασίες των 500 γραμμαρίων παράγει πράγματι συσκευασίες με αυτό το βάρος. Λόγω των μικρών μηχανικών σφαλμάτων που υπάρχουν στην διαδικασία τυποποίησης σε συσκευασίες του γάλακτος, το βάρος μίας συσκευασίας δεν περιμένουμε να είναι ακριβώς 500 γραμμάρια αλλά θα είναι λίγο μεγαλύτερο ή λίγο μικρότερο.
Αυτό που ενδιαφέρει είναι το μέσο βάρος όλων των συσκευασιών να μη διαφέρει σημαντικά από τα 500 γραμμάρια. Καθώς είναι αδύνατον να ζυγίσουμε το σύνολο όλων των συσκευασιών γάλακτος που βγήκαν ή θα βγούνε στο μέλλον από τη γραμμή παραγωγής, παίρνουμε ένα δείγμα 10 συσκευασιών από την παραγωγή:

490, 503, 499, 492, 500, 501, 489, 478, 498, 508

Με βάση αυτό το δείγμα, χρησιμοποιώντας τον κατάλληλο έλεγχο για ένα δείγμα θα ελέγξουμε αν δεχόμαστε ή απορρίπτουμε τον ισχυρισμό πως το μέσο βάρος όλης της παραγωγής είναι ίσο με 500 γραμμάρια. Δηλαδή, αν μ είναι το (άγνωστο) μέσο βάρος όλης της παραγωγής τότε ελέγχουμε τη στατιστική υπόθεση:

Η0: μ = 500,

έναντι της ερευνητικής υπόθεσης:

Η1: μ ≠ 500.

Τα δεδομένα τα καταχωρούμε στη μεταβλητή one.sample.data με την εντολή

one.sample.data = c(490, 503, 499, 492, 500, 501, 489, 478, 498, 508)

Εκτελώντας

my_mean_sd(one.sample.data)
## [1] "M = 496. (8.64), 95% C.I. 490. - 501."

βρίσκουμε πως η μέση τιμή και η τυπική απόκλιση του δείγματος είναι 495,8 γραμμάρια και 8,6 γραμμάρια αντίστοιχα.

Η μέση τιμή του δείγματος είναι μικρότερη από την θεωρητική τιμή των 500 γραμμαρίων. Η διαφορά μεταξύ της υποτιθέμενης μέσης τιμής και της παρατηρούμενης δειγματικής μέσης τιμής είναι δ = 4,2 γραμμάρια. Ωστόσο, από τη στιγμή που οι συσκευασίες δεν έχουν βάρος ακριβώς ίσο με 500 γραμμάρια, είναι αναμενόμενο πως το δειγματικό μέσο βάρος δεν θα προκύψει ακριβώς ίσο με 500 γραμμάρια.

Η θεωρία πιθανοτήτων μας ενημερώνει πως αν η υπόθεση μ = 500 ήταν αληθής τότε ο δειγματικός μέσος 10 τιμών θα έπρεπε να διαφέρει από την τιμή των 500 όπως περιγράφεται από την κατανομή t(9). Αυτό το γεγονός μας δίνει την δυνατότητα να βρούμε την πιθανότητα αυτή η δειγματική μέση τιμή να διαφέρει όσο και στην περίπτωση του δείγματος.

4.2 Παραμετρική δοκιμασία t - test για ένα δείγμα

Η εφαρμογή της δοκιμασίας t - test για ένα δείγμα υλοποιείται με τη συνάρτηση my_t_test_one_sample

my_t_test_one_sample(one.sample.data, mu = 500)
M(SD) (496 ± 8.64), N = 10. H0: μ = 500 vs H1: μ ≠ 500. H0 is not rejected (t(9) = 1.538, p = 0.159).

Η τιμή του στατιστικού t είναι ίση με 1,538 και η πιθανότητα να προκύψει μία μεγαλύτερη ή ίση από αυτήν την τιμή στην κατανομή student με 9 βαθμούς ελευθερίας είναι ίση με p = 0,1585 = 15,9%, κάτι που σημαίνει πως αν η συνολική παραγωγή είχε πράγματι μέσο βάρος 500 γραμμάρια και παίρναμε 100 δείγματα των 10 συσκευασιών, τότε σε περίπου 16 από αυτά θα περιμέναμε να είχαμε μεγαλύτερη διαφορά στη δειγματική μέση τιμή από τα 4,2 γραμμάρια που παρατηρήθηκε στο δείγμα μας.

Καθώς p = 0,1585 > 0,05 δεν υπάρχει επαρκής ένδειξη για να απορρίψουμε τον ισχυρισμό Η0: μ = 500, δηλαδή δεν έχουμε επαρκής στατιστική ένδειξη πως η παραγωγή είναι ελλιποβαρής και η εταιρεία δικαιούται να συνεχίσει να γράφει στις συσκευασίες της πως το βάρος κάθε συσκευασίας είναι 500 γραμμάρια!

4.2.1 Μονόπλευρος vs Δίπλευρος έλεγχος

Το είδος του ελέγχου προσδιορίζεται από τα ενδιαφέροντα του ατόμου ή του οργανισμού που διεξάγει την ανάλυση.

Αν τον έλεγχο τον υλοποιούσε η ίδια η βιομηχανία που συσκευάζει το γάλα θα την απασχολούσε το ενδεχόμενο οι συσκευασίες της να μην είχαν περισσότερο γάλα από ότι πρέπει ώστε να μην χάνει χρήματα. Ως εκ τούτου, θα ήθελε να βρει αν απορρίπτεται η υπόθεση:

Η0: μ ≥ 500,

έναντι της ερευνητικής υπόθεσης:

Η1: μ < 500.

Στην περίπτωση αυτή ο έλεγχος ονομάζεται μονόπλευρος και η πιθανότητα p με την οποία κρίνουμε αν η Η0 απορρίπτεται έναντι της Η1.είναι η μισή αυτής που αναφέρεται και που είναι πάντα αυτή του δίπλευρου ελέγχου.

Αν τον έλεγχο τον υλοποιούσε η ίδια η βιομηχανία που συσκευάζει το γάλα θα την απασχολούσε το ενδεχόμενο οι συσκευασίες της να μην ήταν ελλιποβαρείς ώστε να μην αντιμετώπιζε πρόβλημα με τον νόμο. Ως εκ τούτου, θα ήθελε να ελέγξει την υπόθεση:

Η0: μ ≤ 500,

έναντι της ερευνητικής υπόθεσης:

Η1: μ > 500.

Στην περίπτωση αυτή ο έλεγχος είναι μονόπλευρος και η πιθανότητα p με την οποία κρίνουμε αν η Η0 απορρίπτεται έναντι της Η1.είναι η μισή αυτής που αναφέρεται κατά την υλοποίηση της δοκιμασίας.

Αντίστοιχα, αν τον έλεγχο τον υλοποιούσε η υπηρεσία ελέγχου εξαπάτησης καταναλωτών, θα ήθελε να ελέγξει αν οι συσκευασίες ήταν ελλιποβαρείς ώστε να μην εξαπατούσε η εταιρεία τους καταναλωτές. Ως εκ τούτου, θα ήθελε να ελέγξει την υπόθεση:

Η0: μ ≥ 500,

έναντι της ερευνητικής υπόθεσης:

Η1: μ < 500.

4.2.2 Αναπαράσταση της δοκιμασίας one sample t test στην R

Για την επίδειξη του τρόπου που υπολογίζεται η στατιστική σημαντικότητα της διαφοράς της μέσης τιμής του δείγματος από τη μέση τιμή του πληθυσμού, μπορεί να αξιοποιηθεί η συνάρτηση simulate_one_sample_t_test. Η εκτέλεσή της πολλές φορές διαφωτίζει τον τρόπο με τον οποίο λειτουργεί η στατιστική συμπερασματολογία στη δοκιμασία αυτή.

mu = 500; sdp = 8.64; N = 10
simulate_one_sample_t_test(mu, sdp, N)

Δραστηριότητα
Κάποιος ισχυρίζεται πως σε ένα χωριό με 3.000 κατοίκους το μέσο εισόδημα είναι 30 χιλιάδες ευρώ. Για να ελέγξει την υπόθεση, κατέγραψε δεδομένα από 15 κατοίκους και βρήκε τα παρακάτω στοιχεία: 35, 25, 20, 25, 15, 30, 32, 38, 60, 14, 7, 20, 23, 27, 12.

α) Να ελεγχθεί η υπόθεση πως Η0: μ = 30,

έναντι της ερευνητικής υπόθεσης:

Η1: μ ≠ 30.


my.sample = c(25, 25, 20, 25, 15, 30, 32, 38, 40, 14, 7, 20, 23, 27, 12)
my_t_test_one_sample(my.sample, mu = 30)

β) Αναπαραστήστε πολλά πιθανά αποτελέσματα της δοκιμασίας εκτελώντας πολλές φορές τις παρακάτω εντολές:

mu = 30; sdp = 9.29; N = 15
simulate_one_sample_t_test(mu, sdp, N)

4.3 Μη παραμετρική δοκιμασία t - test για ένα δείγμα

Αποφασίζουμε τη χρήση μη παραμετρικής δοκιμασίας για ένα δείγμα στις εξής περιπτώσεις:
• Η μεταβλητή δεν είναι συνεχής αλλά διατακτική (π.χ. παίρνει τις τιμές 1, 2, 3, 4, 5 όπως σε ένα ερωτηματολόγιο) και έχουμε μικρό δείγμα.
• Υπάρχει μεγάλη απόκλιση από την κανονική κατανομή.

Στην περίπτωση αυτή, μία ενδεδειγμένη λύση είναι η συνάρτηση SIGN.test από το πακέτο BSDA που υλοποιεί τη προσημική δοκιμασία. Οι εντολές που απαιτούνται είναι οι εξής:

library(BSDA)
SIGN.test(one.sample.data, md = 500)
## 
##  One-sample Sign-Test
## 
## data:  one.sample.data
## s = 3, p-value = 0.5078
## alternative hypothesis: true median is not equal to 500
## 95 percent confidence interval:
##  489.3244 502.3511
## sample estimates:
## median of x 
##       498.5 
## 
## Achieved and Interpolated Confidence Intervals: 
## 
##                   Conf.Level   L.E.pt   U.E.pt
## Lower Achieved CI     0.8906 490.0000 501.0000
## Interpolated CI       0.9500 489.3244 502.3511
## Upper Achieved CI     0.9785 489.0000 503.0000

Με την παραπάνω εντολή, αν δ είναι η (άγνωστη) διάμεσος του βάρους όλης της παραγωγής, ελέγχεται η στατιστική υπόθεση:

Η0: δ = 500,

έναντι της ερευνητικής υπόθεσης:

Η1: δ ≠ 500.

Από το output συμπεραίνουμε πως η υπόθεση πως η διάμεσος του πληθυσμού είναι ίση με 500 γραμμάρια, δεν απορρίπτεται (p = 0,508 > 0,05).

Εναλλακτικά, αν γνωρίζουμε ότι η κατανομή είναι συμμετρική, μπορούμε να ελέγξουμε την ίδια υπόθεση, εφαρμόζοντας τη δοκιμασία Wilkoxon για ένα σύνολο (One Sample Wilkoxon Test), με την εντολή

wilcox.test(one.sample.data, mu = 500, alternative = 'two.sided')
## 
##  Wilcoxon signed rank test with continuity correction
## 
## data:  one.sample.data
## V = 11, p-value = 0.1917
## alternative hypothesis: true location is not equal to 500

4.4 Καταγραφή δοκιμασίας t - test για ένα δείγμα.

Στοιχεία που πρέπει να αναφερθούν
• τα στοιχεία του δείγματος (πλήθος παρατηρήσεων, μέση τιμή και τυπική απόκλιση),
• η τιμή του στατιστικού t (στήλη t στο output) ως απόλυτη τιμή,
• οι βαθμοί ελευθερίας (στήλη df στο output),
• το είδος του στατιστικού ελέγχου (μονόπλευρος ή δίπλευρος),
• η στατιστική σημαντικότητα p της διαφοροποίησης από τη στατιστική υπόθεση Η0 (από τη στήλη Sig.(2-tailed) για τη δίπλευρη δοκιμασία ή το μισό αυτής της τιμής για μονόπλευρη δοκιμασία).

Μη σημαντική διαφοροποίηση (δίπλευρος έλεγχος).
Ο στατιστικός έλεγχος t - test για ένα δείγμα κατέδειξε πως η μέση τιμή του βάρους του δείγματος των 30 συσκευασιών (M = 497,5γρ, SD = 7,2γρ) δεν είναι στατιστικά διαφορετική από την τιμή των 500 γραμμαρίων, t(29) = 1.901, p = 0,067, (δίπλευρος έλεγχος)

Σημαντική διαφοροποίηση (δίπλευρος έλεγχος).
Ο στατιστικός έλεγχος t - test για ένα δείγμα κατέδειξε πως η μέση τιμή του βάρους του δείγματος των 30 συσκευασιών (M = 496,5γρ, SD = 7,2γρ) είναι στατιστικά διαφορετική από την τιμή των 500 γραμμαρίων, t(29) = 2.662, p = 0,012, (δίπλευρος έλεγχος)

Σημαντική διαφοροποίηση (μονόπλευρος έλεγχος).
Ο στατιστικός έλεγχος t - test για ένα δείγμα κατέδειξε πως η μέση τιμή του βάρους του δείγματος των 30 συσκευασιών (M = 497,5γρ, SD = 7,2γρ) είναι στατιστικά μικρότερη από την τιμή των 500 γραμμαρίων, t(29) = 1.901, p = 0,034, (μονόπλευρος έλεγχος)

5 Δοκιμασία Student (t - test) για δύο ανεξάρτητα δείγματα.

Η δοκιμασία t-test για δύο ανεξάρτητα δείγματα (independent samples t - test) χρησιμοποιείται όταν θέλουμε να ελέγξουμε την υπόθεση πως δύο πληθυσμοί δεν διαφέρουν σημαντικά ως προς τη μέση τιμή μίας συνεχούς μεταβλητής μετρώντας από ένα αντιπροσωπευτικό δείγμα τους.
Απαραίτητες προϋποθέσεις είναι
(α) η κανονικότητα της κατανομής της συνεχούς μεταβλητής που μελετούμε σε κάθε μία από τις δύο ανεξάρτητες ομάδες,
(β) η ομοιογένεια των δύο ομάδων (δηλαδή να έχουν τυπική απόκλιση που δεν διαφέρει σημαντικά).

5.1 Παράδειγμα

Μία αλυσίδα supermarket στην προσπάθεια της να ενισχύσει τις πωλήσεις επιθυμεί να ελέγξει ποια από τις δύο παρακάτω προτεινόμενες πρακτικές είναι περισσότερο αποδοτική.

Πρακτική Α: επιστροφή 4% στις αγορές των πελατών όταν αυτοί χρησιμοποιούν πιστωτική κάρτα μίας τράπεζας που συνεργάζεται με την εταιρεία ή
Πρακτική Β: προσφορά κουπόνια για έκπτωση σε αγορές των προϊόντων που εμπορεύεται.

Για να συγκρίνει την αποτελεσματικότητα των δύο αυτών διαφορετικών πρακτικών επιλέγει τυχαία 21 συχνούς πελάτες τους οποίους χωρίζει με τυχαίο τρόπο σε δύο ομάδες (Ομάδα Α και Β) των 10 και 11 ατόμων αντίστοιχα και παρακολουθεί τις αγορές τους για ένα έτος.

Τα δεδομένα καταχωρήθηκαν σε δύο μεταβλητές και στη συνέχεια σε ένα πλαίσιο δεδομένων.

purchases.A = c(2233, 2327, 1280, 1477, 1461, 1495, 1950, 1857, 1471, 1567, 1627)
purchases.B = c(1404, 1514, 1730, 1610, 1854, 1107, 2145, 784, 1410, 2226)

group = c(rep(1, 11), rep(2, 10))
group = factor(group, levels = c(1, 2), labels = c("Α", "Β"))
purchases = c(purchases.A, purchases.B)
data.t.test = data.frame(group, purchases)

Αν μΑ και μΒ είναι οι μέσες καταναλώσεις που αναμένουμε να έχουν οι πελάτες των ομάδων Α και Β αντίστοιχα, αναζητούμε την απάντηση στην ερώτηση σχετικά με το αν απορρίπτεται ή όχι η στατιστική υπόθεση:

Η0: μΑ = μΒ,

έναντι της ερευνητικής υπόθεσης:

Η1: μΑ ≠ μΒ.

Η δοκιμασία t-test για δύο ανεξάρτητα δείγματα υλοποιείται με τη συνάρτηση my_t_test_independent_samples.

my_t_test_independent_samples(data.t.test, 'purchases', 'group')
purchases over group H0: μΑ = μΒ vs H1: μΑ ≠ μΒ. H0 is not rejected.
Group Α (N = 11): 1700 ± 341 vs Group Β (N = 10): 1580 ± 442, t(19) = 0.734, p = 0.472.
Equality of variances: F(10, 9) = 0.597, p = 0.433.

Παρατηρούμε πως:

Η ομάδα Α που χρησιμοποίησε την πιστωτική κάρτα έκανε αγορές 1704,1 ευρώ, 125,7 ευρώ περισσότερες αγορές από την ομάδα Β η οποία έκανε κατά μέσο όρο 1578,4 ευρώ στην οποία είχαν σταλεί κουπόνια.

Η διαφορά των 125,7 ευρώ δεν είναι τόσο μεγάλη ώστε να απορριφθεί η υπόθεση Η0: μΑ = μΒ της ισότητας των δύο μέσων τιμών (p = 0,472 = 47,2% > 5% = 0,05), δηλαδή δεν έχουμε στατιστική ένδειξη πως η πιστωτική κάρτα αποτελεί μεγαλύτερο κίνητρο για κατανάλωση από ότι τα κουπόνια!

Η διαφορά μεταξύ των ομάδων αναπαριστάται στο παρακάτω διάγραμμα:

library(gplots)
plotmeans(data.t.test$purchases~data.t.test$group,xlab="Ομάδα",ylab="Πωλήσεις", main="Πωλήσεις ανά ομάδα (95% C.I.)")

Η προϋπόθεση της κανονικότητας
Η εγκυρότητα του αποτελέσματος βασίζεται στην υπόθεση πως η διαφορά των δύο μέσων τιμών ακολουθεί την κατανομή t. Αυτό είναι βέβαιο όταν τα δύο δείγματα προέρχονται από κανονικές κατανομές, ωστόσο δεν είναι σίγουρο όταν δεν ισχύει αυτήν η προϋπόθεση. Αν τα δείγματα έχουν μεγάλο μέγεθος τότε η δοκιμασία εξακολουθεί να είναι έγκυρη ακόμα και σε συνθήκες μη κανονικότητας.

Καθώς έχουμε μικρά δείγματα, καλό είναι να ελέγξουμε την κανονικότητα των κατανομών.

my_check_normality_of_vector(purchases.A)
Normality statistics
Statistic Description
Skewness & Kurtosis
  Skewness 0.741 Normal distribution has skew = 0. For a unimodal distribution, negative skew commonly indicates that the tail is on the left side of the distribution, and positive skew indicates that the tail is on the right.
  Kurtosis 2.243 Normal distribution has kurtosis = 3. Values over 3 indicates a platykurtic distribution and values less than 3 indicates a leptokurtic distribution.
Normality Tests. Η0: This sample is from a normal distribution vs Η1: Not the Η0.
  Shapiro–Wilk W = 0.883, p = 0.113 This test is more appropriate method for small sample sizes (<50 samples) although it can also be handling on larger sample size.
  Lilliefors D = 0.226, p = 0.121 The Lilliefors test uses the same calculations as the Kolmogorov-Smirnov test, but it is more conservative in the sense that the Lilliefors Test is less likely to show that data is normally distributed.
my_check_normality_of_vector(purchases.B)
Normality statistics
Statistic Description
Skewness & Kurtosis
  Skewness -0.188 Normal distribution has skew = 0. For a unimodal distribution, negative skew commonly indicates that the tail is on the left side of the distribution, and positive skew indicates that the tail is on the right.
  Kurtosis 2.381 Normal distribution has kurtosis = 3. Values over 3 indicates a platykurtic distribution and values less than 3 indicates a leptokurtic distribution.
Normality Tests. Η0: This sample is from a normal distribution vs Η1: Not the Η0.
  Shapiro–Wilk W = 0.975, p = 0.929 This test is more appropriate method for small sample sizes (<50 samples) although it can also be handling on larger sample size.
  Lilliefors D = 0.147, p = 0.786 The Lilliefors test uses the same calculations as the Kolmogorov-Smirnov test, but it is more conservative in the sense that the Lilliefors Test is less likely to show that data is normally distributed.

Από το output, συνάγουμε πως η προϋπόθεση της κανονικότητας για τα δύο ανεξάρτητα δείγματα δεν απορρίπτεται, γεγονός που επιβεβαιώνει την καταληλότητα της παραμετρικής δοκιμασίας t-test. 

Σημείωση
Το t - test μπορεί να υλοποιηθεί με την εναλλακτική εκδοχή:

t.test(purchases ~ group, data = data.t.test, var.equal = TRUE)
## 
##  Two Sample t-test
## 
## data:  purchases by group
## t = 0.73361, df = 19, p-value = 0.4721
## alternative hypothesis: true difference in means between group Α and group Β is not equal to 0
## 95 percent confidence interval:
##  -232.9110  484.2928
## sample estimates:
## mean in group Α mean in group Β 
##        1704.091        1578.400

5.1.1 Δοκιμασία Welch

Η δοκιμασία Welch εφαρμόζεται έναντι της Student t – test στην περίπτωση όπου οι κατανομές των δύο ανεξάρτητών πληθυσμών είναι κανονικές αλλά οι διακυμάνσεις δεν είναι ίσες. Επιλέγεται αυτόματα για εφαρμογή από τη συνάρτηση my.t.test.independent.samples.

5.2 Μη παραμετρικό t - test για δύο ανεξάρτητα δείγματα (two-sample Wilcoxon ή Mann – Whitney test)

Αποφασίζουμε τη χρήση της μη παραμετρικής δοκιμασίας Wilcoxon για δύο ανεξάρτητα δείγματα στις εξής περιπτώσεις:
• Η μεταβλητή δεν είναι συνεχής αλλά διατακτική (π.χ. παίρνει τις τιμές 1, 2, 3, 4, 5 όπως σε ένα ερωτηματολόγιο) και έχουμε μικρό δείγμα.
• Η μεταβλητή είναι συνεχής αλλά η κανονικότητα του πληθυσμού δεν μπορεί να υποτεθεί.
• Τα δείγματα είναι μικρού μεγέθους, υπάρχει μεγάλη διαφορά μεταξύ των δύο διακυμάνσεων και δεν είναι δυνατή η επιλογή τυχαίου υποδείγματος με ίδιο μέγεθος.

Στην R η δοκιμασία αυτή υλοποιείται με την εντολή:

wilcox.test(purchases.A, purchases.B)
## 
##  Wilcoxon rank sum exact test
## 
## data:  purchases.A and purchases.B
## W = 65, p-value = 0.5116
## alternative hypothesis: true location shift is not equal to 0

Η δοκιμασία Mann Whitney αφορά τη συνολική θέση των κατανομών και όχι τις μέσες τιμές των δειγμάτων. Ελέγχεται η υπόθεση:

Η0: η κατανομή της συνεχούς μεταβλητής είναι παρόμοια στις 2 ομάδες

έναντι της:

Η1: όχι η Η0.

Η υπόθεση Η0 απορρίπτεται όταν το p είναι μικρότερο από το 0,05 (ή άλλο όριο που έχει τεθεί από τον ερευνητή πριν τη συλλογή των δεδομένων).

Παρατηρούμε πως για τα δεδομένα του παραδείγματος η μη παραμετρική δοκιμασία θα κατέληγε πως η κατανομή του συνολικού κόστους των αγορών των πελατών δεν διαφέρει σημαντικά μεταξύ των δύο ομάδων Α και Β (W = 65, p = 0,512 > 0,05).

5.3 Καταγραφή δοκιμασίας t - test για δύο ανεξάρτητα δείγματα

Στοιχεία που πρέπει να αναφερθούν
• τα στοιχεία των δειγμάτων (πλήθος παρατηρήσεων, μέση τιμή και τυπική απόκλιση για κάθε ένα από αυτά),
• η τιμή του στατιστικού t (στήλη t στο output) ως απόλυτη τιμή,
• οι βαθμοί ελευθερίας (στήλη df στο output),
• το είδος του στατιστικού ελέγχου (μονόπλευρος ή δίπλευρος),
• η στατιστική σημαντικότητα p της διαφοροποίησης από τη στατιστική υπόθεση Η0 (από τη στήλη Sig.(2-tailed) για τη δίπλευρη δοκιμασία ή το μισό αυτής της τιμής για μονόπλευρη δοκιμασία).

Μη σημαντική διαφοροποίηση.
Ο στατιστικός έλεγχος t - test για δύο ανεξάρτητα δείγματα κατέδειξε πως οι μέσες αγορές της ομάδας Α (M = 1.704,1, SD = 341,3), δεν είχαν στατιστικά διαφορετική μέση τιμή από τις αγορές της ομάδας Β (M = 1.578,4, SD = 441,8), t(19) = 0,734, p = 0,472, (δίπλευρος έλεγχος).

Σημαντική διαφοροποίηση (δίπλευρος έλεγχος).
Ο στατιστικός έλεγχος t - test για δύο ανεξάρτητα δείγματα κατέδειξε πως η μέση τιμή των αγορών της ομάδας Α (M = 1.578,4, SD = 441,8), είναι στατιστικά διαφορετική από τη μέση τιμή των αγορών της ομάδας Β (M = 2.940,2, SD = 671,3), t(19) = 6,631, p < 0,001, (δίπλευρος έλεγχος).

Σημαντική διαφοροποίηση (μονόπλευρος έλεγχος).
Ο στατιστικός έλεγχος t - test για δύο ανεξάρτητα δείγματα κατέδειξε πως υπάρχει στατιστική διαφοροποίηση στη μέση τιμή των αγορών μεταξύ των ομάδων Α και Β, t(19) = 6,631, p < 0,001, (μονόπλευρος έλεγχος). Ειδικότερα, οι πελάτες της ομάδας Β (M = 2.940,2, SD = 671,3) έκαναν στατιστικά περισσότερες αγορές από τους πελάτες της ομάδας Α (M = 1.578,4, SD = 441,8).

6 Δοκιμασία Student (t - test) για ζευγαρωτές παρατηρήσεις.

Η δοκιμασία t - test για ζευγαρωτές παρατηρήσεις (paired samples t - test) χρησιμοποιείται όταν θέλουμε να ελέγξουμε τη μεταβολή της μέσης τιμής μεταξύ δύο μετρήσεων σε μία συνεχή παράμετρο ενός πληθυσμού παρατηρώντας τι συμβαίνει σε ένα δείγμα του πληθυσμού. Απαραίτητες προϋποθέσεις είναι
(α) η κανονικότητα της κατανομής των διαφορών των τιμών της συνεχούς μεταβλητής που μελετούμε,
(β) να μην υπάρχουν εξαιρετικά μικρές ή μεγάλες διαφορές στις δύο μετρήσεις.

6.1 Παράδειγμα

Με σκοπό την αξιολόγηση μίας δίαιτας ως προς τη μείωση του βάρους όσων την εφαρμόζουν, επιλέχθηκαν 16 ενήλικες εθελοντές οι οποίοι την ακολούθησαν πιστά για 6 μήνες. Το βάρος μετρήθηκε στην αρχή και στο τέλος της διαδικασίας και τα αποτελέσματα καταχωρήθηκαν στις μεταβλητές weight1 και weight2 αντίστοιχα:

weight1 = c(89.8, 107.5, 105.7, 81.2, 99.3, 76.7, 100.7, 75.7, 90.3, 105.7, 81.2, 71.7, 71.2, 98, 116.6, 68.5)
weight2 = c(87.1, 102.1, 102.5, 78, 97.1, 73, 95.3, 73, 87.5, 102.5, 78.5, 69.9, 64.9, 93.4, 112.9, 63.5)

Οι παρατηρήσεις αυτές αναπαριστώνται διαγραμματικά με τις παρακάτω εντολές:

data.paired <- data.frame(Πριν = weight1, Μετά = weight2)
library(ggpubr)
library(RColorBrewer)
cols = brewer.pal(3, name = "Dark2")
ggpaired(data.paired, cond1 = "Πριν", cond2 = "Μετά", fill = cols[1:2], palette = "lancet", ylab = "Βάρος", xlab = "Μέτρηση")

Παρατηρούμε πως στο δείγμα των 16 εθελοντών παρατηρήθηκε μείωση στο βάρος.   Ωστόσο, καθώς σε κάθε ενήλικα υπάρχουν μικρές αυξομειώσεις στο βάρος με την πάροδο του χρόνου, δεν περιμέναμε το βάρος να είναι το ίδιο πριν και μετά τη δίαιτα.
Άρα τίθεται το ερώτημα:
Είναι η μείωση στο μέσο βάρος τόσο μεγάλη ώστε να συμπεράνουμε πως δεν οφείλεται στο τυχαίο σφάλμα της δειγματοληψίας αλλά στη δίαιτα που ακολούθησαν οι εθελοντές;
Περισσότερο μεθοδολογικά, αν μπριν και μμετά είναι το μέσο βάρος του πληθυσμού πριν και μετά τη δίαιτα, αναζητούμε την απάντηση στην ερώτηση σχετικά με το αν απορρίπτεται ή όχι η στατιστική υπόθεση:

Η0: μμετά = μπριν,

έναντι της ερευνητικής υπόθεσης:

Η1: μμετά < μπριν.

Υλοποιούμε τη δοκιμασία t-test για ζευγαρωτές παρατηρήσεις με τη συνάρτηση my_t_test_paired_samples:

my_t_test_paired_samples(data.paired, c('Πριν', 'Μετά'))
Πριν (90 ± 15.2) vs Μετά (86.3 ± 15.2), N = 16 pairs. H0: μΠριν = μΜετά vs H1: μΠριν ≠ μΜετά. H0 is rejected (t(15) = 11.2, p < 0.001).

Είναι φανερό πως από τη στιγμή που μελετούμε την αποτελεσματικότητα μίας δίαιτας μας ενδιαφέρει όχι γενικά η διαφοροποίηση του βάρους πριν και μετά τη δίαιτα αλλά ειδικότερα το αν η δίαιτα μειώνει το μέσο βάρος, άρα διεξάγουμε μονόπλευρο στατιστικό έλεγχο και διατυπώνουμε ανάλογα την ερευνητική υπόθεση.

Παρατηρούμε πως η τιμή του στατιστικού t είναι ίση με 11,25 και η πιθανότητα να εμφανιστεί μία τιμή μεγαλύτερη από αυτή (μονόπλευρος έλεγχος) στην κατανομή t με 15 βαθμούς ελευθερίας είναι ίση με p = 1.039 x 10-8 < 0,05. Συμπεραίνουμε πως η στατιστική υπόθεση

Η0: μμετά = μπριν,

απορρίπτεται έναντι της εναλλακτικής Η1: μ~μετά < μ~πριν, δηλαδή με απλά λόγια συμπεραίνουμε πως η δίαιτα μειώνει το βάρος όσων την εφαρμόζουν.

Η προϋπόθεση της κανονικότητας
Η δοκιμασία t-test προϋποθέτει κανονικότητα της κατανομής των διαφορών των τιμών, προϋπόθεση που δεν επηρεάζει πολύ την εγκυρότητα της διαδικασίας, όταν το δείγμα είναι μεγάλο. Στην περίπτωσή μας το δείγμα δεν θεωρείται μεγάλο, άρα είναι καλό να ελεγχθεί η προϋπόθεση της κανονικότητας των διαφορών. Για το σκοπό αυτό δημιουργούμε τις διαφορές και υπολογίζουμε τα στατιστικά κανονικότητας.

diff = weight1 - weight2
my_check_normality_of_vector(diff)
Normality statistics
Statistic Description
Skewness & Kurtosis
  Skewness 0.588 Normal distribution has skew = 0. For a unimodal distribution, negative skew commonly indicates that the tail is on the left side of the distribution, and positive skew indicates that the tail is on the right.
  Kurtosis 2.237 Normal distribution has kurtosis = 3. Values over 3 indicates a platykurtic distribution and values less than 3 indicates a leptokurtic distribution.
Normality Tests. Η0: This sample is from a normal distribution vs Η1: Not the Η0.
  Shapiro–Wilk W = 0.925, p = 0.2 This test is more appropriate method for small sample sizes (<50 samples) although it can also be handling on larger sample size.
  Lilliefors D = 0.201, p = 0.082 The Lilliefors test uses the same calculations as the Kolmogorov-Smirnov test, but it is more conservative in the sense that the Lilliefors Test is less likely to show that data is normally distributed.

Από το output, συνάγουμε πως η υπόθεση της κανονικότητας των διαφορών δεν απορρίπτεται (p = 0,2 > 0,05).

6.2 Δοκιμασία Wilcoxon Signed Rank

Αποφασίζουμε τη χρήση της δοκιμασίας Wilcoxon για επαναλαμβανόμενες μετρήσεις στις εξής περιπτώσεις:
• Η μεταβλητή δεν είναι συνεχής αλλά διατακτική (π.χ. παίρνει τις τιμές 1, 2, 3, 4, 5 όπως σε ένα ερωτηματολόγιο) και έχουμε μικρό δείγμα.
• Υπάρχει μεγάλη απόκλιση από την κανονική κατανομή.

Στην R η δοκιμασία αυτή υλοποιείται με την εντολή:

wilcox.test(weight1, weight2, paired = TRUE)
## 
##  Wilcoxon signed rank test with continuity correction
## 
## data:  weight1 and weight2
## V = 136, p-value = 0.000473
## alternative hypothesis: true location shift is not equal to 0

Η δοκιμασία Mann Whitney αφορά τη συνολική θέση των κατανομών και όχι τις μέσες τιμές των δειγμάτων. Ελέγχεται η υπόθεση:

Η0: η κατανομή της συνεχούς μεταβλητής είναι παρόμοια στις δύο μετρήσεις.

έναντι της:

Η1: όχι η Η0.

Σημείωση: Η προειδοποίηση (warning message) πως δεν είναι δυνατός ο ακριβής υπολογισμός του p (cannot compute exact p-value with ties), εμφανίζεται γιατί στη διαφορά weight1 – weight2 υπάρχουν τιμές που εμφανίζονται περισσότερο από μία φορά ενώ στη διαδικασία του p λαμβάνονται υπόψη ακριβώς μία φορά, άρα υπάρχει απώλεια πληροφορίας.

Παρατηρούμε πως για τα δεδομένα του παραδείγματος η μη παραμετρική δοκιμασία θα κατέληγε πως οι δύο κατανομές είναι σημαντικά διαφορετικές, ή ισοδύναμα πως η κατανομή των μετρήσεων πριν και μετά τη δίαιτα είναι στατιστικά διαφορετική (p = 0,000473).

Καθώς η διάμεσος των παρατηρήσεων πριν τη δίαιτα είναι ίση με 90,04 ενώ μετά τη δίαιτα γίνεται 87,31 συμπεραίνουμε και σε αυτήν την περίπτωση στατιστικού ελέγχου πως η δίαιτα μειώνει το βάρος όσων την εφαρμόζουν.

6.3 Ενδεικτική καταγραφή δοκιμασίας t - test για ζευγαρωτές παρατηρήσεις

Στοιχεία που πρέπει να αναφερθούν:
• τα στοιχεία των δύο μετρήσεων (πλήθος παρατηρήσεων, η μέση τιμή και η τυπική απόκλιση για κάθε μία από αυτές),
• η τιμή του στατιστικού t (στήλη t στο output) ως απόλυτη τιμή,
• οι βαθμοί ελευθερίας (στήλη df στο output),
• το είδος του στατιστικού ελέγχου (μονόπλευρος ή δίπλευρος),
• η στατιστική σημαντικότητα p της διαφοροποίησης από τη στατιστική υπόθεση Η0 (από τη στήλη Sig.(2-tailed) για τη δίπλευρη δοκιμασία ή το μισό αυτής της τιμής για μονόπλευρη δοκιμασία).

Μη σημαντική διαφοροποίηση.
Ο στατιστικός έλεγχος t - test για ζευγαρωτές παρατηρήσεις κατέδειξε πως δεν υπάρχει σημαντική διαφοροποίηση της μέσης τιμής του βάρους μεταξύ των δύο μετρήσεων, t(16) = 1,232, p = 0,236, (δίπλευρος έλεγχος).

Σημαντική διαφοροποίηση (δίπλευρος έλεγχος).
Ο στατιστικός έλεγχος t - test για ζευγαρωτές παρατηρήσεις κατέδειξε πως υπάρχει σημαντική διαφοροποίηση της μέσης τιμής του βάρους μεταξύ των δύο μετρήσεων, t(16) = 2,432, p = 0,027, (δίπλευρος έλεγχος).

Σημαντική διαφοροποίηση (μονόπλευρος έλεγχος).
Ο στατιστικός έλεγχος t - test για ζευγαρωτές παρατηρήσεις κατέδειξε πως η μέση τιμή της 2ης μέτρησης (Μ = 86,3kg, SD = 15,2) είναι σημαντικά μεγαλύτερη από τη μέση τιμή της 1ης μέτρησης (Μ = 90kg, SD = 15,2), t(16) = 2,032, p = 0,029, (μονόπλευρος έλεγχος). Το 95% διάστημα εμπιστοσύνης για τη διαφορά των δύο μετρήσεων είναι από 3 έως 4,4 kg.

7 Δραστηριότητα I: Εφαρμογή στο data.frame parents

Στα πλαίσια διπλωματικής εργασίας με τίτλο “Ψυχολογικά Χαρακτηριστικά Γονέων με Παιδιά με Αναπηρία” καταγράφηκαν ορισμένα δημογραφικά και ψυχομετρικά χαρακτηριστικά γονεων από 100 οικογένειες δύο νομων της χώρας. Τα δεδομένα είναι σε ένα αρχείο Excel διαθέσιμα για λήψη εδώ.
1) Να κάνετε λήψη τα δεδομένα.
2) Να εισάγετε τα δεδομένα στο R Studio ως data.frame με όνομα parents.
3) Εκτελέστε την εντολή head(parents)
4) Μετατρέψτε όσες στήλες πρέπει από αλφαριθμητικές (character) σε παράγοντες (factors), αξιοποιώντας τη συνάρτηση η συνάρτηση create.factors:

parents = create_factors(parents)
  1. Εκτελέστε την εντολή summary(parents) για να εξοικειωθείτε με τα περιεχόμενα του αρχείου
summary(parents)
  1. Μεταβάλετε τις ετικέτες του παράγοντα child_gender από “αγορι” και “κορη” σε “Αγόρι” και “Κορίτσι¨αντίστοιχα, με τις εντολές
parents$child_gender = plyr::revalue(parents$child_gender, c("αγορι"="Αγόρι", "κορη"="Κορίτσι"))
  1. Μεταβάλετε τη σειρά των επιπέδων του παράγοντα child_disease με την εντολή:
parents$child_disease = ordered(parents$child_disease, levels = c('Σε αρχικά στάδια η νόσος', 2, 3, 4, 'Πολύ βαριά'))
  1. Εισάγετε ετικέτες στις μεταβλητές που θα χρησιμοποιήσουμε στη συνέχεια.
library(Hmisc)
label(parents$gender) = 'Φύλο'
label(parents$marital) = 'Οικογενειακή κατάσταση'
label(parents$job) = 'Εργασιακή κατάσταση'
label(parents$age_category) = 'Ηλικιακή κατηγορία'
label(parents$schico) = 'Καταφυγή σε ψυχολόγο'
label(parents$schico_drugs) = 'Λήψη φαρμάκων'
label(parents$child_gender) = 'Φύλο Παιδιού'
label(parents$child_disease) = 'Εκτίμηση ασθένειας παιδιού'
label(parents$hdhq.total) = 'Επιθετικότητα (HDHQ)'
label(parents$scl_90_gen_deikt_sympt) = 'Ψυχοπαθολογία (GSI)'
label(parents$oas_total_score) = 'Εξωτερική Ντροπή'
label(parents$ess_total) = 'Εσωτερική Ντροπή'
label(parents$stai_present) = 'Άγχος ως κατάσταση'
label(parents$stai_general) = 'Άγχος ως χαρακτηριστικό της προσωπικότητας'
label(parents$grad_level_new) = 'Εκπαιδευτικό επίπεδο'

Στα πλαίσια της ανάλυσης τέθηκε το ερώτημα αν τα δύο φύλα εκπροσωπούνται εξίσου στα παιδιά (μεταβλητή parents$child_gender).

  1. Αξιοποιείστε τη συνάρτηση nice_pie_plot για να δημιουργήσετε το αντίστοιχο κυκλικό διάγραμμα

  2. Εφαρμόστε τη συνάρτηση για να αποκτήσετε μία ένδειξη σχετικά με την υπόθεση

my_pie_plot(parents$child_gender)
  1. Ελέγξτε αν η υπόθεση απορρίπτεται εκτελώντας τη δοκιμασία ομοιογένειας χ2 με την εντολή:
my_homogeneity_chi_square(parents$child_gender)
  1. Συμπληρώστε την παρακάτω πρόταση που αναφέρει το αποτέλεσμα της δοκιμασίας ομοιογένειας χ2.

Η εφαρμογή της δοκιμασίας ομοιογένειας χ2 απέδειξε ότι μεταξύ των _______ μαθητών δεν υπήρχε σημαντική διαφοροποίηση ως προς το φύλο των παιδιών, επικυρώνοντας την αντιπροσωπευτικότητα του δείγματος σε σχέση με αυτόν τον παράγοντα (χ2(_______) = _______, p = _______).

  1. Ελέγξετε αν τα δύο φύλα εκπροσωπούνται εξίσου στους γονείς των παιδιών (μεταβλητή gender).
    Πρώτα εκτελέστε τις εντολές:
nice_pie_plot(parents$gender)
my_homogeneity_chi_square(parents$gender)

Στη συνέχεια, συμπληρώστε την πρόταση:

Η εφαρμογή της δοκιμασίας ομοιογένειας χ2 κατέδειξε ότι υπήρχε σημαντική διαφοροποίηση μεταξύ των γονέων ως προς το φύλο (χ2(_______) = _______, p = _______). Συγκεκριμένα, οι μητέρες αποτελούσαν σημαντικά μεγαλύτερο ποσοστό του δείγματος σε σχέση με τους πατέρες των παιδιών (_______ έναντι _______).

Σημείωση
Το παραπάνω εύρημα υποδεικνύει πως το δείγμα της έρευνας δεν είναι ισορροπημένο (balanced) ως προς το φύλο των γονέων. Αυτό δεν είναι απαραίτητα μεγάλο πρόβλημα, ωστόσο αν το φύλο συμμετέχει σε κάποιο πιο περίπλοκο μοντέλο (π.χ. γραμμική παλινδρόμηση ή ανάλυση διακύμανσης), θα πρέπει να τεκμηριώνονται επαρκώς οι προυποθέσεις εγκυρότητας των αποτελεσμάτων.

  1. Στα πλαίσια της ανάλυσης τέθηκε το ερώτημα αν το φύλο του γονέα (μεταβλητή gender) έχει στατιστική εξάρτηση με την οικογενειακή του κατάσταση (μεταβλητή marital).

Ελέγξτε την υπόθεση εφαρμόζοντας τη δοκιμασία ανεξαρτησίας x2:

my_chi_square(parents, c('marital', 'gender'))

Παρατηρήστε ότι η δοκιμασία x2 δεν είναι αξιόπιστη και συγχωνεύστε κατηγορίες με λίγες τιμές:

library(forcats)
parents$marital2 <- fct_collapse(parents$marital,
                             "Χήρος/α/Διαζευγμένος/η" = c("Χήρος/α", "Διαζευγμένος/η"),
                             "Έγγαμος/η" = c("Έγγαμος/η"))

Στη συνέχεια, εφαρμόστε ξανά τη δοκιμασία x2:

my_chi_square(parents, c('marital2', 'gender'))

Οπτικοποιήστε το αποτέλεσμα με το κατάλληλο ραβδόγραμμα στοίβας:

my_stack_plot(parents, 'marital2', 'gender', type = 3, flip.plot = TRUE)

Στη συνέχεια, συμπληρώστε την πρόταση:

Η εφαρμογή της δοκιμασίας ανεξαρτησίας χ2 κατέδειξε ότι υπήρχε στοχαστική ανεξαρτησία μεταξύ του φύλου και της οικογενειακής κατάστασης των γονέων (χ2(_______) = _______, p = _______).

  1. Επαναλάβετε τη διαδικασία για να ελέγξετε αν η επαγγελματική κατάσταση (marital) διαφοροποιείται σημαντικά μεταξύ των δύο φύλων των γονέων (μεταβλητή gender)

  2. Επαναλάβετε τη διαδικασία για να ελέγξετε αν ο τόπος κατοικίας (place_live) διαφοροποιείται σημαντικά μεταξύ των δύο φύλων των γονέων (μεταβλητή gender)

  3. Επαναλάβετε τη διαδικασία για να ελέγξετε αν η καταφυγή σε ψυχολόγο (schico) διαφοροποιείται σημαντικά μεταξύ των δύο φύλων των γονέων (μεταβλητή gender)

  4. Ένα από τα ερευνητικά ερωτήματα αφορά το κατά πόσο διαφοροποιούνται οι άνδρες και οι γυναίκες ως προς τα ψυχομετρικά τους χαρακτηριστικά. Το φύλο είναι η μεταβλητή gender είναι το φύλο ενώ τα ψυχομετρικά χαρακτηριστικά είναι οι μεταβλητές: “hdhq.total”, “scl_90_gen_deikt_sympt”, “oas_total_score”, “ess_total”, “stai_present”, “stai_general”.

Να ελέγξετε τις παραπάνω υποθέσεις εκτελώντας τις εντολές:

my_t_test_independent_samples(parents, c("hdhq.total", "scl_90_gen_deikt_sympt", "oas_total_score", "ess_total", "stai_present", "stai_general"),  "gender")
  1. Συμπληρώστε την παρακάτω πρόταση (ενδεικτικά για την επιθετικότητα):

Ο στατιστικός έλεγχος t - test για δύο ανεξάρτητα δείγματα κατέδειξε πως δεν υπήρχε σημαντική διαφοροποίηση στην επιθετικότητα μεταξύ των 63 γυναικών και των 27 ανδρών (20 ± 8.4 vs 20 ± 8.82, t(_____) = _____, p = _____) (δίπλευρος έλεγχος).

Σημείωση
Καθώς το δείγμα είναι αρκετά μεγάλο, η προϋπόθεση της κανονικότητας των κατανομών δεν επηρεάζει σημαντικά την εγκυρότητα του αποτελέσματος. Αν ωστόσο, είναι επιθυμητός ο έλεγχος της κανονικότητας της κατανομής ανά ομάδα φύλου, για κάποια από τις μεταβλητές (π.χ. την hdhq.total) αυτό μπορεί να γίνει με την εντολή:

check_normality_of_column_by_group(parents$hdhq.total, parents$gender)

Στην περίπτωση που απαιτείται, η μη παραμετρική δοκιμασία Wilcoxon μπορεί να υλοποιηθεί με την εντολή:

wilcox.test(parents$hdhq.total ~ parents$gender)
  1. Ένα από τα ερευνητικά ερωτήματα αφορά το κατά πόσο υπάρχει διαφοροποίηση μεταξύ του άγχους ως χαρακτηριστικό της προσωπικότητας (stai_general) και του άγχους ως κατάσταση (stai_present). Ελέγξτε αυτήν την υπόθεση εκτελώντας τις εντολές:
my_t_test_paired_samples(parents, c('stai_general', 'stai_present'))
diff = parents$stai_present - parents$stai_general
my_check_normality_of_vector(diff)
  1. Συμπληρώστε την παρακάτω πρόταση

Ο έλεγχος t-test για ζευγαρωτές παρατηρήσεις κατέδειξε πως δεν υπήρχε στατιστικά σημαντική διαφορά στο άγχος ως προς τις δύο μετρήσεις ως χαρακτηριστικό της προσωπικότητας (Μ = ________, SD = ________) και ως κατάσταση (Μ = ________, SD = ________), t(________) = ________, p = ________ (δίπλευρος έλεγχος).

Σημείωση
Αν η κανονικότητα των διαφορών δεν υποστηρίζεται από τα δεδομένα, εφαρμόστε την δοκιμασία Wilcoxon:

wilcox.test(parents$stai_present, parents$stai_general, paired = TRUE)

8 Δραστηριότητα II: Εφαρμογή στο data.frame nurses

Στα πλαίσια έρευνας καταγράφηκαν ορισμένα δημογραφικά και ψυχομετρικά χαρακτηριστικά νοσηλευτών που εργάζονται σε μονάδες εντατικής θεραπείας. Τα δεδομένα είναι σε ένα αρχείο SPSS διαθέσιμα για λήψη εδώ.
1) Να κάνετε λήψη τα δεδομένα.
2) Να εισάγετε τα δεδομένα στο R Studio ως data.frame με όνομα nurses.
3) Εκτελέστε την εντολή head(nurses)
4) Μετατρέψτε όσες στήλες πρέπει από αλφαριθμητικές (character) σε παράγοντες (factors), αξιοποιώντας τη συνάρτηση η συνάρτηση create.factors:

nurses = create_factors(nurses)
  1. Εκτελέστε την εντολή summary(nurses) για να εξοικειωθείτε με τα περιεχόμενα του αρχείου
summary(nurses)
  1. Εισάγετε κατάλληλες ετικέτες σε όσες μεταβλητές χρειάζεται, με τις εντολές
levels(nurses$gender) = c('Γυναίκα', 'Ανδρας')
levels(nurses$marital) = c('Ελεύθερος/η', 'Παντρεμένος/η', 'Άλλο (Διαζευγμένος/Χήρος)')
levels(nurses$married) = c('Όχι', 'Ναι')
levels(nurses$livingplace) = c('Χωριό', 'Μικρή Πόλη', 'Μεγάλη Πόλη')
levels(nurses$children) = c('Όχι', 'Ναι')
levels(nurses$siblings) = c('Όχι', 'Ναι')
levels(nurses$closerelativepassedaway) = c('Όχι', 'Ναι')
  1. Εισάγετε ετικέτες στις μεταβλητές που θα χρησιμοποιήσουμε στη συνέχεια.
library(Hmisc)
label(nurses$age) = 'Ηλικία'
label(nurses$gender) = 'Φύλο'
label(nurses$marital) = 'Οικογενειακή κατάσταση'
label(nurses$married) = 'Παντρεμένος/η'
label(nurses$livingplace) = 'Τόπος Κατοικίας'
label(nurses$children) = 'Παιδιά'
label(nurses$childrenhwowmany) = 'Πλήθος Παιδιών'
label(nurses$siblings) = 'Συγγενείς'
label(nurses$siblingshowmany) = 'Πλήθος Συγγενών'
label(nurses$experience) = 'Εμπειρία'
label(nurses$satisfactionfromprofession) = 'Ικανοποίηση από το επάγγελμα'
label(nurses$satisfactionfromjobposition) = 'Ικανοποίηση από τη θέση'
label(nurses$closerelativepassedaway) = 'Κάποιος συγγενής απεβίωσε πρόσφατα'
label(nurses$DEP) = 'Depression'
label(nurses$ANX) = 'Anxiety'
label(nurses$SpREUK) = 'Spirituality'
label(nurses$Extraversion) = 'Extraversion'
label(nurses$Neuroticism) = 'Neuroticism'
label(nurses$Psychotism) = 'Psychotism'
label(nurses$EE) = 'Emotional Exhaustion'
label(nurses$DP) = 'Depersonalization'
label(nurses$PA) = 'Personal Accomplishment'
  1. Δημιουργήστε πίνακες συχνοτήτων για τις ποιοτικές μεταβλητές του αρχείου.
frequency_table(nurses, c('gender', 'marital', 'married', 'livingplace', 'children', 'childrenhwowmany', 'siblings', 'siblingshowmany', 'experience', 'satisfactionfromprofession', 'satisfactionfromjobposition', 'closerelativepassedaway'))
  1. Δημιουργήστε ραβδογράμματα ή κυκλικά διαγράμματα για τις ποιοτικές μεταβλητές του αρχείου. Ενδεικτικά:
my_pie_plot(nurses$gender)
my_bar_plot(nurses$marital)
  1. Για τους παρακάτω ισχυρισμούς:
  • Να καταγράψετε την μηδενική και την εναλλακτική υπόθεση.
  • Να εφαρμόσετε την κατάλληλη στατιστική δοκιμασία για τον έλεγχο της υπόθεσης.
  • Να καταγράψετε το αποτέλεσμα.

Οι ισχυρισμοί είναι οι εξής:

α) Τα δύο φύλα εκπροσωπούνται το ίδιο στο δείγμα.

β) Το φύλο είναι ανεξάρτητο από την οικογενειακή κατάσταση.

γ) Το μέσο πλήθος παιδιών δεν είναι σημαντικά διαφορετικό από το 2.

δ) Το μέσο πλήθος παιδιών δεν διαφέρει σημαντικά μεταξύ στους άνδρες και στις γυναίκες.

ε) Υπάρχει σημαντική διαφοροποίηση στα ψυχολογικά χαρακτηριστικά μεταξύ ανδρών και γυναικών.

ζ) Υπάρχει σημαντική διαφοροποίηση στα ψυχολογικά χαρακτηριστικά μεταξύ παντρεμένων και μη παντρεμένων.

η) Υπάρχει σημαντική διαφοροποίηση στα ψυχολογικά χαρακτηριστικά μεταξύ αυτών που έχουν παιδιά και αυτών που δεν έχουν.

θ) Υπάρχει σημαντική διαφοροποίηση στα ψυχολογικά χαρακτηριστικά μεταξύ αυτών που έχουν χάσει πρόσφατα κάποιον συγγενή τους και των υπολοίπων.

ι) Υπάρχει σημαντική διαφορά στην ικανοποίηση από το επάγγελμα και στην ικανοποίηση από τη θέση.

9 Δραστηριότητα III: Εφαρμογή στο data.frame patients

Στα πλαίσια έρευνας καταγράφηκαν ορισμένα δημογραφικά και ψυχομετρικά χαρακτηριστικά ηλικιωμένων ανθρώπων που επισκεπτόταν ένα οδοντριατρείο για σχετικές θεραπείες. Τα δεδομένα είναι σε ένα αρχείο SPSS διαθέσιμα για λήψη εδώ.
1) Να κάνετε λήψη τα δεδομένα.
2) Να εισάγετε τα δεδομένα στο R Studio ως data.frame με όνομα patients.
3) Εκτελέστε την εντολή head(patients.)
4) Μετατρέψτε όσες στήλες πρέπει από αλφαριθμητικές (character) σε παράγοντες (factors), αξιοποιώντας τη συνάρτηση η συνάρτηση create.factors:

patients = create_factors(patients)
  1. Εκτελέστε την εντολή summary(patients) για να εξοικειωθείτε με τα περιεχόμενα του αρχείου
summary(patients)
  1. Εισάγετε κατάλληλες ετικέτες σε όσες μεταβλητές χρειάζεται, με τις εντολές
levels(patients$gender) = c('Γυναίκα', 'Ανδρας')
levels(patients$marital) = c('Ελεύθερος/η', 'Παντρεμένος/η', 'Διαζευγμένος/η', 'Χήρος/α)')
levels(patients$livingplace) = c('Χωριό', 'Μικρή Πόλη', 'Μεγάλη Πόλη')
levels(patients$educational) = c('Αναλφάβητος/Πρωτοβάθμια', 'Δευτεροβάθμια/Τριτοβάθμια')
levels(patients$pension) = c('Όχι', 'Ναι')
levels(patients$pensionisgood) = c('Όχι', 'Ναι')
levels(patients$worktodayformoney) = c('Όχι', 'Ναι')
levels(patients$siblings) = c('Όχι', 'Ναι')
levels(patients$sister) = c('Όχι', 'Ναι')
levels(patients$brother) = c('Όχι', 'Ναι')
levels(patients$children) = c('Όχι', 'Ναι')
levels(patients$daughter) = c('Όχι', 'Ναι')
levels(patients$son) = c('Όχι', 'Ναι')
levels(patients$daughterlivenearyou) = c('Όχι', 'Ναι')
levels(patients$sonlivesnearyou) = c('Όχι', 'Ναι')
levels(patients$holidays) = c('Όχι', 'Ναι')
levels(patients$walking) = c('Όχι', 'Ναι')
levels(patients$garden) = c('Όχι', 'Ναι')
levels(patients$difficultgiratia) = c('Όχι', 'Ναι')
levels(patients$friendsinthepast) = c('Όχι', 'Ναι')
levels(patients$friendstoday) = c('Όχι', 'Ναι')
  1. Εισάγετε ετικέτες στις μεταβλητές που θα χρησιμοποιήσουμε στη συνέχεια.
library(Hmisc)
label(patients$age) = 'Ηλικία'
label(patients$gender) = 'Φύλο'
label(patients$marital) = 'Οικογενειακή κατάσταση'
label(patients$livingplace) = 'Τόπος Κατοικίας'
label(patients$children) = 'Παιδιά'
label(patients$siblings) = 'Συγγενείς'
label(patients$sister) = 'Αδελφή'
label(patients$brother) = 'Αδελφός'
label(patients$daughter) = 'Κόρη'
label(patients$son) = 'Γιος'
label(patients$daughterlivenearyou) = 'Η κόρη ζει κοντά'
label(patients$sonlivesnearyou) = 'Ο γιος ζει κοντά'
label(patients$holidays) = 'Διακοπές'
label(patients$walking) = 'Περπάτημα'
label(patients$garden) = 'Κηπουρική'
label(patients$difficultgiratia) = 'Δύσκολα γηρατειά'
label(patients$friendsinthepast) = 'Φίλοι στο παρελθόν'
label(patients$friendstoday) = 'Φίλοι σήμερα'
label(patients$DEP) = 'Depression'
label(patients$ANX) = 'Anxiety'
label(patients$OAS) = 'External Shame'
label(patients$ESS) = 'Internal Shame'
label(patients$SELF_COMPASSION) = 'Self Compassion'
label(patients$CDRISC) = 'Resilience'
label(patients$GOHAI.PF) = 'Physical Functioning'
label(patients$GOHAI.PS) = 'Psyhosocial Functioning'
label(patients$GOHAI.PD) = 'Pain / Discomfort'
  1. Δημιουργήστε πίνακες συχνοτήτων για κάποιες από τις ποιοτικές μεταβλητές του αρχείου.
frequency_table(patients, c('gender', 'marital', 'livingplace', 'children', 'siblings', 'sister', 'brother', 'daughter', 'son'))
  1. Δημιουργήστε ραβδογράμματα ή κυκλικά διαγράμματα για τις ποιοτικές μεταβλητές του αρχείου. Ενδεικτικά:
my_pie_plot(patients$gender)
my_bar_plot(patients$marital)
  1. Για τους παρακάτω ισχυρισμούς:
  • Να καταγράψετε την μηδενική και την εναλλακτική υπόθεση.
  • Να εφαρμόσετε την κατάλληλη στατιστική δοκιμασία για τον έλεγχο της υπόθεσης.
  • Να καταγράψετε το αποτέλεσμα.

Οι ισχυρισμοί είναι οι εξής:

α) Τα δύο φύλα (gender) εκπροσωπούνται το ίδιο στο δείγμα.

β) Το φύλο (gender) είναι ανεξάρτητο από τον τόπο κατοικίας (livingplace).

γ) Η μέση τιμή στην κατάθλιψη (DEP) είναι σημαντικά διαφορετική από το 12.

δ) H μέση τιμή στην κατάθλιψη (DEP) δεν διαφέρει σημαντικά μεταξύ ανδρών και γυναικών.

ε) Υπάρχει σημαντική διαφοροποίηση μεταξύ Physical Functioning και Psyhosocial Functioning.


  1. Επικοινωνία: Επαμεινώνδας Διαμαντοπουλος, Τμήμα ΗΜ/ΜΥ, Δ.Π.Θ. Email: . Τηλ: 25410 79757, 6944683327↩︎