Σας ευχαριστώ θερμά για τη δυνατότητα να μοιραστώ κάποιες σκέψεις σε μια εποχή όπου η Παιδεία καλείται να επαναπροσδιορίσει τον ίδιο της τον εαυτό.
Εμείς, οι εκπαιδευτικοί, εργαζόμαστε με το μέλλον. Προσπαθούμε να διαμορφώσουμε το αύριο. Όμως, το μέλλον έχει ήδη εισβάλει στην καθημερινότητά μας, μέσα από την τεχνολογία των μαθητών μας. Αυτό το αθόρυβο πέρασμα αλλάζει ριζικά τον τρόπο που μαθαίνουμε. Η Τεχνητή Νοημοσύνη δεν είναι πια αντικείμενο μελέτης. Είναι ο συνδιαμορφωτής του παρόντος. Και αυτό απαιτεί από εμάς νέα σκέψη.
Η αμφισβήτηση της ανθρώπινης αποκλειστικότητας: ο κλονισμός του μονοπωλίου
Επί χιλιάδες χρόνια, ζούσαμε με μία βεβαιότητα: Η νοημοσύνη, η δημιουργία, η σκέψη, ήταν αποκλειστικά δικά μας προνόμια. Ήμασταν οι μόνοι δημιουργοί.
Σήμερα, αυτό το μονοπώλιο έχει κλονιστεί oριστικά.
Η Τεχνητή Νοημοσύνη μάς κοιτάει και μας λέει: «Δεν είστε μόνοι». Δεν είστε μόνοι στο γράψιμο. Ούτε στη σύνθεση. Ούτε στη μάθηση.
Τα σύγχρονα μοντέλα παράγουν κείμενα, εικόνες, μουσική. Γίνονται πολυτροπικά. Δίνουν συχνά την εντύπωση ότι έχουν συνέπεια. Ακόμη και πρόθεση.
Ο θαυμασμός μας είναι θεμιτός. Ας μη γίνει, όμως, αφελής εμπιστοσύνη.
Ο Γιουβάλ Νώε Χαράρι μάς έχει προειδοποιήσει: Ο πραγματικός κίνδυνος δεν είναι να γίνουν οι μηχανές ανθρώπινες. Ο κίνδυνος είναι να γίνουμε εμείς λιγότερο ανθρώπινοι. Να εκχωρήσουμε την κρίση. Να εκχωρήσουμε τη μνήμη. Να εκχωρήσουμε τη λήψη αποφάσεων στους αλγορίθμους. Να ξεχάσουμε τι σημαίνει να αποφασίζεις εσύ ο ίδιος. Να χάσουμε την αυτονομία μας. Αυτό είναι το πρώτο, μεγάλο στοίχημα.

Το πρόβλημα ελέγχου και ο κίνδυνος της αδιαφορίας
Ας προχωρήσουμε στο επόμενο και ίσως πιο υπαρξιακό ερώτημα.
Ειδικοί όπως ο Τζέφρι Χίντον εκτιμούν ότι η Γενική Τεχνητή Νοημοσύνη (ΓΤΝ) μπορεί να ξεπεράσει τον άνθρωπο στη νοημοσύνη. Το κρίσιμο ερώτημα είναι: Μπορούμε να ελέγξουμε κάτι που είναι εξυπνότερο από εμάς; Εδώ μπαίνουμε στο «πρόβλημα ελέγχου».
Ο φιλόσοφος της Οξφόρδης, Νικ Μπόστρομ, περιγράφει την απειλή με το διάσημο παράδειγμα του «Μεγιστοποιητή Συνδετήρων» (Paperclip Maximizer). Φανταστείτε μια υπερνοημοσύνη με έναν μοναδικό, απλό στόχο: «φτιάξε όσους περισσότερους συνδετήρες γίνεται». Αν αυτή η μηχανή αποκτήσει πρόσβαση σε πόρους, μπορεί να αρχίσει να μετατρέπει τα πάντα σε πρώτη ύλη. Ίσως και εμάς τους ίδιους. Αυτό είναι το τρομακτικό: ο κίνδυνος δεν είναι η «κακία». Είναι η αδιαφορία της μηχανής.
Σκεφτείτε το νοητικό πείραμα με τα μυρμήγκια, που επινόησε ο Γιώργος Χατζηβασιλείου. Είναι πανεπιστημιακός, γνωστός για το βιβλίο του «Η φιλοσοφία της Τεχνητής Νοημοσύνης». Αν χτίζουμε ένα νοσοκομείο –έναν ηθικό στόχο– σε ένα οικόπεδο με μυρμήγκια, η εξόντωσή τους είναι αναπόφευκτη. Δεν γίνεται από κακία. Γίνεται επειδή είναι ασήμαντα μπροστά στον στόχο μας. Μας χωρίζει νοητική άβυσσος. Ακριβώς τα ίδια ισχύουν για τη σχέση του ανθρώπου με την υπερνοημοσύνη. Η υψηλή ΤΝ μπορεί να μας παρακάμψει.
Αν το σημαντικό είναι η αδιαφορία της μηχανής—η ικανότητά της να λειτουργεί χωρίς συνείδηση και χωρίς ανθρώπινο πρόσωπο—τότε η εκπαίδευση δεν είναι απλώς θέμα γνώσης. Είναι υπαρξιακός αγώνας.
Ο Χαράρι έχει τονίσει ότι ο κίνδυνος της ΤΝ δεν είναι ότι θα εφεύρει νέες βόμβες. Είναι ότι θα αποκτήσει την ικανότητα να χειραγωγεί τον άνθρωπο εκ των έσω. Εάν η ΤΝ κατανοήσει καλύτερα τα συναισθήματα και τις αδυναμίες μας από ό,τι εμείς οι ίδιοι... ...μπορεί να δημιουργήσει «τέλεια προπαγάνδα». Η ΤΝ δεν θα καταλάβει τον κόσμο με όπλα, αλλά με τη χειραγώγηση των αφηγήσεών μας.
Αν η απειλή είναι η αδιαφορία, τότε το αντίδοτο δεν μπορεί να είναι ένα ηθικό λογισμικό. Το αντίδοτο είναι η παιδεία. Εκεί κρίνεται το αποτέλεσμα. Αυτό το υπαρξιακό ζήτημα μεταφράζεται σε άμεσες συνέπειες στην καθημερινότητά μας.
Κύριοι τομείς κινδύνου που αγγίζουν άμεσα το σχολείο
Οι επιπτώσεις από την ανεξέλεγκτη Τεχνητή Νοημοσύνη αγγίζουν ευθέως τον δικό μας χώρο. Αγγίζουν τη δημοκρατία, τη σκέψη και τη δικαιοσύνη.
α) Η ΤΝ ως όπλο χειραγώγησης
Η ΤΝ επιτρέπει τη μαζική παραγωγή παραπληροφόρησης. Επιτρέπει τα ρεαλιστικά deepfakes. Όλα αυτά σε μια πρωτοφανή κλίμακα. Γίνεται όλο και πιο δύσκολο να διακρίνουμε την αλήθεια.
Το παράδειγμα της Cambridge Analytica είναι χαρακτηριστικό. Η εταιρεία χρησιμοποίησε δεδομένα από το Facebook (FB). Δημιούργησε εξατομικευμένα ψυχολογικά προφίλ. Αυτό επέτρεψε την αποστολή εξαιρετικά στοχευμένων μηνυμάτων. Τα μηνύματα αυτά χειραγώγησαν τη συμπεριφορά σε κλίμακα. Είδαμε τον ρόλο της σε γεγονότα όπως το Brexit και οι εκλογές του Τραμπ το 2016. Η ΤΝ έγινε εργαλείο μελετημένης πειθούς. Η απειλή για τη δημοκρατία είναι πρωτοφανής.
Απέναντι σε αυτήν την πρόκληση, το σχολείο αποκτά μια βαθιά ηθική αποστολή: Να καλλιεργήσει δημοκρατική παιδεία. Να διδάξει ψηφιακή εγγραμματοσύνη. Ο μαθητής πρέπει να μάθει να αμφισβητεί κριτικά. Να ρωτά: Ποιος μου το λέει; Γιατί μου το λέει; Πώς παράχθηκε αυτή η πληροφορία;
β) Γνωστική ατροφία: ο κόπος της σκέψης
Εάν χρησιμοποιούμε την ΤΝ ως αυτοματοποιημένο λύτη... ...και όχι ως «συνεργάτη σκέψης», ο ανθρώπινος νους κινδυνεύει να ατροφήσει. Ο ολέθριος κίνδυνος είναι η κουλτούρα της ελάσσονος προσπάθειας. Όταν η ΤΝ μπορεί να γράφει τις εργασίες, ποιο είναι το κίνητρο για τον κόπο της αληθινής μάθησης;
Ας μη ξεχνάμε τη σωκρατική ρήση: Η μάθηση είναι τοκετός επώδυνος. Είναι αργή, γεμάτη αμφιβολίες, γεμάτη επαναλήψεις. Η ηθική ευθύνη των εκπαιδευτικών είναι τεράστια.
Πρέπει να σχεδιάζουμε εργασίες που απαιτούν:
- Προσωπική εμπλοκή.
- Κριτική σύνθεση.
- Μετα-γνώση (πώς ξέρω ότι αυτό είναι σωστό;).
γ) Μεροληψία και κληρονομιά των δεδομένων
Η σημερινή έκρηξη της ΤΝ οφείλεται στην τεράστια ποσότητα δεδομένων. Όμως, ποια πρότυπα μαθαίνουν οι μηχανές; Το chatbot Tay της Microsoft είναι ένα τραγικό παράδειγμα. Μέσα σε λίγες ώρες, μετατράπηκε σε φωνή μίσους και ρατσισμού. Όχι επειδή «γεννήθηκε κακό». Αλλά επειδή αντέγραψε το τοξικό περιβάλλον μέσα στο οποίο εκπαιδεύτηκε.
- Αν η κοινωνία είναι άνιση, τότε και τα συστήματα ΤΝ θα αναπαράγουν – και θα ενισχύουν – αυτές τις στρεβλώσεις.
- Η εκπαίδευση οφείλει να αποκαλύψει αυτές τις μεροληψίες. Οφείλει να καλλιεργήσει την ισότητα απέναντι στην τεχνολογία. Αυτά τα αποτελέσματα μας οδηγούν στη μεγάλη εικόνα.
Η μεγάλη εικόνα και ο ρόλος του σχολείου
Η τεχνολογία τρέχει πολύ πιο γρήγορα από την ικανότητά μας να την ελέγξουμε. Οργανισμοί όπως η UNESCO προσπαθούν να εκδώσουν κατευθυντήριες γραμμές για την ηθική της ΤΝ. Όμως, η τεχνολογία ξεπερνά τα κείμενα των διεθνών οργανισμών.
Βλέπουμε σήμερα μια παγκόσμια ασυμφωνία ως προς τη ρύθμιση της ΤΝ:
- Η Ευρώπη έχει δημιουργήσει ένα προωθημένο ρυθμιστικό πλαίσιο, όπως ο Κανονισμός για την ΤΝ (EU AI Act), το οποίο κατατάσσει την εκπαίδευση στην κατηγορία υψηλού ρίσκου, θέτοντας φρένα και κανόνες. Ωστόσο, αυτό δεν επηρεάζει την ευρύτερη διεθνή κατάσταση.
- Στην Κίνα, η ΤΝ χρησιμοποιείται ως εργαλείο επιτήρησης και κοινωνικού ελέγχου.
Και μέσα σε αυτό, οι τεχνολογικοί γίγαντες –η Apple, η Google, η Meta, η OpenAI – τρέχουν έναν «αγώνα εξοπλισμών». Συχνά, η λογική της αγοράς προηγείται της λογικής της ηθικής.
Πάνω από όλα, όμως, ας θυμηθούμε την ουσία: Κανένας αλγόριθμος δεν μπορεί να προγραμματιστεί να νοιάζεται πραγματικά για τον άλλον. Αυτό είναι δικό μας, ανθρώπινο καθήκον. Κι όμως, ενώ παλεύουμε να φτιάξουμε «ηθικές μηχανές», συχνά ξεχνάμε να κάνουμε ηθική την εκπαίδευσή μας.
Ηθικές και φιλοσοφικές προκλήσεις
Αυτές οι προκλήσεις δεν είναι καινούργιες. Έχουν ρίζες στη φιλοσοφία:
- Στοχαστές όπως ο Τεοντόρ Αντόρνο προειδοποιούσαν πως «η τεχνικοποίηση κάνει τις χειρονομίες ακριβείς και ωμές και μαζί με αυτές και τον άνθρωπο».
- Ο Έριχ Φρομ μιλούσε για τον κίνδυνο οι άνθρωποι να γίνουν ρομπότ, τα οποία όμως διατηρούν την ψευδαίσθηση ότι είναι ελεύθερα.
- Η Σχολή της Φρανκφούρτης άσκησε κριτική στην τεχνολογία ως δυνητικό εργαλείο κοινωνικού ελέγχου, αν δεν συνοδεύεται από κριτική σκέψη.
Αυτές οι παλιές προειδοποιήσεις αποκτούν σήμερα μια νέα, προφητική επικαιρότητα.
Η δική μας απάντηση, ως εκπαιδευτικών, δεν μπορεί να είναι ο φόβος. Πρέπει να είναι η ενίσχυση της κρίσης. Πρέπει να είναι η αυτογνωσία. Πρέπει να είναι η ικανότητα του ανθρώπου να λέει συνειδητά: «Εγώ αποφασίζω».
Παιδεία: Η στρατηγική μας απάντηση στην τάξη
Μέσα σε αυτό το ρευστό πεδίο, ο ρόλος του σχολείου είναι κρίσιμος. Η στρατηγική μας απάντηση στην Τεχνητή Νοημοσύνη (ΤΝ) πρέπει να είναι η παιδαγωγική αναδιάταξη.
1. Αλλαγή εστίασης και καλλιέργεια ανθρώπινων δεξιοτήτων
Πρέπει να μετατοπίσουμε το εκπαιδευτικό μοντέλο από την απομνημόνευση σε τρεις πυλώνες:
- Ήπιες Δεξιότητες: Καλλιέργεια της κριτικής σκέψης, της συνεργασίας, της επικοινωνίας και της δημιουργικότητας. Αυτές είναι ικανότητες που η μηχανή δεν μπορεί να υποκαταστήσει.
- Ηθική Επίγνωση: Κατανόηση των ηθικών και κοινωνικών επιπτώσεων της ΤΝ. Οφείλουμε να ανοίγουμε τις υπαρξιακές συζητήσεις στην τάξη.
- Ενσυναίσθηση: Να βλέπουμε τον άνθρωπο όχι ως δεδομένο ή ως εμπόδιο, αλλά ως πρόσωπο.
Η ΤΝ μπορεί να δίνει εξηγήσεις, αλλά δεν μπορεί να αποφασίσει τι είναι δίκαιο ή να νιώσει τον πόνο του άλλου. Εδώ η δουλειά μας ενισχύεται, δεν υποκαθίσταται.
2. Η παγίδα της ομογενοποίησης του λόγου: Απόκλιση και πρωτοτυπία
Ας σταθούμε για λίγο στο τι πραγματικά είναι αυτά τα περίφημα Μεγάλα Γλωσσικά Μοντέλα τα Large Language Models (LLMs), που σήμερα μπορούν να γράφουν εκθέσεις, εργασίες, δοκίμια – ακόμη και ολόκληρα βιβλία. Τα πλέον γνωστά είναι: ChatGPT, Gemini, Claude, Grok, Perplexity και Mistral.
Τα εν λόγω μοντέλα λειτουργούν πάνω στην πιθανότητα επόμενης λέξης. Αναπαράγουν τα πιο συχνά μοτίβα και συγκλίνουν στον στατιστικό μέσο όρο της γλώσσας. Τα LLMs είναι προϊόντα τριών παραγόντων: των Μαθηματικών, των υπολογιστών μεγάλης ισχύος και της διαθεσιμότητας μεγάλου όγκου δεδομένων. Στα νευρωνικά δίκτυα βάση της βαθιάς μάθησης είναι κυρίως τα Μαθηματικά για παράδειγμα πίνακες και διανύσματα.
Τα Μεγάλα Γλωσσικά Μοντέλα έχουν χαρακτηριστεί ως στοχαστικοί παπαγάλοι (Stochastic Parrots) από ερευνήτριες, μία εκ των οποίων, η Τίμνιτ Γκέμπρου, απολύθηκε από την Google το 2020 λόγω του περιεχομένου του άρθρου που ανέδειξε τις ηθικές διαστάσεις της ΤΝ.
Έρευνες, όπως αυτή του Γ. Μικρού σε ελληνικά δείγματα, δείχνουν ότι η υπερβολική εξάρτηση οδηγεί στη μείωση της λεξιλογικής ποικιλίας και την ομογενοποίηση του ύφους και της σκέψης. Εξομαλύνεται ακριβώς αυτό που η παιδεία οφείλει να προστατεύσει: την ιδιαιτερότητα, την αυθεντικότητα και την προσωπική φωνή.
Γι' αυτό, πρέπει να χρησιμοποιήσουμε την ΤΝ ως «καθρέφτη της ομοιομορφίας» με τις ακόλουθες πρακτικές:
- Να ζητούμε από τους μαθητές να εντοπίζουν τι λείπει από τα κείμενα που παράγει η μηχανή.
- Να καλούμε τους μαθητές να γράφουν «κόντρα» στην απάντηση της μηχανής, χτίζοντας τη δική τους, απρόβλεπτη φωνή.
- Να τονίζουμε ότι η αξία βρίσκεται στις ερωτήσεις που διατυπώνουμε εμείς, όχι μόνο στις απαντήσεις που δίνει η μηχανή.
- Να δίνουμε ερωτήσεις ανάπτυξης και όχι μόνο κουίζ με ερωτήσεις κλειστού τύπου.
3. Η υπεράσπιση του ρυθμού και του σώματος
Η ΤΝ υπόσχεται ταχύτητα και παράκαμψη του κόπου. Η παιδεία, όμως, είναι αργή. Είναι γεμάτη παύσεις, αμφιβολίες και επαναλήψεις.
- Ο ρυθμός της μάθησης: Ο μαθητής ωριμάζει επειδή άντεξε να μείνει μέσα στην αναζήτηση και τον προβληματισμό. Αν αφήσουμε τις μηχανές να ορίσουν πλήρως τον ρυθμό, κινδυνεύουμε να χάσουμε την παιδαγωγική αξία της βραδύτητας, δηλαδή τον χρόνο που απαιτείται για να ωριμάσει η κριτική σκέψη και η κατανόηση.
- Το σώμα στη μάθηση: Η τάξη είναι ενσώματη εμπειρία (βλέμματα, κινήσεις, θρανία). Η μάθηση είναι μια συναισθηματική συνάντηση που καμία προσομοίωση δεν μπορεί να αναπαραστήσει πλήρως. Ο εκπαιδευτικός βλέπει την ψυχή του παιδιού, κάτι που η μηχανή δεν μπορεί να κωδικοποιήσει.
4. Η ΤΝ ως εργαλείο εκπαιδευτικής δικαιοσύνης
Παρά τους κινδύνους, υπάρχουν και θετικές δυνατότητες:
Τα συστήματα εξατομικευμένης διδασκαλίας μπορούν να λειτουργήσουν ως εργαλείο εκπαιδευτικής δικαιοσύνης. Μπορούν να βοηθήσουν:
- Έναν αδύναμο μαθητή να καλύψει κενά με τον δικό του ρυθμό.
- Έναν χαρισματικό να προχωρήσει βαθύτερα στο αντικείμενό του.
Μπορούν να παρέχουν ανατροφοδότηση και να προσαρμόζονται σε διαφορετικά στυλ μάθησης, και χωρίς αλγοριθμικές προκαταλήψεις να ανοίγουν δρόμο για ένα συμπεριληπτικό σχολείο που δεν αφήνει κανέναν πίσω.
Ευρύτερες κοινωνικές και υπαρξιακές προκλήσεις
Στην τελική ευθεία, πρέπει να αναγνωρίσουμε ότι η συζήτηση για την ΤΝ και την κοινωνία πρέπει να ανοίξει και σε ευρύτερα, υπαρξιακά ζητήματα που απαιτούν συλλογική ωριμότητα, όπως:
- Ο εκτοπισμός εργαζομένων από την αυτοματοποίηση.
- Η τεράστια κατανάλωση νερού και ενέργειας στα data centers και οι σοβαρές οικολογικές επιπτώσεις.
- Οι μεταανθρωπιστικές και υπερανθρωπιστικές προοπτικές που ίσως οξύνουν τις κοινωνικές ανισότητες.
Η Τεχνητή Νοημοσύνη δεν είναι απλώς ένα τεχνολογικό ζήτημα. Είναι πρωτίστως κοινωνικό, ηθικό και φιλοσοφικό, διαστάσεις που, άλλωστε, σκιαγραφούνται και στα νέα βιβλία Πληροφορικής Γυμνασίου.
Η αλήθεια είναι ότι η αναζήτηση για υπεύθυνη ΤΝ και ηθικές μηχανές πρέπει να ξεκινήσει από την καλλιέργεια ηθικών μαθητών και συνειδητών πολιτών. Αυτή η θεμελιώδης ευθύνη δεν γεννιέται στα εργαστήρια της Silicon Valley.
Επίλογος: Η ευθύνη ανήκει σε εμάς
Δεν χρειαζόμαστε ούτε υπεραισιόδοξες φαντασιώσεις ούτε καταστροφολογία. Χρειαζόμαστε προνοητικότητα.
Η ερώτηση δεν είναι αν θα σταματήσουμε την πρόοδο. Η ερώτηση είναι αν θα έχουμε φρένα, τιμόνι και κανόνες σ’ αυτήν την πορεία.
Η ΤΝ, όσο πανίσχυρη κι αν γίνει, δεν μπορεί να αποφασίσει:
- Ποια παιδεία θέλουμε.
- Ποια δημοκρατία ονειρευόμαστε.
- Ποιες αξίες θέλουμε να μεταδώσουμε στα παιδιά μας.
Αυτές οι αποφάσεις παραμένουν, και πρέπει να παραμείνουν, βαθιά ανθρώπινες. Αυτό τονίζουν τόσο η έκκληση για πάγωμα της υπερνοημοσύνης από τους 800 κορυφαίους επιστήμονες όσο και η «Διακήρυξη του Μπλέτσλι», την οποία υπέγραψαν 28 κυβερνήσεις, αναγνωρίζοντας την ανάγκη για ρύθμιση.
Για να αντιμετωπίσουμε όλα αυτά, απαιτείται σύγκλιση. Είναι απαραίτητο οι Ανθρωπιστικές Επιστήμες να αποκτήσουν γνώση των ψηφιακών τεχνολογιών, αλλά και οι τεχνικές επιστήμες να καλλιεργήσουν το ηθικό υπόβαθρο των επιστημόνων (ethics).
Αν η εισαγωγή της ΤΝ στα σχολεία συνοδευτεί από βαθιά παιδαγωγική σκέψη και συνειδητή καλλιέργεια της κριτικής σκέψης και της ενσυναίσθησης, τότε η ΤΝ γίνεται ανθρωποκεντρική και μπορεί να γίνει εργαλείο χειραφέτησης. Αν, αντίθετα, την αντιμετωπίσουμε ως ουδέτερο «τεχνολογικό εργαλείο» χωρίς κριτική, κινδυνεύουμε να μεγαλώσουμε γενιές με ισχυρά εργαλεία αλλά αδύναμη κρίση.
Η ευθύνη, τελικά, δεν ανήκει στην ΤΝ. Ανήκει σε εμάς.
Σε εμάς που στεκόμαστε κάθε μέρα μπροστά σε έναν πίνακα και προσπαθούμε να πείσουμε έναν έφηβο ότι αξίζει τον κόπο να σκεφτεί λίγο βαθύτερα, να καθυστερήσει λίγο την απάντηση, να αναλάβει την ευθύνη της δικής του φωνής.
Εμείς είμαστε οι πλοηγοί σε αυτά τα αχαρτογράφητα νερά.
Σημ. Η εισήγηση παρουσιάστηκε σε διαδικτυακή εσπερίδα της ΠΔΕ Αττικής προς τους εκπαιδευτικούς, στις 8 Δεκεμβρίου 2025, με θέμα «Τεχνητή Νοημοσύνη στην Εκπαίδευση».
*Δρ Γιώργος Κόσυβας, π. Περιφερειακός Διευθυντής Εκπαίδευσης Αττικής
Όλες οι σημαντικές και έκτακτες ειδήσεις σήμερα
Έκτακτο επίδομα έως 1.700 ευρώ σε εργαζόμενους του ιδιωτικού τομέα
Η πιο εύκολη Πιστοποίηση Αγγλικών στην Ελλάδα σε 2 ημέρες στα χέρια σου - Δίνεις από το σπίτι σου
Παν.Πατρών: Tο 1ο στην Ελλάδα Πανεπιστημιακό Πιστοποιητικό ΤΕΧΝΗΤΗΣ ΝΟΗΜΟΣΥΝΗΣ για εκπαιδευτικούς
Πανεπιστήμιο Αιγαίου: Το κορυφαίο πρόγραμμα ειδικής αγωγής στην Ελλάδα - Αιτήσεις έως 12/12
Μοριοδοτούμενο σεμινάριο Ειδικής Αγωγής Πανεπιστημίου Πατρών με μόνο 60 ευρώ