Πλάτωνας φιλοσοφία
Ερευνητές από το University of Cambridge χρησιμοποίησαν το συγκεκριμένο παράδειγμα για να αξιολογήσουν τις δυνατότητες του ChatGPT στα μαθηματικά και τα αποτελέσματα δεν ήταν αυτά που θα περίμενε κανείς από μια προηγμένη μορφή τεχνητής νοημοσύνης.

Το πρόβλημα του Πλάτωνα και η σωκρατική μέθοδος

Στον "Μένωνα", ο Σωκράτης καθοδηγεί έναν νεαρό δούλο να λύσει ένα γεωμετρικό πρόβλημα: πώς μπορεί να διπλασιαστεί το εμβαδόν ενός τετραγώνου. Η αρχική, διαισθητική απάντηση, ο διπλασιασμός των πλευρών, αποδεικνύεται λανθασμένη. Μέσα από διαδοχικές ερωτήσεις, ο μαθητής οδηγείται μόνος του στη σωστή λύση: το νέο τετράγωνο πρέπει να βασίζεται στη διαγώνιο του αρχικού.

Η διαδικασία αυτή θεωρείται από πολλούς ως ένα από τα πρώτα παραδείγματα μαθηματικής διδασκαλίας μέσω καθοδήγησης και διαλόγου.

Η αντίδραση της τεχνητής νοημοσύνης

Όταν οι ερευνητές έθεσαν το ίδιο πρόβλημα στο ChatGPT, ακολουθώντας μια παρόμοια διαλογική προσέγγιση, το σύστημα παρουσίασε μια απροσδόκητα ανθρώπινη συμπεριφορά. Πρότεινε αρχικά λανθασμένες λύσεις, υπέπεσε σε βασικά μαθηματικά σφάλματα και τροποποίησε τη στρατηγική του μόνο όταν δέχτηκε πίεση μέσω των ερωτήσεων.

Η ορθή γεωμετρική απάντηση προέκυψε τελικά, όχι ως αποτέλεσμα σταθερής γνώσης, αλλά ύστερα από «διόρθωση πορείας». Όπως σημείωσε ο ερευνητής Nadav Marco, το σύστημα λειτούργησε περισσότερο σαν μαθητής που δοκιμάζει ιδέες βασισμένες σε εμπειρία, παρά σαν φορέας καθιερωμένης γνώσης.

Προκλήσεις και ερωτήματα για την εκπαίδευση

Τα ευρήματα της έρευνας ανοίγουν μια ευρύτερη συζήτηση για τον ρόλο της τεχνητής νοημοσύνης στην εκπαιδευτική διαδικασία. Ο μαθηματικός Αντρέας Στυλιανίδης επισημαίνει ότι οι μαθητές δεν θα πρέπει να θεωρούν δεδομένη την ορθότητα των απαντήσεων που λαμβάνουν από τέτοια εργαλεία, όπως θα έκαναν με ένα έγκυρο σχολικό εγχειρίδιο.

Η βασική αρχή που αναδεικνύεται είναι η ανάγκη για κριτική χρήση της τεχνολογίας. Η τεχνητή νοημοσύνη δεν αντικαθιστά τη θεμελιωμένη γνώση, αλλά μπορεί να λειτουργήσει υποστηρικτικά, ενισχύοντας τη διερεύνηση και τον διάλογο.

Όταν οι μηχανές κάνουν ανθρώπινα λάθη

Ίσως το πιο ενδιαφέρον στοιχείο του πειράματος είναι ότι το ChatGPT δεν απέτυχε απλώς, αλλά απέτυχε με τρόπο που θυμίζει ανθρώπινη σκέψη. Πειραματίστηκε, έκανε υποθέσεις, διόρθωσε τα λάθη του και προσαρμόστηκε.

Αυτή η συμπεριφορά, αντί να θεωρείται αδυναμία, μπορεί να αξιοποιηθεί ως πλεονέκτημα. Δείχνει ότι η τεχνητή νοημοσύνη δεν περιορίζεται στην παραγωγή σωστών απαντήσεων, αλλά μπορεί να προσομοιώσει και τη διαδικασία που οδηγεί σε αυτές.

Όλες οι σημαντικές ειδήσεις

Προκηρύξεις εκπαιδευτικών 2026: Πώς θα δεις πρώτος τους πίνακες μέσω google

Βγήκαν οι προκηρύξεις εκπαιδευτικών - Όλα τα κριτήρια

Google news logo Ακολουθήστε το Alfavita στo Google News Viber logo Ακολουθήστε το Alfavita στo Viber

σχετικά άρθρα

Πλάτωνας φιλοσοφία
Το πλατωνικό παράδοξο: Όταν η τεχνητή νοημοσύνη σκέφτεται σαν μαθητής
Ερευνητές από το University of Cambridge χρησιμοποίησαν το συγκεκριμένο παράδειγμα για να αξιολογήσουν τις δυνατότητες του ChatGPT στα μαθηματικά και...
Το πλατωνικό παράδοξο: Όταν η τεχνητή νοημοσύνη σκέφτεται σαν μαθητής