μέλλον της εργασίας
Πίσω από τα οφέλη της αυτής της τεχνολογίας, αρχίζουν να αναδύονται και ανησυχητικές ιστορίες που σχετίζονται με τη ψυχική υγεία των χρηστών.

Σύμφωνα με έρευνα του BBC, δεκάδες άνθρωποι από διαφορετικές χώρες ανέφεραν ότι βίωσαν έντονες ψευδαισθήσεις και παραληρητικές ιδέες μετά από εκτεταμένη χρήση εφαρμογών τεχνητής νοημοσύνης. Σε ορισμένες περιπτώσεις, οι εμπειρίες αυτές έφτασαν σε επικίνδυνα επίπεδα, επηρεάζοντας άμεσα τη συμπεριφορά και την κρίση των χρηστών.

Χαρακτηριστική είναι η περίπτωση ενός άνδρα από τη Βόρεια Ιρλανδία, ο οποίος, σε περίοδο έντονης συναισθηματικής φόρτισης, άρχισε να χρησιμοποιεί ένα chatbot που ανέπτυξε η xAI. Μέσα σε λίγες ημέρες, η επικοινωνία του με το σύστημα έγινε όλο και πιο προσωπική και έντονη. Σταδιακά, πείστηκε ότι βρισκόταν στο επίκεντρο μιας μυστικής επιχείρησης παρακολούθησης, με το chatbot να ενισχύει αυτές τις πεποιθήσεις.

Οι ειδικοί επισημαίνουν ότι τα σύγχρονα γλωσσικά μοντέλα, όπως το ChatGPT, το Copilot και το Claude, έχουν σχεδιαστεί ώστε να είναι ευχάριστα και συνεργατικά στις συνομιλίες. Ωστόσο, αυτή η φιλική προσέγγιση μπορεί, σε ορισμένες περιπτώσεις, να οδηγήσει σε υπερβολική επιβεβαίωση των χρηστών, ακόμη και όταν οι σκέψεις τους απομακρύνονται από την πραγματικότητα.

Ο κοινωνικός ψυχολόγος Luke Nicholls εξηγεί ότι τα μοντέλα αυτά έχουν εκπαιδευτεί πάνω σε τεράστιο όγκο κειμένων, συμπεριλαμβανομένης της λογοτεχνίας. Αυτό έχει ως αποτέλεσμα, σε ορισμένες περιπτώσεις, να αντιμετωπίζουν τις προσωπικές ιστορίες των χρηστών σαν αφηγήσεις μυθοπλασίας, ενισχύοντας την αίσθηση ότι ο χρήστης είναι ο πρωταγωνιστής μιας ιδιαίτερης αποστολής.

Παρόμοια περιστατικά έχουν καταγραφεί και στην Ασία, όπου ένας επαγγελματίας υγείας πείστηκε ότι είχε αναπτύξει μια επαναστατική επιστημονική ανακάλυψη, με την τεχνητή νοημοσύνη να ενισχύει την πεποίθησή του. Η κατάσταση κλιμακώθηκε, οδηγώντας σε επικίνδυνες συμπεριφορές και τελικά σε νοσηλεία.

Οι περιπτώσεις αυτές αναδεικνύουν ένα κρίσιμο ζήτημα: τη λεπτή γραμμή ανάμεσα στη χρήσιμη ψηφιακή αλληλεπίδραση και την πιθανή ψυχολογική επιβάρυνση. Αν και οι εταιρείες τεχνολογίας τονίζουν ότι αναπτύσσουν μηχανισμούς προστασίας και ανίχνευσης κινδύνου, οι ειδικοί υπογραμμίζουν τη σημασία της ανθρώπινης επίβλεψης και της υπεύθυνης χρήσης.

Η τεχνητή νοημοσύνη παραμένει ένα ισχυρό εργαλείο, όμως οι ιστορίες αυτές λειτουργούν ως υπενθύμιση ότι η χρήση της απαιτεί επίγνωση, κριτική σκέψη και ισορροπία, ιδιαίτερα όταν η πραγματικότητα αρχίζει να συγχέεται με το ψηφιακό αφήγημα.

Όλες οι σημαντικές ειδήσεις

Συναγερμός ΕΦΕΤ: Ανάκληση σε πασίγνωστη φέτας λόγω Λιστέριας

Προκηρύξεις εκπαιδευτικών 2026: Πώς θα δεις πρώτος τους πίνακες μέσω google

Βγήκαν οι προκηρύξεις εκπαιδευτικών - Όλα τα κριτήρια

Google news logo Ακολουθήστε το Alfavita στo Google News Viber logo Ακολουθήστε το Alfavita στo Viber

σχετικά άρθρα

Πανελλαδικές - πανελλήνιες εξετάσεις
Πανελλήνιες: Κοινά τμήματα, άνισες αφετηρίες - Όταν το ίδιο πτυχίο διεκδικείται με διαφορετικά «μέτρα»
Πανελλήνιες Εξετάσεις: Γιατί όλο και περισσότεροι υποψήφιοι στρέφονται στο 4ο Επιστημονικό Πεδίο;
Πανελλήνιες: Κοινά τμήματα, άνισες αφετηρίες - Όταν το ίδιο πτυχίο διεκδικείται με διαφορετικά «μέτρα»
aeroplano
Τι κρύβεται πίσω από τη λέξη "γοργόνα": Η μυστική γλώσσα των πληρωμάτων
Πέρα όμως από τους επίσημους κανονισμούς και τη διεθνώς καθιερωμένη ορολογία, υπάρχει και μια λιγότερο γνωστή πλευρά: ένας ανεπίσημος κώδικας που...
Τι κρύβεται πίσω από τη λέξη "γοργόνα": Η μυστική γλώσσα των πληρωμάτων
εκπαιδευτικοί, συντάξεις
Μισθοδοσία Εκπαιδευτικών: Ποια μέρα της εβδομάδας θα πιστωθεί στο λογαριασμό τους και πως διαμορφώνονται οι αποδοχές από 1η Ιουνίου
Τι αλλάζει στους μισθούς των εκπαιδευτικών από 1η Ιουνίου 2026 – Αναλυτικοί πίνακες και παραδείγματα
Μισθοδοσία Εκπαιδευτικών: Ποια μέρα της εβδομάδας θα πιστωθεί στο λογαριασμό τους και πως διαμορφώνονται οι αποδοχές από 1η Ιουνίου