Thumbnail
Πόσο αξιόπιστα είναι τα AI chatbots; Η αλήθεια που δεν περιμέναμε

Σε μια εποχή όπου η τεχνητή νοημοσύνη διεκδικεί ολοένα και μεγαλύτερο ρόλο στην καθημερινότητα, ένα υποθετικό –αλλά απόλυτα πιθανό– περιστατικό αναδεικνύει τα όριά της: ασθενής με πρόσφατη διάγνωση καρκίνου στρέφεται σε chatbot για καθοδήγηση.

Η απάντηση που λαμβάνει εμφανίζεται επιστημονικά τεκμηριωμένη, ωστόσο κρύβει σοβαρά προβλήματα αξιοπιστίας, από ανακριβή στοιχεία έως ανύπαρκτες βιβλιογραφικές πηγές και απουσία κρίσιμων προειδοποιήσεων.

Τα ευρήματα αυτά δεν αποτελούν μεμονωμένο περιστατικό. Έρευνα που δημοσιεύθηκε στο επιστημονικό περιοδικό BMJ Open εξέτασε τις απαντήσεις πέντε δημοφιλών συστημάτων τεχνητής νοημοσύνης — ChatGPT, Gemini, Grok, Meta AI και DeepSeek — σε ένα ευρύ φάσμα ιατρικών ερωτήσεων. Οι απαντήσεις κάλυπταν θεματικές όπως ο καρκίνος, τα εμβόλια, τα βλαστοκύτταρα, η διατροφή και η αθλητική απόδοση, και αξιολογήθηκαν από ανεξάρτητους ειδικούς.

Η εικόνα που προέκυψε είναι ανησυχητική: περίπου το 20% των απαντήσεων χαρακτηρίστηκε ιδιαίτερα προβληματικό, το 50% προβληματικό και μόλις το 30% μερικώς προβληματικό. Παράλληλα, καμία πλατφόρμα δεν παρείχε αξιόπιστες επιστημονικές παραπομπές, ενώ η άρνηση απάντησης ήταν σχεδόν ανύπαρκτη — καταγράφηκε μόλις σε δύο περιπτώσεις από σύνολο 250 ερωτήσεων. Σε επίπεδο επιδόσεων, τα συστήματα κινήθηκαν σε παρόμοια επίπεδα, με το Grok να εμφανίζει τα υψηλότερα ποσοστά προβληματικών απαντήσεων.

Παρότι καλύτερα αποτελέσματα καταγράφηκαν σε πεδία με ισχυρή επιστημονική τεκμηρίωση, όπως τα εμβόλια και ο καρκίνος, ακόμη και εκεί ένα σημαντικό ποσοστό απαντήσεων κρίθηκε ανεπαρκές. Αντίθετα, τα μεγαλύτερα προβλήματα εντοπίστηκαν σε ζητήματα διατροφής και φυσικής απόδοσης, όπου η επιστημονική συναίνεση είναι πιο αδύναμη. Ιδιαίτερη σημασία έχει το γεγονός ότι οι ανοιχτού τύπου ερωτήσεις οδήγησαν σε πολύ περισσότερα σοβαρά σφάλματα, κάτι που αντικατοπτρίζει τον τρόπο με τον οποίο οι χρήστες διατυπώνουν συνήθως ερωτήματα για την υγεία.

Σημαντικές αδυναμίες καταγράφηκαν και στις βιβλιογραφικές αναφορές. Όταν ζητήθηκαν επιστημονικές πηγές, τα chatbots απέδωσαν μόλις μέτρια, με συχνά λάθη σε ονόματα συγγραφέων, μη λειτουργικούς συνδέσμους και ακόμη και πλήρως επινοημένες δημοσιεύσεις.

Οι περιορισμοί αυτοί συνδέονται άμεσα με τον τρόπο λειτουργίας των μεγάλων γλωσσικών μοντέλων: δεν «κατανοούν» ούτε αξιολογούν την αλήθεια των πληροφοριών, αλλά προβλέπουν την πιθανότερη συνέχεια μιας πρότασης βάσει των δεδομένων εκπαίδευσής τους. Επιπλέον, οι ερευνητές χρησιμοποίησαν σκόπιμα απαιτητικές και «παγιδευτικές» ερωτήσεις — μια πρακτική γνωστή ως red teaming — για να δοκιμάσουν τα όρια των συστημάτων.

Αξίζει να σημειωθεί ότι η μελέτη βασίστηκε στις δωρεάν εκδόσεις των εργαλείων, όπως ήταν διαθέσιμες τον Φεβρουάριο του 2025. Αν και οι νεότερες ή επί πληρωμή εκδόσεις ενδέχεται να παρουσιάζουν βελτιώσεις, η πραγματικότητα είναι ότι η πλειονότητα των χρηστών εξακολουθεί να χρησιμοποιεί τις δωρεάν εκδοχές και να διατυπώνει ερωτήματα χωρίς ιδιαίτερη ακρίβεια.

Παρόμοια συμπεράσματα προκύπτουν και από άλλες επιστημονικές εργασίες. Μελέτη στο περιοδικό Nature Medicine έδειξε ότι τα chatbots μπορούν να δώσουν σωστές απαντήσεις σε υψηλό ποσοστό, ωστόσο η ακρίβεια μειώνεται δραστικά όταν τα ερωτήματα τίθενται από απλούς χρήστες. Αντίστοιχα, έρευνα στο JAMA Network Open κατέδειξε ότι τα μοντέλα δυσκολεύονται σημαντικά στη διαγνωστική προσέγγιση όταν διαθέτουν περιορισμένα δεδομένα, ενώ η απόδοσή τους βελτιώνεται αισθητά με την προσθήκη εργαστηριακών πληροφοριών. Επιπλέον, μελέτη στο Nature Communications Medicine επιβεβαίωσε ότι τα συστήματα μπορούν ακόμη και να επινοούν ιατρικούς όρους.

Συνολικά, τα διαθέσιμα στοιχεία συγκλίνουν στο ότι τα προβλήματα αξιοπιστίας δεν αποτελούν εξαίρεση, αλλά εγγενές χαρακτηριστικό της τρέχουσας γενιάς τεχνητής νοημοσύνης. Παρά τη χρησιμότητά τους ως εργαλεία ενημέρωσης ή προετοιμασίας για ιατρική συμβουλή, τα chatbots δεν μπορούν να υποκαταστήσουν την επιστημονική κρίση και την ευθύνη ενός επαγγελματία υγείας.

Όλες οι σημαντικές και έκτακτες ειδήσεις σήμερα

Τέλος τα παλιά διπλώματα: Τι αλλάζει για όλους τους οδηγούς

Διορισμοί εκπαιδευτικών 2026: Το ΦΕΚ με τα νέα πτυχία που «ξεκλειδώνουν» 10.000 μόνιμες θέσεις

Πανελλαδικές: Τι «έπεσε» το 2025 - Όλα τα θέματα στα ΓΕΛ

Google news logo Ακολουθήστε το Alfavita στo Google News Viber logo Ακολουθήστε το Alfavita στo Viber

σχετικά άρθρα

τσαι
Τσάι με… μικροπλαστικά; Τι αποκαλύπτουν νέες μελέτες για τα φακελάκια
Επιστήμονες εντοπίζουν έως και δισεκατομμύρια σωματίδια σε ένα φλιτζάνι – Στο μικροσκόπιο τα υλικά και η ασφάλεια των ροφημάτων
Τσάι με… μικροπλαστικά; Τι αποκαλύπτουν νέες μελέτες για τα φακελάκια
χρυσοχοιδης
Θρίλερ με το σύστημα Tetra: Διαψεύδει ο Χρυσοχοΐδης τις επικοινωνίες μέσω κινητών τηλεφώνων
Η Κατεχάκη αντιδρά με σφοδρότητα, ξεκαθαρίζοντας ότι ο συντονισμός των δυνάμεων δεν γίνεται μέσω των προσωπικών κινητών τηλεφώνων των αστυνομικών,...
Θρίλερ με το σύστημα Tetra: Διαψεύδει ο Χρυσοχοΐδης τις επικοινωνίες μέσω κινητών τηλεφώνων