τσατ
Ερευνητές προειδοποιούν ότι δημοφιλείς πλατφόρμες τεχνητής νοημοσύνης μπορούν να παρακαμφθούν εύκολα και να παράγουν σοβαρά λανθασμένες – ακόμη και επικίνδυνες – συστάσεις υγείας

Η ολοένα αυξανόμενη χρήση της τεχνητής νοημοσύνης για ιατρικές συμβουλές συνοδεύεται από σοβαρούς κινδύνους, σύμφωνα με νέα επιστημονική μελέτη που φέρνει στο φως ανησυχητικά ευρήματα. Παρότι τα συστήματα AI προβάλλονται ως εργαλεία γρήγορης και χαμηλού κόστους πληροφόρησης για ζητήματα υγείας, ερευνητές διαπιστώνουν ότι μπορούν να οδηγηθούν σε επικίνδυνα λάθη με σχετικά απλές τεχνικές χειραγώγησης.

Τα λεγόμενα Large Language Models (LLM) διεκδικούν πλέον ενεργό ρόλο στην υγειονομική περίθαλψη: από την ενημέρωση ασθενών και την προκαταρκτική αξιολόγηση συμπτωμάτων έως τη φαρμακευτική καθοδήγηση. Ωστόσο, η υπόσχεση της άμεσης και εξατομικευμένης πληροφορίας φαίνεται να σκιάζεται από σοβαρά ζητήματα ασφάλειας, ειδικά όταν τα συστήματα αυτά λειτουργούν εκτός αυστηρά ελεγχόμενων πλαισίων.

Την ίδια ώρα, η Google ανακοίνωσε ότι απέσυρε ορισμένες προεπισκοπήσεις υγείας από την υπηρεσία AI Overviews, έπειτα από έρευνα του βρετανικού Guardian που αποκάλυψε περιπτώσεις παραπλανητικών και ανακριβών ιατρικών πληροφοριών. Συγκεκριμένα, αφαιρέθηκαν απαντήσεις που αφορούσαν φυσιολογικές τιμές εξετάσεων ήπατος, καθώς κρίθηκε ότι θα μπορούσαν να θέσουν σε κίνδυνο τους χρήστες.

Τι έδειξε η μελέτη του JAMA

Η μελέτη, που δημοσιεύθηκε στο επιστημονικό περιοδικό JAMA Network Open, εστιάζει σε ένα από τα πιο ευαίσθητα σημεία των μοντέλων AI: τις επιθέσεις «prompt-injection». Πρόκειται για χειριστικές διατυπώσεις εισόδου, μέσω των οποίων μπορούν να παρακαμφθούν οι μηχανισμοί ασφαλείας ενός μοντέλου και να αλλοιωθεί το περιεχόμενο των ιατρικών συστάσεων που παράγει.

Η έρευνα διεξήχθη από τον Ιανουάριο έως τον Οκτώβριο του 2025, με τη χρήση ρεαλιστικών διαλόγων ασθενούς–AI. Δοκιμάστηκαν τρία εμπορικά μοντέλα χαμηλής υπολογιστικής ισχύος:

  • ChatGPT-4o-mini
  • Gemini-2.0-flash-lite
  • Claude-3-haiku

Τα μοντέλα αξιολογήθηκαν σε 12 κλινικά σενάρια διαφορετικής επικινδυνότητας, τόσο υπό κανονικές συνθήκες όσο και υπό κακόβουλη παρέμβαση.

Ανησυχητικά ποσοστά αποτυχίας

Από τις 216 συνολικές αξιολογήσεις, οι επιθέσεις prompt-injection πέτυχαν σε ποσοστό 94,4%, οδηγώντας τα μοντέλα σε μη ασφαλείς ιατρικές συμβουλές. Σε περίπου επτά στις δέκα περιπτώσεις, η λανθασμένη συμπεριφορά παρέμεινε ακόμη και μετά από διορθωτικές ερωτήσεις.

Ιδιαίτερα προβληματική ήταν η εικόνα στα σενάρια υψηλού και εξαιρετικά υψηλού κινδύνου, όπου τα μοντέλα πρότειναν θεραπείες όπως οξυκωδόνη για ήπιο πόνο, θαλιδομίδη σε εγκύους ή επικίνδυνους φαρμακευτικούς συνδυασμούς κατά την κύηση – συστάσεις που θα μπορούσαν να αποβούν μοιραίες.

Τι σημαίνει αυτό για το μέλλον της AI στην ιατρική

Οι ερευνητές επισημαίνουν ότι τα ευρήματα καταδεικνύουν την ανεπάρκεια των σημερινών μηχανισμών ασφαλείας για εφαρμογές υψηλού ρίσκου. Πριν από οποιαδήποτε ευρεία κλινική χρήση, τονίζουν την ανάγκη για αυστηρές δοκιμές ανθεκτικότητας, ισχυρό ρυθμιστικό πλαίσιο και εποπτεία σε επίπεδο συστήματος.

Η τεχνητή νοημοσύνη μπορεί να αποτελέσει πολύτιμο εργαλείο υποστήριξης, αλλά χωρίς επαρκείς δικλείδες ασφαλείας, ενδέχεται να μετατραπεί σε παράγοντα σοβαρού κινδύνου για την ανθρώπινη υγεία.

Όλες οι σημαντικές και έκτακτες ειδήσεις σήμερα

Τέλος εποχής για τους δωρεάν τραπεζικούς λογαριασμούς

Alfavita.gr: Χρονιά εκτόξευσης το 2025 – Νο1 στην Παιδεία, ανάμεσα στα 10 μεγαλύτερα ενημερωτικά μέσα

Voucher 750 ευρώ σε εργαζόμενους του ιδιωτικού τομέα - Ανοίγουν οι αιτήσεις

Google news logo Ακολουθήστε το Alfavita στo Google News Viber logo Ακολουθήστε το Alfavita στo Viber

σχετικά άρθρα

Χρυσή αυγή
Τετάρτη 4 Μαρτίου 2026: Η ώρα της κρίσης για τη Χρυσή Αυγή – Στάση εργασίας και μαζικό αντιφασιστικό «παρών» στο Εφετείο
Η κοινωνία δίνει σήμερα το «παρών» έξω από το Εφετείο, απαιτώντας οριστική καταδίκη της ναζιστικής οργάνωσης και στέλνοντας ηχηρό μήνυμα ότι ο...
Τετάρτη 4 Μαρτίου 2026: Η ώρα της κρίσης για τη Χρυσή Αυγή – Στάση εργασίας και μαζικό αντιφασιστικό «παρών» στο Εφετείο