texniti_noimosini

Η τεχνητή νοημοσύνη (ΤΝ) υπόσχεται ατελείωτες δυνατότητες, αλλά έρευνες, όπως αυτή του BBC, φανερώνουν την άλλη πλευρά του νομίσματος: τη δημιουργία ανακριβών και διαστρεβλωμένων ειδήσεων που μπορεί να προκαλέσουν σοβαρές συνέπειες.

Η έρευνα του BBC εξέτασε τέσσερα από τα πιο δημοφιλή μοντέλα ΤΝ – το ChatGPT της OpenAI, το Copilot της Microsoft, το Gemini της Google και το Perplexity AI – τα οποία κλήθηκαν να διαβάσουν 100 άρθρα του BBC και να απαντήσουν σε σχετικές ερωτήσεις. Τα αποτελέσματα ήταν ανησυχητικά. Το 51% των απαντήσεων περιείχαν σημαντικά προβλήματα, όπως λάθη στα δεδομένα, τις ημερομηνίες και τα γεγονότα.

Αναλυτικά, το 19% των απαντήσεων που φέρονταν να παραθέτουν αποσπάσματα από τα άρθρα του BBC, περιείχαν πραγματολογικά σφάλματα. Για παράδειγμα, το Gemini ανέφερε λάθος ότι το βρετανικό Εθνικό Σύστημα Υγείας δεν προτείνει το ηλεκτρονικό τσιγάρο ως μέσο διακοπής του καπνίσματος. Επίσης, το ChatGPT και το Copilot δήλωσαν ότι δύο πολιτικοί, ο πρώην πρωθυπουργός Ρίσι Σούνακ και η πρώην πρώτη υπουργός της Σκωτίας Νίκολα Στέρτζεον, εξακολουθούν να βρίσκονται στις θέσεις τους, όταν οι ίδιοι είχαν ήδη αποχωρήσει.

Οι ερευνητές αναφέρουν ότι τα μοντέλα ΤΝ δεν κάνουν τη διάκριση μεταξύ γεγονότων και απόψεων, ενώ συχνά ενσωματώνουν αυθαίρετες εκτιμήσεις στις απαντήσεις τους. Επιπλέον, η αδυναμία τους να αναγνωρίσουν την επικαιρότητα έναντι του αρχειακού υλικού οδηγεί σε σύγχυση και εσφαλμένες απαντήσεις. Στην περίπτωση του Perplexity AI, για παράδειγμα, το σύστημα ανέφερε εσφαλμένα ότι το Ιράν είχε επιδείξει "αυτοσυγκράτηση" και το Ισραήλ ήταν "επιθετικό", παρόλο που τα συγκεκριμένα επίθετα δεν υπήρχαν στο πρωτότυπο άρθρο.

Η έρευνα αυτή επισημαίνει την πρόκληση που αντιμετωπίζουν οι εταιρείες που δημιουργούν τέτοιες τεχνολογίες. Οι γρήγοροι ρυθμοί ανάπτυξης της τεχνητής νοημοσύνης και η ανάγκη για ταχύτερη εμπορική διάθεση της τεχνολογίας ενδέχεται να επιταχύνουν τις παρενέργειες της. Η διευθύνουσα σύμβουλος του BBC News, Ντέμπορα Τέρνες, σχολίασε ότι ενώ η ΤΝ προσφέρει τεράστιες ευκαιρίες, οι εταιρείες πρέπει να είναι προσεκτικές στην εφαρμογή της, καθώς το διαστρεβλωμένο περιεχόμενο μπορεί να προκαλέσει σοβαρές βλάβες στον πραγματικό κόσμο.

Πριν από λίγους μήνες, το BBC είχε αναγκάσει την Apple να αναστείλει την υπηρεσία αυτόματων ειδησεογραφικών ενημερώσεων, όταν διαπιστώθηκε ότι το σύστημα παρήγαγε παραπλανητικούς τίτλους. Η τεχνητή νοημοσύνη μπορεί να βελτιώνει τη ζωή μας σε πολλούς τομείς, όμως η ανεξέλεγκτη και χωρίς επαρκείς ελέγχους χρήση της στον τομέα της ενημέρωσης δημιουργεί σοβαρούς κινδύνους για την αξιοπιστία των ειδήσεων.

Όλες οι σημαντικές ειδήσεις

Ανατροπές στις αναθέσεις μαθημάτων: Τι αλλάζει για χιλιάδες εκπαιδευτικούς

Οι 20 βασικοί συνεργάτες του Αλέξη Τσίπρα - Τα ονόματα

Προκηρύξεις εκπαιδευτικών 2026: Πώς θα δεις πρώτος τους πίνακες μέσω google

Google news logo Ακολουθήστε το Alfavita στo Google News Viber logo Ακολουθήστε το Alfavita στo Viber

σχετικά άρθρα

kokkino.jpg
Το κόκκινο δεν είναι αυτό που νομίζουμε: Πώς ο εγκέφαλος δημιουργεί χρώματα
Παρότι όλοι αναγνωρίζουμε άμεσα το χρώμα, λίγοι μπορούν να το περιγράψουν χωρίς να το συγκρίνουν ή να δείξουν κάτι συγκεκριμένο. Η δυσκολία αυτή δεν...
Το κόκκινο δεν είναι αυτό που νομίζουμε: Πώς ο εγκέφαλος δημιουργεί χρώματα
λατινο
Από το «ένα πιάτο φαΐ» στα 82.000 ευρώ: Η θεαματική αλλαγή στην οικονομική εικόνα της Λατινοπούλου
Από τη γιαγιά… στο νέο ακίνητο: Τι αποκαλύπτει το Πόθεν Έσχες - Στην πολιτική, η εικόνα της «καθημερινής δυσκολίας» λειτουργεί συχνά ως εργαλείο...
Από το «ένα πιάτο φαΐ» στα 82.000 ευρώ: Η θεαματική αλλαγή στην οικονομική εικόνα της Λατινοπούλου
ΑΣΕΠ 1ΓΕ & 2ΓΕ/2026: Ο απόλυτος οδηγός για το e-Παράβολο και την οριστικοποίηση της αίτησης – Τι πρέπει να προσέξετε
ΑΣΕΠ 1ΓΕ - 2ΓΕ/2026: Τι να προσέξετε στο e-Παράβολο και την οριστικοποίηση της αίτησης
Οδηγός επιβίωσης για το e-Παράβολο – Πώς θα κλειδώσετε την αίτηση χωρίς τεχνικά απρόοπτα
ΑΣΕΠ 1ΓΕ - 2ΓΕ/2026: Τι να προσέξετε στο e-Παράβολο και την οριστικοποίηση της αίτησης