Πριν από λίγες ημέρες, βίωσα ένα περιστατικό που με συγκλόνισε. Ήταν περίπου 10 το πρωί, όταν δέχτηκα ένα τηλεφώνημα την ώρα που η 11χρονη κόρη μου βρισκόταν στο σχολείο. Στην άλλη άκρη της γραμμής, μια παιδική φωνή - απόλυτα όμοια με της κόρης μου -έκλαιγε με λυγμούς: «Μανούλα μου, έσπασα το πόδι μου… το πόδι μου, μαμά…». Η φωνή, ο τρόπος που μιλούσε, η ένταση, το ηχόχρωμα, η συναισθηματική φόρτιση - όλα ταίριαζαν απόλυτα με τη φωνή του παιδιού μου. Για λίγα δευτερόλεπτα ένιωσα να παραλύω από φόβο. Μόνο όταν κατάφερα να σκεφτώ πιο ψύχραιμα, συνειδητοποίησα πως κάτι δεν πήγαινε καλά. Αν είχε συμβεί πραγματικά κάτι τόσο σοβαρό, δεν θα με καλούσε η ίδια. Το τηλεφώνημα διακόπηκε απότομα και αμέσως επικοινώνησα με το σχολείο και διαπίστωσα πως είχα πέσει θύμα μιας ψηφιακής κακόβουλης φάρσας - μιας νέας μορφής απάτης που αξιοποιεί τις δυνατότητες της τεχνητής νοημοσύνης για να αντιγράψει ανθρώπινες φωνές με τρομακτική ακρίβεια και είναι γνωστό ως «συνθετική φωνή» ή «φωνητικό deepfake» (voice deepfake).
Πρόκειται για μια τεχνολογία που χρησιμοποιεί τεχνητή νοημοσύνη και ειδικότερα αλγόριθμους μηχανικής μάθησης, ώστε να αναλύει και να μιμείται με εξαιρετική ακρίβεια την ανθρώπινη φωνή. Με βάση λίγα δευτερόλεπτα ηχογράφησης, μπορεί να παραχθεί συνθετικά ένα ηχητικό που «μιλά» με τον τόνο, το ύφος και τη χροιά ενός συγκεκριμένου προσώπου. Αυτή η τεχνική εντάσσεται στον ευρύτερο όρο «γενετική τεχνητή νοημοσύνη» (generative AI), ενώ τα αποτελέσματά της λέγονται συχνά «deepfakes», όταν χρησιμοποιούνται παραπλανητικά. Συγκεκριμένα, αξιοποιούνται βαθιά νευρωνικά δίκτυα για τη δημιουργία εξαιρετικά ρεαλιστικών ψευδών βίντεο εικόνων, ή ηχητικών αποσπασμάτων, στα οποία κάποιο πρόσωπο φαίνεται να λέει ή να κάνει κάτι που στην πραγματικότητα δεν έχει συμβεί ποτέ. Ένα πρόσφατο χαρακτηριστικό παράδειγμα αποτελεί ένα παραπλανητικό βίντεο με τον Αμερικανό πρόεδρο Ντόναλντ Τραμπ, το οποίο προκάλεσε έντονη ανησυχία σχετικά με τη διάδοση ψευδών ειδήσεων και την παραπληροφόρηση.Αρχή φόρμαςΤέλος φόρμας Ο όρος “deepfake” προέρχεται από τις λέξεις “deep learning” και “fake”. Χρησιμοποιεί εξελιγμένα αλγοριθμικά μοντέλα της ΤΝ - κυρίως γενετικά ανταγωνιστικά δίκτυα (GANs) - για να δημιουργήσει ή να τροποποιήσει ψηφιακό υλικό με τέτοιο τρόπο ώστε να είναι σχεδόν αδύνατο να ξεχωρίσει κανείς αν είναι αληθινό ή ψεύτικο. Από βίντεο πολιτικών που φαίνεται να εκφωνούν ψεύτικους λόγους, μέχρι ψευδείς δηλώσεις διασήμων. Οι εφαρμογές της τεχνολογίας αυτής προκαλούν προβληματισμό.
Οι κίνδυνοι που απορρέουν από την εφαρμογή τους είναι πολλοί και σοβαροί. Πρώτον, αποτελούν ισχυρό εργαλείο παραπληροφόρησης. Ένα καλά φτιαγμένο βίντεο μπορεί να επηρεάσει την κοινή γνώμη, να προκαλέσει πολιτική αναταραχή ή να βλάψει τη φήμη προσώπων. Σε εποχές όπου η πληροφορία διαδίδεται με αστραπιαία ταχύτητα, ο διαχωρισμός μεταξύ αληθινού και ψευδούς περιεχομένου γίνεται εξαιρετικά δύσκολος. Δεύτερον, εγείρονται σοβαρά ζητήματα παραβίασης προσωπικών δεδομένων και ιδιωτικότητας. Πολλοί άνθρωποι έχουν πέσει θύματα εκβιασμού, με το πρόσωπό τους να χρησιμοποιείται χωρίς συναίνεση σε προσβλητικά ή επιβλαβή περιβάλλοντα.
Παρότι τα deepfakes συνδέονται συχνά με αρνητικές λειτουργίες, υπάρχουν και χρήσεις με θετικό πρόσημο. Στον κινηματογράφο, χρησιμοποιούνται για να «ανασταίνουν» ηθοποιούς που έχουν φύγει από τη ζωή ή να «ξαναζωντανεύουν» νεότερες εκδοχές τους. Επίσης, έχουν εφαρμογή στην εκπαίδευση και στην ψυχαγωγία, προσφέροντας νέους τρόπους αφήγησης και παρουσίασης ιστορικών ή πολιτιστικών γεγονότων με εντυπωσιακό ρεαλισμό. Άλλο παράδειγμα είναι η χρήση τους για άτομα με κινητικά ή φωνητικά προβλήματα. Μέσω συνθετικής φωνής και εικόνας, είναι δυνατόν να δημιουργηθεί μια πιο φυσική εμπειρία επικοινωνίας ή παρουσίασης, ενισχύοντας την προσβασιμότητα και τη συμπερίληψη.
Η τεχνητή νοημοσύνη και η τεχνολογία ανοίγουν έναν νέο κόσμο δυνατοτήτων, αλλά και προκλήσεων. Αν και μπορούν να αξιοποιηθούν θετικά, η κατάχρησή τους ενδέχεται να διαβρώσει την εμπιστοσύνη στην πληροφορία και να θέσει σε κίνδυνο θεμελιώδεις αξίες της κοινωνίας. Η ισορροπία μεταξύ καινοτομίας και υπευθυνότητας αποτελεί τον καθοριστικό παράγοντα για το πώς θα πορευθούμε στη νέα εποχή της ψηφιακής πραγματικότητας. Η ηθική διάσταση είναι εξίσου κρίσιμη. Ο σεβασμός στην αλήθεια, στην ανθρώπινη αξιοπρέπεια και στην ιδιωτικότητα πρέπει να αποτελούν οδηγό στη χρήση αυτής της τεχνολογίας. Οι δημιουργοί αλλά και οι χρήστες περιεχομένου οφείλουν να επιδεικνύουν υπευθυνότητα και κριτική σκέψη.
Το περιστατικό που με αναστάτωσε δεν είναι μεμονωμένο. Αποτελεί προειδοποιητικό σήμα πως η κοινωνία μας πρέπει άμεσα να αναπτύξει μηχανισμούς προστασίας, ενημέρωσης και νομικής θωράκισης απέναντι σε τέτοιες απειλές. Η τεχνητή νοημοσύνη δεν είναι κακή από μόνη της - αλλά γίνεται εξαιρετικά επικίνδυνη όταν αξιοποιείται χωρίς ηθικά όρια. Όταν συνοδεύεται από την ανθρωπινότητά μας είναι σωτηρία. Όταν κινείται μέσα σε ηθικά πλαίσια συμβάλλει στην επίλυση προβλημάτων και στην εξέλιξη των κοινωνιών, γιατί γίνεται μέσο προόδου. Ο τρόπος που θα χρησιμοποιηθεί έχει σημασία!
* Μαρία Δ. Πετροπούλου Φιλόλογος - Συγγραφέας στις εκδ. ΖΗΤΗ
Όλες οι σημαντικές και έκτακτες ειδήσεις σήμερα
2ος Πανελλήνιος γραπτός διαγωνισμός: Βγήκε η προκήρυξη - Αιτήσεις από 29/4 έως 14/5
Παν.Πατρών: Tο 1ο στην Ελλάδα Πανεπιστημιακό Πιστοποιητικό Τεχνητής Νοημοσύνης για εκπαιδευτικούς
Πανεπιστήμιο Αιγαίου: Το κορυφαίο πρόγραμμα ειδικής αγωγής στην Ελλάδα - Αιτήσεις έως 7/05
ΕΛΜΕΠΑ: Το κορυφαίο πρόγραμμα Ειδικής Αγωγής στην Ελλάδα για διπλή μοριοδότηση
ΕΥΚΟΛΕΣ πιστοποιήσεις ΙΣΠΑΝΙΚΩΝ - ΙΤΑΛΙΚΩΝ για ΑΣΕΠ - Πάρτε τις ΑΜΕΣΑ