Thumbnail
Ιντερνετ

Σε αντίθεση με τα πρώιμα «στατικά» μοντέλα, τα σημερινά προγράμματα τεχνητής νοημοσύνης έχουν την ικανότητα της μάθησης. Αλληλεπιδρώντας με το περιβάλλον τους, δηλαδή κυρίως με τους (ανθρώπινους) χρήστες του Διαδικτύου, και ενσωματώνοντας ολοένα και περισσότερες πληροφορίες από βάσεις δεδομένων όπως το Wikipedia, αυξάνουν τις «γνώσεις» και κατά συνέπεια βελτιώνουν την αποτελεσματικότητά τους. Σε πεδία όπως η μετάφραση, για παράδειγμα, είναι προφανές ότι οι ψηφιακές εφαρμογές μια μέρα θα μπορούν να ανταγωνιστούν τους ανθρώπους. Ακόμη κι αν δεν έχουν τη δυνατότητα να συλλάβουν όλο το εύρος των ιδιωματισμών μιας γλώσσας, είναι ήδη αρκετά αξιόπιστες ώστε να μπορούν να αποδώσουν τη γενική ιδέα ενός κειμένου. Αλλά ακριβώς αυτή η (σχεδόν) ανθρώπινη διάσταση των σύγχρονων υπολογιστών εμπεριέχει κινδύνους που μόνον ένας συγγραφέας δυστοπικής επιστημονικής φαντασίας θα μπορούσε να προβλέψει πριν από μερικά χρόνια: Οι εν λόγω «έξυπνοι» αλγόριθμοι προσομοιάζουν ολοένα και περισσότερο στους δημιουργούς τους και οι δημιουργοί τυχαίνει να είναι κάθε άλλο παρά αλάνθαστοι.

Οταν η εφαρμογή διαχείρισης φωτογραφιών της Google άρχισε να βάζει την ετικέτα «γορίλας» σε σκουρόχρωμους απεικονιζόμενους, η εταιρεία έσπευσε να ζητήσει συγγνώμη και, καθώς δεν βρέθηκε άλλος τρόπος επίλυσης του προβλήματος, να καταργήσει οριστικά τη συγκεκριμένη ετικέτα. Οταν αποδείχθηκε πως η μηχανή αναζήτησης για επαγγελματίες LinkedIn «προτιμούσε» τα ανδρικά ονόματα από τα γυναικεία, οι τεχνικοί της απέσυραν τον επίμαχο αλγόριθμο. Κάτι αντίστοιχο συνέβη όταν η Tay, η αθώα αν και επιπόλαια Αμερικανίδα έφηβη της Microsoft που συνομιλούσε με πραγματικούς χρήστες του Twitter, κατέληξε όχι μόνο να αναπαράγει ρατσιστικά και σεξιστικά σχόλια, αλλά και να αυτοσχεδιάζει στο ίδιο πνεύμα μέσα σε λιγότερες από 24 ώρες. Η εταιρεία, η οποία διαφήμιζε την Tay ως ένα ρομπότ που γίνεται εξυπνότερο με κάθε συζήτηση, αρχικά διέγραψε τα προσβλητικά tweets και τελικά έκλεισε τον λογαριασμό της.

Κι αν όλα αυτά ακούγονται κάπως αστεία, τα πράγματα είναι σαφώς πιο σοβαρά στην περίπτωση των προγραμμάτων που χρησιμοποιούν ευρέως τα δικαστήρια των ΗΠΑ για να κρίνουν αν ένας κρατούμενος είναι πιθανό να απασχολήσει ξανά τις αρχές. Το 2016, ο οργανισμός ερευνητικής δημοσιογραφίας ProPublica μελέτησε τα προφίλ πάνω από 7.000 συλληφθέντων και συνέκρινε το «σκορ» (δηλαδή τις πιθανότητες υποτροπής μέσα στα επόμενα δύο χρόνια) που τους αναλογούσε σύμφωνα με τους υπολογισμούς των ειδικών αλγορίθμων, αποκαλύπτοντας πως ακόμη και εκείνοι είχαν την τάση να κατηγοριοποιούν τους μαύρους κατηγορουμένους ως μελλοντικούς εγκληματίες. Εντούτοις, τέτοιου είδους εφαρμογές προωθούνται ευρέως προς χρήση από οργανισμούς εύρεσης εργασίας, από τράπεζες για την αξιολόγηση αιτήσεων δανεισμού, από την αστυνομία για τον προσδιορισμό περιοχών που χρήζουν αστυνόμευσης κ.ά.

Φυσικά κανένας δεν μπορεί να χαρακτηρίσει ένα μηχάνημα «ρατσιστικό», στην πράξη όμως ένας αλγόριθμος που διδάσκεται από το περιβάλλον του έχει ελάχιστες πιθανότητες να είναι απολύτως «αντικειμενικός».

Σύμφωνα με έρευνα που δημοσιεύθηκε την περασμένη άνοιξη στο περιοδικό Science, τα μηχανήματα «μαθαίνουν» εντοπίζοντας και αφομοιώνοντας τους πιο συνηθισμένους συσχετισμούς μεταξύ των λέξεων, όπως αυτοί αποτυπώνονται μέσα στο χάος του Διαδικτύου. Επομένως δεν εκπλήσσει το γεγονός ότι συσχετίζουν τη λέξη «γυναίκα» με τις θεωρητικές επιστήμες και τη λέξη «άντρας» με τα μαθηματικά ή ότι συνδέουν τα αφροαμερικανικά ονόματα με δυσάρεστες έννοιες.

Επειδή δεν μπορούν να αλλάξουν την ανθρωπότητα, οι πολυεθνικοί κολοσσοί του Ιντερνετ έχουν υποσχεθεί ότι θα διερευνήσουν μεθόδους «φιλτραρίσματος» των δεδομένων, με τα οποία βομβαρδίζονται τα... ανυποψίαστα συστήματα τεχνητής νοημοσύνης. Εντός του Ιουλίου, η Google λάνσαρε το πρότζεκτ PAIR (People + AI Research), που έχει ακριβώς αυτόν τον σκοπό, ενώ μια ομάδα προγραμματιστών και ερευνητών ίδρυσε το AI Now Initiative σε συνεργασία με την Αμερικανική Ενωση για τις Ελευθερίες των Πολιτών. Το εγχείρημα, η δημιουργία του οποίου ανακοινώθηκε σε εκδήλωση του MIT, αποσκοπεί στον εντοπισμό και την κατανόηση των... αλγοριθμικών προκαταλήψεων, που, σύμφωνα με τους ιδρυτές της πρωτοβουλίας, ενδέχεται να αποτελέσουν σοβαρή απειλή στο προσεχές μέλλον.

Πηγή: ΧΡΙΣΤΙΝΑ ΣΑΝΟΥΔΟΥ - Η καθημερινή

Όλες οι σημαντικές και έκτακτες ειδήσεις σήμερα

2ος Γραπτός Διαγωνισμός ΑΣΕΠ: Η ύλη για 47.000 υποψήφιους ως 26/5 με τις λύσεις

Παν.Πατρών: Tο 1ο στην Ελλάδα Πανεπιστημιακό Πιστοποιητικό Τεχνητής Νοημοσύνης για εκπαιδευτικούς

Πανεπιστήμιο Αιγαίου: Το κορυφαίο πρόγραμμα ειδικής αγωγής στην Ελλάδα - Αιτήσεις έως 26/05

ΕΥΚΟΛΕΣ πιστοποιήσεις ΙΣΠΑΝΙΚΩΝ - ΙΤΑΛΙΚΩΝ για ΑΣΕΠ - Πάρτε τις ΑΜΕΣΑ

Google news logo Ακολουθήστε το Alfavita στo Google News Viber logo Ακολουθήστε το Alfavita στo Viber

σχετικά άρθρα

πανελλήνιες
Πανελλήνιες 2025: Όλα τα μυστικά της εξέτασης και της βαθμολόγησης στη Νεοελληνική Γλώσσα
Όλα τα «μυστικά» της Νεοελληνικής Γλώσσας - Πρακτικές συμβουλές και αναλύσεις για μαθητές, γονείς και εκπαιδευτικούς.
Πανελλήνιες 2025: Όλα τα μυστικά της εξέτασης και της βαθμολόγησης στη Νεοελληνική Γλώσσα
natasa
«Έφυγε» από τη ζωή η εκπαιδευτικός Νατάσα Αγγελοπούλου
«Είκοσι και πλέον χρόνια συμπόρευσης μετρήσαμε με τη Ναταλία, με συμφωνίες και διαφωνίες, αγώνες και αγωνίες, ατελείωτες συνάξεις, χαρές και λύπες,...
«Έφυγε» από τη ζωή η εκπαιδευτικός Νατάσα Αγγελοπούλου
pinokio
Έκαστος στο είδος του και ο Λουμίδης στους καφέδες (Σχετικά με τη δημοσκόπηση που θέλει το 64% των δημοσίων υπαλλήλων θέλει να ...καταργηθεί η μονιμότητά τους)
Μήπως τελικά οι δημοσκοπήσεις έχουν ως στόχο να διαμορφώσουν την "κοινή γνώμη" και όχι να καταμετρήσουν τις απόψεις της;
Έκαστος στο είδος του και ο Λουμίδης στους καφέδες (Σχετικά με τη δημοσκόπηση που θέλει το 64% των δημοσίων υπαλλήλων θέλει να ...καταργηθεί η μονιμότητά τους)