chatgpt
Μελέτη του Πανεπιστημίου Εφαρμοσμένων Επιστημών Würzburg‑Schweinfurt αποκαλύπτει συστηματική «μισθολογική μεροληψία» προς τις γυναίκες

Τα τελευταία χρόνια, η χρήση των έξυπνων βοηθών τεχνητής νοημοσύνης (chatbots) έχει επεκταθεί σε κάθε πτυχή της επαγγελματικής μας ζωής. Από την αναζήτηση εργασίας μέχρι τη διεξαγωγή μισθολογικών διαπραγματεύσεων, πολλοί στρέφονται στους ψηφιακούς συμβούλους AI για γρήγορες, αντικειμενικές συμβουλές. Όμως, μια νέα γερμανική μελέτη δείχνει ότι πίσω από αυτή την «ουδετερότητα» κρύβονται στερεότυπα και προκαταλήψεις, που μπορούν να στερήσουν σημαντικά πλεονεκτήματα από τις γυναίκες υποψήφιες.

Το πείραμα και τα μοντέλα

Ερευνητές του Πανεπιστημίου Εφαρμοσμένων Επιστημών Würzburg‑Schweinfurt εξέτασαν πέντε δημοφιλή γλωσσικά μοντέλα:

  • ChatGPT‑4o Mini

  • Claude 3.5 Haiku

  • Mixtral

  • Qwen 2.5 Plus

  • Llama 3.1

Σε ένα απλό, αλλά αποκαλυπτικό πείραμα, οι ερευνητές ζήτησαν από τα chatbots να προτείνουν αρχικές προσφορές μισθού σε φανταστικούς υποψήφιους, διαφορετικού φύλου αλλά με πανομοιότυπα προσόντα και εμπειρία.

Τα αποτελέσματα δεν άφησαν περιθώρια παρερμηνειών καθώς σε κάθε περίπτωση, οι γυναίκες λάμβαναν συμβουλές για χαμηλότερους μισθούς από τους άνδρες. Η απόκλιση ήταν πιο έντονη σε ανώτερες θέσεις του ιατρικού τομέα, αλλά εντοπίστηκε επίσης σε τομείς όπως η νομική, η μηχανική και η διοίκηση επιχειρήσεων.

Σε περαιτέρω δοκιμές πολλαπλής επιλογής, τα μοντέλα λειτούργησαν χωρίς εμφανείς διακρίσεις. Ωστόσο, όταν κλήθηκαν να αξιολογήσουν απαντήσεις ως σωστές ή λανθασμένες, βαθμολόγησαν πιο επιεικώς, και άρα πιο «θετικά», απαντήσεις που υποτίθεται ότι προέρχονταν από γυναίκες, ακόμα κι αν ήταν αντικειμενικά λάθος.

Επιπτώσεις της εξατομίκευσης

Όσο η AI γίνεται «προσωπικότερη» απομνημονεύοντας ιστορικό συνομιλιών και φτιάχνοντας προφίλ χρηστών τόσο ενισχύεται η προϋπάρχουσα προκατάληψη. Όπως επισημαίνουν οι ερευνητές, ο χρήστης μπορεί να μην συνειδητοποιεί πώς οι προηγούμενες συνομιλίες ενισχύουν στερεότυπα, πιστεύοντας λανθασμένα ότι η τεχνητή νοημοσύνη είναι απόλυτα αντικειμενική.

Η Sarah Ball, ερευνήτρια AI στο Μόναχο, σημειώνει πως η σημασία των ευρημάτων είναι περιορισμένη από το μικρό μέγεθος του δείγματος και τα μοντέλα που εξετάστηκαν. Παρ’ όλα αυτά, η μελέτη υπογραμμίζει πόσο κρίσιμος είναι ο συνεχής έλεγχος για έμφυλες και άλλες διακρίσεις στα γλωσσικά μοντέλα AI.

Καθώς οι ψηφιακοί βοηθοί αναλαμβάνουν όλο και πιο σημαντικούς ρόλους στην επαγγελματική πορεία των ανθρώπων, οι προγραμματιστές και οι εταιρείες τεχνητής νοημοσύνης καλούνται να επενδύσουν στην αποδοτικότερη ανίχνευση και διόρθωση προκαταλήψεων. Γιατί σε έναν κόσμο όπου η ισότητα στην εργασία παραμένει ζητούμενο, ακόμα και ένας «ουδέτερος» αλγόριθμος μπορεί να γίνει φορέας ανισοτήτων.

 

Συντάκτρια άρθρου: Ευαγγελία Ασημακοπούλου

Όλες οι ειδήσεις για νέες θέσεις εργασίας, Προκηρύξεις, Διορισμούς, ΑΣΕΠ στην Ελλάδα

Voucher 750 ευρώ για όλους του εργαζόμενους ιδιωτικού τομέα - ΑΙΤΗΣΕΙΣ ΕΔΩ ΕΩΣ ΑΥΡΙΟ

ΑΣΕΠ: Νέα Πιστοποίηση Υπολογιστών - Εξ αποστάσεως - Παίρνετε το ECDL από το σπίτι σας σε 2 μέρες

Ανακοινώθηκε επίσημα ο 3ος Πανελλήνιος Διαγωνισμός ΑΣΕΠ με νέα ύλη

Google news logo Ακολουθήστε το Alfavita στo Google News Viber logo Ακολουθήστε το Alfavita στo Viber

σχετικά άρθρα

maziki_parakoloythisi.jpeg
Νέες αποκαλύψεις για τις υποκλοπές: Όλα τα ονόματα που μπήκαν στο στόχαστρο του Predator
Υποκλοπές: Όλα τα ονόματα που έλαβαν μήνυμα με Predator – Πολιτικοί, δημοσιογράφοι και επιχειρηματίες στη λίστα
Νέες αποκαλύψεις για τις υποκλοπές: Όλα τα ονόματα που μπήκαν στο στόχαστρο του Predator