Η τεχνητή νοημοσύνη (AI) χρησιμοποιείται πλέον στους περισσότερους τομείς της ζωής μας, από την εκπαίδευση και την υγεία έως την οικονομία και την ποινική δικαιοσύνη. Αν και οι AI τεχνολογίες υπόσχονται αμεσότερη αποτελεσματικότητα, υπάρχουν σοβαρές ενδείξεις ότι συγχρόνως προάγουν τις προκαταλήψεις και τα στερεότυπα, με ότι επιπτώσεις έχουν τα παραπάνω στην κοινωνία.
Τι είναι η “Αλγοριθμική Μεροληψία” και για ποιους λόγους θεωρείται η “Σκοτεινή Πλευρά της Τεχνητής Νοημοσύνης”;
Η αλγοριθμική μεροληψία αναφέρεται στην τάση των αλγορίθμων να αναπαράγουν ή ακόμα και να ενισχύουν κοινωνικές ανισότητες. Ουσιαστικά, οι αλγόριθμοι δεν είναι αντικειμενικοί, ούτε ουδέτεροι. Αντιθέτως, δημιουργούνται από δεδομένα που συλλέγονται από την κοινωνία μας, δεδομένα τα οποία παράγουν και προάγουν στερεότυπα, μεροληψίες και κοινωνικές προκαταλήψεις.
Πιο συγκεκριμένα, τα συστήματα AΙ χρησιμοποιούνται σε τομείς όπως η αναγνώριση προσώπου, η ποινική δικαιοσύνη και η οικονομία. Όπως έχει αποδειχθεί από μελέτες, ωστόσο, αυτά τα συστήματα συχνά αποτυγχάνουν να αναγνωρίσουν σωστά τα άτομα με σκουρόχρωμο δέρμα ή να ξεχωρίσουν τις γυναίκες από τους άντρες, καθώς επίσης και να εφαρμόσουν τα παραγόμενα αποτελέσματα τους με “δίκαιο τρόπο” σε ομάδες μειονοτήτων.
Ένα χαρακτηριστικό παράδειγμα είναι το σύστημα «COMPAS» που χρησιμοποιείται στην ποινική δικαιοσύνη στις Ηνωμένες Πολιτείες. Μελέτες έδειξαν ότι το σύστημα παρουσίασε σημαντική μεροληψία κατά των Αφροαμερικανών, προδιαγράφοντας εσφαλμένα ότι θα υποτροπιάσουν σε μεγαλύτερο ποσοστό σε σχέση με τους λευκούς, ακόμα και όταν είχαν παρόμοια ιστορικά δεδομένα. Αυτό αποδεικνύει ότι η τεχνολογία, αν δεν ελεγχθεί, μπορεί να ενθαρρύνει τις κοινωνικές ανισότητες.
Η ανάγκη για μια περισσότερο λεπτομερή ανάλυση της αλγοριθμικής μεροληψίας γίνεται ακόμη πιο έντονη όταν προσθέσουμε στην εξίσωση του ζητήματος την έννοια της “διασταυρωμένης προσέγγισης” (intersectionality). Σύμφωνα με τη θεωρία της Kimberlé Crenshaw, οι άνθρωποι δεν επηρεάζονται μόνο από μία παράμετρο, όπως το φύλο ή η φυλή, αλλά από έναν συνδυασμό παραμέτρων που δημιουργούν μοναδικές εμπειρίες ανισότητας.
Για παράδειγμα, οι γυναίκες Αφροαμερικανής καταγωγής αντιμετωπίζουν κοινωνική και σεξιστική καταπίεση, η οποία προκύπτει με αφορμή την αλληλεπίδραση της φυλής και του φύλου τους. Τα συστήματα AI αγνοούν αυτή τη διασταυρωμένη διάσταση, με ενδεχόμενο κίνδυνο στην αποτυχία της αναγνώρισης των μοναδικών αναγκών και των προκλήσεων που αντιμετωπίζουν οι ομάδες αυτές.
Για να περιοριστεί η αλγοριθμική μεροληψία, οι ερευνητές και οι επαγγελματίες στον τομέα της τεχνολογίας αναπτύσσουν στρατηγικές για τη βελτίωση των συστημάτων AI. Η ανάπτυξη αλγορίθμων ικανών να ανιχνεύουν και να “διορθώνουν” τις προκαταλήψεις στα δεδομένα εκπαίδευσης των μηχανών θα μπορούσε να αποτελέσει μια πιθανή παρέμβαση.
Παράλληλα, μεγάλη είναι η σημασία της διαφάνειας και της υπευθυνότητας στην ανάπτυξη αυτών των τεχνολογιών, ώστε να είναι σαφές πώς οι αλγόριθμοι παίρνουν τις αποφάσεις τους και ποιοί είναι οι κίνδυνοι της μεροληψίας τους.
Μία ακόμη σημαντική στρατηγική είναι η αύξηση της ποικιλίας των ομάδων που αναπτύσσουν αλγορίθμους AI. Η αντιπροσώπευση διαφορετικών κοινωνικών ομάδων κατά την διαδικασία του σχεδιασμού και της ανάπτυξης των συστημάτων AI μπορεί να μειώσει τη μεροληψία, εξασφαλίζοντας ότι οι ανάγκες όλων των κοινωνικών ομάδων θα λαμβάνονται υπόψη.
Η εκπαίδευση και η ενημέρωση των μηχανικών σχεδιασμού και ανάπτυξης των ΑΙ τεχνολογιών θεωρείται επιπλέον και κρίσιμο βήμα για την εξάλειψη της αλγοριθμικής μεροληψίας.
Πρωτοβουλίες, όπως η Algorithmic Justice League, που ιδρύθηκε από τη Joy Buolamwini, στοχεύουν στην ευαισθητοποίηση και στην εκπαίδευση των μηχανικών και των τεχνολόγων συστημάτων τεχνητής νοημοσύνης σχετικά με τις κοινωνικές συνέπειες των εργαλείων που αναπτύσσουν, έτσι ώστε να ενσωματώσουν τη δικαιοσύνη στις τεχνολογίες που δημιουργούν.
Η ανάπτυξη εκπαιδευτικών προγραμμάτων, που θα ενσωματώνουν την ηθική στην τεχνολογία, θα μπορούσε να εξασφαλίσει ότι οι μελλοντικοί επαγγελματίες στους τομείς της τεχνητής νοημοσύνης και της Μηχανικής Μάθησης, για παράδειγμα, θα είναι σε θέση να κατανοήσουν τη δύναμη που έχουν οι αλγόριθμοι και την ευθύνη τους προς την κοινωνία.
Η αλγοριθμική μεροληψία είναι ένα σοβαρό πρόβλημα που απαιτεί άμεση προσοχή. Όσο η τεχνητή νοημοσύνη διεισδύει σε όλο και περισσότερους τομείς της κοινωνίας μας, είναι επιτακτική ανάγκη να εντοπιστούν και να εξαλειφθούν οι “προκαταλήψεις” που ενσωματώνονται στα συστήματα AI.
Μόνο με την εφαρμογή στρατηγικών για την αποτροπή της μεροληψίας, την ενίσχυση της διαφάνειας και της δικαιοσύνης και την εκπαίδευση των επαγγελματιών του κλάδου, μπορούμε να διασφαλίσουμε ότι η τεχνολογία θα συμβάλει στην κοινωνική ισότητα και θα βάλει φρένο στην αναπαραγωγή των ανισοτήτων.
Η επανάσταση της τεχνητής νοημοσύνης δεν πρέπει να συνοδεύεται από κοινωνικές αδικίες. Αντιθέτως, οφείλει να είναι μία ευκαιρία για την προώθηση της κοινωνικής δικαιοσύνης, της ισότητας και της διαφάνειας στην εποχή της ψηφιακής τεχνολογίας.