Τεχνητή νοημοσύνη και ρατσισμός – Το παράδειγμα της χορήγησης δανείων

Newsroom
Newsroom

Το πρόβλημα των διακρίσεων της ΑΙ μπορεί να είναι ακόμη πιο σοβαρό όταν πρόκειται για τραπεζικές και χρηματοπιστωτικές υπηρεσίες

Η τεχνητή νοημοσύνη έχει πρόβλημα φυλετικής προκατάληψης και μάλιστα το πρόβλημα των διακρίσεων της ΑΙ μπορεί να είναι ακόμη πιο σοβαρό όταν πρόκειται για τραπεζικές και χρηματοπιστωτικές υπηρεσίες.

Όπως επισημαίνει η Deloitte, τα συστήματα τεχνητής νοημοσύνης είναι ουσιαστικά τόσο καλά όσο τα δεδομένα που τους έχουν καταχωρίσει: Τα ελλιπή ή μη αντιπροσωπευτικά σύνολα δεδομένων θα μπορούσαν να περιορίσουν την αντικειμενικότητα της τεχνητής νοημοσύνης, ενώ οι υφιστάμενες προκαταλήψεις στις ομάδες ανάπτυξης που εκπαιδεύουν τέτοια συστήματα θα μπορούσαν να διαιωνίσουν αυτόν τον κύκλο προκατάληψης.

Η χορήγηση δανείων μπορεί να είναι ένα τέτοιο παράδειγμα, καθώς ο κίνδυνος να μεροληπτεί ένα συστημα ΑΙ κατά ορισμένων ομάδων που θεωρούνται ότι βρίσκονται στο περιθώριο είναι υπαρκτός, σύμφωνα με το πρώην στέλεχος του Twitter Rumman Chowdhury. Μάλιστα, υπάρχει ακόμα πολύς δρόμος αναφορικά με τις διακρίσεις: από τα συστήματα βιομετρικής ταυτοποίησης που αναγνωρίζουν λανθασμένα τα πρόσωπα των μαύρων και των μειονοτήτων, μέχρι τις εφαρμογές λογισμικού αναγνώρισης φωνής που αποτυγχάνουν να διακρίνουν φωνές με τοπική προφορά.

Το Σικάγο του ’30: Η ιστορία επαναλαμβάνεται

«Οι αλγοριθμικές διακρίσεις είναι πολύ εμφανείς στον δανεισμό», δήλωσε ο Rumman Chowdhury σε ένα πάνελ στο Money20/20 στο Άμστερνταμ. Ο ίδιος αναφέρθηκε στο παράδειγμα του Σικάγου, στο οποίο τη δεκαετία του ’30 παρατηρήθηκε μια άρνηση χορήγησης δανείων σε γειτονιές μαύρων. Συγκεριμένα, η πιστοληπτική ικανότητα των ακινήτων καθοριζόταν σε μεγάλο βαθμό από τα φυλετικά δημογραφικά χαρακτηριστικά μιας συγκεκριμένης γειτονιάς. «Υπήρχε ένας τεράστιος χάρτης με όλες τις περιφέρειες του Σικάγο και τραβούσαν κόκκινες γραμμές σε όλες τις περιφέρειες που ήταν κυρίως αφροαμερικανικές και δεν τους έδιναν δάνεια», πρόσθεσε. «Μερικές δεκαετίες αργότερα αναπτύσσονται αλγόριθμοι που προσδιορίζουν την επικινδυνότητα διαφόρων περιοχών και ατόμων. Και ενώ μπορεί να μην περιλαμβάνεται στα δεδομένα η φυλής κάποιου, αυτό ουσιαστικά γίνεται σιωπηρά».

Πράγματι, η Angle Bush, ιδρύτρια της Black Women in Artificial Intelligence, μιας οργάνωσης που στοχεύει στην ενδυνάμωση των μαύρων γυναικών στον τομέα της τεχνητής νοημοσύνης, λέει στο CNBC ότι όταν τα συστήματα τεχνητής νοημοσύνης χρησιμοποιούνται ειδικά για αποφάσεις έγκρισης δανείων, έχει διαπιστωθεί ότι ελλοχεύει ο κίνδυνος αναπαραγωγής των υφιστάμενων προκαταλήψεων που υπάρχουν στα ιστορικά δεδομένα που χρησιμοποιούνται για την εκπαίδευση των αλγορίθμων. «Αυτό μπορεί να επιφέρει αυτόματες αρνήσεις δανείων σε άτομα από περιθωριοποιημένες κοινότητες, ενισχύοντας τις φυλετικές ή έμφυλες ανισότητες», πρόσθεσε η Bush. Είναι ζωτικής σημασίας για τις τράπεζες να αναγνωρίσουν ότι η εφαρμογή της τεχνητής νοημοσύνης ως λύση μπορεί ακούσια να διαιωνίσει τις διακρίσεις», δηλώνει η ίδια. 

Προβληματική ενσωμάτωση δεδομένων

Ο Frost Li, ένας προγραμματιστής που ασχολείται με την τεχνητή νοημοσύνη και τη μηχανική μάθηση για πάνω από μια δεκαετία, δήλωσε στο CNBC ότι η διάσταση της «εξατομίκευσης» στην ενσωμάτωση δεδομένων της ΑΙ μπορεί επίσης να είναι προβληματική. Ειδικά για τον τραπεζικό τομέα, ο Li υποστηρίζει ότι είναι πιο δύσκολο να εντοπιστεί ποιος φταίει για τη μεροληψία που παρατηρείται. «Ένα καλό παράδειγμα είναι πόσες fintech startups είναι ειδικά για αλλοδαπούς, επειδή ένας απόφοιτος του Πανεπιστημίου του Τόκιο δεν θα μπορέσει να πάρει πιστωτική κάρτα ακόμη και αν εργάζεται στην Google- ωστόσο κάποιος από κάποιο τοπικό κολλέγιο μπορεί εύκολα να πάρει μία πιστωτική κάρτα, επειδή οι τραπεζίτες γνωρίζουν καλύτερα τα σχολεία της περιοχής τους», πρόσθεσε ο Li.

 

Πηγή: moneyreview.gr 

Γίνε ο ρεπόρτερ του CRETALIVE

ΣΤΕΙΛΕ ΤΗΝ ΕΙΔΗΣΗ