Αρχική > πολιτική, κοινωνία > «Πρέπει να εκπαιδεύσουμε τους αλγορίθμους»

«Πρέπει να εκπαιδεύσουμε τους αλγορίθμους»

 

Αλγορίθμους σεξιστές; Το ερώτημα μπορεί να φαίνεται περίεργο. Κωδικοποιημένοι από τους ανθρώπους, οι αλγόριθμοι που χρησιμοποιούνται από την τεχνητή νοημοσύνη δεν είναι απαλλαγμένοι από στερεότυπα. Αλλά ενώ μπορούν να προκαλέσουν σεξιστικές ή ρατσιστικές προκαταλήψεις, μπορούν επίσης να χρησιμοποιηθούν για να προωθήσουν την αιτία της ισότητας των φύλων. Αυτό είναι που δείχνουν οι Aude Bernheim και Flora Vincent στο βιβλίο τους,  L’Intelligence artificielle, pas sans elles! (Τεχνητή νοημοσύνη, όχι χωρίς γυναίκες!)

 

Συνέντευξη του Agnès Bardon, UNESCO

Πώς γοητεύσατε το θέμα της ισότητας των φύλων στην τεχνητή νοημοσύνη (AI);

Aude Bernheim: Αρχικά, η σκέψη μας επικεντρώθηκε στις σχέσεις μεταξύ ισότητας των φύλων και επιστήμης. Το 2013, ιδρύσαμε τη σύνδεση WAX Science, (link είναι εξωτερική)ή κερί (link είναι εξωτερική)(Τι γίνεται με Xperiencing Science), για να εξετάσει πώς η έλλειψη της διαφορετικότητας των φύλων στην επιστημονική έρευνα ομάδες θα μπορούσαν ενδεχομένως να επηρεάσουν τα προϊόντα της επιστήμης και της τεχνολογίας . Η δουλειά μας για το AI πηγάζει από αυτή την αντανάκλαση.

Στην πραγματικότητα δεν εκπλήσσονταν πραγματικά με την ύπαρξη προκαταλήψεων των φύλων σε αυτές τις τεχνολογίες επειδή υπάρχουν σε πολλούς άλλους τομείς. Δεν υπήρχε κανένας λόγος για το AI να τους ξεφύγει. Αλλά οι συνέπειες είναι πολλές και υπερβαίνουν τα συνήθη ζητήματα της επαγγελματικής ισότητας ή μισθών. Τα στερεότυπα που περιέχονται στους αλγορίθμους μπορούν να έχουν αρνητικό αντίκτυπο στον τρόπο εξέτασης των αιτήσεων εργασίας – αποκλείοντας τις γυναίκες από τις τεχνικές θέσεις – προτάσεις μισθών και ακόμη και ιατρικές διαγνώσεις.

Flora Vincent: Οι επιστημονικές ομάδες στερούνται ποικιλομορφίας – το φαινόμενο είναι γνωστό. Αυτό που δεν είναι τόσο γνωστό είναι ότι αυτό έχει συνέπειες στον τρόπο με τον οποίο αναπτύσσεται η έρευνα και ποια θέματα έχουν προτεραιότητα. Ένας αμερικανός ιστορικός επιστήμης, Londa Schiebinger, εργάζεται πρόσφατα σε αυτό το θέμα. Δείχνει ότι όσο περισσότερες γυναίκες υπάρχουν σε μια ομάδα, τόσο πιο πιθανό είναι να ληφθεί υπόψη το ζήτημα της ισότητας των φύλων στην ίδια τη μελέτη.

Υπάρχουν πολλά παραδείγματα αυτής της διάκρισης στην έρευνα. Ένα παράδειγμα είναι ότι τα φάρμακα δοκιμάζονται περισσότερο σε αρσενικούς αρουραίους επειδή έχουν λιγότερες ορμόνες και επομένως θεωρείται ευκολότερο να μετρηθούν οι παρενέργειες. Ένα άλλο παράδειγμα: για τις δοκιμές σύγκρουσης, χρησιμοποιούνται τυπικά ανδρείκελα μήκους 1,70 μέτρων και εβδομήντα κιλών, με βάση το μέσο μέγεθος και την κατασκευή ενός ανθρώπου. Ως αποτέλεσμα, η ζώνη ασφαλείας δεν λαμβάνει υπόψη ορισμένες περιπτώσεις, όπως οι έγκυες γυναίκες, για παράδειγμα.

Έχει η επιστήμη των υπολογιστών κυρίαρχη πειθαρχία από την αρχή;

Bernheim: Όχι, αυτό δεν συνέβαινε πάντα. Στις αρχές του εικοστού αιώνα, η επιστήμη των υπολογιστών ήταν μια πειθαρχία που απαιτούσε πολλούς μάλλον κουραστικούς υπολογισμούς. Εκείνη την εποχή, αυτές έγιναν συχνά από γυναίκες. Όταν πρωτοεμφανίστηκαν οι πρώτοι υπολογιστές, οι γυναίκες ήταν στην πρώτη θέση. Η δουλειά δεν θεωρήθηκε τότε ως έγκυρη. Το 1984, το τριάντα επτά τοις εκατό των εργαζομένων στη βιομηχανία ηλεκτρονικών υπολογιστών στις Ηνωμένες Πολιτείες ήταν γυναίκες. Συγκριτικά, στη Γαλλία το 2018, μόνο το 10% των φοιτητών στα μαθήματα πληροφορικής ήταν γυναίκες. εκτιμάται ότι μόνο το 12% των φοιτητών στον τομέα της ΓΠ είναι γυναίκες.

Στην πραγματικότητα, μια σημαντική αλλαγή έγινε στη δεκαετία του ’80, με την εμφάνιση του προσωπικού υπολογιστή (PC). Από τότε, η τεχνολογία των υπολογιστών απέκτησε πρωτοφανή οικονομική σημασία. Η ψυχαγωγική διάσταση των υπολογιστών εμφανίστηκε επίσης εκείνα τα χρόνια, αναπτύσσοντας μια πολύ αρρενωπό πολιτισμική απεικόνιση γύρω από την εικόνα του geek. Αυτή η διπλή τάση συνοδεύτηκε από την περιθωριοποίηση των γυναικών. Αυτό δείχνει ότι η συγγένεια των αγοριών με τους υπολογιστές δεν είναι φυσική, αλλά ότι είναι πάνω απ ‘όλα πολιτιστική και κατασκευασμένη.

Κάποιος μπορεί να σκεφτεί ότι οι αλγόριθμοι είναι ουδέτεροι από τη φύση τους. Σε ποιο βαθμό συμβάλλουν στην αναπαραγωγή της μεροληψίας του φύλου;

Bernheim: Μερικοί καταπατητές συνειδητοποίησαν αρκετά γρήγορα ότι οι αλγόριθμοι ήταν προκατειλημμένοι. Διαπίστωσαν, για παράδειγμα, ότι το λογισμικό μετάφρασης [στα γαλλικά, τα οποία έχουν αρσενικά και θηλυκά ουσιαστικά] τείνουν να δίνουν στα επαγγέλματα ένα φύλο μεταφράζοντας τον αγγλικό "γιατρό" σε " le docteur " (αρσενικό) και " l’infirmière "(θηλυκό). Όταν εμφανίστηκαν βοηθοί φωνής – είτε οι Alexa, Siri ή Cortana – όλοι είχαν θηλυκά ονόματα και ανταποκρίθηκαν στις παραγγελίες κατά τρόπο μάλλον υποτακτικό, ακόμα και όταν τους προσβάλλεται.

Το 2016, ο Joy Buolamwini, ένας Αφρο-Αμερικανός ερευνητής στο Ινστιτούτο Τεχνολογίας της Μασαχουσέτης (MIT), άρχισε να ενδιαφέρεται για αλγορίθμους αναγνώρισης προσώπου. Η δουλειά της έδειξε ότι οι [AI] εκπαιδεύτηκαν σε βάσεις δεδομένων που περιείχαν κυρίως φωτογραφίες λευκών αρσενικών. Ως αποτέλεσμα, ήταν πολύ λιγότερο αποτελεσματικά στην αναγνώριση των μαύρων γυναικών ή των ασιατών ανδρών, παρά στους λευκούς άνδρες. Μπορείτε να φανταστείτε ότι εάν ήταν μέρος της ομάδας που ανέπτυξε αυτούς τους αλγορίθμους, η κατάσταση θα ήταν διαφορετική.

Βικέντιος:Η κωδικοποίηση ενός αλγορίθμου είναι σαν να γράφετε ένα κείμενο. Υπάρχει μια ορισμένη ποσότητα υποκειμενικότητας που εκδηλώνεται στην επιλογή των λέξεων, των στροφών των φράσεων – ακόμα κι αν έχουμε την εντύπωση ότι γράφουμε ένα πολύ πραγματικό κείμενο. Για να προσδιορίσουμε τις προκαταλήψεις, η προσέγγισή μας συνίστατο στην ανατομή των διαφορετικών σταδίων αυτού που ονομάζουμε «σεξιστική μόλυνση». Αυτό συμβαίνει επειδή δεν υπάρχει μία και μόνο αιτία που δημιουργεί έναν προκατειλημμένο αλγόριθμο, αλλά μάλλον είναι το αποτέλεσμα μιας αλυσίδας αιτιότητας που παρεμβαίνει στα διάφορα στάδια της κατασκευής του. Στην πραγματικότητα, αν οι άνθρωποι που κωδικοποιούν, δοκιμάζουν, ελέγχουν και χρησιμοποιούν έναν αλγόριθμο δεν γνωρίζουν αυτές τις δυνητικές προκαταλήψεις, τις αναπαράγουν. Στη συντριπτική πλειοψηφία των περιπτώσεων, δεν υπάρχει καμιά σκόπιμη πρόθεση να γίνουν διακρίσεις. Τις περισσότερες φορές απλά αναπαράγουμε ασυνείδητα στερεότυπα που σφυρηλατούνται κατά τη διάρκεια της ζωής και της εκπαίδευσής μας.

Υπάρχει επίγνωση της προκατάληψης σε ορισμένα προϊόντα ΑΙ σήμερα;

Bernheim: Το AI είναι ένας τομέας όπου τα πάντα εξελίσσονται πολύ γρήγορα – η ίδια η τεχνολογία, αλλά και η σκέψη για τη χρήση της. Σε σύγκριση με άλλους κλάδους, το πρόβλημα των διακρίσεων προέκυψε πολύ νωρίς. Μόλις τρία χρόνια μετά την έναρξη του πυρετού του αλγορίθμου, οι καταγγέλλοντες άρχισαν να εφιστούν την προσοχή στη διαφοροποιημένη αντιμετώπιση ορισμένων αλγορίθμων. Αυτό είναι ήδη ένα θέμα από μόνο του στην επιστημονική κοινότητα. Συσσωρεύει πολλές συζητήσεις και έχει οδηγήσει σε ερευνητικές εργασίες για την ανίχνευση της μεροληψίας και των επιπτώσεων των αλγορίθμων από την άποψη της ηθικής, της μαθηματικής και της επιστήμης των υπολογιστών. Αυτή η συνειδητοποίηση έχει επίσης αντικατοπτριστεί πρόσφατα στα βασικά μέσα ενημέρωσης. Δεν έχουν επιλυθεί όλα τα προβλήματα, αλλά έχουν εντοπιστεί και μόλις έχουν υπάρξει, μπορούν να εφαρμοστούν λύσεις.

Πώς μπορούν οι αλγόριθμοι να γίνουν πιο ισότιμοι;

Bernheim: Καταρχάς, πρέπει να δράσουμε στο επίπεδο των βάσεων δεδομένων, έτσι ώστε να είναι αντιπροσωπευτικές του πληθυσμού σε όλη του την ποικιλομορφία. Ορισμένες εταιρείες το κάνουν ήδη και εργάζονται σε βάσεις δεδομένων που λαμβάνουν υπόψη τις διαφορές ως προς το φύλο, την εθνικότητα ή τη μορφολογία. Ως αποτέλεσμα των εργασιών που δημοσιεύθηκαν σχετικά με τις αδυναμίες του λογισμικού αναγνώρισης προσώπου, ορισμένες εταιρείες έχουν επανεκπαιδεύσει τους αλγόριθμους τους για να είναι πιο περιεκτικές. Οι εταιρείες έχουν επίσης αναδειχθεί ότι ειδικεύονται στην ανάπτυξη εργαλείων για την αξιολόγηση των αλγορίθμων και να καθορίζουν εάν είναι προκατειλημμένες.

Vincent: Ταυτόχρονα, στην επιστημονική και ερευνητική κοινότητα, υπήρξε προβληματισμός σχετικά με τον τρόπο εφαρμογής μιας πιο ανεξάρτητης αξιολόγησης και την ανάγκη για αλγοριθμική διαφάνεια. Ορισμένοι εμπειρογνώμονες, όπως ο Buolamwini, υποστηρίζουν την ανάπτυξη και τη γενίκευση ενός ολοκληρωμένου κώδικα, όπως ακριβώς και για τη συγγραφή.

Μεταξύ των υφιστάμενων πρωτοβουλιών, θα πρέπει να αναφέρουμε και το έργο που επιτελεί το συλλογικό Data for Good, το οποίο εξετάζει τους τρόπους με τους οποίους οι αλγόριθμοι εξυπηρετούν το γενικό συμφέρον. Αυτό το συλλογικό όργανο έχει συντάξει έναν ηθικό χάρτη που ονομάζεται Ιπποκράτης όρκος για τους επιστήμονες δεδομένων, ο οποίος καταρτίζει έναν κατάλογο πολύ συγκεκριμένων παραμέτρων που πρέπει να ελεγχθούν πριν από την εφαρμογή ενός αλγορίθμου, για να διασφαλιστεί ότι δεν εισάγει διακρίσεις. Είναι σημαντικό να στηριχθεί αυτό το είδος πρωτοβουλίας.

Θα μπορούσε η AI να αποτελέσει τελικά ένα παράδειγμα για το πώς μπορούν να καταπολεμηθούν οι προκαταλήψεις;

Bernheim: Κατά μία έννοια, ναι, στο βαθμό που γνωρίζαμε αρκετά γρήγορα τις προκαταλήψεις που θα μπορούσαν να προκαλέσουν αυτές οι νέες τεχνολογίες. Η AI βρίσκεται σε διαδικασία επανάστασης στις κοινωνίες μας, έτσι ώστε να μπορεί να κάνει τα πράγματα να εξελιχθούν με θετικό τρόπο. Το AI καθιστά δυνατή τη διαχείριση και ανάλυση πολύ μεγάλων ποσοτήτων δεδομένων. Ενέκρινε, συγκεκριμένα, το Google να δημιουργήσει έναν αλγόριθμο το 2016 για να ποσοτικοποιήσει τον χρόνο ομιλίας των γυναικών στις μεγάλες αμερικανικές κινηματογραφικές παραγωγές και να δείξει την υποεκπροσώπησή τους. Ταυτόχρονα, οι ομάδες που αναπτύσσουν αλγόριθμους πρέπει επίσης να γίνουν πιο ισορροπημένες με το φύλο. Σήμερα, ωστόσο, για πολλούς λόγους – όπως η αυτοαπολογι- σμό των κοριτσιών όσον αφορά τα επιστημονικά πεδία και ο σεξισμός που βασιλεύει στις εταιρείες υψηλής τεχνολογίας- πολύ λίγες γυναίκες σπουδάζουν την πληροφορική. Θα χρειαστεί χρόνος για να αντιστραφεί αυτή η τάση.

Vincent: Φυσικά, οι αλγόριθμοι πρέπει να εκπαιδευτούν, αλλά η αλλαγή μερικών γραμμών κώδικα δεν θα είναι αρκετή για την επίλυση των προβλημάτων. Πρέπει να έχουμε κατά νου ότι δεν θα υπάρξει προθυμία να κωδικοποιηθεί η ισότητα αν οι εμπλεκόμενες ομάδες δεν περιλαμβάνουν τις γυναίκες.

Διαβάστε περισσότερα:

Δημοκρατικός ΑΙ στην Αφρική , Ο Ταχυμεταφορέας UNESCO , Ιούλιος-Σεπτέμβριος 2018.

Aude Bernheim και Flora Vincent

Οι βιογράφοι Aude Bernheim και Flora Vincent είναι ερευνητές στο Weizmann Institute of Science στο Ισραήλ. Είναι οι ιδρυτές της WAX Science, μιας ένωσης που προάγει την ισότητα των φύλων στις επιστήμες.

https://en.unesco.org/courier/news-views-online/we-must-educate-algorithms?utm_source=UNESCO&utm_campaign=19a4e26e25-EMAIL_CAMPAIGN_2020_03_05_01_45&utm_medium=email&utm_term=0_898ed31396-19a4e26e25-442178217&mc_cid=19a4e26e25&mc_eid=2ec12fb7e7

 

Κόκκινο τριαντάφυλλο

 

Αποτέλεσμα εικόνας για παγκόσμια Ημέρα γυναικας

 

Αποτέλεσμα εικόνας για παγκόσμια Ημέρα γυναικας

 

Αποτέλεσμα εικόνας για παγκόσμια Ημέρα γυναικας

 

 

 

Αποτέλεσμα εικόνας για παγκόσμια Ημέρα γυναικας

 

 

Αποτέλεσμα εικόνας για παγκόσμια Ημέρα γυναικας

 

 

Αποτέλεσμα εικόνας για παγκόσμια Ημέρα γυναικας

 

 

 

 

Αποτέλεσμα εικόνας για παγκόσμια Ημέρα γυναικας

 

 

 

 

 

Αποτέλεσμα εικόνας για παγκόσμια Ημέρα γυναικας

 

 

Αποτέλεσμα εικόνας για παγκόσμια Ημέρα γυναικας

 

Αποτέλεσμα εικόνας για παγκόσμια Ημέρα γυναικας

  1. Δεν υπάρχουν σχόλια.
  1. No trackbacks yet.

Σχολιάστε

Εισάγετε τα παρακάτω στοιχεία ή επιλέξτε ένα εικονίδιο για να συνδεθείτε:

Λογότυπο WordPress.com

Σχολιάζετε χρησιμοποιώντας τον λογαριασμό WordPress.com. Αποσύνδεση /  Αλλαγή )

Φωτογραφία Google

Σχολιάζετε χρησιμοποιώντας τον λογαριασμό Google. Αποσύνδεση /  Αλλαγή )

Φωτογραφία Twitter

Σχολιάζετε χρησιμοποιώντας τον λογαριασμό Twitter. Αποσύνδεση /  Αλλαγή )

Φωτογραφία Facebook

Σχολιάζετε χρησιμοποιώντας τον λογαριασμό Facebook. Αποσύνδεση /  Αλλαγή )

Σύνδεση με %s

Αρέσει σε %d bloggers: