Η υπηρεσία μετάφρασης της Google δέχεται κατηγορίες για σεξισμό, καθώς η αγγλική μετάφραση γλωσσών που δεν έχουν γένη ακολουθεί επιβλαβή στερεότυπα, λέει ο Independent.
Σε ένα tweet, που έκτοτε έγινε viral, η χρήστης @DoraVargha δημοσίευσε σκρηνσοτ στα οποία δείχνει πώς μεταφράστηκαν στα αγγλικά κάποιες ουγγρικές προτάσεις, μιας γλώσσας που δεν έχει γραμματικά γένη.
Προς μεγάλη της έκπληξη, η Google μετέφρασε τις φράσεις χρησιμοποιώντας προσωπικές αντωνυμίες που πίστευε ότι ταίριαζαν με το περιεχόμενο της πρότασης σύμφωνα με τα στερεότυπα φύλλου.
Ανάμεσα τους ήταν φράσεις όπως: «αυτή πλένει τα πιάτα», «αυτή είναι καθαρίστρια», «αυτός βγάζει πολλά χρήματα» και «αυτός είναι πολιτικός».
Η χρήστης έγραψε στο Twitter: «Η ουγγρική γλώσσα δεν έχει γραμματικά γένη, επομένως η μετάφραση του Google επιλέγει αυτόματα το φύλο. Να πώς κωδικοποιείται ο σεξισμός το 2021. Γ@@@@@@, Google»
JavaScript is not available.
No Description
Πολλοί χρήστες του Twitter δήλωσαν σοκαρισμένοι και ορισμένοι έκαναν δικά τους πειράματα με το ίδιο ακριβώς αποτέλεσμα.
OK I did my own experiment and wrote “She is an engineer. He is beautiful” then swapped the translation back to English. That’s mad sexist @Google pic.twitter.com/TikEzjTxTU
— ZombieTron (@ZombieTron) March 20, 2021
«Έκανα το δικό μου πείραμα και έγραψα «Αυτή είναι μηχανικός. Αυτός είναι όμορφος» και άλλαξα τη μετάφραση στα αγγλικά. Αυτό είναι πολύ σεξιστικό, Google»
https://twitter.com/totallynotbrent/status/1373681320929284100
«Και τα φιλιππινέζικα δεν έχουν γένη, αλλά το Google Translate είναι τεχνητή νοημοσύνη οπότε δεν ξέρω»
Άλλοι επεσήμαναν ότι η τεχνητή νοημοσύνη τείνει να ενισχύει τις ανθρώπινες προκαταλήψεις, τόσο τις συνειδητές όσο και τις ασυνείδητες. Στις ΗΠΑ, λέγεται ότι οι Αφροαμερικανοί έχουν επηρεαστεί από «ρατσιστικό» λογισμικό που χρησιμοποιείται στην υγειονομική περίθαλψη.
Matthew Greenfield on X (formerly Twitter): “A vivid example of how machine learning perpetuates and even amplifies human biases. https://t.co/p05i0ytAAT / X”
A vivid example of how machine learning perpetuates and even amplifies human biases. https://t.co/p05i0ytAAT
«Ζωντανό παράδειγμα του πώς η μηχανική μάθηση διαιωνίζει και ενισχύει τις ανθρώπινες προκαταλήψεις»
Kae Wippel on X (formerly Twitter): “Good visualisation that algorithms are NOT neutral. They are as biased as the data used to train the models. https://t.co/nb3YOgtdV9 / X”
Good visualisation that algorithms are NOT neutral. They are as biased as the data used to train the models. https://t.co/nb3YOgtdV9
«Καλό παράδειγμα που δείχνει ότι οι αλγόριθμοι ΔΕΝ είναι ουδέτεροι. Είναι τόσο προκατειλημμένοι όσο τα δεδομένα που χρησιμοποιούνται στην εκπαίδευση των μοντέλων»
*ΔΕΙΤΕ ΕΠΙΣΗΣ
ΤΕΣΤ ΠΡΟΣΩΠΙΚΟΤΗΤΑΣ: Έχεις θηλυκή, αρσενική ή gender neutral προσωπικότητα;
