σε ,

Κάποιος χρησιμοποίησε το Google Translate για να δείξει το σεξισμό του

Και ανακάλυψε σεξιστικές υποθέσεις στις γλώσσες που δεν έχουν γραμματικά γένη

1 55
Φωτο: AFP via Getty Images

Η υπηρεσία μετάφρασης της Google δέχεται κατηγορίες για σεξισμό, καθώς η αγγλική μετάφραση  γλωσσών που δεν έχουν γένη ακολουθεί επιβλαβή στερεότυπα, λέει ο Independent.

Σε ένα tweet, που έκτοτε έγινε viral, η χρήστης @DoraVargha δημοσίευσε σκρηνσοτ στα οποία δείχνει πώς μεταφράστηκαν στα αγγλικά κάποιες ουγγρικές προτάσεις, μιας γλώσσας που δεν έχει γραμματικά γένη.

Προς μεγάλη της έκπληξη, η Google μετέφρασε τις φράσεις χρησιμοποιώντας προσωπικές αντωνυμίες που πίστευε ότι ταίριαζαν με το περιεχόμενο της πρότασης σύμφωνα με τα στερεότυπα φύλλου.

Ανάμεσα τους ήταν φράσεις όπως: «αυτή πλένει τα πιάτα», «αυτή είναι καθαρίστρια», «αυτός βγάζει πολλά χρήματα» και «αυτός είναι πολιτικός».

Η χρήστης έγραψε στο Twitter: «Η ουγγρική γλώσσα δεν έχει γραμματικά γένη, επομένως η μετάφραση του Google επιλέγει αυτόματα το φύλο. Να πώς κωδικοποιείται ο σεξισμός το 2021. Γ@@@@@@, Google»

JavaScript is not available.

No Description

Πολλοί χρήστες του Twitter δήλωσαν σοκαρισμένοι και ορισμένοι έκαναν δικά τους πειράματα με  το ίδιο ακριβώς αποτέλεσμα.

«Έκανα το δικό μου πείραμα και έγραψα «Αυτή είναι μηχανικός. Αυτός είναι όμορφος» και άλλαξα τη μετάφραση στα αγγλικά. Αυτό είναι πολύ σεξιστικό, Google»

https://twitter.com/totallynotbrent/status/1373681320929284100

«Και τα φιλιππινέζικα δεν έχουν γένη, αλλά το Google Translate είναι τεχνητή νοημοσύνη οπότε δεν ξέρω»

Άλλοι επεσήμαναν ότι η τεχνητή νοημοσύνη τείνει να ενισχύει τις ανθρώπινες προκαταλήψεις, τόσο τις συνειδητές όσο και τις ασυνείδητες. Στις ΗΠΑ, λέγεται ότι οι Αφροαμερικανοί έχουν επηρεαστεί από «ρατσιστικό» λογισμικό που χρησιμοποιείται στην υγειονομική περίθαλψη.

Matthew Greenfield on X (formerly Twitter): “A vivid example of how machine learning perpetuates and even amplifies human biases. https://t.co/p05i0ytAAT / X”

A vivid example of how machine learning perpetuates and even amplifies human biases. https://t.co/p05i0ytAAT

«Ζωντανό παράδειγμα του πώς η μηχανική μάθηση διαιωνίζει και ενισχύει τις ανθρώπινες προκαταλήψεις»

Kae Wippel on X (formerly Twitter): “Good visualisation that algorithms are NOT neutral. They are as biased as the data used to train the models. https://t.co/nb3YOgtdV9 / X”

Good visualisation that algorithms are NOT neutral. They are as biased as the data used to train the models. https://t.co/nb3YOgtdV9

«Καλό παράδειγμα που δείχνει ότι οι αλγόριθμοι ΔΕΝ είναι ουδέτεροι. Είναι τόσο προκατειλημμένοι όσο τα δεδομένα που χρησιμοποιούνται στην εκπαίδευση των μοντέλων»

*ΔΕΙΤΕ ΕΠΙΣΗΣ

ΤΕΣΤ ΠΡΟΣΩΠΙΚΟΤΗΤΑΣ: Έχεις θηλυκή, αρσενική ή gender neutral προσωπικότητα;

Ακολουθήστε τα Μικροπράγματα στο Google News, για άρθρα και κουίζ που θα σας φτιάχνουν τη μερα.