Το ImageNet κάνει ένα σημαντικό βήμα για την προστασία της ιδιωτικότητας

Το 2012 μια ομάδα ερευνητών τεχνητής νοημοσύνης (AI) έκανε ένα μεγάλο άλμα στη μηχανική όραση εκπαιδεύοντας αλγόριθμους σε ένα ασυνήθιστα μεγάλο σύνολο εικόνων οι οποίες περιλάμβαναν καθημερινά αντικείμενα, άτομα και σκηνές. Οι φωτογραφίες αυτές συλλέχθηκαν από το διαδίκτυο και κατηγοριοποιήθηκαν και φιλοξενούνται στη βάση δεδομένων ImageNet.

Σήμερα, η βάση αυτή φιλοξενεί 1,5 εκατομμύρια εικόνες και χρησιμοποιείται σε μεγάλο βαθμό για τη μέτρηση της απόδοσης των αλγορίθμων μηχανικής μάθησης ή για την εκπαίδευση αλγορίθμων που εκτελούν εξειδικευμένες εργασίες. Ωστόσο, την προηγούμενη εβδομάδα οι ερευνητές αποφάσισαν να θολώσουν όλα τα πρόσωπα που απεικονίζονται στις φωτογραφίες.

«Μας απασχολεί το θέμα της ιδιωτικότητας», εξηγεί η Olga Russakovsky, επίκουρη καθηγήτρια στο Πανεπιστήμιο του Πρίνστον και μια από τους υπεύθυνους διαχείρισης του ImageNet, στο Wired.

Η ομάδα του ImageNet ήθελε να διαπιστώσει εάν το θόλωμα των προσώπων θα επηρεάσει τον τρόπο με τον οποίο το σύστημα αναγνωρίζει τα αντικείμενα στις φωτογραφίες.

Η ομάδα του ImageNet θόλωσε τα πρόσωπα χρησιμοποιώντας την υπηρεσία AI Recognition της Amazon. Στη συνέχεια, ανέθεσε στους εργαζόμενους της εταιρείας Mechanical Turk, μιας αυτοματοποιημένης αγοράς εργασίας για λειτουργίες πληροφορικής, να επιβεβαιώσουν τις επιλογές και να τις προσαρμόσουν.

Το θόλωμα των προσώπων δεν επηρέασε την απόδοση πολλών αλγορίθμων αναγνώρισης αντικειμένων που εκπαιδεύτηκαν στο ImageNet, λένε οι ερευνητές. «Ελπίζουμε ότι αυτά τα αποτελέσματα θα ανοίξουν το δρόμο για περισσότερες πρακτικές συλλογής οπτικών δεδομένων με γνώμονα την ιδιωτικότητα», λέει η Russakovsky.

Δεν είναι η πρώτη προσπάθεια προσαρμογής της διάσημης βιβλιοθήκης εικόνων. Τον Δεκέμβριο του 2019, η ομάδα του ImageNet διέγραψε τους προσβλητικούς και υποτιμητικούς τίτλους στις ετικέτες που έβαζαν οι χρήστες στις φωτογραφίες τους.

Τι γίνεται όμως εάν ένα μοντέλο εκπαιδευτεί σε ένα σύνολο δεδομένων που περιέχει θολωμένα πρόσωπα; Θα είναι εξίσου αποτελεσματικό; Υπάρχει περίπτωση για παράδειγμα, ένα ρομπότ το οποίο έχει εκπαιδευτεί με το συγκεκριμένο σύνολο δεδομένων, να μπερδευτεί όταν δει πραγματικά πρόσωπα.

Ο Aleksander Madry, ερευνητής στο MIT που έχει εντοπίσει τις αδυναμίες του ImageNet, λέει ότι ένα μοντέλο AI που έχει εκπαιδευτεί σε ένα τέτοιο σύνολο δεδομένων μπορεί να μην αποδώσει σωστά όταν δει εικόνες που περιέχουν πρόσωπα τα οποία φαίνονται καθαρά. «Οι προκαταλήψεις στα δεδομένα μπορεί να είναι πολύ λεπτές αλλά να έχουν σημαντικές συνέπειες», λέει. «Για αυτό τον λόγο, είναι δύσκολο να σκεφτούμε τη δικαιοσύνη στο πλαίσιο της μηχανικής μάθησης».

ΠΗΓΗ: Wired

 

www.ertnews.gr

Εύη Τσιριγωτάκη