ΕΕ: Ο Οργανισμός Θεμελιωδών Δικαιωμάτων προειδοποιεί για κινδύνους από τη χρήση της τεχνητής νοημοσύνης

ΕΕ: Ο Οργανισμός Θεμελιωδών Δικαιωμάτων προειδοποιεί για κινδύνους από τη χρήση της τεχνητής νοημοσύνης

Ο Οργανισμός Θεμελιωδών Δικαιωμάτων της Ευρωπαϊκής Ένωσης (FRA) προειδοποιεί για τους κινδύνους στην χρήση τεχνητής νοημοσύνης στην προληπτική αστυνόμευση, τις ιατρικές διαγνώσεις και τη στοχευμένη διαφήμιση.

Καθώς η τεχνητή νοημοσύνη χρησιμοποιείται ευρέως από τις υπηρεσίες επιβολής του νόμου, οι οργανισμοί ανθρωπίνων δικαιωμάτων προειδοποιούν ότι γίνεται κατάχρηση από αυταρχικά καθεστώτα με σκοπό τη μαζική και μεροληπτική παρακολούθηση. Οι επικριτές ανησυχούν επίσης για την παραβίαση θεμελιωδών δικαιωμάτων και των κανόνων του απορρήτου των δεδομένων.

Ο οργανισμός δημοσίευεσε σήμερα μια έκθεση στην οποία προτρέπει τους υπεύθυνους χάραξης πολιτικής να δώσουν περισσότερες οδηγίες σχετικά με τους κανόνες για την χρήση της τεχνητής νοημοσύνης και να διασφαλίσουν ότι οι σχετικοί μελλοντικοί νόμοι θα προστατεύουν τα θεμελιώδη δικαιώματα.

«Η τεχνητή νοημοσύνη δεν είναι αλάνθαστη, την αναπτύσσουν άνθρωποι, και οι άνθρωποι κάνουν λάθη. Αυτός είναι ο λόγος για τον οποίο οι πολίτες θα πρέπει να γνωρίζουν πότε χρησιμοποιείται η τεχνητή νοημοσύνη, πώς λειτουργεί και πώς θα μπορούν να αμφισβητούν τις αυτοματοποιημένες αποφάσεις», αναφέρει σε ανακοίνωση του, ο διευθυντής του FRA Michael O’Flaherty.

Η Ευρωπαϊκή Επιτροπή αναμένεται να εξετάσει μέσα στο επόμενο έτος, τη νομοθεσία που θα καλύπτει τους λεγόμενους τομείς υψηλού κινδύνου όπως είναι η υγειονομική περίθαλψη, η ενέργεια, οι μεταφορές και τμήματα του δημόσιου τομέα.

Ο οργανισμός αναφέρει επίσης, ότι οι κανόνες για την τεχνητή νοημοσύνη θα πρέπει να σέβονται όλα τα θεμελιώδη δικαιώματα, να εγγυούνται ότι οι άνθρωποι έχουν το δικαίωμα να αμφισβητήσουν τις αποφάσεις που λαμβάνει η τεχνητή νοημοσύνη. Ταυτόχρονα, οι εταιρείες θα πρέπει να είναι σε θέση να εξηγήσουν πώς λαμβάνουν αυτές τις αποφάσεις τα συστήματά τους.

Σύμφωνα με την έκθεση, απαιτείται περισσότερη έρευνα σχετικά με τις δυνητικά μεροληπτικές επιπτώσεις της τεχνητής νοημοσύνης, ώστε η Ευρώπη να μπορέσει να τις αποφύγει, και η ΕΕ θα πρέπει να διευκρινίσει περαιτέρω πώς εφαρμόζονται οι κανόνες προστασίας δεδομένων στην τεχνολογία.

Η έκθεση του FRA βασίζεται σε περισσότερες από 100 συνεντεύξεις με δημόσιους και ιδιωτικούς οργανισμούς που χρησιμοποιούν ήδη την τεχνητή νοημοσύνη, ενώ η ανάλυση βασίζεται σε χρήσεις AI στην Εσθονία, τη Φινλανδία, τη Γαλλία, τις Κάτω Χώρες και την Ισπανία.

ΠΗΓΗ: Reuters

 

 

 

 

 

 

 

 

www.ert.gr

Εύη Τσιριγωτάκη