Η χρήση τεχνολογίας αναγνώρισης προσώπου για σκοπούς παρακολούθησης, ή αλγόριθμοι που χειραγωγούν την ανθρώπινη συμπεριφορά, θα απαγορευτούν στο πλαίσιο κανόνων που προτείνει η ΕΕ για την τεχνητή νοημοσύνη.
Όπως αναφέρει το BBC, οι προτάσεις αυτές έχουν ευρύ χαρακτήρα και διέρρευσαν πριν την επίσημη δημοσιοποίησή τους, και περιλαμβάνουν αυστηρούς νέους κανόνες για αυτό που εκλαμβάνεται ως τεχνητή νοημοσύνη υψηλού ρίσκου- όπως αλγόριθμοι που χρησιμοποιούνται από την αστυνομία, αλλά και για σκοπούς προσλήψεων.
Ειδικοί λένε πως οι κανόνες αυτοί είναι ασαφείς και περιλαμβάνουν «παραθυράκια». Η χρήση ΑΙ στις ένοπλες δυνάμεις εξαιρείται, όπως και συστήματα που χρησιμοποιούνται από τις αρχές για τη διασφάλιση της δημόσιας ασφάλειας.
Η προτεινόμενη λίστα απαγορευμένων συστημάτων περιλαμβάνει συστήματα που έχουν δυνατότητα χειραγώγησης ανθρώπινης συμπεριφοράς/ απόψεων/ αποφάσεων, συστήματα για παρακολούθηση άνευ διακρίσεων, που εφαρμόζεται με μαζικό/ γενικό τρόπο, συστήματα που χρησιμοποιούνται για «social scoring» και συστήματα που εκμεταλλεύονται πληροφορίες ή προβλέψεις και ένα άτομο ή ομάδα ατόμων για να στοχεύσουν τα τρωτά τους σημεία.
Ο Ντάνιελ Λόιφερ, αναλυτής ευρωπαϊκής πολιτικής, έγραψε στο Twitter πως οι ορισμοί αυτοί είναι πολύ «ανοιχτοί» σε ερμηνεία. «Πώς καθορίζουμε τι είναι επιβλαβές; Και ποιος το αξιολογεί αυτό;» έγραψε σχετικά.
Για να θεωρείται μια ΑΙ ως υψηλού ρίσκου, οι χώρες- μέλη θα έπρεπε να ζητήσουν μεγαλύτερη επίβλεψη, περιλαμβανομένης της ανάγκης να οριστούν φορείς αξιολόγησης για δοκιμή, πιστοποίηση και επιθεώρηση αυτών των συστημάτων. Εταιρείες που αναπτύσσουν απαγορευμένες υπηρεσίες, ή δεν συμμορφώνονται, θα μπορούσαν να δεχτούν πρόστιμα ύψους 4% των παγκοσμίων εσόδων τους.
Σύμφωνα με το BBC, μεταξύ των συστημάτων ΑΙ υψηλού ρίσκου περιλαμβάνονται συστήματα που ορίζουν προτεραιότητα ως προς την παροχή υπηρεσιών εκτάκτου ανάγκης, συστήματα που καθορίζουν την πρόσβαση σε εκπαιδευτικά ιδρύματα, αλγόριθμοι για προσλήψεις, αλγόριθμοι πρόγνωσης εγκλημάτων, συστήματα που ορίζουν την πιστοληπτική ικανότητα κ.α.
Ο Λόιφερ πρόσθεσε πως οι προτάσεις θα έπρεπε να επεκταθούν ώστε να περιλαμβάνουν όλα τα συστήματα τεχνητής νοημοσύνης του δημοσίου τομέα, ανεξαρτήτως του επιπέδου ρίσκου τους, καθώς οι πολίτες δεν έχουν επιλογή ως προς την αλληλεπίδραση μαζί τους