Apple News

Ερευνητές πανεπιστημίου που κατασκεύασαν ένα σύστημα σάρωσης CSAM προτρέπουν την Apple να μην χρησιμοποιεί την «επικίνδυνη» τεχνολογία

Παρασκευή 20 Αυγούστου 2021 6:48 π.μ. PDT από τον Sami Fathi

Έγκυτοι πανεπιστημιακοί ερευνητές κρούουν τον κώδωνα του κινδύνου για την τεχνολογία πίσω από τα σχέδια της Apple για σάρωση iPhone βιβλιοθήκες φωτογραφιών χρηστών για CSAM, ή υλικό σεξουαλικής κακοποίησης παιδιών, αποκαλώντας την τεχνολογία «επικίνδυνη».





απορρήτου της Apple
Ο Jonanath Mayer, επίκουρος καθηγητής επιστήμης υπολογιστών και δημοσίων σχέσεων στο Πανεπιστήμιο του Πρίνστον, καθώς και η Anunay Kulshrestha, ερευνήτρια στο Κέντρο Πολιτικής Πληροφορικής του Πανεπιστημίου του Πρίνστον, και οι δύο έγραψε ένα op-ed Για Η Washington Post , περιγράφοντας τις εμπειρίες τους με την τεχνολογία ανίχνευσης εικόνων κτιρίων.

Οι ερευνητές ξεκίνησαν ένα έργο πριν από δύο χρόνια για να ταυτοποιήσουν το CSAM σε κρυπτογραφημένες διαδικτυακές υπηρεσίες από άκρο σε άκρο. Οι ερευνητές σημειώνουν ότι δεδομένου του πεδίου τους, «γνωρίζουν την αξία της κρυπτογράφησης από άκρο σε άκρο, η οποία προστατεύει τα δεδομένα από την πρόσβαση τρίτων». Αυτή η ανησυχία, λένε, είναι που τους τρομάζει για το CSAM που «πολλαπλασιάζεται σε κρυπτογραφημένες πλατφόρμες».



πώς ξεκαρφιτσώνω ένα μήνυμα κειμένου στο iphone

Οι Mayer και Kulshrestha είπαν ότι ήθελαν να βρουν μια μέση λύση για την κατάσταση: να δημιουργήσουν ένα σύστημα που θα μπορούσαν να χρησιμοποιήσουν οι διαδικτυακές πλατφόρμες για να βρουν το CSAM και να προστατεύσουν την κρυπτογράφηση από άκρο σε άκρο. Οι ερευνητές σημειώνουν ότι οι ειδικοί στον τομέα αμφισβήτησαν την προοπτική ενός τέτοιου συστήματος, αλλά κατάφεραν να το κατασκευάσουν και στην πορεία παρατήρησαν ένα σημαντικό πρόβλημα.

Επιδιώξαμε να εξερευνήσουμε μια πιθανή μέση λύση, όπου οι διαδικτυακές υπηρεσίες θα μπορούσαν να εντοπίσουν επιβλαβές περιεχόμενο, ενώ διαφορετικά θα διατηρούσαν την κρυπτογράφηση από άκρο σε άκρο. Η ιδέα ήταν απλή: Εάν κάποιος μοιραζόταν υλικό που ταιριάζει με μια βάση δεδομένων γνωστού επιβλαβούς περιεχομένου, η υπηρεσία θα ειδοποιηθεί. Εάν ένα άτομο μοιραζόταν αθώο περιεχόμενο, η υπηρεσία δεν θα μάθαινε τίποτα. Οι άνθρωποι δεν μπορούσαν να διαβάσουν τη βάση δεδομένων ή να μάθουν εάν το περιεχόμενο ταιριάζει, καθώς αυτές οι πληροφορίες θα μπορούσαν να αποκαλύψουν μεθόδους επιβολής του νόμου και να βοηθήσουν τους εγκληματίες να αποφύγουν τον εντοπισμό.

Έμπειροι παρατηρητές υποστήριξαν ότι ένα σύστημα σαν το δικό μας δεν ήταν καθόλου εφικτό. Μετά από πολλές λανθασμένες εκκινήσεις, κατασκευάσαμε ένα λειτουργικό πρωτότυπο. Όμως αντιμετωπίσαμε ένα κραυγαλέο πρόβλημα.

Από την ανακοίνωση της Apple για το χαρακτηριστικό, η εταιρεία έχει βομβαρδιστεί με ανησυχίες ότι το σύστημα πίσω από την ανίχνευση CSAM θα ​​μπορούσε να χρησιμοποιηθεί για τον εντοπισμό άλλων μορφών φωτογραφιών κατόπιν αιτήματος καταπιεστικών κυβερνήσεων. Η Apple έχει αποκρούσει σθεναρά μια τέτοια πιθανότητα, λέγοντας ότι θα αρνηθεί οποιοδήποτε τέτοιο αίτημα από τις κυβερνήσεις.

Ωστόσο, οι ανησυχίες σχετικά με τις μελλοντικές επιπτώσεις της τεχνολογίας που χρησιμοποιείται για την ανίχνευση CSAM είναι ευρέως διαδεδομένες. Οι Mayer και Kulshrestha είπαν ότι οι ανησυχίες τους σχετικά με το πώς οι κυβερνήσεις θα μπορούσαν να χρησιμοποιήσουν το σύστημα για να εντοπίσουν περιεχόμενο διαφορετικό από το CSAM τους «ενόχλησαν».

πόσο είναι το office 365 για mac

Μια ξένη κυβέρνηση θα μπορούσε, για παράδειγμα, να υποχρεώσει μια υπηρεσία σε άτομα που μοιράζονται δυσμενή πολιτική ομιλία. Αυτό δεν είναι υποθετικό: Το WeChat, η δημοφιλής κινεζική εφαρμογή ανταλλαγής μηνυμάτων, χρησιμοποιεί ήδη αντιστοίχιση περιεχομένου για να αναγνωρίσει υλικό αντιφρονούντων. Η Ινδία θέσπισε κανόνες φέτος που θα μπορούσαν να απαιτήσουν την προκαταρκτική προβολή περιεχομένου που έχει κριτική για την κυβερνητική πολιτική. Πρόσφατα η Ρωσία επέβαλε πρόστιμα στην Google, το Facebook και το Twitter επειδή δεν αφαίρεσαν υλικό διαμαρτυρίας υπέρ της δημοκρατίας.

Εντοπίσαμε και άλλες ελλείψεις. Η διαδικασία αντιστοίχισης περιεχομένου θα μπορούσε να έχει ψευδώς θετικά στοιχεία και οι κακόβουλοι χρήστες θα μπορούσαν να παίξουν το σύστημα για να υποβάλουν σε έλεγχο αθώους χρήστες.

Ήμασταν τόσο ενοχλημένοι που κάναμε ένα βήμα που δεν είχαμε ξαναδεί στη βιβλιογραφία της επιστήμης των υπολογιστών: Προειδοποιήσαμε ενάντια στο σχεδιασμό του δικού μας συστήματος, ζητώντας περαιτέρω έρευνα για το πώς να μετριαστούν τα σοβαρά μειονεκτήματα....

Η Apple συνέχισε να αντιμετωπίζει τις ανησυχίες των χρηστών σχετικά με τα σχέδιά της, δημοσίευση πρόσθετων εγγράφων και μια σελίδα FAQ . Η Apple συνεχίζει να πιστεύει ότι το σύστημα ανίχνευσης CSAM, το οποίο θα εμφανίζεται στη συσκευή ενός χρήστη, ευθυγραμμίζεται με τις μακροχρόνιες αξίες απορρήτου της.

Ετικέτες: Apple privacy , WashingtonPost.com , Λειτουργίες παιδικής ασφάλειας της Apple