Apple News

Ερευνητές ασφαλείας εκφράζουν συναγερμό για τα σχέδια της Apple να σαρώσει εικόνες iCloud, αλλά η πρακτική είναι ήδη ευρέως διαδεδομένη

Πέμπτη 5 Αυγούστου 2021 2:04 μ.μ. PDT από την Juli Clover

μήλο ανακοινώθηκε σήμερα ότι με την έναρξη της iOS 15 και iPad 15 , θα ξεκινήσει η σάρωση Φωτογραφίες iCloud στις ΗΠΑ για να αναζητήσει γνωστό υλικό σεξουαλικής κακοποίησης παιδιών (CSAM), με σχέδια να αναφέρει τα ευρήματα στο Εθνικό Κέντρο για Εξαφανισμένα και Εκμεταλλευόμενα Παιδιά (NCMEC).





Λειτουργία ασφάλειας παιδιών
Πριν από όταν η Apple παρουσίασε λεπτομερώς τα σχέδιά της, διέρρευσαν νέα για την πρωτοβουλία CSAM και οι ερευνητές ασφάλειας έχουν ήδη αρχίσει να εκφράζουν ανησυχίες για το πώς θα μπορούσε να χρησιμοποιηθεί το νέο πρωτόκολλο σάρωσης εικόνας της Apple στο μέλλον, όπως σημειώνεται από Financial Times .

Η Apple χρησιμοποιεί ένα σύστημα «NeuralHash» για να συγκρίνει γνωστές εικόνες CSAM με φωτογραφίες ενός χρήστη iPhone πριν μεταφορτωθούν στο iCloud . Εάν υπάρχει αντιστοιχία, αυτή η φωτογραφία μεταφορτώνεται με ένα κουπόνι ασφάλειας κρυπτογράφησης και σε ένα συγκεκριμένο όριο, ενεργοποιείται μια αναθεώρηση για να ελεγχθεί εάν το άτομο έχει CSAM στις συσκευές του.



Πώς να μοιραστείτε την κάρτα επαφής στο iphone

Προς το παρόν, η Apple χρησιμοποιεί την τεχνολογία σάρωσης και αντιστοίχισης εικόνων για να αναζητήσει κακοποίηση παιδιών, αλλά οι ερευνητές ανησυχούν ότι στο μέλλον θα μπορούσε να προσαρμοστεί για να σαρώνει άλλα είδη εικόνων που είναι πιο ανησυχητικά, όπως αντικυβερνητικές πινακίδες στο διαμαρτυρίες.

Σε μια σειρά από tweets, ο ερευνητής κρυπτογραφίας Johns Hopkins Μάθιου Γκριν είπε ότι η σάρωση CSAM είναι μια «πολύ κακή ιδέα», επειδή στο μέλλον, θα μπορούσε να επεκταθεί στη σάρωση κρυπτογραφημένων φωτογραφιών από άκρο σε άκρο και όχι απλώς σε περιεχόμενο που μεταφορτώνεται στο ‌iCloud‌. Για παιδιά, Apple είναι εφαρμόζοντας μια ξεχωριστή δυνατότητα σάρωσης που αναζητά σεξουαλικό περιεχόμενο απευθείας στα iMessages, τα οποία είναι κρυπτογραφημένα από άκρο σε άκρο.

Ο Green εξέφρασε επίσης ανησυχίες σχετικά με τους κατακερματισμούς που σκοπεύει να χρησιμοποιήσει η Apple επειδή θα μπορούσαν να υπάρξουν πιθανές «συγκρούσεις», όπου κάποιος στέλνει ένα αβλαβές αρχείο που μοιράζεται ένα κατακερματισμό με το CSAM και θα μπορούσε να οδηγήσει σε ψευδή σημαία.

Η Apple από την πλευρά της λέει ότι η τεχνολογία σάρωσης της έχει «εξαιρετικά υψηλό επίπεδο ακρίβειας» για να βεβαιωθεί ότι οι λογαριασμοί δεν επισημαίνονται σωστά και οι αναφορές ελέγχονται με μη αυτόματο τρόπο πριν από το ‌iCloud‌ Ο λογαριασμός είναι απενεργοποιημένος και μια αναφορά αποστέλλεται στο NCMEC.

Ο Green πιστεύει ότι η εφαρμογή της Apple θα ωθήσει άλλες εταιρείες τεχνολογίας να υιοθετήσουν παρόμοιες τεχνικές. «Αυτό θα σπάσει το φράγμα», έγραψε. «Οι κυβερνήσεις θα το απαιτήσουν από όλους». Συνέκρινε την τεχνολογία με «εργαλεία που έχουν αναπτύξει τα κατασταλτικά καθεστώτα».


Ο ερευνητής ασφαλείας Alec Muffett, ο οποίος εργαζόταν στο παρελθόν στο Facebook, είπε ότι η απόφαση της Apple να εφαρμόσει αυτό το είδος σάρωσης εικόνας ήταν ένα «τεράστιο και οπισθοδρομικό βήμα για την ιδιωτική ζωή του ατόμου». «Η Apple περιορίζει την ιδιωτικότητα για να ενεργοποιήσει το 1984», είπε.

Ο Ρος Άντερσον, καθηγητής Μηχανικής Ασφαλείας στο Πανεπιστήμιο του Κέιμπριτζ είπε ότι την αποκάλεσε μια «απολύτως φρικτή ιδέα» που θα μπορούσε να οδηγήσει σε «κατανεμημένη μαζική επιτήρηση» συσκευών.

Όπως πολλοί έχουν επισημάνει στο Twitter, πολλές εταιρείες τεχνολογίας ήδη κάνουν σάρωση εικόνων για CSAM. Η Google, το Twitter, η Microsoft, το Facebook και άλλοι χρησιμοποιούν μεθόδους κατακερματισμού εικόνων για να αναζητήσουν και να αναφέρουν γνωστές εικόνες κακοποίησης παιδιών.


Αξίζει επίσης να σημειωθεί ότι η Apple ήταν ήδη σάρωση κάποιου περιεχομένου για εικόνες κακοποίησης παιδιών πριν από την κυκλοφορία της νέας πρωτοβουλίας CSAM. Το 2020, η διευθύντρια προστασίας προσωπικών δεδομένων της Apple, Τζέιν Χόρβαθ, δήλωσε ότι η Apple χρησιμοποίησε τεχνολογία ελέγχου για να αναζητήσει παράνομες εικόνες και στη συνέχεια απενεργοποιεί τους λογαριασμούς εάν εντοπιστούν στοιχεία CSAM.

Πώς να ελευθερώσετε χώρο στο δίσκο στο iphone

Apple το 2019 ενημέρωσε τις πολιτικές απορρήτου της να σημειώσουμε ότι θα σάρωνε το ανεβασμένο περιεχόμενο για «δυνητικά παράνομο περιεχόμενο, συμπεριλαμβανομένου υλικού σεξουαλικής εκμετάλλευσης παιδιών», επομένως οι σημερινές ανακοινώσεις δεν είναι εντελώς νέες.

Σημείωση: Λόγω της πολιτικής ή κοινωνικής φύσης της συζήτησης σχετικά με αυτό το θέμα, το νήμα συζήτησης βρίσκεται στο Πολιτικά Νέα δικαστήριο. Όλα τα μέλη του φόρουμ και οι επισκέπτες του ιστότοπου είναι ευπρόσδεκτοι να διαβάσουν και να ακολουθήσουν το νήμα, αλλά η ανάρτηση περιορίζεται σε μέλη του φόρουμ με τουλάχιστον 100 δημοσιεύσεις.

Ετικέτες: Απόρρητο της Apple , Λειτουργίες παιδικής ασφάλειας της Apple