μήλο ανακοινώθηκε σήμερα ότι με την έναρξη της iOS 15 και iPad 15 , θα ξεκινήσει η σάρωση Φωτογραφίες iCloud στις ΗΠΑ για να αναζητήσει γνωστό υλικό σεξουαλικής κακοποίησης παιδιών (CSAM), με σχέδια να αναφέρει τα ευρήματα στο Εθνικό Κέντρο για Εξαφανισμένα και Εκμεταλλευόμενα Παιδιά (NCMEC).
Πριν από όταν η Apple παρουσίασε λεπτομερώς τα σχέδιά της, διέρρευσαν νέα για την πρωτοβουλία CSAM και οι ερευνητές ασφάλειας έχουν ήδη αρχίσει να εκφράζουν ανησυχίες για το πώς θα μπορούσε να χρησιμοποιηθεί το νέο πρωτόκολλο σάρωσης εικόνας της Apple στο μέλλον, όπως σημειώνεται από Financial Times .
Η Apple χρησιμοποιεί ένα σύστημα «NeuralHash» για να συγκρίνει γνωστές εικόνες CSAM με φωτογραφίες ενός χρήστη iPhone πριν μεταφορτωθούν στο iCloud . Εάν υπάρχει αντιστοιχία, αυτή η φωτογραφία μεταφορτώνεται με ένα κουπόνι ασφάλειας κρυπτογράφησης και σε ένα συγκεκριμένο όριο, ενεργοποιείται μια αναθεώρηση για να ελεγχθεί εάν το άτομο έχει CSAM στις συσκευές του.
Πώς να μοιραστείτε την κάρτα επαφής στο iphone
Προς το παρόν, η Apple χρησιμοποιεί την τεχνολογία σάρωσης και αντιστοίχισης εικόνων για να αναζητήσει κακοποίηση παιδιών, αλλά οι ερευνητές ανησυχούν ότι στο μέλλον θα μπορούσε να προσαρμοστεί για να σαρώνει άλλα είδη εικόνων που είναι πιο ανησυχητικά, όπως αντικυβερνητικές πινακίδες στο διαμαρτυρίες.
Σε μια σειρά από tweets, ο ερευνητής κρυπτογραφίας Johns Hopkins Μάθιου Γκριν είπε ότι η σάρωση CSAM είναι μια «πολύ κακή ιδέα», επειδή στο μέλλον, θα μπορούσε να επεκταθεί στη σάρωση κρυπτογραφημένων φωτογραφιών από άκρο σε άκρο και όχι απλώς σε περιεχόμενο που μεταφορτώνεται στο iCloud. Για παιδιά, Apple είναι εφαρμόζοντας μια ξεχωριστή δυνατότητα σάρωσης που αναζητά σεξουαλικό περιεχόμενο απευθείας στα iMessages, τα οποία είναι κρυπτογραφημένα από άκρο σε άκρο.
Ο Green εξέφρασε επίσης ανησυχίες σχετικά με τους κατακερματισμούς που σκοπεύει να χρησιμοποιήσει η Apple επειδή θα μπορούσαν να υπάρξουν πιθανές «συγκρούσεις», όπου κάποιος στέλνει ένα αβλαβές αρχείο που μοιράζεται ένα κατακερματισμό με το CSAM και θα μπορούσε να οδηγήσει σε ψευδή σημαία.
Η Apple από την πλευρά της λέει ότι η τεχνολογία σάρωσης της έχει «εξαιρετικά υψηλό επίπεδο ακρίβειας» για να βεβαιωθεί ότι οι λογαριασμοί δεν επισημαίνονται σωστά και οι αναφορές ελέγχονται με μη αυτόματο τρόπο πριν από το iCloud Ο λογαριασμός είναι απενεργοποιημένος και μια αναφορά αποστέλλεται στο NCMEC.
Ο Green πιστεύει ότι η εφαρμογή της Apple θα ωθήσει άλλες εταιρείες τεχνολογίας να υιοθετήσουν παρόμοιες τεχνικές. «Αυτό θα σπάσει το φράγμα», έγραψε. «Οι κυβερνήσεις θα το απαιτήσουν από όλους». Συνέκρινε την τεχνολογία με «εργαλεία που έχουν αναπτύξει τα κατασταλτικά καθεστώτα».
Αυτά είναι κακά πράγματα. Δεν θέλω ιδιαίτερα να είμαι με το μέρος της παιδικής πορνογραφίας και δεν είμαι τρομοκράτης. Αλλά το πρόβλημα είναι ότι η κρυπτογράφηση είναι ένα ισχυρό εργαλείο που παρέχει απόρρητο και δεν μπορείτε πραγματικά να έχετε ισχυρό απόρρητο ενώ παρακολουθείτε επίσης κάθε εικόνα που στέλνει ο καθένας. — Μάθιου Γκριν (@matthew_d_green) 5 Αυγούστου 2021
Ο ερευνητής ασφαλείας Alec Muffett, ο οποίος εργαζόταν στο παρελθόν στο Facebook, είπε ότι η απόφαση της Apple να εφαρμόσει αυτό το είδος σάρωσης εικόνας ήταν ένα «τεράστιο και οπισθοδρομικό βήμα για την ιδιωτική ζωή του ατόμου». «Η Apple περιορίζει την ιδιωτικότητα για να ενεργοποιήσει το 1984», είπε.
Ο Ρος Άντερσον, καθηγητής Μηχανικής Ασφαλείας στο Πανεπιστήμιο του Κέιμπριτζ είπε ότι την αποκάλεσε μια «απολύτως φρικτή ιδέα» που θα μπορούσε να οδηγήσει σε «κατανεμημένη μαζική επιτήρηση» συσκευών.
Όπως πολλοί έχουν επισημάνει στο Twitter, πολλές εταιρείες τεχνολογίας ήδη κάνουν σάρωση εικόνων για CSAM. Η Google, το Twitter, η Microsoft, το Facebook και άλλοι χρησιμοποιούν μεθόδους κατακερματισμού εικόνων για να αναζητήσουν και να αναφέρουν γνωστές εικόνες κακοποίησης παιδιών.
Και αν αναρωτιέστε αν η Google σαρώνει εικόνες για εικόνες κακοποίησης παιδιών, απάντησα ότι στην ιστορία που έγραψα πριν από οκτώ χρόνια: το κάνει αυτό **ΑΠΟ ΤΟ 2008**. Ίσως καθίσουν όλοι και ξαναβάλετε τα καπέλα σας. pic.twitter.com/ruJ4Z8SceY - Τσαρλς Άρθουρ (@charlesarthur) 5 Αυγούστου 2021
Αξίζει επίσης να σημειωθεί ότι η Apple ήταν ήδη σάρωση κάποιου περιεχομένου για εικόνες κακοποίησης παιδιών πριν από την κυκλοφορία της νέας πρωτοβουλίας CSAM. Το 2020, η διευθύντρια προστασίας προσωπικών δεδομένων της Apple, Τζέιν Χόρβαθ, δήλωσε ότι η Apple χρησιμοποίησε τεχνολογία ελέγχου για να αναζητήσει παράνομες εικόνες και στη συνέχεια απενεργοποιεί τους λογαριασμούς εάν εντοπιστούν στοιχεία CSAM.
Πώς να ελευθερώσετε χώρο στο δίσκο στο iphone
Apple το 2019 ενημέρωσε τις πολιτικές απορρήτου της να σημειώσουμε ότι θα σάρωνε το ανεβασμένο περιεχόμενο για «δυνητικά παράνομο περιεχόμενο, συμπεριλαμβανομένου υλικού σεξουαλικής εκμετάλλευσης παιδιών», επομένως οι σημερινές ανακοινώσεις δεν είναι εντελώς νέες.
Σημείωση: Λόγω της πολιτικής ή κοινωνικής φύσης της συζήτησης σχετικά με αυτό το θέμα, το νήμα συζήτησης βρίσκεται στο Πολιτικά Νέα δικαστήριο. Όλα τα μέλη του φόρουμ και οι επισκέπτες του ιστότοπου είναι ευπρόσδεκτοι να διαβάσουν και να ακολουθήσουν το νήμα, αλλά η ανάρτηση περιορίζεται σε μέλη του φόρουμ με τουλάχιστον 100 δημοσιεύσεις.
Ετικέτες: Απόρρητο της Apple , Λειτουργίες παιδικής ασφάλειας της Apple
Δημοφιλείς Αναρτήσεις