Apple News

Η Apple παρουσιάζει νέες λειτουργίες ασφάλειας παιδιών, συμπεριλαμβανομένης της σάρωσης βιβλιοθηκών φωτογραφιών χρηστών για γνωστό υλικό σεξουαλικής κακοποίησης

Πέμπτη 5 Αυγούστου 2021 1:00 μ.μ. PDT από τον Joe Rossignol

Apple σήμερα προεπισκόπηση νέων χαρακτηριστικών ασφαλείας για παιδιά που θα έρθει στις πλατφόρμες της με ενημερώσεις λογισμικού αργότερα φέτος. Η εταιρεία είπε ότι οι δυνατότητες θα είναι διαθέσιμες στις ΗΠΑ μόνο κατά την κυκλοφορία και θα επεκταθούν σε άλλες περιοχές με την πάροδο του χρόνου.





λειτουργία ασφάλειας επικοινωνίας iphone

Ασφάλεια Επικοινωνίας

Πρώτον, η εφαρμογή Messages σε iPhone, iPad και Mac θα αποκτήσει μια νέα λειτουργία Ασφάλειας Επικοινωνίας για να προειδοποιεί τα παιδιά και τους γονείς τους όταν λαμβάνουν ή στέλνουν φωτογραφίες με σεξουαλικό περιεχόμενο. Η Apple είπε ότι η εφαρμογή Messages θα χρησιμοποιεί μηχανική εκμάθηση στη συσκευή για την ανάλυση των συνημμένων εικόνων και εάν μια φωτογραφία αποδειχθεί ότι είναι σεξουαλική, η φωτογραφία θα θολωθεί αυτόματα και το παιδί θα προειδοποιηθεί.



Πώς να κάνετε στιγμιότυπο οθόνης στο iphone 6s

Όταν ένα παιδί επιχειρήσει να δει μια φωτογραφία που έχει επισημανθεί ως ευαίσθητη στην εφαρμογή Μηνύματα, θα ειδοποιηθεί ότι η φωτογραφία μπορεί να περιέχει ιδιωτικά μέρη του σώματος και ότι η φωτογραφία μπορεί να είναι βλαβερή. Ανάλογα με την ηλικία του παιδιού, θα υπάρχει επίσης μια επιλογή για τους γονείς να λαμβάνουν ειδοποίηση εάν το παιδί τους προχωρήσει στην προβολή της ευαίσθητης φωτογραφίας ή εάν επιλέξει να στείλει μια σεξουαλική φωτογραφία σε άλλη επαφή μετά από προειδοποίηση.

Η Apple είπε ότι η νέα λειτουργία Ασφάλειας Επικοινωνίας θα κυκλοφορήσει σε ενημερώσεις στα iOS 15, iPadOS 15 και macOS Monterey αργότερα φέτος για λογαριασμούς που έχουν δημιουργηθεί ως οικογένειες στο iCloud. Η Apple διασφάλισε ότι οι συνομιλίες iMessage θα παραμείνουν προστατευμένες με κρυπτογράφηση από άκρο σε άκρο, καθιστώντας τις ιδιωτικές επικοινωνίες μη αναγνώσιμες από την Apple.

Σάρωση φωτογραφιών για υλικό σεξουαλικής κακοποίησης παιδιών (CSAM)

Δεύτερον, από φέτος με το iOS 15 και το iPadOS 15, η Apple θα μπορεί να ανιχνεύει γνωστές εικόνες σεξουαλικής κακοποίησης παιδιών (CSAM) που είναι αποθηκευμένες στο iCloud Photos, επιτρέποντας στην Apple να αναφέρει αυτές τις περιπτώσεις στο Εθνικό Κέντρο για Εξαφανισμένα και Θύματα Εκμετάλλευσης Παιδιών (NCMEC). , ένας μη κερδοσκοπικός οργανισμός που εργάζεται σε συνεργασία με τις υπηρεσίες επιβολής του νόμου των ΗΠΑ.

Η Apple είπε ότι η μέθοδος ανίχνευσης γνωστών CSAM έχει σχεδιαστεί με γνώμονα το απόρρητο των χρηστών. Αντί να σαρώνει εικόνες στο cloud, η Apple είπε ότι το σύστημα θα πραγματοποιήσει αντιστοίχιση στη συσκευή με μια βάση δεδομένων γνωστών κατακερματισμών εικόνας CSAM που παρέχονται από το NCMEC και άλλους οργανισμούς για την ασφάλεια των παιδιών. Η Apple είπε ότι θα μετατρέψει περαιτέρω αυτή τη βάση δεδομένων σε ένα μη αναγνώσιμο σύνολο κατακερματισμών που αποθηκεύεται με ασφάλεια στις συσκευές των χρηστών.

Η τεχνολογία κατακερματισμού, που ονομάζεται NeuralHash, αναλύει μια εικόνα και τη μετατρέπει σε έναν μοναδικό αριθμό συγκεκριμένο για αυτήν την εικόνα, σύμφωνα με την Apple.

«Ο κύριος σκοπός του κατακερματισμού είναι να διασφαλίσει ότι πανομοιότυπες και οπτικά παρόμοιες εικόνες έχουν ως αποτέλεσμα τον ίδιο κατακερματισμό, ενώ οι εικόνες που είναι διαφορετικές μεταξύ τους οδηγούν σε διαφορετικούς κατακερματισμούς», δήλωσε η Apple σε μια νέα λευκή βίβλο «Εκτεταμένες προστασίες για παιδιά». 'Για παράδειγμα, μια εικόνα που έχει ελαφρώς περικοπεί, αλλάξει μέγεθος ή έχει μετατραπεί από έγχρωμη σε ασπρόμαυρη αντιμετωπίζεται πανομοιότυπα με την αρχική της και έχει τον ίδιο κατακερματισμό.'

διάγραμμα ροής csam της Apple
Πριν αποθηκευτεί μια εικόνα στο iCloud Photos, η Apple είπε ότι εκτελείται μια διαδικασία αντιστοίχισης στη συσκευή για αυτήν την εικόνα έναντι του μη αναγνώσιμου συνόλου γνωστών κατακερματισμών CSAM. Εάν υπάρχει αντιστοιχία, η συσκευή δημιουργεί ένα κουπόνι κρυπτογραφικής ασφάλειας. Αυτό το κουπόνι μεταφορτώνεται στο iCloud Photos μαζί με την εικόνα και μόλις ξεπεραστεί ένα άγνωστο όριο αντιστοιχίσεων, η Apple μπορεί να ερμηνεύσει τα περιεχόμενα των κουπονιών για αγώνες CSAM. Στη συνέχεια, η Apple εξετάζει χειροκίνητα κάθε αναφορά για να επιβεβαιώσει ότι υπάρχει αντιστοιχία, απενεργοποιεί τον λογαριασμό iCloud του χρήστη και στέλνει μια αναφορά στο NCMEC. Η Apple δεν μοιράζεται ποιο είναι το ακριβές της όριο, αλλά διασφαλίζει ένα «εξαιρετικά υψηλό επίπεδο ακρίβειας» ότι οι λογαριασμοί δεν επισημαίνονται εσφαλμένα.

Η Apple είπε ότι η μέθοδος ανίχνευσης γνωστών CSAM παρέχει «σημαντικά οφέλη απορρήτου» σε σχέση με τις υπάρχουσες τεχνικές:

• Αυτό το σύστημα είναι ένας αποτελεσματικός τρόπος αναγνώρισης γνωστών CSAM που είναι αποθηκευμένες σε λογαριασμούς iCloud Photos, προστατεύοντας παράλληλα το απόρρητο των χρηστών.
• Ως μέρος της διαδικασίας, οι χρήστες δεν μπορούν επίσης να μάθουν τίποτα για το σύνολο των γνωστών εικόνων CSAM που χρησιμοποιούνται για αντιστοίχιση. Αυτό προστατεύει τα περιεχόμενα της βάσης δεδομένων από κακόβουλη χρήση.
• Το σύστημα είναι πολύ ακριβές, με εξαιρετικά χαμηλό ποσοστό σφάλματος μικρότερο από έναν στο ένα τρισεκατομμύριο λογαριασμό ετησίως.
• Το σύστημα προστατεύει σημαντικά το απόρρητο από τη σάρωση που βασίζεται σε σύννεφο, καθώς αναφέρει μόνο χρήστες που έχουν μια συλλογή γνωστών CSAM αποθηκευμένη στις Φωτογραφίες iCloud.

Η υποκείμενη τεχνολογία πίσω από το σύστημα της Apple είναι αρκετά περίπλοκη και έχει δημοσιεύσει ένα τεχνική περίληψη με περισσότερες λεπτομέρειες.

«Η διευρυμένη προστασία της Apple για τα παιδιά αλλάζει το παιχνίδι. Με τόσους πολλούς ανθρώπους που χρησιμοποιούν προϊόντα της Apple, αυτά τα νέα μέτρα ασφαλείας έχουν δυνατότητες σωτήρια για παιδιά που δελεάζονται στο διαδίκτυο και των οποίων οι φρικτές εικόνες κυκλοφορούν σε υλικό σεξουαλικής κακοποίησης παιδιών», δήλωσε ο John Clark, Πρόεδρος και Διευθύνων Σύμβουλος του Εθνικού Κέντρου για τους Αγνοούμενους. & Εκμεταλλευόμενα παιδιά. «Στο Εθνικό Κέντρο για τα Εξαφανισμένα & Εκμεταλλευόμενα Παιδιά γνωρίζουμε ότι αυτό το έγκλημα μπορεί να καταπολεμηθεί μόνο εάν είμαστε σταθεροί στην αφοσίωσή μας στην προστασία των παιδιών. Μπορούμε να το κάνουμε μόνο επειδή οι τεχνολογικοί συνεργάτες, όπως η Apple, εντείνονται και κάνουν γνωστή την αφοσίωσή τους. Η πραγματικότητα είναι ότι το απόρρητο και η προστασία των παιδιών μπορούν να συνυπάρχουν. Επικροτούμε την Apple και ανυπομονούμε να συνεργαστούμε για να κάνουμε αυτόν τον κόσμο ένα ασφαλέστερο μέρος για τα παιδιά».

Διευρυμένη καθοδήγηση CSAM στο Siri και την Αναζήτηση

iphone csam siri
Τρίτον, η Apple είπε ότι θα επεκτείνει την καθοδήγηση στο Siri και στο Spotlight Search σε όλες τις συσκευές παρέχοντας πρόσθετους πόρους για να βοηθήσει τα παιδιά και τους γονείς να παραμείνουν ασφαλείς στο διαδίκτυο και να λάβουν βοήθεια σε μη ασφαλείς καταστάσεις. Για παράδειγμα, οι χρήστες που ρωτούν τη Siri πώς μπορούν να αναφέρουν CSAM ή παιδική εκμετάλλευση θα υποδεικνύονται σε πόρους για το πού και πώς να υποβάλουν μια αναφορά.

Οι ενημερώσεις για το Siri και την Αναζήτηση έρχονται αργότερα φέτος σε μια ενημέρωση για iOS 15, iPadOS 15, watchOS 8 και macOS Monterey, σύμφωνα με την Apple.

Σημείωση: Λόγω της πολιτικής ή κοινωνικής φύσης της συζήτησης σχετικά με αυτό το θέμα, το νήμα συζήτησης βρίσκεται στο Πολιτικά Νέα δικαστήριο. Όλα τα μέλη του φόρουμ και οι επισκέπτες του ιστότοπου είναι ευπρόσδεκτοι να διαβάσουν και να ακολουθήσουν το νήμα, αλλά η ανάρτηση περιορίζεται σε μέλη του φόρουμ με τουλάχιστον 100 δημοσιεύσεις.

Ετικέτες: Απόρρητο της Apple , Λειτουργίες παιδικής ασφάλειας της Apple