Apple News

Ο Craig Federighi αναγνωρίζει τη σύγχυση σχετικά με τα χαρακτηριστικά της Apple για την ασφάλεια των παιδιών και εξηγεί νέες λεπτομέρειες σχετικά με τις διασφαλίσεις

Παρασκευή 13 Αυγούστου 2021 7:33 π.μ. PDT από τον Hartley Charlton

Ο ανώτερος αντιπρόεδρος μηχανικής λογισμικού της Apple, Craig Federighi, υπερασπίστηκε σήμερα το αμφιλεγόμενο σχέδιο της εταιρείας χαρακτηριστικά παιδικής ασφάλειας σε μια σημαντική συνέντευξη με Η Wall Street Journal , αποκαλύπτοντας μια σειρά από νέες λεπτομέρειες σχετικά με τις διασφαλίσεις που είναι ενσωματωμένες στο σύστημα της Apple για τη σάρωση των βιβλιοθηκών φωτογραφιών των χρηστών για υλικό σεξουαλικής κακοποίησης παιδιών (CSAM).





craig wwdc 2021 ιδιωτικότητα
Ο Federighi παραδέχτηκε ότι η Apple είχε χειριστεί την προηγούμενη εβδομάδα ανακοίνωση από τα δύο νέα χαρακτηριστικά κακώς, που σχετίζονται με τον εντοπισμό ακατάλληλου περιεχομένου στα Μηνύματα για παιδιά και το περιεχόμενο CSAM που είναι αποθηκευμένο σε Φωτογραφίες iCloud βιβλιοθήκες και αναγνώρισε την εκτεταμένη σύγχυση γύρω από τα εργαλεία:

Είναι πραγματικά ξεκάθαρο ότι πολλά μηνύματα μπερδεύτηκαν πολύ άσχημα ως προς το πώς έγιναν κατανοητά τα πράγματα. Ευχόμαστε αυτό να είχε βγει λίγο πιο ξεκάθαρο για όλους γιατί νιώθουμε πολύ θετικά και έντονα για αυτό που κάνουμε.



πώς να βρείτε εφαρμογές που διαγράψατε στο iphone

[...]

Εκ των υστέρων, η ταυτόχρονη εισαγωγή αυτών των δύο χαρακτηριστικών ήταν μια συνταγή για αυτό το είδος σύγχυσης. Με την κυκλοφορία τους την ίδια στιγμή, οι άνθρωποι τους συνέδεσαν τεχνικά και τρόμαξαν πολύ: τι συμβαίνει με τα μηνύματά μου; Η απάντηση είναι...δεν συμβαίνει τίποτα με τα μηνύματά σας.

Η λειτουργία Communications Safety σημαίνει ότι εάν τα παιδιά στείλουν ή λάβουν ακατάλληλες εικόνες μέσω iMessage, θα προειδοποιηθούν πριν το δουν, η εικόνα θα είναι θολή και θα υπάρχει μια επιλογή για ειδοποίηση των γονιών τους. Η σάρωση CSAM, από την άλλη πλευρά, επιχειρεί να αντιστοιχίσει τις φωτογραφίες των χρηστών με τις κατακερματισμένες εικόνες του γνωστού CSAM πριν μεταφορτωθούν στο iCloud . Οι λογαριασμοί στους οποίους έχει εντοπιστεί CSAM θα ​​υπόκεινται σε μη αυτόματο έλεγχο από την Apple και ενδέχεται να αναφερθούν στο Εθνικό Κέντρο για τα εξαφανισμένα και υπό εκμετάλλευση Παιδιά (NCMEC).

πόσο είναι το apple iphone 12

Τα νέα χαρακτηριστικά έχουν δεχθεί μεγάλη κριτική από τους χρήστες, ερευνητές ασφαλείας , ο Electronic Frontier Foundation (EFF) και Edward Snowden , Ο πρώην επικεφαλής ασφαλείας του Facebook , και ακόμα Υπάλληλοι της Apple .

Εν μέσω αυτών των επικρίσεων, ο Federighi αναφέρθηκε σε έναν από τους κύριους τομείς ανησυχίας, τονίζοντας ότι το σύστημα της Apple θα προστατεύεται από την εκμετάλλευση του από κυβερνήσεις ή άλλα τρίτα μέρη με «πολλαπλά επίπεδα ελέγχου».


Ο Federighi αποκάλυψε επίσης μια σειρά από νέες λεπτομέρειες σχετικά με τις διασφαλίσεις του συστήματος, όπως το γεγονός ότι ένας χρήστης θα χρειαστεί να συναντήσει περίπου 30 αντιστοιχίσεις για περιεχόμενο CSAM στο Φωτογραφίες βιβλιοθήκη πριν ειδοποιηθεί η Apple, οπότε θα επιβεβαιώσει εάν αυτές οι εικόνες φαίνονται να είναι αυθεντικές περιπτώσεις CSAM.

Εάν και μόνο αν συναντήσετε ένα όριο για κάτι της τάξης των 30 γνωστών εικόνων παιδικής πορνογραφίας που ταιριάζουν, μόνο τότε η Apple γνωρίζει οτιδήποτε για τον λογαριασμό σας και γνωρίζει οτιδήποτε για αυτές τις εικόνες, και σε εκείνο το σημείο, ξέρει μόνο για αυτές τις εικόνες, όχι για οποιαδήποτε άλλη εικόνα σας. Αυτό δεν κάνει κάποια ανάλυση γιατί είχατε μια φωτογραφία του παιδιού σας στην μπανιέρα; Ή, για αυτό το θέμα, είχατε μια φωτογραφία κάποιας πορνογραφίας οποιουδήποτε άλλου είδους; Αυτό κυριολεκτικά ταιριάζει μόνο με τα ακριβή δακτυλικά αποτυπώματα συγκεκριμένων γνωστών παιδικών πορνογραφικών εικόνων.

Επεσήμανε επίσης το πλεονέκτημα ασφαλείας της τοποθέτησης της διαδικασίας αντιστοίχισης στο iPhone απευθείας, αντί να εμφανίζεται στους διακομιστές του ‌iCloud‌.

Επειδή είναι στο [τηλέφωνο], οι ερευνητές ασφαλείας είναι συνεχώς σε θέση να εσωστρέφουν τι συμβαίνει στο λογισμικό [τηλέφωνο] της Apple. Επομένως, εάν έγιναν οποιεσδήποτε αλλαγές που επρόκειτο να επεκτείνουν το εύρος αυτού κατά κάποιο τρόπο —με τρόπο που είχαμε δεσμευτεί να μην το κάνουμε— υπάρχει δυνατότητα επαλήθευσης, μπορούν να εντοπίσουν ότι συμβαίνει αυτό.

Όταν ρωτήθηκε εάν η βάση δεδομένων των εικόνων που χρησιμοποιούνται για την αντιστοίχιση περιεχομένου CSAM στις συσκευές των χρηστών θα μπορούσε να παραβιαστεί με την εισαγωγή άλλων υλικών, όπως πολιτικό περιεχόμενο σε ορισμένες περιοχές, ο Federighi εξήγησε ότι η βάση δεδομένων έχει κατασκευαστεί από γνωστές εικόνες CSAM από πολλούς οργανισμούς ασφάλειας παιδιών. με τουλάχιστον δύο να βρίσκονται «σε διακριτές δικαιοδοσίες», για προστασία από κατάχρηση του συστήματος.

πώς να βρείτε airpods με κλειστή θήκη

Αυτές οι οργανώσεις προστασίας των παιδιών, καθώς και ένας ανεξάρτητος ελεγκτής, θα μπορούν να επαληθεύσουν ότι η βάση δεδομένων των εικόνων αποτελείται μόνο από περιεχόμενο από αυτές τις οντότητες, σύμφωνα με τον Federighi.

Η συνέντευξη του Federighi είναι μία από τις μεγαλύτερες δημόσιες αντιδράσεις από την Apple μέχρι στιγμής μετά την ανάμεικτη δημόσια ανταπόκριση στην ανακοίνωση των χαρακτηριστικών ασφαλείας για παιδιά, αλλά η εταιρεία έχει επίσης προσπαθήσει επανειλημμένα να αντιμετώπιση των ανησυχιών των χρηστών , δημοσίευση ενός FAQ και την άμεση αντιμετώπιση των ανησυχιών σε συνεντεύξεις στα ΜΜΕ .

Ετικέτες: The Wall Street Journal , Craig Federighi , Λειτουργίες παιδικής ασφάλειας της Apple