Οι Financial Times αναφέρουν ότι η Apple εργάζεται σε ένα σύστημα που θα σαρώσει φωτογραφίες στο iPhone σας για εικόνες κακοποίησης παιδιών και στη συνέχεια θα επικοινωνήσει με την αστυνομία εάν εντοπιστεί.
Το λεγόμενο σύστημα neural Match έχει εκπαιδευτεί σε μια βάση δεδομένων από το Εθνικό Κέντρο για τα Αγνοούμενα και Εκμεταλλευόμενα Παιδιά και οι φωτογραφίες στο ακουστικό σας και οι οποίες φορτώνονται στο iCloud θα σαρώνονται συνεχώς.
Εάν εντοπιστεί μια εικόνα που υποδηλώνει κατάχρηση, η εικόνα θα παραπεμφθεί σε μια ομάδα ανθρώπινων αναθεωρητών που θα ειδοποιήσουν στη συνέχεια την επιβολή του νόμου εάν επαληθευτεί μια εικόνα.
Το σύστημα θα ήταν αρχικά μόνο για τις ΗΠΑ.
Η Apple φυσικά δεν κάνει κάτι διαφορετικό από άλλες εταιρείες αποθήκευσης cloud, αν και οι σαρώσεις στη συσκευή αποτελούν εξαίρεση.
Στο έγγραφο υποστήριξής τους η Apple εξηγεί τα οφέλη:
“Η Apple δεν μαθαίνει τίποτα για εικόνες που δεν ταιριάζουν με τη γνωστή βάση δεδομένων CSAM.
Η Apple δεν μπορεί να έχει πρόσβαση σε μεταδεδομένα ή οπτικά παράγωγα για αντιστοιχισμένες εικόνες CSAM έως ότου ξεπεραστεί το όριο αντιστοίχισης για λογαριασμό iCloud Photos.
Ο κίνδυνος λανθασμένης επισήμανσης ενός λογαριασμού από το σύστημα είναι εξαιρετικά χαμηλός. Επιπλέον, η Apple ελέγχει με μη αυτόματο τρόπο όλες τις αναφορές που υποβάλλονται στο NCMEC για να διασφαλιστεί η ακρίβεια των αναφορών.
Οι χρήστες δεν μπορούν να έχουν πρόσβαση ή να δουν τη βάση δεδομένων των γνωστών εικόνων CSAM.
Οι χρήστες δεν μπορούν να προσδιορίσουν ποιες εικόνες επισημάνθηκαν ως CSAM από το σύστημα”.
Το μεγάλο μέλημα φυσικά είναι τα στοιχεία που θα θεωρηθούν κακαποίηση και δεν θα είναι και η πιθανή συνέπεια αυτών. Ενώ η Apple λέει ότι ο κίνδυνος είναι «εξαιρετικά χαμηλός», λόγω του νόμου των μεγάλων αριθμών, εάν ο κίνδυνος είναι 1 στα 1 εκατομμύρια, θα σημαίνει ότι 1000 από τα δισεκατομμύρια χρήστες iPhone της Apple ενδέχεται να καταλήξουν να εξηγηθούν στην αστυνομία παρά το γεγονός ότι δεν το έκαναν οτιδήποτε λάθος.