Πρόσφατα, η Apple παρουσίασε μια νέα λειτουργία ασφάλειας παιδιών που μπορεί να σαρώσει εικόνες που σχετίζονται με σεξουαλική κακοποίηση παιδιών στις φωτογραφίες iCloud των χρηστών για λογαριασμό κυβερνήσεων. Ωστόσο, αυτή η απόφαση ακολουθήθηκε από έντονη κριτική από υπέρμαχους της ιδιωτικής ζωής.
Τώρα, αντιμετωπίζοντας την κριτική, το Reuters αναφέρει ότι ο τεχνολογικός γίγαντας διευκρίνισε ότι θα χρησιμοποιήσει τη λειτουργία για τη σάρωση εικόνων που “έχουν επισημανθεί από γραφεία εκκαθάρισης σε πολλές χώρες”. Το αυτοματοποιημένο σύστημα σάρωσης θα ειδοποιήσει την Apple μόνο όταν ξεπεράσει το αρχικό όριο των 30 εικόνων, έτσι ώστε ένας ανθρώπινος αναθεωρητής να μπορεί να διαχειριστεί το ζήτημα.
Η εταιρεία δήλωσε ότι ο αριθμός θα μειωθεί τελικά στο μέλλον. Επίσης, κατέστησε σαφές ότι η λίστα με τα αναγνωριστικά εικόνας είναι καθολική και θα είναι η ίδια για κάθε συσκευή στην οποία θα εφαρμοστεί.
Η Apple διευκρίνισε περαιτέρω ότι η εφαρμογή της παράγει μια κρυπτογραφημένη βάση δεδομένων με κατακερματισμένα μέσα στη συσκευή παιδιών για σεξουαλική κακοποίηση (CSAM) που αποκτήθηκε από τουλάχιστον δύο ή περισσότερους οργανισμούς που εργάζονται υπό την αιγίδα χωριστών εθνικών κυβερνήσεων.
Ο τεχνολογικός γίγαντας δεν είπε αν οι επιπτώσεις είχαν κάποιο αντίκτυπο στη θέση του, αλλά είπε ότι υπήρχε “σύγχυση” όσον αφορά τις αρχικές ανακοινώσεις του και επίσης, ότι το πρόγραμμα “είναι ακόμη σε εξέλιξη”.