Παράκαμψη προς το κυρίως περιεχόμενο
Εικόνα
21:39 | 16/08/2021

H Apple ανακοίνωσε ότι αναπτύσσει ένα σύστημα το οποίο θα εξετάζει φωτογραφίες πριν αυτές αναρτηθούν από τους κατόχους των iPhones στις ΗΠΑ στο online άλμπουμ αποθήκευσης εικόνων iCloud Photos. Στόχος είναι ο εντοπισμός φωτογραφιών σεξουαλικής κακοποίησης παιδιών.

Το σύστημα που ονομάζεται neuralMatch (νευρο-ταίριασμα) θα συγκρίνει τις φωτογραφίες που πρόκειται να αναρτηθούν από κάποιο κάτοχο iPhone με εικόνες από μια βάση δεδομένων με εικόνες παιδικής σεξουαλικής κακοποίησης.

Όταν το σύστημα εντοπίσει κάποια φωτογραφία που πληροί τα σχετικά κριτήρια στην συνέχεια θα αναλαμβάνει δράση το προσωπικό της εταιρείας που θα είναι επιφορτισμένο με αυτή την διαδικασία. Αν ο υπάλληλος της Apple διαπιστώσει ότι πράγματι μια φωτογραφία που επιχειρεί να αναρτήσει κάποιος αφορά κακοποίηση παιδιού η φωτογραφία θα αφαιρείται, ο λογαριασμός του ατόμου που έκανε την ανάρτηση θα μπλοκάρεται και θα ενημερώνεται αμέσως το Εθνικό Κέντρο Εξαφανισμένων και υπό Εκμετάλλευση Παιδιών των ΗΠΑ.

Όπως αναφέρει σε δημοσίευμα της η εφημερίδα Guardian η πρόθεση είναι καλή αλλά η εφαρμογή της κρύβει δυσκολίες και διαφόρων ειδών προβλήματα. Το σύστημα κάνει τεχνική αξιολόγηση ελέγχοντας με μαθηματικούς τύπους μια φωτογραφία που σχετίζεται με σεξουαλική κακοποίηση ή εκμετάλλευση παιδιών. Αν για παράδειγμα, κάποιος γονιός θελήσει να αναρτήσει μια φωτογραφία από το παιδί του την ώρα που αυτό κάνει μπάνιο το σύστημα θα θεωρήσει την φωτογραφία «ύποπτη». Δεδομένου ότι η σύγκριση θα γίνεται από συγκεκριμένη βάση δεδομένων πορνογραφικού υλικού μια τέτοια οικογενειακού χαρακτήρα φωτογραφία δεν θα μπλοκαριστεί τελικά αλλά είναι πιθανό ο γονιός που θέλησε να την αναρτήσει να δεχθεί ενοχλητικές ειδοποιήσεις.

Παράλληλα οργανώσεις ατομικών δικαιωμάτων αναφέρουν ότι η συγκεκριμένη τεχνολογία επί της ουσίας εισβάλει στο κινητό τηλέφωνο των χρηστών και μπορεί εύκολα να τροποποιηθεί με κακόβουλο τρόπο. Να χρησιμοποιηθεί δηλαδή αυτή η τεχνολογία για να αναζητά όχι παράνομο υλικό στο κινητό τηλέφωνο κάποιου ατόμου αλλά οτιδήποτε θέλει να μάθει ο χρήστης του συστήματος. Μεγάλος φόβος είναι να χρησιμοποιηθεί αυτή η τεχνολογία από κυβερνήσεις που θέλουν να ελέγχουν τους πολίτες τους.

«Τι θα γίνει αν η κυβέρνηση της Κίνας πάει στην Apple και της πει να αναζητήσει το σύστημα αυτό άλλου είδους αρχεία και δεδομένα από τα κινητά πολιτών της χώρας; Θα αρνηθεί η Apple; Ελπίζω να αρνηθεί αλλά η τεχνολογία της θα είναι εκεί και αυτή δεν θα μπορεί να αρνηθεί» ο Μάθιου Γκριν, ερευνητής κρυπτογραφίας στο Πανεπιστήμιο Τζονς Χόπκινς.

 

Η δύσκολη ισορροπία

Μεγάλες εταιρείες τεχνολογίας όπως η Microsoft, η Google και η Facebook συνεργάζονται στον τομέα ανάπτυξης τεχνολογίας εντοπισμού ψηφιακών αποτυπωμάτων φωτογραφιών παιδικής σεξουαλικής κακοποίησης. Όμως η απόφαση ώστε ο έλεγχος για την αναζήτηση τέτοιων εικόνων να γίνεται απευθείας στο κινητό τηλέφωνο ενός ατόμου είναι μια νέα εξέλιξη που προκάλεσε έκπληξη ακόμη και εντός της κοινότητας των μεγάλων τεχνολογικών εταιρειών.

Η Apple έκανε γνωστό επίσης ότι σχεδιάζει να ελέγχει τα κρυπτογραφημένα μηνύματα στέλνουν οι χρήστες της υπηρεσίας iMessage για να εντοπίζονται φωτογραφίες σεξουαλικής κακοποίησης. Στόχος της εταιρείας είναι να ειδοποιούνται άμεσα οι γονείς ανήλικων παιδιών ότι τα παιδιά έχουν δεχτεί στα κινητά τους φωτογραφίες σεξουαλικής κακοποίησης όπως επίσης θα ενημερώνονται οι γονείς σε περίπτωση που το παιδί τους στείλει με το κινητό του τέτοιες εικόνες.

Η Apple δέχεται πολλά χρόνια πιέσεις από τον Λευκό Οίκο για να επιτρέψει την παρακολούθηση κρυπτογραφημένων δεδομένων που αποστέλλονται με τις συσκευές της. Η εταιρεία προσπαθεί τώρα να ισορροπήσει ανάμεσα στην παρακολούθηση για εντοπισμό δεδομένων σεξουαλικής κακοποίησης ανηλίκων και την διατήρηση του προφίλ της προστάτιδος των προσωπικών δεδομένων των πελατών της και των χρηστών των υπηρεσιών της. 

www.protagon.gr

Policenet.gr © | 2022 Όροι Χρήσης.
developed by Pixelthis