...

Roskachevo ha commentato lo scandalo Apple

Apple ha annunciato che la prossima versione di iOS a partire dalla versione 15 controllerà automaticamente i messaggi inviati dai bambini e scansionerà le foto degli utenti in iCloud per cercare materiale pedopornografico e impedire la distribuzione di tali file. L’iniziativa è stata accolta da proteste di massa in Occidente. I tabloid rimproverano alla società di voler hackerare i telefoni e le foto personali degli utenti con pretesti plausibili.

immagine_7

Sergey Kuzmenko, specialista senior del Centro di competenza digitale del Roskachestvo per il collaudo dei prodotti digitali

Il problema dello sfruttamento sessuale dei minori che Apple sta cercando di affrontare è molto grave e acuto, sia per gli Stati Uniti che per il resto del mondo”. Inoltre, l’implementazione della tecnologia di analisi delle immagini – almeno secondo la descrizione attuale dell’azienda – comporta la massima privacy e sicurezza per i possessori di dispositivi Apple”.

Per quanto si può capire, funzionerà in questo modo:

1 L’azienda controllerà nella fase di messaggistica se un bambino sta inviando a qualcuno una foto candida, quindi visualizzerà alcuni avvisi e avviserà i genitori. La protezione dei bambini in iMessage funzionerà solo sugli account familiari con bambini di età non superiore ai 12 anni e dovrà essere attivata manualmente. Nessuna informazione sarà fornita alle autorità.

2 I servizi di ricerca Siri e Search saranno dotati di elenchi di parole in codice e di query relative alla pornografia infantile, dopodiché gli utenti che eseguono tali query riceveranno una targa che li avverte della nocività di tali interessi e dei link a siti partner per ottenere aiuto. Resta da vedere se tali richieste saranno trasmesse alle autorità.

3 La parte più scandalosa: quando si caricano le foto su iCloud se la funzione è attivata, avviene automaticamente , la rete neurale dell’azienda scansiona le foto prima che vengano caricate e le confronta con un database esistente di materiale pedopornografico. Allo stesso tempo, le foto saranno sottoposte a hashing cioè convertite in una sequenza di caratteri che non può essere decifrata da estranei , e l’algoritmo le confronterà con il database, anch’esso composto da catene di caratteri simili. Il processo è automatico e solo in caso di corrispondenza con campioni noti interviene un moderatore umano.

4 Nel caso in cui un utente risulti avere immagini note in multipli, o si ripeta un episodio di caricamento di tali foto, Apple si riserva il diritto di trasmettere i dati alle autorità competenti. L’azienda sottolinea che se un utente ha disabilitato il caricamento, il sistema non funzionerà e la funzione non controllerà la libreria fotografica privata del dispositivo.

Naturalmente, rimangono dubbi sulla misura in cui l’azienda seguirà le regole sulla privacy dichiarate, se la tecnologia di riconoscimento sia effettivamente infallibile e se in futuro verrà utilizzata per altri scopi. Nella sua forma attuale, tuttavia, il potenziale riconoscimento dei conti dei pedofili è visto come un vantaggio.

Si noti inoltre che la funzione inizia solo negli Stati Uniti, mentre negli altri Paesi sarà introdotta gradualmente, tenendo conto del quadro giuridico locale.

Vota questo articolo
( Non ci sono ancora valutazioni )
Alberto Martini

Fin dalla mia infanzia, ho dimostrato una predisposizione per la comprensione della tecnologia e la curiosità verso il funzionamento delle attrezzature. Crescendo, il mio interesse si è trasformato in una passione per la manutenzione e la riparazione di dispositivi elettronici e meccanici.

Elettrodomestici bianchi. TV. Computer. Attrezzatura fotografica. Recensioni e test. Come scegliere e acquistare.
Comments: 2
  1. Isabella

    Come ha reagito il pubblico all’ultimo scandalo di Apple?

    Rispondi
  2. Camilla Villa

    Mi chiedo quale sia il tuo punto di vista sullo scandalo Apple di cui parla Roskachevo nel suo commento. Ti interessa la questione? Se sì, quali sono i tuoi pensieri al riguardo?

    Rispondi
Aggiungi commenti