Guai per Google, violata la privacy di 1,6 milioni di pazienti

La Royal Free National Health Security (NHS) Foundation Trust è un partenariato pubblico-privato di Londra, che investe in medicina e tecnologia medica nella sanità pubblica d’oltremanica. La NHS è nell’occhio del ciclone, a causa di una inchiesta della ICO, ossia l’organo indipendente del Regno Unito istituito per salvaguardare i diritti d’informazione. Questa ha rilevato un comportamento illegale dell’organizzazione, la quale non avrebbe rispettato la legge sulla privacy fornendo dati e dettagli di 1,6 milioni di pazienti a Google. Il colosso di Mountain View li avrebbe poi utilizzati nel suo programma di intelligenza artificiale, DeepMind.

Google avrebbe richiesto alla NHS questa enorme mole di dati per poter testare un sistema di medicina predittiva grazie a DeepMind, al fine di rilevare e diagnosticare lesioni renali acute. L’inchiesta della ICO ha riscontrato numerose carenze nel trattamento dei dati da parte di Google e della fondazione londinese. I pazienti erano all’oscuro di tutto, poiché non adeguatamente informati sulla sorte dei loro dati, utilizzati come oggetto di test.

«Abbiamo chiesto alla NHS e a Google di impegnarsi per apportare modifiche ai moduli sottoposti ai pazienti, per informarli con trasparenza su come vengono trattati i loro dati – afferma Elizabeth Denham, della commissione ICO -. La legge sulla privacy non è una barriera all’innovazione, ma non può essere bypassata.Il prezzo dell’innovazione non deve essere l’erosione dei diritti fondamentali della privacy».

Google e NHS dovranno ora stabilire una base giuridica adeguata rispettando la legge sulla protezione dei dati per il progetto DeepMind e per eventuali sperimentazioni future. Dovranno inoltre fornire al governo britannico una valutazione completa dell’impatto delle sperimentazioni sulla privacy dei pazienti, e dell’utilizzo dei dati con l’intelligenza artificiale, i cui risultati saranno sempre condivisi con il Commissario per l’informazione. (fonte)

You may also like...