Les éléments clés du programme initialement proposé de données de pratique générale pour la planification et la recherche (GPDPR) visant à collecter des données sur les patients auprès des médecins généralistes en Angleterre afin d’améliorer les soins de première ligne dans le NHS ont été qualifiés de «faux» et d’«erreur» par l’un des Royaume-Uni autorités, le scientifique le plus connu.
Le programme GPDPR a été vivement critiqué l’année dernière par des experts de la confidentialité et d’autres, qui ont déclaré qu’il posait un risque de sécurité inacceptable et que le public n’avait pas été correctement informé des plans.
Si elle avait continué dans sa forme originale, la base de données résultante aurait contenu des quantités importantes d’informations personnellement identifiables (PII) de millions de personnes, y compris des diagnostics, des symptômes, des observations, des résultats de tests, des médicaments, des allergies, des vaccinations, des références, des rappels et des rendez-vous. .
Il aurait également inclus des informations sur la santé physique, mentale et sexuelle, des données sur le sexe, l’origine ethnique et l’orientation sexuelle, et des données sur le personnel qui a traité des patients.
Cependant, il a finalement été abandonné après le tollé qui a conduit de nombreuses personnes à exercer leur droit de retrait.
Ben Goldacre, professeur de médecine factuelle et directeur du Bennett Institute for Applied Data Science, a prouvé les résultats de son examen de l’utilisation des données de santé pour la recherche et l’analyse devant le comité parlementaire sur la science et la technologie cette semaine à l’Université d’Oxford , affirmant que c’était une erreur de lancer un programme aussi énorme sans indiquer clairement au public quelles mesures de protection seraient prises.
Goldacre, qui est également un écrivain scientifique bien connu et commentateur fréquent de la science et de la technologie, a déclaré: «Je pense que l’ensemble de données national GP est si granulaire et si complet dans sa couverture qu’il ne serait pas approprié de le partager en dehors du TRE. [trusted research environment].
« Je dirais qu’il était erroné d’essayer de lancer un tel programme avant de s’être engagé à ce que tous les accès aux données ne se fassent que via un environnement de recherche fiable. »
Goldacre a déclaré au comité qu’il faisait partie de ceux qui avaient retiré leur consentement à l’inclusion de leurs données.
« Je l’ai fait parce que j’en sais tellement sur la façon dont ces données sont utilisées et sur la façon dont les gens peuvent être anonymisés », a-t-il déclaré, « et en partie parce que dans le passé, j’ai été plus public sur le fait de m’abstenir de prendre des engagements publics, et J’ai des amis dont les données ont été consultées illégalement via des dossiers nationaux, pas des dossiers de santé.
« Je suppose que parce que je travaille dans ce domaine, les risques pour moi sont très élevés. »
Goldacre a déclaré que le processus de pseudonymisation des données pour la diffusion présentait de graves défauts qui posaient des risques pour la vie privée qui n’étaient pas correctement traités.
« Parce que nous avons adopté une approche assez chaotique et ad hoc pour accéder aux données par le biais de la diffusion, nous constatons maintenant un manque de personnes effectuant un bon travail sur les données », a-t-il déclaré.
Bien que Goldacre ait déclaré qu’il était extrêmement raisonnable et sensé d’avoir accès aux dossiers sécurisés des patients à des fins de planification et de recherche, il se peut qu’il y ait eu une tendance aux niveaux supérieurs à être victimes de la « pensée de groupe », bien qu’il ait ajouté qu’il y avait été rapidement réglé comme dès que des inquiétudes ont été exprimées.
« Alors que moi et d’autres personnes impliquées dans l’examen avons commencé à soulever des inquiétudes à ce sujet, il était évident que souvent les personnes occupant des rôles de bas niveau et techniques dans le système levaient la main ou envoyaient un e-mail ou appelaient pour dire : « Je suis vraiment content que vous l’ayez fait ». J’ai dit cela parce que j’ai été surpris de voir à quel point les gens n’ont pas vraiment abordé les lacunes de ces approches », a-t-il déclaré.
Goldacre a ajouté que l’engagement du gouvernement à resserrer les règles avant le début du grattage des données est bienvenu, en particulier la promesse de fournir un TRE où les chercheurs agréés peuvent travailler en toute sécurité avec des données pseudonymisées.
« Si je comprends bien, c’est la politique actuelle, nous avons donc un avenir très positif devant nous, en partie parce que les environnements de recherche fiables atténuent non seulement les risques pour la vie privée – ils créent également un environnement beaucoup plus productif pour travailler avec les données », a-t-il déclaré. .
Commentant davantage un projet de loi actuellement devant la législature néo-zélandaise qui criminaliserait la désanonymisation des données, Goldacre a déclaré qu’il croyait fermement que des barrières juridiques devraient être mises en place pour empêcher l’utilisation abusive des données des patients au sein de la communauté et empêcher les TRE planifiés.
« Vous devez bloquer les personnes qui abusent des données, assurez-vous de savoir quand elles le font et assurez-vous que les sanctions sont suffisamment élevées pour que l’on en parle et que les gens aient vraiment peur », a-t-il déclaré, ajoutant que cela pourrait être raisonnable et proportionné que ces peines comprennent l’emprisonnement.
Les données post-GPDPR corrigent une « erreur », selon un scientifique de premier plan apparu en premier sur Germanic News.