Comment utiliser les outils d’IA dans le respect de la protection des données

Comment utiliser les outils d’IA dans le respect de la protection des données David Rosenthal, expert en protection des données, revient sur les points essentiels.

Plus rien n’arrête cette tendance: dans le domaine du marketing et de la publicité, le traitement des données assisté par l’IA se développe rapidement. Pourtant, bon nombre d’utilisatrices et d’utilisateurs ne disposent pas du savoir-faire nécessaire pour employer les outils d’IA dans le respect de la protection des données. David Rosenthal, expert en droits des données et des technologies, est bien placé pour conseiller.

Portrait de David Rosenthal
L’expert David Rosenthal conseille aux équipes marketing de n’alimenter les outils d’IA avec des données personnelles que si les exploitants proposent un contrat garantissant la protection des données.

De plus en plus d’équipes de marketing et de communication misent sur l’IA générative. Mais comment cela est-il compatible avec la protection des données? Où se cachent les dangers?

David Rosenthal: L’utilisation de l’IA n’est pas aussi incompatible avec la protection des données que beaucoup le pensent. Le problème se pose, par exemple, lorsque les utilisatrices et utilisateurs ont recours aux systèmes d’IA sans savoir ce qu’il advient des données saisies chez les fournisseurs. Ils devraient assumer une plus grande responsabilité en matière de protection des données. Autrement dit, il convient par exemple de choisir soigneusement les outils d’IA et de ne les alimenter avec des données personnelles que si les exploitants proposent un contrat garantissant la protection des données. Nous avons rassemblé dans un aperçu (en allemand) la situation en matière de protection des données de différents outils d’IA. Outre ce problème de protection des données, un autre point doit être considéré de manière critique: les IA basées sur un Large Language Model débitent également naturellement des informations qui sont fausses. Cela s’explique notamment par le fait que les données d’entraînement ne sont pas exemptes d’erreurs à 100% et que les systèmes calculent le contenu de manière statistique, mais ne le comprennent pas. Si les utilisatrices et utilisateurs exploitent maintenant ces informations sans les remettre en question, cela peut induire en erreur et même devenir embarrassant. Les employeurs y remédient en favorisant les compétences médiatiques de leurs collaboratrices et collaborateurs.

L’obligation d’informer est-elle également un point problématique? C’est justement la personne qui traite des données personnelles avec l’IA qui devrait en être informée.

C’est du moins ce qu’exige le «PFPDT», le préposé fédéral à la protection des données et à la transparence. Je vois les choses un peu différemment, à condition que le service d’IA lui-même soit conforme à la protection des données. Les entreprises ne sont pas non plus tenues de fournir des informations sur tous les outils qu’elles utilisent. Par exemple, je n’ai pas besoin d’informer une personne que j’utilise l’IA générative pour mieux formuler la lettre que je lui adresse ou pour traduire un texte. Et je ne dois pas non plus informer la personne que j’utilise une IA pour déterminer, sur la base de ses données, le meilleur canal publicitaire pour elle.

Le PFPDT, autorité suprême en matière de protection des données

Le préposé fédéral à la protection des données et à la transparence a une fonction de «police de la protection des données». En tant qu’autorité de surveillance, il reçoit des dénonciations, ouvre des enquêtes et les mène à bien. Il peut rendre des décisions juridiquement contraignantes pendant la procédure et après le jugement. Il est en outre habilité à coopérer avec les autorités étrangères.

Lorsqu’une entreprise entraîne une IA générative avec ses propres données, à quoi doit-elle faire attention du point de vue de la protection des données?

Le droit suisse est relativement généreux à cet égard. Deux points sont toutefois à prendre en considération. Premièrement, pour simplifier, je ne peux alimenter un modèle d’IA avec des données personnelles que si la personne concernée peut s’y attendre et que l’entraînement de l’IA ne lui cause pas de préjudice - ou alors il faut que j’aie une bonne raison pour le justifier. Un exemple illustrant cette bonne raison: je n’utilise pas du tout l’IA par rapport à cette personne en particulier, mais je veux lui apprendre à écrire dans un certain style de langage ou à générer un certain type d’images. Deuxièmement, je dois m’assurer que les données d’entraînement n’apparaissent pas soudainement dans l’output de l’outil d’IA. En d’autres termes, l’IA ne doit en aucun cas divulguer les données personnelles, ce qui n’est malheureusement pas une évidence. La manière d’y parvenir et, inversement, de pirater les systèmes d’IA pour obtenir des données d’entraînement fait aujourd’hui encore l’objet de recherches intensives.

Comment regrouper vos données d’adresse avec méthode

Vos données d’adresses valent de l’or. Mais lorsqu’elles sont réparties entre différentes équipes et différents systèmes, elles ne servent pas à grand-chose et sont rapidement obsolètes. Optez donc pour la centralisation des données dans une base de données CRM. Notre guide vous montre pas à pas comment procéder.

Demander maintenant le guide gratuit

Que peuvent faire les entreprises pour se prémunir contre ce risque?

Elles peuvent par exemple pratiquer la «confidentialité différentielle». Pour simplifier, il s’agit d’une technique dans laquelle les données personnelles sont modifiées dans les données d’entraînement avant que celles-ci ne soient données à l’IA. Le contenu n’en est pas pour autant dénaturé. Ainsi, si le système d’IA en révèle trop par inadvertance, la vie privée des personnes concernées est préservée. Cette procédure est toutefois fastidieuse et coûte de l’argent.

Les entreprises doivent s’assurer que les données d’entraînement n’apparaissent pas soudainement dans l’output de l’outil d’IA.

David Rosenthal

Les IA sont non seulement entraînées avec des données propres, mais aussi avec des données de tiers - cela est-il autorisé?

Seulement si on en possède l'autorisation. De nombreuses entreprises ne sont toutefois pas conscientes de ce problème, car elles ne pensent qu’à la protection des données. Elles introduisent dans les systèmes d’IA des contenus de tiers, protégés par des droits d’auteur ou autres, sans disposer de l'autorisation d’utilisation.

Pouvez-vous expliquer cela à l’aide d’un exemple?

Par exemple, si j’achète une image pour une publication, j’ai certes le droit de l’utiliser et souvent même de la traiter avec une IA. Mais je dois aussi veiller à ce qu’un fournisseur d’IA que j’ai choisi à cet effet ne l’utilise pas également à ses propres fins, par exemple pour entraîner son modèle. Sinon, je risque une violation de contrat ou de droits d’auteur. Autre écueil: une IA fournit une image supposée purement générée par ordinateur, qui n’est pas protégée. Mais s’il s’avère que l’image reproduit des parties essentielles d’une œuvre préexistante, il s’agira là aussi d’une violation du droit d’auteur.

Lors de l’utilisation de l’IA générative, il peut rapidement arriver que des données personnelles fassent partie des invites. Quels sont les risques qui y sont liés du point de vue de la protection des données - et comment les éviter?

Saisir une invite avec des données personnelles ou d’autres données confidentielles dans une IA quelconque est problématique, car on ne sait pas ce qu’il en advient. Dans la pratique, ce problème peut être résolu de deux manières. Soit l’entreprise utilise des outils d’IA purement internes, soit des outils pour lesquels le fournisseur garantit que les données sont protégées et ne sont pas utilisées à d’autres fins. En outre, en tant qu’utilisateur, je dois m’assurer que je n’abuse pas des résultats de l’IA et que je vérifie toujours l’output. J’ai par exemple le droit d’utiliser un système d’intelligence artificielle pour analyser les candidatures et en tirer des conclusions sur l’adéquation des candidates et candidats. Cependant, je dois examiner les résultats d’un œil critique. Tant que, dans cet exemple, c’est un être humain et non une IA qui prend la décision, il n’est pas non plus nécessaire d’informer spécifiquement sur l’utilisation de l’intelligence artificielle.

Saisir une invite avec des données personnelles ou d’autres données confidentielles dans une IA quelconque est problématique, car on ne sait pas ce qu’il en advient.

David Rosenthal

En résumé, quelles lignes directrices les entreprises devraient-elles mettre en place pour que leurs collaboratrices et collaborateurs utilisent l’IA générative dans le respect de la législation sur la protection des données?

Il existe trois règles importantes. Premièrement, les entreprises doivent informer de l’utilisation de l’IA si celle-ci est inattendue mais pertinente pour les personnes concernées, par exemple la clientèle. Deuxièmement, les données confidentielles et personnelles, propres ou étrangères, ne peuvent être utilisées que dans des outils d’IA qui garantissent la conformité avec la protection des données. Et troisièmement, les utilisatrices et utilisateurs doivent toujours vérifier manuellement l’exactitude de l’output avant de l’utiliser à leurs propres fins.

Dans le domaine de la publicité basée sur les données, l’IA est de plus en plus utilisée pour prendre des décisions automatisées. À quoi faut-il veiller en la matière? Et qui est responsable en cas de violation de la protection des données?

La responsabilité incombe d’abord à la personne qui utilise l’IA, par exemple en utilisant son output - et à l’avenir, avec la réglementation qui se profile, probablement aussi au fournisseur. Mais en Suisse, toute personne qui participe à une violation de la protection des données peut être poursuivie. Les décisions automatisées font l’objet d’une réglementation spécifique en matière de protection des données lorsqu’elles peuvent avoir des conséquences importantes pour d’autres personnes. Dans le domaine du marketing et de la publicité, nous ne voyons guère de tels cas. En effet, il s’agit avant tout d’atteindre encore mieux le groupe cible et d’affiner le ciblage. Mais ici, nous sommes confrontés à un autre phénomène: dans le domaine en ligne notamment, de nombreux systèmes de contrôle de la publicité, de mesure du succès et de suivi sont utilisés en plus des outils d’IA. De grandes quantités de données sur le public sont ainsi échangées - par exemple entre les annonceurs, les éditeurs et les entreprises de technologie publicitaire. Par conséquent, des données personnelles parviennent également à des tiers qui les utilisent pour la publicité, l’entraînement d’une IA ou à d’autres fins. Pour s’assurer que les personnes concernées sont d’accord avec la transmission de leurs données, des déclarations de consentement sont aujourd’hui généralement demandées.

L’IA peut-elle également être utilisée pour la protection des données?

Oui, c’est possible. En voici un exemple. Parce que beaucoup ne savent pas tout ce qui peut mal tourner en matière de protection des données, nous avons développé au sein de l’Association des conseillers d’entreprises en matière de protection des données un outil basé sur l’IA pour les évaluations d’impact sur la protection des données et l’avons publié en open source. L’IA aide à imaginer tous les risques possibles. Si elle «hallucine» à cette occasion, ce n’est pour une fois pas du tout un problème, car les utilisatrices et utilisateurs reconnaissent ainsi où se situent les risques.

À propos de la personne

David Rosenthal est partenaire du cabinet d’avocats VISCHER et l’un des principaux experts suisses en matière de droit des données et des technologies.

Cours en ligne «Gestion d’adresses»

Les fichiers d’adresses sont la clé d’un démarchage personnalisé du client. En suivant notre cours en ligne «Gestion d’adresses», vous découvrirez au fil de quatre unités comment tirer le meilleur parti de votre base de données d’adresses. Vous obtiendrez de nombreuses aides à la planification ainsi que des conseils utiles pour gérer efficacement des adresses, des données client et des groupes cibles.

S’inscrire gratuitement

Partager sur