
Hello,
Aujourd’hui, édition spéciale.
On a contacté Arnaud Touati, avocat expert en IA, blockchain et nouvelles technologies.
L’objectif :
Faire un deepdive sur l’IA et le juridique ; quels sont les risques, les points de vigilance et les bonnes pratiques à avoir (+ un petit avis sur la réglementation).
C’est un nouveau format qu’on va essayer de temps, alors dites-nous ce que vous en pensez en bas de la newsletter !
Théo
Temps de lecture : 5mn
Lis la version en ligne de ce mail s'il ne s’affiche pas en entier :


Focus : IA et juridique, quels risques pour vous ?
Cet article a été rédigé en collaboration avec Arnaud Touati, avocat expert en IA, blockchain et nouvelles technologies.
Il vous donne un exemple du type d’analyse que vous pouvez retrouver dans les articles Premium !
Si vous ne nous avez pas encore rejoints :

Ces technologies posent des questions inédites sur la responsabilité, la protection des données et l’éthique.
En tant qu’avocat, j’ai vu la nécessité d’accompagner mes clients dans un cadre juridique en constante évolution.
Les transformations permanentes de l’IA ont un impact palpable sur nos vies.
Mais derrière les prouesses technologiques se cachent des enjeux juridiques majeurs : collecte de données personnelles, biais algorithmiques, responsabilités des dommages…
Pour y voir plus clair, on a fait appel à Arnaud Touati, avocat spécialisé dans les nouvelles technologies.
Parce qu’aujourd’hui, on partage déjà une foule de données personnelles si on utilise un simple assistant vocal. Souvent sans même s’en rendre compte.
Les algorithmes sont susceptibles de discriminer certains groupes. Et si une IA donne un conseil erroné ou agit de manière imprévue, comment déterminer le responsable ?
On va décrypter un par un les enjeux pour nous tous, utilisateurs occasionnels et quotidiens.
Données personnelles : très convoitées, pas toujours protégées
Ne partagez jamais de données sensibles dans un outil IA, c’est la base.
Configurez systématiquement vos paramètres de confidentialité.
Imaginez que vous transmettiez un document contenant un travail de recherche sur lequel vous travaillez depuis des années à un modèle en ligne comme ChatGPT…
L’IA risque alors de l’ingérer dans sa base de données et de s’en servir pour répondre à ses utilisateurs.
Le fruit de votre travail est alors partagé à tous, sans même que vous en soyez conscient.
C’est parce que les IA collectent parfois, sans consentement explicite, un volume énorme de données.
Elles peuvent servir, par exemple, à entraîner de futurs modèles dans leurs interactions avec les humains.
Heureusement, le RGPD (Règlement Général sur la Protection des Données) impose des obligations aux entreprises pour nous en protéger.
Ces dernières doivent :
Recueillir le moins de données possibles,
Nous informer et demander notre accord,
Nous donner accès à ces données et à la possibilité de les supprimer,
Nous expliquer clairement comment elle stocke et utilise vos informations.
Si vous suspectez un abus, en France, la CNIL peut vous aider.
Les amendes peuvent grimper jusqu’à 4 % du chiffre d’affaires de l’entreprise.
(Parfois, on se dit qu’attaquer OpenAI pourrait valoir le coup)
Sauf que parfois, les IA peuvent carrément impacter notre vie de manière négative.
Dans ce cas, comment déterminer si nous devons agir ? À qui la faute ?
IA et dommages : qui est responsable ?
Si une IA est jugée défectueuse et qu’elle fait une erreur due à la manière dont elle a été entraînée, le fournisseur est en tort.
Mais si c’est l’utilisateur qui l’emploie mal, en allant à l’encontre des CGU par exemple, ça peut lui retomber dessus.
Une IA vous prodigue un conseil médical erroné ?
Un moteur de recherche IA renvoie votre enfant vers des sites pour adultes ?
Autant d’erreurs de cette nouvelle technologie pouvant impacter sérieusement votre vie ou celle de vos proches.
Mais là encore, nous sommes (relativement) protégés.
Selon les nouvelles directives européennes, les logiciels et systèmes IA peuvent être considérés comme des « produits ».
S’ils sont défectueux (mauvais algorithme, défaut de sécurité…), le fournisseur peut en être tenu responsable.
En revanche, prudence : la loi n’est pas applicable instantanément.
Les Etats de l'Union Européenne ont jusqu’au 9 décembre 2026 pour se conformer à la directive.
Retenez que vos Conditions Générales d’Utilisation (CGU) sont importantes : elles précisent souvent les limites de responsabilité.
Par contre, elles ne protègent pas des problèmes d’entraînement plus subtils.
Biais algorithmiques : gare à la discrimination
Les IA reproduisent souvent les biais présents dans les données historiques.
Un algorithme de recrutement peut écarter les femmes, un logiciel bancaire peut pénaliser un quartier spécifique.
Prenons un exemple : un algorithme de recrutement vous écarte injustement, et vous interdit l’accès d’office à votre job de rêve à cause d’un biais d’entraînement.
En cas de discrimination avérée, vous pouvez exiger des dommages et intérêts.
Les entreprises doivent donc s’assurer que leurs algorithmes n’intègrent pas de biais injustes ou illégaux.
Mais comment agir si vous détectez une discrimination évidente ?
Gardez des copies d’échanges, captures d’écran ou tout élément qui pourrait démontrer un traitement discriminatoire (exemple : un refus automatique injustifié).
Demandez des explications sur les critères de décision de l’IA.
Dans certains cas, l’entreprise doit vous fournir des informations, ou au moins vérifier si la situation relève d’un défaut dans leur algorithme.
En France, vous pouvez adresser une plainte à la CNIL, qui vérifiera si le traitement de données respecte la législation.
Dans d’autres pays, des organismes de protection des données ou de lutte contre les discriminations peuvent jouer ce rôle.
Si l’entreprise ne coopère pas ou si l’incident est grave, vous pouvez engager une action en justice pour demander des dommages et intérêts.
Les associations spécialisées dans la lutte contre les discriminations peuvent aussi vous aider à constituer un dossier solide.
Ce problème vient de la difficulté à comprendre en profondeur les algorithmes d’IA.
Pour un modèle open-source, il y a moins de problème.
Mais qu’en est-il des modèles fermés ?
Transparence : le défi de la boîte noire
Les utilisateurs peuvent exiger des explications sur les données utilisées pour entraîner ou ajuster le comportement de l’IA.
On utilise tous ChatGPT.
Pourtant, très peu d’entre nous savent vraiment comment ils traitent leurs données.
Le fonctionnement de certains modèles est gardé secret par ses créateurs.
En conséquence, ils sont peu compréhensibles par le grand public.
Difficile de savoir sur quels critères l’algorithme s’appuie. Cette opacité alimente la méfiance et les litiges potentiels.
À l’inverse, les modèles open-source sont plus transparents, peuvent être utilisés sans connexion internet, et ne transmettent normalement pas vos données aux entreprises.
Prenez garde, ces IA aussi peuvent présenter des biais.
Mais elles sont déjà un pas de plus vers la confidentialité.
Si vous pensez qu’une IA utilise vos données sans votre consentement à cause d’une politique trop floue, vous pouvez :
Contacter l’entreprise ou l’organisme responsable.
Faire valoir votre droit d’accès aux données et exiger la rectification ou la suppression de ces données.
Exercer votre droit à la clarification RGPD pour que l’entreprise vous explique la raison des choix de son IA.
Saisir la CNIL ou l’autorité compétente.
Faire appel à un avocat ou une association de défense.
On a vu comment réagir en cas d’abus.
Mais mieux vaut prévenir que guérir.
Et pour ça, Arnaud nous a donné une liste de bonnes pratiques.

+200 heures de recherche sur les outils et astuces IA condensées en 3 heures*
*Petite interruption pour vous parler du partenaire du jour, Growthschool, l’une des plus grandes edtech dont je suis personnellement client !
Ce Mini Cours gratuit de 3 heures sur l’IA et ChatGPT (valeur de 399 $) vous apprendra à maîtriser 20+ outils d’IA et techniques de prompting pour gagner 16 heures par semaine sur toutes vos tâches.
Vous apprendrez à :
✅ Créer un business générant 10 000 $ grâce aux outils IA,
✅ Prendre des décisions plus rapides et intelligentes avec l’analyse des données par IA,
✅ Rédiger des emails, du contenu et bien plus en quelques secondes avec l’IA,
✅ Résoudre des problèmes complexes, accélérer vos recherches par 10 et économiser 16 heures par semaine.

Les bonnes pratiques pour se protéger
Relisez systématiquement les CGU, surtout les sections sur la collecte de données et la responsabilité.
Arnaud nous a donné les meilleures pratiques pour se protéger et éviter d’avoir à en arriver à contacter l’entreprise, ou pire, à une action en justice.
Ne pas trop en dire : la règle d’or.
Donnez le strict minimum d’informations à une IA. Pas de numéro de sécurité sociale, pas de détails bancaires, pas de secrets professionnels.
Ou alors, faites tourner une IA en local sur votre ordinateur.
Mieux vaut être prudent et légèrement paranoïaque que d’avoir des regrets par la suite.
Lire (au moins un peu) les CGU.
Focalisez-vous sur :
Les limitations de responsabilité,
La collecte et l’utilisation des données,
Les droits des utilisateurs (effacement, portabilité...)
Ces 3 points sont la base pour comprendre vos droits et leurs limites.
Vérifier la conformité RGPD
Un outil basé en Europe, ou clair sur sa politique de protection des données, vous offrira davantage de garanties.
Si l’entreprise ne mentionne pas le RGPD ou si ses CGU sont trop vagues, méfiance.
Rester vigilant en continu
Les mises à jour ou un changement de politique de confidentialité peuvent tout bouleverser.
Si vous constatez une utilisation abusive de vos données, vous pouvez saisir la CNIL ou engager une action en justice.
En bref, les 3 conseils essentiels d’Arnaud :
1. Prenez le temps de lire et comprendre les CGU.
2. Utilisez des outils respectueux de la vie privée (extensions anti-tracking, VPN...)
3. Restez vigilant et exercez vos droits en cas de doute (droit d’accès, de suppression...)
Tous ces outils sont l’application concrète de régulations qui nous protègent face aux potentiels abus des entreprises d’IA.
Derrière cette nouvelle technologie se cachent des défis inédits en termes juridiques.
Sauf que certains pays, comme les Etats-Unis sous l’administration Trump, font le choix d’une dérégulation complète pour favoriser l’innovation.
Dans ce cas-là, les utilisateurs sont-ils sacrifiés sur l’autel du progrès technologique ?
Réglementation : frein à l’innovation ou nécessité ?
On se dirige vers un cadre plus strict pour les IA à haut risque. Les entreprises devront être transparentes, ça poussera à plus d’éthique.
Malgré l’existence du RGPD, qui protège nos données personnelles, ce règlement ne couvre pas totalement la prise de décision autonome des IA.
La récente Directive sur les produits défectueux (2024) étend la responsabilité aux modèles, mais cible surtout les dommages matériels.
Quant à l’AI Act en Europe, il classe les IA par niveau de risque et impose des règles plus strictes aux systèmes en fonction de leur niveau de risque.
Toutefois, la question de la responsabilité reste encore floue : comment prouver la faute d’un algorithme ?
Le cadre légal de l’IA est en constante évolution pour pallier ses déficiences et trouver les réponses à ces questions déterminantes pour les consommateurs.
Mais nous, utilisateurs du quotidien et clients de ces entreprises, ne sont pas les seuls affectés par la question.
Les entreprises peuvent souffrir de régulations trop lourdes freinant leur champ d’action.
Sauf que la force d’un système légal ne réside pas uniquement dans le nombre de lois et de directives qu’il met en place.
Un deuxième facteur permet de favoriser l’innovation en conservant un cadre : la simplicité et la robustesse des textes.
Un cadre clair incite les développeurs à innover sans craindre des procès à tout-va.
Le droit n’a pas vocation à étouffer l’IA, mais à protéger les utilisateurs contre les abus.
En fixant des lignes directrices solides sur l’éthique, la transparence, et la non-discrimination, la loi rassure autant les consommateurs que les entreprises.
Elle stimule même la créativité des développeurs en leur permettant de comprendre les limites de leur champ d’action.
En attendant un cadre clair, mieux vaut rester prudent.
Comme le rappelle Arnaud Touati, le droit est là pour créer un terrain de jeu équitable.
Et plus vite vous prendrez l’habitude de vérifier vos paramètres de confidentialité ou de lire les CGU, plus sereinement vous profiterez de la puissance de l’IA.
Que pensez-vous de la régulation de l'IA ?

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.