Vous ne voulez pas que les chatbots utilisent vos conversations pour entraîner l'IA ? Certains vous permettent de refuser

Vous ne voulez pas que les chatbots utilisent vos conversations pour entraîner l'IA ? Certains vous permettent de refuser

Faites attention à ce que vous dites à un chatbot. Votre conversation pourrait être utilisée pour améliorer le système d'intelligence artificielle sur lequel il repose.

Si vous demandez conseil à ChatGPT au sujet de votre problème de santé embarrassant, sachez que tout ce que vous divulguez pourrait être utilisé pour modifier les algorithmes d'OpenAI qui sous-tendent ses modèles d'IA. Il en va de même si, par exemple, vous téléchargez un rapport d'entreprise sensible sur Gemini de Google pour le résumer lors d'une réunion.

Ce n'est un secret pour personne que les modèles d'IA qui sous-tendent les chatbots populaires ont été formés sur d'énormes quantités d'informations extraites d'Internet, comme des articles de blog, des articles de presse et des commentaires sur les réseaux sociaux, afin qu'ils puissent prédire le mot suivant lorsqu'ils proposent une réponse à votre question.

Cette formation était souvent effectuée sans consentement, ce qui soulevait des problèmes de droits d'auteur. Et, selon les experts, étant donné la nature opaque des modèles d'IA, il est probablement trop tard pour supprimer toutes vos données qui auraient pu être utilisées.

Mais ce que vous pouvez faire à l'avenir, c'est empêcher que vos interactions avec le chatbot soient utilisées pour la formation de l'IA. Ce n'est pas toujours possible, mais certaines entreprises offrent aux utilisateurs la possibilité de :

Google Gemini

Google conserve vos conversations avec son chatbot Gemini pour entraîner ses systèmes d'apprentissage automatique. Pour les utilisateurs de 18 ans ou plus, les conversations sont conservées par défaut pendant 18 mois, mais cette durée peut être ajustée dans les paramètres. Les examinateurs humains peuvent également accéder aux conversations pour améliorer la qualité des modèles d'IA génératifs qui alimentent Gemini. Google avertit les utilisateurs de ne pas divulguer à Gemini des informations confidentielles ni de lui donner des données qu'ils ne souhaitent pas qu'un examinateur humain voie.

Pour désactiver cette option, rendez-vous sur le site Web de Gemini et cliquez sur l'onglet Activité. Cliquez sur le bouton Désactiver et, dans le menu déroulant, vous pouvez choisir d'arrêter d'enregistrer toutes les conversations futures ou de supprimer toutes vos conversations précédentes. L'entreprise prévient que toutes les conversations sélectionnées pour un examen humain ne seront pas supprimées et seront stockées séparément. Que vous choisissiez de désactiver votre activité ou de la laisser activée, Google indique également que toutes les conversations avec Gemini seront conservées pendant 72 heures pour « fournir le service et traiter les commentaires ».

La page d'aide de Gemini détaille également le processus pour les utilisateurs d'applications iPhone et Android.

Méta IA

Meta possède un chatbot IA qui intervient dans les conversations sur Facebook, WhatsApp et Instagram, grâce à ses modèles de langage IA open source. L'entreprise affirme que ces modèles sont formés sur les informations partagées sur ses plateformes, notamment les publications et les photos sur les réseaux sociaux et les informations de légende, mais pas sur vos messages privés avec vos amis et votre famille. Ils sont également formés sur des informations accessibles au public récupérées sur d'autres parties du Web par des « tiers ».

Tout le monde ne peut pas refuser. Les citoyens des 27 pays de l'Union européenne et du Royaume-Uni, qui ont des réglementations strictes en matière de confidentialité, ont le droit de s'opposer à ce que leurs informations soient utilisées pour entraîner les systèmes d'IA de Meta. Depuis la page de confidentialité de Facebook, cliquez sur Autres politiques et articles dans la liste sur le côté gauche, puis cliquez sur la section sur l'IA générative. Faites défiler la page vers le bas pour trouver un lien vers un formulaire où vous pouvez vous opposer.

Il y a une case à remplir avec des informations supplémentaires pour appuyer votre demande, mais aucun détail sur ce que vous devez dire. J'ai écrit que j'exerçais mon droit en tant que résident britannique de retirer mon consentement à ce que mes informations personnelles soient utilisées pour la formation de l'IA. J'ai reçu presque instantanément un e-mail indiquant que Meta avait examiné la demande et honorerait mon objection. « Cela signifie que votre demande sera prise en compte à l'avenir », a-t-il déclaré.

Aux États-Unis et dans d’autres pays dépourvus de lois nationales sur la confidentialité des données, les citoyens n’ont pas cette option.

Le centre de confidentialité de Meta renvoie vers un formulaire où les utilisateurs peuvent demander que leurs données collectées par des tiers ne soient pas utilisées pour « développer et améliorer l'IA chez Meta ». Mais l'entreprise prévient qu'elle ne répondra pas automatiquement aux demandes et qu'elle les examinera en fonction des lois locales. Le processus lui-même est fastidieux, car il oblige les utilisateurs à fournir à la demande du chatbot qui a généré une réponse leurs informations personnelles et une capture d'écran de celle-ci.

Microsoft Copilot

Il n'existe aucun moyen de désactiver cette option pour les utilisateurs personnels. Le mieux que vous puissiez faire est de supprimer vos interactions avec le chatbot Copilot en accédant à la page des paramètres et de confidentialité de votre compte Microsoft. Recherchez un menu déroulant intitulé Historique des interactions Copilot ou Historique des activités Copilot pour trouver le bouton de suppression.

ChatGPT d'OpenAI

Si vous avez un compte OpenAI, accédez au menu des paramètres de votre navigateur Web, puis à la section Contrôles des données, où vous pouvez désactiver un paramètre pour « Améliorer le modèle pour tout le monde ». Si vous n'avez pas de compte, cliquez sur le petit point d'interrogation en bas à droite de la page Web, puis cliquez sur Paramètres, et vous aurez la même option pour refuser la formation de l'IA. Les utilisateurs mobiles peuvent faire le même choix sur les applications ChatGPT Android et iOS.

OpenAI indique sur sa page d'aide au contrôle des données que lorsque les utilisateurs se désinscrivent, leurs conversations apparaîtront toujours dans l'historique des discussions, mais ne seront pas utilisées à des fins de formation. Ces conversations temporaires seront conservées pendant 30 jours et examinées uniquement si nécessaire pour surveiller les abus.

Grok

Le X d'Elon Musk a discrètement activé un paramètre qui permet à Grok, le chatbot IA du PDG milliardaire de Tesla, d'être formé à partir des données de la plateforme de médias sociaux. Ce paramètre a été activé par défaut et permet à Grok d'utiliser des données telles que vos publications, « interactions, entrées et résultats » pour la formation et le « réglage fin ».

Le changement n'a pas été rendu public et n'a été révélé qu'après que les utilisateurs de X l'ont repéré en juillet. Pour désactiver cette fonctionnalité, vous devez accéder aux paramètres de la version de bureau du navigateur X, puis cliquer sur « Confidentialité et sécurité », faire défiler la page jusqu'à « Grok » et décocher la case. Vous pouvez également supprimer l'historique de vos conversations avec Grok si vous en avez. Malheureusement, il n'y a aucun moyen de le faire depuis l'application mobile X.

Claude

Anthropic AI affirme que son chatbot Claude n'est pas formé à partir de données personnelles. Par défaut, il n'utilise pas non plus de questions ou de requêtes pour entraîner ses modèles d'IA. Cependant, les utilisateurs peuvent donner une « autorisation explicite » pour qu'une réponse spécifique soit utilisée dans la formation en lui donnant un « pouce vers le haut » ou « vers le bas » ou en envoyant un e-mail à l'entreprise. Les conversations signalées pour un examen de sécurité pourraient également être utilisées pour entraîner les systèmes de l'entreprise à mieux appliquer ses règles.