L’IA sera-t-elle à l’écoute de votre futur entretien d’embauche ?  Sur le droit, la technologie et la vie privée

L’IA sera-t-elle à l’écoute de votre futur entretien d’embauche ? Sur le droit, la technologie et la vie privée

La loi et les applications de l’intelligence artificielle (IA) doivent être mieux alignées pour garantir la protection de nos données personnelles et de notre vie privée. doctorat Le candidat Andreas Häuselmann voit des opportunités avec l’IA, mais des dangers si cela ne se produit pas.

Imaginez que vous postulez pour un emploi et que votre candidature soit rejetée parce que vous n'en voulez pas suffisamment. Plus tard, vous découvrez qu’une application d’IA capable de lire les émotions a indiqué un manque d’enthousiasme dans votre voix. Ou vous ne parvenez pas à obtenir un prêt hypothécaire parce que l'IA vous donne un faible score de crédit en raison du moment et de la fréquence à laquelle vous rechargez votre téléphone.

Protection des données personnelles

Ce sont là des exemples d’un avenir qu’Häuselmann envisage si le droit ne répond pas mieux aux développements rapides de l’IA. ChatGPT, recommandations personnelles sur Netflix et assistant virtuel comme Siri ou Alexa : il est déjà difficile d'imaginer un monde sans IA. Mais comment pouvons-nous garantir que les données personnelles, y compris les données sur notre santé, nos pensées et nos émotions, soient efficacement protégées ?

Pour le dire simplement : nous devons veiller à ce que la législation soit plus adaptée aux évolutions de l’IA. Prenons l’exemple du « principe d’exactitude », inscrit dans la législation européenne. Cela signifie que les données personnelles doivent être exactes et à jour. Si une entreprise orthographe mal votre nom, elle viole ce principe et doit changer votre nom lorsque vous faites valoir votre droit de rectification, explique Häuselmann.

Mais que se passerait-il si l’IA faisait des prédictions sur votre vie : quelle carrière vous conviendrait ? Combien de temps vivras-tu ? Resterez-vous en bonne santé et combien d’argent gagnerez-vous à l’avenir ? Il est alors impossible pour les individus de prouver que ces données personnelles sont inexactes lorsqu’ils invoquent leur droit de rectification car les prédictions portent sur l’avenir. Je suggère que nous renversions ici le fardeau de la preuve. Ce n'est pas vous, mais l'organisation qui a utilisé vos données, qui devez prouver que les informations générées sont exactes.

Les entreprises d’IA veulent de la clarté

Dans le même temps, estime Häuselmann, le législateur européen devrait également se pencher sur un autre principe, celui de l'équité. Cela implique de garantir que l’utilisation des données personnelles n’entraîne aucun effet négatif, discriminatoire ou inattendu, par exemple sur les consommateurs. Ce principe est très vague et les entreprises technologiques travaillant avec l’IA bénéficieraient grandement d’une clarté. Plus important encore, un principe d’équité mieux élaboré protégerait plus efficacement les individus contre les risques liés à l’IA.

« La loi devrait faire davantage ici pour parler le langage de l'IA, afin que les entreprises sachent comment réagir. » Häuselmann, qui travaille au sein du cabinet d'avocats international De Brauw, peut voir comment les entreprises technologiques cherchent à pérenniser leurs applications d'IA également du point de vue juridique. « Nous devons évoluer vers une législation claire mais suffisamment flexible pour répondre aux développements rapides de l'IA. »

Même si le développement de l’IA présente des risques pour nos données personnelles, la loi ne devrait pas les bloquer, estime Häuselmann. La technologie peut être d’une grande valeur dans les soins de santé, par exemple. « Prenez Neuralink, la puce implantée qui permet aux personnes paralysées de contrôler un ordinateur. La technologie n'est ni bonne ni mauvaise en soi. La loi devrait s'intéresser à son utilisation et aux intentions qui la sous-tendent. »

Deux mondes

En repensant à ses recherches, Häuselmann est particulièrement fier de la façon dont il a réussi à apprendre les langues de deux mondes largement distincts. « Je suis avocat mais j'ai également donné un tutoriel au MIT. Je m'attendais à ce que les experts en technologie soient sceptiques quant à ma vision critique de l'IA, mais le contraire s'est avéré vrai. Ces deux mondes devraient continuer à se rechercher dans les recherches futures. « .

Andreas Häuselmann soutiendra son doctorat le 23 avril.