Ai generativa immagini

Si ChatGPT n’est qu’un outil

Lorsqu’on évoque les risques de l’IA, il semble impossible d’éviter de se retrouver à évoquer la concurrence entre intelligence artificielle et intelligence humaine et le risque que la première prenne le dessus sur la seconde. Les risques liés à l’avènement de l’IA ne sont pas ceux-là et il est plus que jamais nécessaire d’éviter ce malentendu pour ne pas sous-estimer les risques qui existent réellement.

A ce sujet, ci-dessous un extrait de l’article «ChatGPT ? Un seul outil.» de Maurizio Ferraris, publié dans le Corriere della Sera du 7 décembre 2023, en espérant ne pas tromper l’auteur et en invitant en tout cas les lecteurs à le lire dans son intégralité.

(…) c’est précisément la vraie différence entre l’intelligence artificielle et l’intelligence naturelle, c’est-à-dire le fait que cette dernière est dans un corps. Ceci (…) constitue, pour nous, la raison pour laquelle l’intelligence artificielle ne dépassera jamais l’intelligence naturelle, non pas dans le sens où la première ne peut être infiniment plus efficace que la seconde, mais dans le sens où seule l’intelligence naturelle, dotée de un corps (que Platon considérait comme le tombeau de l’âme) peut en réalité avoir une âme, c’est-à-dire avoir des intentions, des directions, des peurs, des attentes, une volonté et des sentiments. Ce qui, en d’autres termes, signifie que c’est nous qui interrogeons ChatGPT et non l’inverse. (…).l’esprit humain, étant situé dans un organisme capable d’utiliser systématiquement des appareils techniques, est un esprit équipé, c’est-à-dire qu’il s’ouvre à des méthodes d’utilisation qui, en tant que telles, sont exclues de l’intelligence artificielle, qui est un outil, alors que l’esprit humain est capable d’utiliser des outils.

L’IA est donc (uniquement) un outil. Il s’agit pourtant d’un outil sophistiqué qui permet d’influencer, de manière transparente ou subreptice, les personnes qui l’utilisent, au point d’influencer leur comportement.

Index des sujets :

L’IA relève le défi de la réglementation

Ce pouvoir deoutil cela ouvre de nouveaux espaces de marché non réglementés dont, dans de nombreux cas, les utilisateurs finaux ne soupçonnent même pas l’existence, ignorant souvent qu’ils utilisent des services basés sur l’IA. Des espaces de marché qui ont un effet multiplicateur par rapport à ceux déjà établis et encore exempts de réglementation adéquate, comme les médias sociaux et le vaste marché des données et des services numériques.

Le potentiel qui en résulte est certes inquiétant car il est capable d’impacter non seulement les droits individuels comme la vie privée, mais aussi les réalisations collectives comme le processus de formation des idées, la culture collective, la connaissance des faits, comme la démocratie avec ses processus électoraux.

Les entreprises qui utilisent ChatGPT et ses frères ou sœurs pour proposer de nouveaux services et de nouveaux produits ou pour explorer de nouvelles méthodes de marketing se retrouvent entre les propriétaires de la technologie et les utilisateurs finaux de leurs services/produits, et jouent un rôle crucial dans affirmation de cette technologie.

Ils se retrouveront progressivement confrontés à des obligations de conformité exigeantes, étant donné que l’UE – qui existe heureusement puisqu’aucun des 27 États qui la composent n’aurait individuellement la force d’imposer des contraintes crédibles sur les marchés susmentionnés – a lancé une politique de mise en conformité. sur le point de lancer diverses mesures visant à réguler les différents aspects du marché concerné (Loi sur les services numériques, loi sur l’IA, loi sur la gouvernance des données).

La question est de savoir si la simple satisfaction d’une obligation de conformité, certainement nécessaire compte tenu des sanctions potentiellement en jeu, est également suffisante pour faire face aux risques supplémentaires que pose la combinaison de l’IA, du big data, des médias sociaux et du commerce électronique.

Des risques de litiges et d’image, certes, mais aussi de destruction hâtive et non motivée d’actifs très importants, construits au fil du temps et qui risquent de devenir impossibles à reconstruire.

Risque, critère d’approche pour l’AI Act

Parmi toutes les entreprises, un rôle crucial dans ce processus d’adoption et de valorisation des nouvelles technologies est joué par les grandes organisations privées et publiques, qui ont les moyens, l’organisation et la force contractuelle pour introduire et demander l’introduction de garanties adéquates en amont et en aval, c’est-à-dire pour les fournisseurs de technologie d’une part, et les distributeurs et les consommateurs d’autre part. Des dispositifs qui, dans la lutte contre les risques, font ressortir les coûts réels d’une bonne utilisation du ou des outils et permettent de comparer équitablement les différentes options à tous points de vue (y compris, par exemple, la conformité et la fiscalité).

Pour ce faire, les processus internes qui régissent l’introduction de nouvelles technologies doivent être revus et enrichis afin de considérer adéquatement la richesse et la complexité de ces technologies, en atténuant adéquatement leurs risques.

À cet égard, la loi sur l’IA, adoptant une approche basée sur les risques, constitue non seulement une obligation de conformité mais aussi un modèle culturel qui peut et doit être appliqué même dans des domaines qui ne relèvent pas de ceux couverts par la loi.

Il ne s’agit pas d’une indication générique mais de prescriptions précises : « (…) 1. Un système de gestion des risques doit être établi, mis en œuvre, documenté et maintenu en ce qui concerne les systèmes d’IA à haut risque, tout au long du cycle de vie du système d’IA.(…)» Et puis il continue ainsi : «2. Le système de gestion des risques consiste en un processus itératif continu exécuté tout au long du cycle de vie d’un système d’IA à haut risque, nécessitant un examen et une mise à jour réguliers du processus de gestion des risques, pour garantir son efficacité continue, et la documentation de toute décision et décision importante. mesures prises en vertu de cet article».

D’un autre côté, une application non critique qui ne prend pas soigneusement en compte les risques de l’outil d’IA peut conduire à un aplatissement culturel avec des conséquences dévastatrices et à une prise en charge inconsciente de risques liés à la durabilité de l’activité de l’entreprise elle-même..

Les risques de l’IA générative

L’tomber amoureux car l’IA générative rendra apparemment inutiles – ou moins utiles – des professions intellectuelles qui jouent aujourd’hui un rôle fondamental : journalistes, enseignants, scénaristes, analystes… Cela conduira au remplacement de personnes qui, pour citer Ferrari, ont une âme et donc avoir d’intentions, de directions, de peurs, d’attentes, de volonté et de sentiments avec un outil capable, tout au plus, de les imiter sur la base de corrélations statistiquement fiables mais substantiellement arbitraires (et parfois intéressantes).

Le résultat risque d’être une banalité systémique avec une valeur décroissanterépété de manière obsessionnelle, avec des répercussions importantes sur l’utilité du produit lui-même, qu’il s’agisse d’un article, d’une série télévisée, d’un cours en ligne, ou de tous les produits concurrents issus d’approches similaires.

On dira que la surveillance humaine sera toujours maintenue. Mais quel encadrement ?

Les limites de la supervision humaine de l’IA

Avons-nous besoin de recherches pour produire un document ? Nous comptons sur ChatGPT ou son frère. C’est pas cher, c’est rapide. Bien entendu, nous sommes scrupuleux et professionnels et nous ne faisons donc pas entièrement confiance au résultat reçu : nous le retravaillons, l’intégrons, le corrigeons. Quoi qu’il en soit, nous partons de ce résultat. Un premier conditionnement est déjà là. Nous ne savons pas précisément à partir de quelle base d’informations l’algorithme est parti, ni quels critères il a appliqué ni comment il les a appliqués. Le résultat est probablement, globalement acceptable, meilleur que ce que nous aurions pu faire nous-mêmes, avec le peu de temps disponible et cela, au final, sera statistiquement suffisant.

Nous apprendrons progressivement à nous appuyer sur ces outils et à baisser notre garde face aux contrôles. Au final, tous les documents issus de ces recherches, ou d’initiatives similaires menées par des concurrents, auront le même goût, comme les aliments à base de bouillon cubes.

Quel médecin prendra la responsabilité (avec toutes les conséquences juridiques prévisibles en cas d’erreur ou de fatalité imprévisible) de contredire l’analyse d’un scanner examiné par un médecin ? outil, qui l’a comparé à des milliards de rapports similaires et qui a un taux d’erreur de 0,1%, sur la base triviale de la connaissance du corps et de l’histoire clinique de ce patient spécifique ? Qui paiera le temps nécessaire pour nourrir et faire ressortir la créativité d’un scénariste quand l’alternative, quoique un peu répétitive, est déjà prête à un coût ? Presque zéro?

Quelle sera la valeur d’un journal qui publie des articles que chaque lecteur peut construire lui-même, sans réflexion ni stimulus véritablement innovants ?

Le risque pour les entreprises est donc de détruire des actifs, de disperser des compétences, d’abandonner des compétences difficilement construites à la recherche d’un profit facile qui finira par s’engloutir. Pour les utilisateurs finaux des produits/services, le risque est l’uniformité indifférenciée de l’offre du marché, combinée à l’aplatissement culturel qui peut en résulter.

Comment atténuer les risques de l’IA générative

Pour atténuer ces risques, une intervention occasionnelle ou superficielle ne suffit pas. Nous avons besoin d’une approche structurée, spécifique et ciblée, qui intervient dès la phase de conception du service ou du produit et se poursuit tout au long du cycle de développement.; conditionne l’éventuel processus de choix du moteur d’IA à utiliser, vérifie les ensembles de données sur lesquels il a été formé, en relation avec la finalité du produit/service, dicte les clauses contractuelles nécessaires au transfert de la gestion des données au fournisseur, dans la mesure de sa compétence, les risques ; guider la composition du groupe de projet et prévoir des moments de vérification pendant le cycle de développement et de test et, enfin, établir des garde-fous pendant le cycle de vie du service ou du produit pour intercepter l’éventuelle émergence d’anomalies systématiques par rapport aux attentes.

Les couverts, le tournevis sont des outils accessibles à tous et que chacun apprend à utiliser dès l’enfance, mais le scalpel nécessite des années d’éducation, de formation et de pratique des chirurgiens : l’IA est un outil plus complexe que le scalpel qui exigera de la société, dans son ensemble et dans ses diverses articulations, des années d’entraînement et de pratique, avec le risque, entre-temps, de se couper et de se faire du mal ou de blesser autrui.

Conclusions

L’éducation, la formation et la pratique des chirurgiens ont valorisé le scalpel comme outil, ils n’ont pas nié son utilité. Le code de la route, la signalisation routière et les auto-écoles n’ont pas compromis l’affirmation de la voiture comme moyen de transport mais l’ont plutôt facilité. Aborder ces aspects ne mettra pas en péril l’utilisation des nouvelles technologies mais, tout au plus, la limitera Ouest lointain sans règles (et les extraordinaires profits qui en découlent) qui accompagne inévitablement l’apparition de technologies innovantes au profit de valeurs que nous ne pouvons – ni les citoyens ni les entreprises – risquer de compromettre. En fin de compte, il s’agit de la durabilité de l’innovation numérique.