Etica responsabilità AI

AI sur le cloud: éthique et responsabilité, problèmes encore à résoudre

À travers Internet et le concept de nuage Il a été possible de créer des services qui sont devenus en quelque sorte une sorte de mémoire collective de l’humanité, non comprise dans un sens historique, c’est le bizarre, mais en tant que collection des souvenirs épisodiques des personnes individuelles surplombant la ligne en ligne, d’abord avec l’intermitte des moments dans lesquels il a été accessible avec des ordinateurs ancrés à un tableau mais plus continu, après l’époque lorsqu’il était présent lui-même « (…) Un iPod, un téléphone et un communicateur Internet« , »(…) Pas trois appareils séparés mais un seul appareil« . Après un court laps de temps, tout le monde a été constamment connecté à Internet, capable de mettre à jour la mémoire collective en ligne et les profils précis populaires catalogués avec des entreprises de plus en plus grandes.

mémoire collective il a donc été utilisé à diverses fins, y compris le Formation des réseaux neuronaux sur d’immenses ensembles de données. En d’autres termes, les machines ont été invitées à commencer à imiter le comportement humain, en apprenant des milliards de souvenirs écrits, conçus, pris et filmés par de vraies personnes dans les décennies d’Internet.

Ce choix a créé une situation particulière dans laquelle Les fragments d’informations créés pour la consommation d’un cercle restreint de relations sont devenus des objets sur lesquels former des produits à offrir à l’humanité entière.

Le mot «produits» est écrit avec un pluriel très étroit car seules quelques réalités peuvent avoir les outils de formation sur des ensembles de données aussi importants aujourd’hui.

Le problème éthique de l’IA générative

Nous pensions qu’avec les ordinateurs, ce ne serait pas nécessaire, tant d’être bon progrès. C’était juste une illusion. Nous sommes à nouveau placés devant Un problème éthique remarquablea rampé très lentement et est parti pour grandir autour de nous, comme si de rien ne s’était passé.

Comment faire face à un problème aussi large? Il faut probablement commencer par la conscience de ce que sont les plates-formes où les fragments de notre existence sont versés: les systèmes de profilage et la vente d’initiatives publicitaires. C’était du moins la physionomie des plateformes avant l’avènement des premiers outils de niveau génératif. À partir de ce moment, il était clair que les plates-formes, mais potentiellement n’importe quel système contenant des informations librement accessibles est devenue Aussi Une base pour la formation des systèmes d’IA.

Il faut être conscient aujourd’hui que Ce qui est versé en ligne est utilisé au-delà de la sphère de ses relations, avec une valeur supérieure au contenu émotionnel de ce qui est écrit, conçu ou pris. Il s’agit d’une matière première précieuse nécessaire pour nourrir de nouveaux produits.

La transmutation de la teneur en charbon émotionnelle des GPU entraîne une conséquence non triviale. Les informations utilisées, faites avec une approche spontanée, sans intention sur l’autorité ou la persistance au fil du temps produisent un préjugé inévitable et des inexactitudes autour de la belle prose générée par LLM ou à la probabilité des images générées par les outils incroyables disponibles.

Biais latent

Le biais est un phénomène de traitement difficile car les informations initiales contient inévitablement des formes de «prédisposition» envers les caractères, les aspects, les habitudes, les styles, l’esthétique spécifique. Il est normal que les gens produisent des informations modélisées inconsciemment sur des aspects de leur culture ou de l’environnement dans lequel ils vivent. Il serait compliqué et contre nature de faire autrement et il y aurait un risque de devenir nihiliste d’une manière ou d’une autre pour produire des informations « portables par quiconque ».

Bien sûr, l’intention de sélectionner des informations pour les rendre moins soumises aux biais est également un processus soumis au conditionnement, mais divers et experts que l’équipe est confiée à la tâche peut être.

Il y a aussi la capacité des modèles à identifier les corrélations faibles dans les données, les connexions trop fermement pour être «vues» par les personnes. Le système pourrait identifier les formes de biais latents et les verser dans la génération de contenu de manière difficile à voir.

L’importance de la gouvernance des données

L’importance du Gouvernance des données, avec l’historisation des ensembles de formation et la maintenance au fil du temps avec des outils de hachage et la signature numérique. Étant donné l’impossibilité d’être «neutre» ou de prédire tous les scénarios d’utilisation future, il est plus réaliste d’adapter le système au fil du temps, réévaluant les ensembles de formation, identifiant les limites lors de l’utilisation et améliorant les informations de formation suivant les commentaires des utilisateurs.

En ayant une histoire complète des ensembles de données utilisés, il devient également possible de demander des audits impartiaux de tiers au fil du temps et ainsi d’améliorer la qualité et la diversité des informations.

D’un autre côté, un manque d’historiisation peut impliquer un manque de volonté de comparaison et d’amélioration, un phénomène à craindre pour les systèmes qui visent à changer la physionomie du monde du travail.

Biais et opportunités

Cependant, le biais peut devenir une opportunité commerciale dans des contextes jugés trop petits pour les besoins alimentaires abondants des grands acteurs ou où la myopie ne voit pas du tout de l’opportunité.

Les petits opérateurs, enracinés dans des communautés de niche, peuvent développer des solutions efficaces pour générer des résultats dans peu de langues parlées ou, au contraire, dans des langues répandues, mais avec une production écrite limitée, insuffisante pour des modèles conçus pour s’appuyer sur un grand corpus textuel en idiommes répandus tels que l’anglais, le mandarin, l’espagnol, les portugais ou les hindi.

Il existe des projets très intéressants pour les langues de l’Afrique du Sud comme le swahili, le zoulu, etc.

la responsabilité de l'éthique de

Le nuage en tant qu’agent polluant

Le thème du biais reste particulièrement intéressant car c’est la preuve que si les modèles et les algorithmes ont maintenant atteint un niveau de qualité très élevé, Les données restent souvent le véritable lien faible: désorganisé, inexact et parsemé d’erreurs. Il ne pourrait pas être donné la source: le nuage de plates-formes, de flux et de pages publiques.

Comme déjà écrit, le cloud est la mémoire indélébile pour une immeuble d’informations occasionnelles, écrite par Jet, souvent sur la vague d’émotions ou la banalité d’un moment. En grande partie non vérifiée.

À cela doit être ajouté les campagnes de désobéissance dans lesquelles les bases de données sont modifiées avec des erreurs ou des inexactitudes afin d’affecter la collecte en indexant les agents. Il existe également des formes de interférence culturelle Dans quels systèmes sont utilisés pour masquer les modèles dans les images pour (tenter de faire dérailler la catégorisation et polluer le matériel utilisé pour la formation.

Entraîner des systèmes à travers des sources précieuses

Les systèmes pourraient être préférés qui ont été formés par des sources précieuses, telles que les journaux en ligne avec une réputation de dix ans pour la vérification des informations et des responsabilités. C’est une source qui « sonne mieux » par rapport aux conversations spontanées d’environnements sociaux ou de groupes de discussion. Il n’y a rien de mal à cela, ce sont des expressions légitimes dans un contexte de liberté d’expression. Cependant, il existe d’innombrables cas dans lesquels les compétences certifiées et non seulement des opinions sont nécessaires.

Il serait utile qu’il y ait une politique généralisée de « divulgation« Cette fois, cependant, par les producteurs, une sorte d’étiquette nutritionnelle dans les systèmes génératifs pour savoir exactement quelles sources ont été utilisées pour la formation, afin de connaître exactement les » ingrédients « et donc de faire conscience de choix sur ce qu’il faut consommer et quoi éviter. Mieux encore si avec une liste de sources précises à référence pour la vérification de la génération.

Qui est responsable des algorithmes?

Un principe clé du monde libre est responsabilité de leurs actions et de leurs paroles.

Dans le domaine de l’IA et des algorithmes génératifs, où est la responsabilité? Il est certainement mal d’exiger que cela ne s’intègre que sur l’un des acteurs, c’est l’utilisateur, les plates-formes, les opérateurs de cloud ou les producteurs de systèmes d’IA. Il est tout aussi incorrect en ignorant le problème ou non responsable des joueurs avec la justification que les progrès ne doivent pas être arrêtés.

Quand le « progrès« Il est effectué par quelques opérateurs, avec la perspective de changements radicaux dans la société et dans le monde du travail, il devient nécessaire de poser des questions et de poser des interventions qualifiées par le législateur. Non seulement des codes utiles, tels que AI actesmais aussi un impact sur les évaluations de la Société des initiatives technologiques, en particulier dans un moment historique difficile de faible économie, de ralentissement industriel, de changements de soldes géopolitiques, de dangers imminents, de coûts élevés de l’énergie et des matières premières. Toute nouvelle variable dans un tel contexte peut générer des conséquences difficiles à traiter.

Il est également essentiel de réfléchir à l’impact de vos actions en ligne et de comprendre que, bien que les publications personnelles soient destinées à des cercles étroits de personnes, ils peuvent déclencher un effet papillon lorsqu’ils sont utilisés pour former des systèmes d’intelligence artificielle. Il est nécessaire d’acquérir la prise de conscience du fait que la production de modèles généralistes sera également influencée par ses communications à l’impulsion triviale.

En particulier les jeunes doivent être aidés. Ce devrait être la tâche de l’école de fournir les outils critiques nécessaires afin que les gens puissent se développer consciemment en utilisant les systèmes basés sur l’IA et le cloudtout en évitant l’utilisation trompeuse d’expressions telles que « le système a pensé », « le système a raisonné » ou « le système a imaginé ».

Enfin, un effort doit également être demandé dans les entreprises et les organisations qui utilisent des outils AI, promouvant la diffusion d’une politique de divulgation claire, afin que les gens soient conscients de ce qui a été construit par la voie des pensées et ce qui a été entièrement généré puis simplement édité.

L’informatisation de masse des années 80

La confiance que l’humanité a placée dans le cycle actuel était justifiée par la capacité de l’innovation que leinformatisation de masse Il a produit à partir des années 80 du siècle dernier. Les gens ont progressivement acquis la capacité de mémoriser de grandes quantités d’informations, de développer des ensembles de croissance continue de plus en plus rapidement et d’automatiser un grand nombre de tâches qui ont été effectuées pendant de longues temps de manière répétitive, sous forme manuelle, avec toutes les conséquences en termes d’erreurs, de lenteur et de difficulté à améliorer la valeur pour produire de la valeur.

Le développement des technologies de l’information a produit d’immenses avantages et a conduit à un phénomène de développement hyperbolique de la technique, une vitesse qui, à quelques reprises dans l’histoire de l’humanité, a été possible pour aider.

Dans l’ensemble, c’était un développement avec un impact lent sur l’emploi et les modes de vie, Depuis que les ordinateurs ont pu faire des choses que les humains savent comment faire jusqu’à présentseulement d’une manière beaucoup plus rapide et avec la capacité de ne pas oublier, aussi océanique les fondements de l’accumulation.

Après les ordinateurs, Internet

Cela n’aurait pas été un phénomène problématique s’il ne l’avait pas été pour un fils inattendu: Internet. Né dans les domaines de recherche, pris en charge par le financement militaire, puis libéré dans les années 90 avec le rêve d’autoriser la communication et l’échange universel, au cours des dix dernières années un outil jamais vu dans la collecte d’informations personnelles (bien que librement fournis par les parties intéressées) et des prophylations (si elles sont clairement spécifiées en « termes d’utilisation »). Papyrus légal qui peut être maintenu roulé simplement en faisant défiler la souris ou un trackpad très rapidement et en cliquant sur un carré en bas. Lisez sans lire, une «évolution» secondaire tordu du progrès.

C’était suffisant (et quelques autres idées juridiques) pour orienter l’activité de réseau, de la technologie pure au profilage des habitudes et à la maintenance dans d’immenses données privées de pensées, de commentaires et de photos de milliards d’utilisateurs.