La méfiance en matière d'IA est en augmentation, mais avec un scepticisme sain vient le risque de préjudice

La méfiance en matière d'IA est en augmentation, mais avec un scepticisme sain vient le risque de préjudice

Certains joueurs de jeux vidéo ont récemment critiqué la couverture d'un nouveau jeu vidéo pour avoir été généré avec l'intelligence artificielle (IA). Pourtant, la couverture de Little Droid, qui figurait également dans la bande-annonce de lancement du jeu sur YouTube, n'a pas été concoctée par l'IA. C'est, selon les développeurs, soigneusement conçu par un artiste humain.

Surprise par les attaques de « Ai Sols », le studio endurance Zero a publié une vidéo montrant des versions antérieures de l'habitation de l'artiste. Mais alors que certains ont accepté ces preuves, d'autres sont restés sceptiques.

De plus, plusieurs joueurs ont estimé que même si la petite couverture du Droïde était fabriquée par l'homme, elle ressemblait néanmoins à un travail généré par l'AI.

Cependant, certains arts sont délibérément conçus pour avoir l'apparence brillante futuriste associée à des générateurs d'images comme MidJourney, Dall-E et une diffusion stable.

Il devient de plus en plus facile pour les images, les vidéos ou l'audio avec l'IA pour être dépassée de manière trompeuse comme authentique ou faite humaine. La torsion dans des cas comme Little Droid est que ce qui est humain ou « réel » peut être incorrectement perçu comme généré par la machine, ce qui révèle en réaction déplacée.

De tels cas mettent en évidence le problème croissant de l'équilibre de la confiance et de la méfiance dans l'ère génératrice de l'IA. Dans ce nouveau monde, le cynisme et la crédulité sur ce que nous rencontrons en ligne sont des problèmes potentiels et peuvent entraîner des dommages.

Accusations injustifiées

Ce problème s'étend bien au-delà du jeu. Il y a des critiques croissantes de l'intégration de l'IA pour générer et publier de la musique sur des plateformes comme Spotify.

Pourtant, en conséquence, certains artistes de musique indépendante ont été accusés à tort de générer de la musique d'IA, entraînant des dommages à leurs carrières en plein essor en tant que musiciens.

En 2023, un photographe australien a été disqualifié à tort dans un concours photo en raison du jugement erroné que son entrée a été produit par l'intelligence artificielle.

Les écrivains, y compris les étudiants soumettant des essais, peuvent également être faussement accusés d'utiliser sournoisement l'IA. Les outils de détection d'IA actuellement disponibles sont loin d'être infaillibles – et certains soutiennent qu'ils peuvent ne jamais être entièrement fiables.

Des discussions récentes ont attiré l'attention sur les caractéristiques communes de l'écriture de l'IA, notamment l'EM Dash – que, en tant qu'auteurs, nous nous emploions souvent.

Étant donné que le texte de systèmes comme Chatgpt a des caractéristiques, les écrivains sont confrontés à une décision difficile: devraient-ils continuer à écrire dans leur propre style et risquer d'être accusés d'utilisation de l'IA, ou devraient-ils essayer d'écrire différemment?

L'équilibre délicat de confiance et de méfiance

Les graphistes, les acteurs de la voix et bien d'autres sont à juste titre préoccupés par l'IA de les remplacer. Ils sont également naturellement préoccupés par les entreprises technologiques utilisant leur travail pour former des modèles d'IA sans consentement, crédit ni compensation.

Il y a d'autres préoccupations éthiques que les images générées par l'IA menacent l'inclusion autochtone en effaçant les nuances culturelles et en stimulant les droits de propriété culturelle et intellectuelle indigènes.

Dans le même temps, les cas ci-dessus illustrent les risques de rejeter l'effort humain authentique et la créativité en raison d'une fausse croyance, c'est de l'IA. Cela peut aussi être injuste. Les personnes accusées à tort d'utiliser l'IA peuvent subir des dommages émotionnels, financiers et de réputation.

D'une part, être dupe que le contenu d'IA est authentique est un problème. Considérez Deepfakes, des vidéos fausses et de fausses images de politiciens ou de célébrités. Le contenu d'IA prétendant être réel peut être lié à des escroqueries et à une désinformation dangereuse.

D'un autre côté, la méfiance à tort du contenu authentique est également un problème. Par exemple, rejeter l'authenticité d'une vidéo de crimes de guerre ou de discours de haine par des politiciens – fondé sur la croyance erronée ou délibérée que le contenu a été généré par l'IA – peut entraîner un grand mal et une injustice.

Malheureusement, la croissance du contenu douteux permet aux personnes sans scrupules de prétendre que la vidéo, l'audio ou les images exposant de vrais actes répréhensibles sont faux.

À mesure que la méfiance augmente, la démocratie et la cohésion sociale peuvent commencer à s'effilocher. Compte tenu des conséquences potentielles, nous devons nous méfier d'un scepticisme excessif sur l'origine ou la provenance du contenu en ligne.

Un chemin à terme

L'IA est une technologie culturelle et sociale. Il intervient et façonne nos relations les uns avec les autres, et a potentiellement des effets transformationnels sur la façon dont nous apprenons et partageons des informations.

Le fait que l'IA conteste nos relations de confiance avec les entreprises, le contenu et les uns des autres n'est pas surprenante. Et les gens ne sont pas toujours à blâmer lorsqu'ils sont dupés par des matériaux fabriqués par AI. Ces sorties sont de plus en plus réalistes.

En outre, la responsabilité d'éviter la tromperie ne devrait pas incomber entièrement aux internautes et au public. Les plateformes numériques, les développeurs d'IA, les entreprises technologiques et les producteurs de matériel d'IA devraient être tenus responsables grâce aux exigences de réglementation et de transparence concernant l'utilisation de l'IA.

Malgré cela, les internautes devront toujours s'adapter. La nécessité d'exercer un sentiment de scepticisme équilibré et équilibré envers le matériel en ligne devient plus urgent.

Cela signifie adopter le bon niveau de confiance et de méfiance dans les environnements numériques.

Le philosophe Aristote a parlé de la sagesse pratique. Grâce à l'expérience, à l'éducation et à la pratique, une personne pratiquement sage développe des compétences pour bien juger dans la vie. Parce qu'ils ont tendance à éviter un mauvais jugement, y compris un scepticisme excessif et une naïveté, la personne pratiquement sage est mieux à même de s'épanouir et de bien faire par d'autres.

Nous devons détenir des entreprises technologiques et des plateformes pour tenir compte du préjudice et de la tromperie causée par l'IA. Nous devons également nous éduquer, nos communautés et la prochaine génération pour bien juger et développer une certaine sagesse pratique dans un monde incomparable de contenu d'IA.