L'IA "responsable" peut protéger les enfants sur les réseaux sociaux, selon des chercheurs

L’IA « responsable » peut protéger les enfants sur les réseaux sociaux, selon des chercheurs

Crédit : domaine public Unsplash/CC0

De nouvelles recherches menées par des universitaires de la Warwick Business School de l’Université de Warwick soutiennent qu’une IA « responsable » peut empêcher les enfants de voir en ligne des contenus à la fois nuisibles et légaux mais nuisibles.

Cette nouvelle recherche présente un cadre qui utilise l’IA dite « responsable » pour aider à la modération de contenu. L’étude est publiée dans la revue Avantage concurrentiel dans l’économie numérique (CADE 2022).

Le système proposé peut passer au crible de vastes quantités de langage et d’images pour compiler des « dictionnaires » d’informations sur chacun des domaines les plus nocifs qui menacent les enfants et les jeunes, y compris le discours de haine, la cyberintimidation, le suicide, l’anorexie, la violence infantile et l’abus sexuel d’enfants. .

La prévalence croissante des médias sociaux a entraîné une augmentation des appels à la surveillance lors de la modération du contenu en ligne pour les groupes vulnérables, tels que les enfants. Cependant, cela présente des difficultés lors de la modération du volume considérable de contenu en ligne.

Le système utilise des algorithmes de traitement du langage naturel avec une couche de connaissances, qui peuvent ensuite permettre à la technologie de comprendre le langage plus comme les humains.

Cela signifie la technologie qui peut comprendre le contexte des commentaires, les nuances du discours, les liens sociaux entre les individus de leur âge et leurs relations.

La nouvelle recherche suggère un système de modération de contenu qui prend en compte le contexte des préjudices et des comportements sociaux, qui peuvent exiger une interprétation humaine, combiné à un système d’IA capable de parcourir les quantités massives d’informations produites par les réseaux sociaux.

Shweta Singh, professeur à la Warwick Business School de l’Université de Warwick, est l’un des auteurs de la recherche et prévoit de témoigner devant le Parlement sur la sécurité en ligne des enfants. Elle a commenté: « Jusqu’à présent, les législateurs ont largement autorisé les plateformes de médias sociaux à marquer leurs propres devoirs, suscitant l’indignation à la fois des soignants de jeunes vulnérables et des défenseurs de la liberté d’expression.

« Les législateurs ont besoin d’une meilleure compréhension de la technologie qu’ils cherchent à gouverner. Les entreprises technologiques sont peu incitées à lui imposer une IA responsable, les dénonciateurs récents s’étant prononcés contre les méthodes de modération de Meta et leur impact néfaste.

« Si les régulateurs comprenaient ce qui est possible – une technologie « intelligente » qui lit entre les lignes et sépare les communications bénignes des sinistres – ils pourraient exiger sa présence dans les lois qu’ils cherchent à faire adopter. »

Fourni par l’Université de Warwick