Comment les modèles d'IA s'apprennent à apprendre de nouvelles choses

La technologie de l'IA montre des préjugés culturels : voici pourquoi et ce qui peut être fait

Le professeur Kevin Wong, expert en IA, de l'École des technologies de l'information de l'Université Murdoch, affirme que pour résoudre le problème des préjugés culturels dans l'IA, il est important de comprendre les principes fondamentaux des différentes techniques d'IA.

« Les techniques d'apprentissage automatique, y compris l'IA générative, nécessitent une énorme quantité de données « représentatives » pour entraîner le système complexe », a déclaré le Dr Wong.

« Les techniques d'apprentissage automatique basées sur les données s'appuient sur les données pour établir l'intelligence du système, ce qui signifie que des biais peuvent survenir lorsque les données utilisées ne sont pas suffisamment complètes ou lorsqu'il existe une distribution déséquilibrée. »

Il a déclaré que même si de nombreuses grandes entreprises technologiques tentent de garantir que les questions d'équité, de diversité et d'éthique soient prises en compte dans les données utilisées pour former l'IA générative, le comportement de la technologie peut encore être imprévisible sans une manipulation appropriée.

Certains systèmes d’IA accessibles au public sont pointés du doigt pour leur incapacité à générer des images de couples interracial, ce qui est symptomatique d’un problème bien plus grave.

Le professeur Wong a déclaré qu'une « stratégie globale d'évaluation et de test » était nécessaire.

Le moteur d'un changement à l'échelle du système est une évaluation complète et à long terme visant à créer une base de données plus grande et à améliorer l'architecture de l'IA, mais le professeur Wong a déclaré qu'il existait des stratégies pour résoudre de tels problèmes.

Celles-ci incluent l’intégration d’autres techniques d’IA où les humains ont un meilleur contrôle et une meilleure compréhension, telles que l’IA explicable et l’IA interprétable.

Il s’agit de systèmes qui garantissent que les humains conservent une surveillance intellectuelle, rendant prévisibles les décisions et les réponses données par l’IA.

Cela diffère des autres formes d’IA, où même les concepteurs ne peuvent pas expliquer certains de leurs résultats.

Le professeur Wong a déclaré que l'IA responsable, une sorte de « livre de règles » composé de principes d'IA pour guider le développement, était un autre domaine émergent et important pour le développement des systèmes.

« Il n’existe pas de solution simple qui puisse résoudre ce problème du jour au lendemain ; il faudra peut-être recourir à des approches multidimensionnelles et hiérarchiques pour résoudre des problèmes aussi complexes.

« La question est de savoir comment ajuster au mieux le système d'IA développé pour traiter les questions sensibles de culture, de diversité, d'équité, de confidentialité et d'éthique, qui sont des domaines importants qui guideront l'acceptation de l'utilisateur », a déclaré le professeur Wong.

« Si certains paramètres ou ensembles de données sont ajustés pour inclure la gestion de ces problèmes généraux, existe-t-il un moyen systématique de tester complètement le système d'IA avant de pouvoir le déployer sans blesser qui que ce soit ? »

Bien qu'il existe actuellement des problèmes liés à la diversité et à l'IA, le professeur Wong a déclaré que l'IA pourrait être un moyen puissant de « contribuer à combler les écarts en matière d'équité et de diversité » si elle est utilisée correctement.

« Il est important qu'un système général soit développé suivant certaines règles et considérations éthiques qui puissent ensuite être adaptées aux différentes cultures et besoins personnels », a-t-il déclaré.

« Cependant, des tests et une évaluation approfondis sont essentiels avant une utilisation à grande échelle, car certains résultats pourraient provoquer des émotions sensibles et fragiles chez certaines populations à travers le monde. »