L'IA peut évoluer pour se sentir de la culpabilité, mais seulement dans certains environnements sociaux
La culpabilité est une qualité très avantageuse pour la société dans son ensemble. Cela pourrait ne pas empêcher les méfaits initiaux, mais la culpabilité permet aux humains de juger leurs propres jugements antérieurs comme nuisibles et les empêche de se reproduire. La détresse interne causée par des sentiments de culpabilité souvent – mais pas toujours – résulte la personne qui prenait une sorte de pénitence pour se soulager des troubles internes. Cela pourrait être quelque chose d'aussi simple que d'admettre leurs actes répréhensibles aux autres et de prendre une légère stigmatisation de quelqu'un qui est moralement corrompu. Ce coût initial pourrait être initialement douloureux, mais peut soulager la culpabilité et conduire à une meilleure coopération pour le groupe à l'avenir.
Alors que nous interagissons de plus en plus avec l'intelligence artificielle et l'utilisons dans presque tous les aspects de notre société moderne, trouver des moyens d'inculquer la prise de décision éthique devient plus critique. Dans une étude récente, publiée dans le Journal of the Royal Society Interfaceles chercheurs ont utilisé la théorie des jeux pour explorer comment et quand la culpabilité évolue dans des systèmes multi-agents.
Les chercheurs ont utilisé le « dilemme des prisonniers » – un jeu où deux joueurs doivent choisir entre coopération et défaut. Le défection offre à un agent un gain plus élevé, mais il doit trahir son partenaire. Ceci, à son tour, rend plus probable que le partenaire fasse également défaut. Cependant, si le jeu est répété encore et encore, la coopération entraîne un meilleur gain pour les deux agents.
Initialement, cependant, ce passage du défection à la coopération nécessite un «sentiment» de culpabilité et de pénitence sous la forme de points réduits. Cette version itérée a été utilisée dans l'étude parmi les structures de réseau bien mélangées et en réseau (homogènes) et sans échelle (hétérogènes).
Les chercheurs ont également distingué deux types de culpabilité différents: la culpabilité sociale, qui nécessite la conscience des états des autres, et la culpabilité non sociale, qui est auto-focalisée et ne nécessite pas de conscience sociale.
En fin de compte, les résultats ont montré que la culpabilité sociale et non sociale a évolué et a persisté dans les populations les plus structurées, où les stratégies impliquant la culpabilité ont dominé et conduit à des niveaux de coopération plus élevés. La culpabilité non sociale était plus vulnérable à l'exploitation par des individus qui ne ressentaient pas de culpabilité, mais ont survécu par le regroupement avec des stratégies similaires émotionnellement. Les populations bien mélangées, en revanche, ont connu beaucoup moins de coopération. La culpabilité sociale n'a évolué que lorsque le coût social était suffisamment faible, mais la culpabilité non sociale n'a pas évolué du tout.
Un fil conducteur semblait être que les agents trouvaient plus avantageux d'atteler leurs actions (en perdant des points et en coopérant au lieu de faire défection) que lorsque leur partenaire a également montré une culpabilité, qui était plus susceptible de se produire dans les réseaux sociaux structurés. Et donc, évaluer les actions de leur partenaire a été une partie importante du processus.
Les auteurs de l'étude écrivent: « La coopération n'émerge pas lorsque les agents ne font que soulager leur propre culpabilité (c'est-à-dire la culpabilité non sociale), sans considérer également les attitudes de leurs co-joueurs à l'égard de la culpabilité. Mutual (c'est-à-dire la culpabilité sociale) peut prospérer la coopération. «
Bien que les réseaux sociaux réels puissent être plus complexes que ceux des simulations, cette étude fournit un aperçu précieux de la façon dont la culpabilité et la coopération éthique pourraient être intégrées dans les systèmes d'IA.
Écrit pour vous par notre auteur Krystal Kasal, édité par Lisa Lock, et vérifié et examiné par Robert Egan – cet article est le résultat d'un travail humain minutieux. Nous comptons sur des lecteurs comme vous pour garder le journalisme scientifique indépendant en vie. Si ce rapport vous importe, veuillez considérer un don (surtout mensuel). Vous obtiendrez un sans publicité compte comme un remerciement.
