Google Bard introduit la double vérification des réponses
Google travaille sur des solutions intéressantes pour améliorer la fiabilité des réponses générées par son intelligence artificielle, Barde. Afin de garantir la qualité et la fiabilité des textes produits, Bard a introduit une nouvelle fonctionnalité, appelée « revérifier », qui utilise les informations disponibles sur le Web pour vérifier les réponses. Ce nouvel outil pourrait avoir un impact significatif sur la confiance que les utilisateurs accordent au contenu généré par l’IA.
En fait, le doute et la confiance sont étroitement liés. Avant de définir une information comme fiable, nous devons la vérifier, vérifier la fiabilité des sources et éventuellement peser différentes opinions sur le même sujet. Mais lorsque les gens interagissent avec les machines, les choses changent. Il existe le biais d’automatisation, c’est-à-dire le phénomène qui amène les utilisateurs à considérer les réponses générées par un ordinateur comme correctes et optimales. La réalité est cependant très différente : les IA génératives ont divers problèmes de fiabilité et peuvent avoir des « hallucinations » qui les amènent à donner des réponses partielles, incorrectes ou, dans certains cas, totalement inventées.
Comment fonctionne la double vérification de Bard
Le revérifier Google Bard est une nouvelle spécification introduite par Google pour améliorer la précision et la fiabilité des réponses fournies par Bard, son IA générative. Cette fonctionnalité utilise le principal atout de Google : l’accès direct à un vaste ensemble de données indexées sur Internet. Pour le moment, cette nouvelle fonctionnalité n’est disponible que pour les recherches en anglais, mais sera bientôt étendue à tous les comptes.
Voici comment fonctionne la double vérification de Google Bard :
Réponse initiale: Lorsque Bard génère une réponse ou une solution, l’utilisateur aura un nouveau bouton « G ». Ce bouton offrira la possibilité d’effectuer une recherche supplémentaire pour vérifier la réponse fournie par Bard.
- Réponse surlignée en vert: réponse confirmée. Il existe des sources fiables qui soutiennent la réponse donnée par Bard.
- Répondez sans surligner : ni confirmations ni refus en ligne. C’est comme si Bard avait dit « pas de commentaire ». Il s’agit peut-être d’une réponse pour laquelle vous ne trouvez pas d’informations claires en ligne.
- Réponse surlignée en orange: réponse douteuse; certaines pages Internet expriment de forts doutes ou suggèrent une possible erreur dans la réponse de Bard.
L’utilisateur a la possibilité de cliquer sur chacune des réponses en surbrillance, en vert ou en orange, pour être redirigé vers une nouvelle fenêtre du navigateur. Dans cette nouvelle fenêtre, l’utilisateur peut visualiser directement les sources en ligne qui confirment ou infirment la réponse de Bard. Cela permet d’examiner les sources de première main pour faire une évaluation personnelle des différentes opinions sur le sujet et, par conséquent, estimer la fiabilité de la réponse générée par l’intelligence artificielle.
Google Bard double-check est un outil qui donne aux utilisateurs un plus grand contrôle et une plus grande transparence sur les réponses générées par l’intelligence artificielle. Cela leur permet de vérifier de manière indépendante la validité de leurs réponses en examinant les sources et diverses opinions sur le sujet, pour prendre des décisions éclairées.
La confiance des utilisateurs : le prochain défi de l’IA générative
La confiance des utilisateurs est un facteur crucial dans le progrès de l’intelligence artificielle. Nous devons trouver un nouvel équilibre entre doute et confiance, surmonter les préjugés liés à l’automatisation grâce à une plus grande sensibilisation et améliorer l’architecture de l’IA pour fournir aux utilisateurs de nouveaux outils garantissant la confiance. Sans confiance, il sera impossible d’appliquer l’IA à des scénarios quotidiens qui nécessitent interaction, collaboration et prise de décision. Mais cette confiance n’est pas acquise, elle doit se gagner en démontrant la fiabilité, la transparence et la responsabilité des outils basés sur l’IA.
L’ère d’Internet a constitué une révolution sans précédent pour la communication mondiale. Mais avec le progrès technologique, de nouveaux défis sont apparus, notamment la propagation effrénée de la désinformation et la manipulation des masses au moyen de contenus déformés. L’avènement de l’intelligence artificielle a suscité à la fois des espoirs et des inquiétudes sur cette question. L’IA pourrait être à la fois une partie du problème et une partie de la solution, selon la manière dont elle est utilisée et réglementée. Si l’IA peut être utilisée pour créer du contenu faux et trompeur de manière plus sophistiquée que les humains, elle peut également être utilisée pour développer des outils avancés de vérification et de correction des informations.
Les développeurs et fournisseurs d’IA jouent un rôle crucial dans ce contexte. Ils doivent s’engager à créer des solutions éthiques, sûres et respectueuses des droits de l’homme. Cela implique l’adoption de principes clairs de responsabilité dans l’utilisation de l’IA et de transparence dans la création et la formation des algorithmes.
Des IA qui doutent d’elles-mêmes
Il est essentiel que les IA génératives acquièrent la capacité de douter d’elles-mêmes, car cette caractéristique contribue significativement à améliorer la fiabilité et la qualité des informations qu’elles proposent aux utilisateurs.
La capacité d’exprimer l’incertitude est un élément crucial de la communication humaine, tout comme l’intelligence artificielle. Lorsqu’un système d’IA peut reconnaître et signaler son incertitude quant à une réponse ou la présence de données d’entrée incertaines, il ouvre la porte à un dialogue plus transparent et informatif.. Les utilisateurs peuvent ainsi être alertés lorsqu’une réponse peut ne pas être totalement exacte ou nécessiter une vérification plus approfondie.
Cela renforce la confiance des utilisateurs dans l’IA et favorise une collaboration plus efficace entre l’IA et les individus, leur permettant de prendre des décisions plus éclairées, basées sur une compréhension plus claire des informations disponibles.