Google et Microsoft apportent l'IA aux applications bureautiques.  Comment cela pourrait augmenter la productivité pour nous et les cybercriminels

Google et Microsoft apportent l’IA aux applications bureautiques. Comment cela pourrait augmenter la productivité pour nous et les cybercriminels

Crédit : Shutterstock

Google et Microsoft ont pour mission de supprimer la corvée de l’informatique, en apportant des outils d’IA de nouvelle génération en tant que modules complémentaires aux services existants.

Le 16 mars, Microsoft a annoncé un système alimenté par l’IA appelé Copilot sera bientôt introduit dans ses applications de la suite 365, notamment Word, Excel, PowerPoint, Outlook et Teams.

La nouvelle est tombée environ deux jours après Google a publié un blog expliquant ses plans pour intégrer l’IA dans ses applications Workspace telles que Docs, Sheets, Slides, Meet et Chat.

Collectivement, des millions de personnes utilisent ces applications chaque jour. Les renforcer avec l’IA pourrait donner un coup de pouce majeur à la productivité, tant que la sécurité n’est pas une réflexion après coup.

L’avènement de l’IA générative

Jusqu’à récemment, l’IA était principalement utilisée pour des tâches de catégorisation et d’identification, telles que la reconnaissance d’une plaque d’immatriculation à l’aide d’une caméra de circulation.

L’IA générative permet aux utilisateurs de créer de nouveaux contenus, en appliquant des algorithmes de deep learning au big data. ChatGPT et DALL-Eentre autres, ont déjà conquis le monde.

Maintenant, Microsoft et Google ont trouvé un moyen plus concret d’introduire l’IA générative dans nos bureaux et nos salles de classe.

Comme d’autres outils d’IA générative, Copilot et Workspace AI sont construits sur de grands modèles de langage (LLM) formés sur des quantités massives de données. Grâce à cette formation, les systèmes ont « appris » de nombreuses règles et modèles qui peuvent être appliqués à de nouveaux contenus et contextes.

Copilot de Microsoft est testé avec seulement 20 clients, avec des détails sur la disponibilité et les prix à être libéré « Dans les mois à venir ».

Copilot sera intégré à toutes les applications pour aider à accélérer les tâches fastidieuses ou répétitives. Par exemple, il va :

  • aider les utilisateurs à rédiger, modifier et résumer des documents Word
  • transformer des idées ou des résumés en présentations PowerPoint complètes
  • identifier les tendances des données dans Excel et créer rapidement des visualisations
  • « synthétiser et gérer » votre boîte de réception Outlook
  • fournir des résumés en temps réel des réunions Teams
  • rassemblez des données provenant de documents, de présentations, d’e-mails, d’agendas, de notes et de contacts pour vous aider à rédiger des e-mails et à résumer les discussions.

En supposant qu’il exécute ces tâches efficacement, Copilot sera une mise à niveau massive de l’assistant Office original de Microsoft, Clippy.

Workspace AI de Google offrira des fonctionnalités similaires pour abonnés payants.

Qu’y a-t-il sous le capot ?

Microsoft a décrit Copilot comme un « moteur de traitement et d’orchestration sophistiqué travaillant dans les coulisses pour combiner la puissance des LLM, y compris GPT-4 […]. »

Selon OpenAI.

L’IA Workspace de Google s’appuie sur Palmier (Modèle de langage Pathways), qui a été formé sur une combinaison de livres, d’articles de Wikipédia, d’articles de presse, de codes sources, de pages Web filtrées et de conversations sur les réseaux sociaux.

Les deux systèmes sont intégrés à l’infrastructure cloud existante. Cela signifie que toutes les données auxquelles ils s’appliquent seront déjà en ligne et stockées sur les serveurs de l’entreprise.

Les outils vont besoin d’un accès complet au contenu pertinent afin d’apporter des réponses contextualisées. Par exemple, Copilot ne peut pas distiller un document Word de 16 pages en une seule page de puces sans d’abord analyser le texte.

Cela soulève la question suivante : les informations des utilisateurs seront-elles utilisées pour former les modèles sous-jacents ?

Par rapport à ce point, Microsoft a déclaré : « Les grands modèles de langage de Copilot ne sont pas formés sur le contenu du client ou sur des invites individuelles. »

Google a dit« […] les données privées sont gardées privées et ne sont pas utilisées dans le corpus plus large de formation du modèle de fondation. »

Ces déclarations suggèrent que le document de 16 pages lui-même ne sera pas utilisé pour former les algorithmes. Au lieu de cela, Copilot et Workspace AI traiteront les données en temps réel.

Compte tenu de la ruée vers le développement de tels outils d’IA, il pourrait être tentant de former ces outils sur des données « réelles » spécifiques aux clients à l’avenir. Pour l’instant, cependant, il semble que cela soit explicitement exclu.

Problèmes d’utilisabilité

Comme de nombreuses personnes l’ont noté après la sortie de ChatGPT, les outils d’IA génératifs basés sur le texte sont sujets à biais algorithmique. Ces préoccupations s’étendront aux nouveaux outils de Google et Microsoft.

Les résultats des outils d’IA générative peuvent être truffés d’inexactitudes et de préjugés. Le propre chatbot Bing de Microsoft, qui fonctionne également sur GPT-4, est venu sous le feu plus tôt cette année pour avoir fait des déclarations scandaleuses.

Un biais se produit lorsque de grands volumes de données sont traités sans sélection ou compréhension appropriée des données de formation, et sans surveillance appropriée des processus de formation.

Par exemple, une grande partie du contenu en ligne est rédigée en anglais, ce qui est probablement la langue principale parlé par le (surtout blanc et mâle) personnes développant des outils d’IA. Ce biais sous-jacent peut influencer le style d’écriture et les constructions linguistiques compris par, puis reproduits par, les systèmes pilotés par l’IA.

Pour l’instant, il est difficile de dire exactement comment les problèmes de biais pourraient se présenter dans Copilot ou Workspace AI. À titre d’exemple, les systèmes peuvent tout simplement ne pas fonctionner aussi efficacement pour les personnes vivant dans des pays non anglophones ou avec différents styles d’anglais.

Problèmes de sécurité

L’une des principales vulnérabilités des outils d’intelligence artificielle de Microsoft et de Google est qu’ils pourraient permettre aux cybercriminels de saigner leurs victimes beaucoup plus facilement.

Alors qu’auparavant, un criminel pouvait avoir besoin de parcourir des centaines de fichiers ou d’e-mails pour trouver des données spécifiques, il peut désormais utiliser des fonctionnalités assistées par l’IA pour rassembler et extraire rapidement ce dont il a besoin.

De plus, comme il n’y a jusqu’à présent aucune indication de versions hors ligne disponibles, toute personne souhaitant utiliser ces systèmes devra télécharger le contenu pertinent en ligne. Les données téléchargées en ligne risquent davantage d’être piratées que les données stockées uniquement sur votre ordinateur ou votre téléphone.

Enfin, du point de vue de la confidentialité, il n’est pas particulièrement inspirant de voir encore plus de voies par lesquelles les plus grandes entreprises du monde peuvent collecter et synthétiser nos données.

Fourni par La Conversation