IdentifiantMot de passe
Loading...
Mot de passe oubli� ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les r�ponses en temps r�el, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Microsoft annonce l'arriv�e du � vibe working � dans Excel et Word avec son � Agent Mode �


Sujet :

Intelligence artificielle

  1. #81
    Chroniqueur Actualit�s

    Homme Profil pro
    Administrateur de base de donn�es
    Inscrit en
    Mars 2013
    Messages
    9 659
    D�tails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activit� : Administrateur de base de donn�es

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 659
    Par d�faut Microsoft Copilot peut d�sormais lire ce qui est affich� sur votre �cran pour vous donner des r�ponses
    Microsoft Copilot peut d�sormais lire ce qui est affich� sur votre �cran pour vous donner des r�ponses contextuelles,
    vous parler � voix haute et r�soudre des probl�mes complexes

    Une semaine apr�s avoir annonc� une vague de mises � jour pour sa suite de produits d'entreprise Copilot aliment�s par l'IA, Microsoft lance de nouvelles fonctionnalit�s Copilot sur Windows pour tous les utilisateurs, y compris un outil qui peut comprendre et r�pondre � des questions sur ce qui est affich� � l'�cran.

    Les nouvelles applications Copilot pour iOS, Android, Windows et le web sont d�sormais disponibles et pr�sentent toutes un Copilot au style plus � chaleureux � et � distinct �, comme le d�crit Microsoft. Microsoft int�gre �galement le chatbot � WhatsApp, permettant aux utilisateurs de discuter avec Copilot par messagerie priv�e, comme ils le font d�j� avec d'autres bots sur la plateforme de messagerie de Meta.


    � Notre nouveau Copilot se veut plus intuitif et propose des r�ponses plus digestes, plus rapides et plus fluides. Il s'adapte d�sormais � vous avec un ton chaleureux et un style distinct, vous fournissant non seulement des informations mais aussi des encouragements, des commentaires et des conseils pour vous aider � relever les d�fis quotidiens de la vie, qu'ils soient petits ou grands. Par exemple, en plus de vous aider � planifier ce grand voyage, il peut �galement vous donner des conseils sur la mani�re de garder votre sang-froid lorsque, par exemple, le dossier de votre si�ge re�oit des coups de pied d'un enfant en bas �ge.

    � Nous ajoutons des fonctionnalit�s avanc�es, telles que la voix et la vision, qui le rendent � la fois plus utile et plus naturel. Ces modalit�s changent la fa�on dont nous nous connectons � la technologie, permettant aux gens de r�fl�chir, d'apprendre et de travailler en toute transparence avec leurs compagnons Copilot �.


    Lecture de l��cran et analyse contextuelle avec Copilot Vision

    Copilot Vision a une vision de ce que vous regardez sur votre PC (plus pr�cis�ment, une vision des sites que vous visitez avec Microsoft Edge). Reli� � Copilot Labs, un nouveau programme d'opt-in exclusif � Copilot Pro pour les fonctionnalit�s exp�rimentales de Copilot, Copilot Vision peut analyser le texte et les images des pages web et r�pondre � des questions (par exemple, � Quelle est la recette du plat sur cette image ? �) � leur sujet.

    Vision, que l'on peut obtenir en tapant � @copilot � dans la barre d'adresse d'Edge, n'est pas exactement une merveille technique. Google propose une technologie de recherche similaire sur Android et a r�cemment int�gr� des �l�ments de cette technologie dans Chrome.

    Mais Microsoft laisse entendre que Copilot Vision est plus puissant et plus respectueux de la vie priv�e que les pr�c�dentes fonctions d'analyse d'�cran.

    Copilot peut � comprend la page web que vous consultez, qu'il s'agisse de texte ou d'images, et peut r�pondre � des questions sur son contenu, sugg�rer les prochaines �tapes et vous aider sans perturber votre flux de travail. Imaginez que vous essayez de meubler un nouvel appartement, Copilot Vision peut vous aider � rechercher des meubles, � trouver la bonne palette de couleurs, � r�fl�chir aux options qui s'offrent � vous, des tapis aux jet�s, et m�me � vous sugg�rer des fa�ons d'agencer ce que vous regardez �.

    Autre exemple : si vous regardez une recette en ligne, Copilot peut vous fournir des informations suppl�mentaires sur les ingr�dients ou m�me sugg�rer des variantes de la recette.

    Sans doute d�sireux d'�viter une nouvelle vague de mauvaise presse li�e aux erreurs de confidentialit� de l'IA, Microsoft insiste sur le fait que Copilot Vision a �t� con�u pour supprimer les donn�es imm�diatement apr�s les conversations. Les donn�es audio, les images ou le texte trait�s ne sont pas stock�s ou utilis�s pour former des mod�les, affirme l'entreprise - du moins pas dans cette version de pr�visualisation.


    Copilot Vision est �galement limit� dans les types de sites web qu'il peut interpr�ter. Pour l'instant, Microsoft emp�che la fonctionnalit� de fonctionner sur les contenus payants et � sensibles �, limitant Vision � une liste pr�approuv�e de propri�t�s web � populaires �.

    Qu'entend-on exactement par contenu � sensible � ? Du porno ? De la violence ? � ce stade, Microsoft n'a pas voulu le dire.

    Les accusations de contournement des paywalls � l'aide d'outils d'intelligence artificielle ont r�cemment valu � Microsoft de se retrouver dans une situation juridique d�licate. Dans une action en justice en cours, le New York Times all�gue que Microsoft a permis aux utilisateurs de contourner son paywall en diffusant des articles du quotidien par l'interm�diaire du chatbot Copilot sur Bing. Lorsqu'il �tait sollicit� d'une certaine mani�re, Copilot (qui s'appuie sur les mod�les d'OpenAI, un proche collaborateur de Microsoft) donnait des extraits textuels (ou presque) d'articles payants, selon le Times.

    Microsoft a d�clar� que Copilot Vision, qui n'est pour l'instant disponible qu'aux �tats-Unis, respectera les � contr�les de l'IA lisibles par les machines � des sites, comme les r�gles interdisant aux robots de r�cup�rer des donn�es pour l'entra�nement � l'IA. Mais l'entreprise n'a pas pr�cis� quels contr�les Vision respectera, car il en existe plusieurs.

    De plus, de nombreux grands �diteurs ont choisi d'emp�cher les outils d'IA de parcourir leurs sites web, non seulement par crainte que leurs donn�es ne soient utilis�es sans autorisation, mais aussi pour �viter que ces outils ne fassent grimper en fl�che les co�ts de leurs serveurs. Si la tendance actuelle se confirme, Copilot Vision pourrait ne pas fonctionner sur certains des principaux sites d'information du web.

    Microsoft a d�clar� qu'elle s'engageait � � prendre en compte les r�actions � pour apaiser les inqui�tudes.

    Citation Envoy� par Microsoft
    La s�curit� est notre priorit� absolue :
    • Les sessions de Copilot Vision sont enti�rement facultatives et �ph�m�res. Aucun des contenus auxquels Copilot Vision participe n'est stock� ou utilis� pour la formation - d�s que vous mettez fin � votre session, les donn�es sont d�finitivement supprim�es.
    • L'exp�rience ne fonctionnera pas sur tous les sites web, car nous avons pris des mesures importantes pour limiter les types de sites web avec lesquels Copilot Vision peut communiquer. Nous commen�ons par une liste limit�e de sites web populaires pour nous assurer que l'exp�rience est s�re pour tout le monde.
    • Copilot Vision ne travaillera pas sur des contenus sensibles ou prot�g�s par un paywall pour cette pr�version. Nous l'avons cr�� en gardant � l'esprit les int�r�ts des utilisateurs et des cr�ateurs.
    • Il n'y a pas de traitement sp�cifique du contenu d'un site web sur lequel vous naviguez, ni d'entra�nement � l'IA. Copilot Vision se contente de lire et d'interpr�ter les images et le texte qu'il voit sur la page pour la premi�re fois, en m�me temps que vous.
    • Avant de proc�der � un lancement � grande �chelle, nous continuerons � recueillir les commentaires des premiers utilisateurs de Copilot Labs, � affiner nos mesures de s�curit� et � placer la protection de la vie priv�e et la responsabilit� au centre de toutes nos activit�s. N'h�sitez pas � nous faire part de vos commentaires !
    Nom : copilot.png
Affichages : 12047
Taille : 43,1 Ko

    La fonctionnalit� Think Deeper et le raisonnement avanc�

    Comme pour Vision, la nouvelle fonction Think Deeper de Copilot vise � rendre l'assistant de Microsoft plus polyvalent.

    Think Deeper permet � Copilot de r�soudre des probl�mes plus complexes, selon Microsoft, gr�ce � des � mod�les de raisonnement � qui prennent plus de temps avant de fournir des r�ponses �tape par �tape. Quels mod�les de raisonnement ? Microsoft est rest� un peu flou, se contentant de dire que Think Deeper utilise � les derniers mod�les d'OpenAI, peaufin�s par Microsoft �. En lisant entre les lignes, il y a fort � parier qu'il s'agit d'une version personnalis�e du mod�le o1 d'OpenAI.

    Cette fonctionnalit� permet � l�assistant de fournir des r�ponses plus nuanc�es et r�fl�chies, allant au-del� des simples recherches d�informations. Par exemple, vous voulez planifier un projet complexe : Copilot peut vous aider � penser � travers les diff�rentes �tapes, sugg�rer des ressources et m�me anticiper des obstacles potentiels.

    � Copilot peut d�sormais raisonner sur des questions plus complexes. Think Deeper prend plus de temps avant de r�pondre, ce qui permet � Copilot de fournir des r�ponses d�taill�es et �tape par �tape � des questions difficiles. Nous l'avons con�u pour r�pondre � toutes sortes de d�fis pratiques et quotidiens, comme comparer deux options complexes c�te � c�te. Dois-je d�m�nager dans telle ou telle ville ? Quel type de voiture correspond le mieux � mes besoins ? Et ainsi de suite. Il s'agit d'une comp�tence Copilot pr�coce qui est encore en cours de d�veloppement. Nous l'avons donc plac�e dans notre laboratoire exp�rimental Copilot Labs afin de la tester et d'obtenir des commentaires �.

    Microsoft a beaucoup parl� du potentiel de Think Deeper dans ses documents de presse. Mais en supposant que le mod�le sous-jacent soit o1, il ne sera certainement pas � la hauteur dans certains domaines. Il sera int�ressant de voir quels types d'am�liorations Microsoft a apport�s au mod�le de base et dans quelle mesure Think Deeper peut communiquer � propos de ses limites.

    Think Deeper est disponible pour un nombre limit� d'utilisateurs de Copilot Labs en Australie, au Canada, en Nouvelle-Z�lande, aux �tats-Unis et au Royaume-Uni.

    Interaction vocale et synth�se de la parole

    Copilot Voice (� ne pas confondre avec Copilot Voice de GitHub) est une nouvelle fonctionnalit� de Copilot qui est g�n�ralement disponible. Lanc�e en anglais en Nouvelle-Z�lande, au Canada, en Australie, au Royaume-Uni et aux �tats-Unis pour commencer, Voice ajoute quatre voix synth�tiques qui vous permettent de parler � Copilot et d'entendre ses r�ponses � voix haute.

    � l'instar du mode vocal avanc� d'OpenAI pour ChatGPT, Copilot Voice peut interpr�ter le ton que vous employez au cours de la conversation et r�pondre en cons�quence. Un porte-parole de Microsoft a expliqu� que le mode utilise � la derni�re technologie vocale avec de nouveaux mod�les qui ont �t� affin�s pour l'application Copilot �. Quelle technologie ? Quels mod�les ? On ne peut pas dire que Microsoft est g�n�reux pour ce qui concerne les d�tails.

    Une chose � savoir : Copilot Voice a une limite d'utilisation bas�e sur la dur�e. Les abonn�s � Copilot Pro b�n�ficient de plus de minutes, mais ce nombre est � variable � en fonction de la demande, explique Microsoft.

    � Nous rendons plus facile que jamais la connexion avec votre compagnon gr�ce � Copilot Voice. C'est le moyen le plus intuitif et le plus naturel de faire du brainstorming en d�placement, de poser une question rapide ou m�me de se d�fouler � la fin d'une journ�e difficile. Votre compagnon vous sera personnel, avec quatre options vocales au choix �.


    Analyse critique des nouvelles fonctionnalit�s de Microsoft Copilot

    Bien que les nouvelles capacit�s de Microsoft Copilot soient impressionnantes, elles soul�vent �galement plusieurs questions et pr�occupations.

    Probl�mes de confidentialit� et de s�curit�

    L�une des principales pr�occupations concerne la confidentialit� des donn�es. La capacit� de Copilot � lire et analyser le contenu de votre �cran pourrait potentiellement exposer des informations sensibles. Bien que Microsoft affirme que les donn�es sont imm�diatement supprim�es apr�s utilisation et ne sont pas utilis�es pour entra�ner les mod�les, il reste une certaine m�fiance quant � la mani�re dont ces donn�es sont r�ellement g�r�es. Les utilisateurs doivent pouvoir faire confiance � l�outil pour prot�ger leurs informations personnelles et professionnelles.

    D�pendance technologique

    La fonction de r�flexion profonde de Copilot, bien qu�utile, pourrait encourager une d�pendance excessive � la technologie pour la prise de d�cision. Si les utilisateurs commencent � s�appuyer trop fortement sur Copilot pour r�soudre des probl�mes complexes, cela pourrait diminuer leur capacit� � penser de mani�re critique et ind�pendante. Il est essentiel de trouver un �quilibre entre l�utilisation de l�IA comme outil d�assistance et le maintien de nos propres comp�tences analytiques.

    Accessibilit� et �quit�

    L�int�gration de la synth�se vocale et de l�entr�e vocale est une avanc�e significative, mais elle n�est actuellement disponible que dans certains pays anglophones. Cette limitation g�ographique soul�ve des questions d��quit� et d�accessibilit�. Pour que Copilot soit v�ritablement inclusif, Microsoft devra �tendre ces fonctionnalit�s � d�autres langues et r�gions, garantissant ainsi que tous les utilisateurs puissent b�n�ficier de ces innovations.

    Risques de surinformation

    Avec la capacit� de Copilot � fournir des informations en temps r�el, il existe un risque de surinformation. Les utilisateurs pourraient �tre submerg�s par une quantit� excessive de donn�es, rendant difficile la distinction entre les informations pertinentes et les distractions. Il est crucial que Copilot soit capable de filtrer et de prioriser les informations de mani�re efficace pour �viter ce probl�me.

    Source : Microsoft

    Et vous ?

    Comment pensez-vous que Microsoft pourrait am�liorer la gestion de la confidentialit� des donn�es avec Copilot ?
    Voyez-vous des domaines sp�cifiques o� la r�flexion profonde de Copilot pourrait �tre particuli�rement b�n�fique ou probl�matique ?
    Quels sont les d�fis potentiels que vous anticipez avec l�utilisation de la synth�se vocale dans des environnements professionnels ?
    Comment �valueriez-vous l��quilibre entre l�assistance technologique et la pr�servation des comp�tences humaines dans la prise de d�cision ?
    Quels types de filtres ou de priorit�s aimeriez-vous voir int�gr�s dans Copilot pour �viter la surinformation ?
    Pensez-vous que l�extension des fonctionnalit�s de Copilot � d�autres langues et r�gions est une priorit� ? Pourquoi ou pourquoi pas ?
    Quels autres aspects de l�interaction homme-machine aimeriez-vous voir explor�s par Microsoft dans les futures mises � jour de Copilot ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et R�digez des actualit�s

  2. #82
    Membre confirm�
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    345
    D�tails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyr�n�es)

    Informations professionnelles :
    Activit� : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 345
    Par d�faut
    H� bien, des d�mos techniques de plus en plus... Nazes ? Inutiles ? D�biles ? Je sais m�me plus quel mot choisir.
    Depuis un bon moment j'ai l'impression que tous mes commentaires vont dans le m�me sens. Et encore, vous avez de la chance, 9 fois sur 10 je me retiens d'�crire vu que mon message est aussi inutile que la technologie pr�sent�e.


    S�rieusement, � part une personne handicap�e, qui peut bien avoir besoin d'un logiciel qui commente/lise ce qui se trouve sur l'�cran de l'ordinateur qu'il est en train d'utiliser ?

  3. #83
    Membre �clair�
    Profil pro
    ma�on
    Inscrit en
    Novembre 2004
    Messages
    289
    D�tails du profil
    Informations personnelles :
    Localisation : France, Haute Loire (Auvergne)

    Informations professionnelles :
    Activit� : ma�on

    Informations forums :
    Inscription : Novembre 2004
    Messages : 289
    Par d�faut
    D�pendance technologique

    La fonction de r�flexion profonde de Copilot, bien qu�utile, pourrait encourager une d�pendance excessive � la technologie pour la prise de d�cision. Si les utilisateurs commencent � s�appuyer trop fortement sur Copilot pour r�soudre des probl�mes complexes, cela pourrait diminuer leur capacit� � penser de mani�re critique et ind�pendante. Il est essentiel de trouver un �quilibre entre l�utilisation de l�IA comme outil d�assistance et le maintien de nos propres comp�tences analytiques.
    C'est le but premier , et rechercher, des GAFAM d'ab�tir les masses pour mieux les manipuler et les rendre totalement d�pendant de leurs services .

  4. #84
    Membre averti
    Homme Profil pro
    Conseil - Consultant en syst�mes d'information
    Inscrit en
    Juin 2023
    Messages
    53
    D�tails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Gr�ce

    Informations professionnelles :
    Activit� : Conseil - Consultant en syst�mes d'information
    Secteur : High Tech - Produits et services t�l�com et Internet

    Informations forums :
    Inscription : Juin 2023
    Messages : 53
    Par d�faut
    Citation Envoy� par _toma_ Voir le message
    S�rieusement, � part une personne handicap�e, qui peut bien avoir besoin d'un logiciel qui commente/lise ce qui se trouve sur l'�cran de l'ordinateur qu'il est en train d'utiliser ?
    Une personne qui n'a pas d'amis, par exemple ? �a me rappelle que j'ai lu qu'un gars avait fait un r�seau social de bots o� tu peux choisir le ton que les bots vont employer pour r�pondre � tes messages... quand je pense que certains applaudissent cette �norme connerie. D�j� qu'il y a les Woke, on nous rajoute leurs cousins les bots

  5. #85
    Membre �prouv�

    Profil pro
    MOA
    Inscrit en
    D�cembre 2002
    Messages
    1 254
    D�tails du profil
    Informations personnelles :
    Localisation : France, Eure et Loir (Centre)

    Informations professionnelles :
    Activit� : MOA

    Informations forums :
    Inscription : D�cembre 2002
    Messages : 1 254
    Par d�faut
    Sur le plan technique, c'est absolument impressionnant ce qu'il arrive � faire. Apr�s il ne faut pas oublier que Microsoft 3 plus grandes capitalisation boursi�re, elle a �norm�ment de ressource financi�re. Il est donc assez facile de recruter et de mettre des poles d'excellence. Et malheureusement la concurrence peut difficilement suivre.

    Cette prouesse technique est assez incroyable, elle cr�� un v�ritable assistant pour nous aider sur plein de chose, dont on l'habitude de faire nous m�me. Par exemple, il s'occuperait de faire les comparatifs, ... Microsoft essaie de cr�er un nouveau besoin pour ensuite le rendre indispensable aupr�s des utilisateurs, au point de cr�er une certaine ind�pendance � son produit. Est ce que les gens vont aller jusque l� ?

    En terme de vie priv�e, peut importe ce qu'ils font. Je suis contre de mettre tous mes oeufs dans le m�me panier, de faire appel � un unique prestataire pour tout. Si on veut de la vie priv�e, il faut se pencher sur les IA locaux. Microsoft a tout int�ret plein d'information sur nous pour entrainer son IA, sous le prextexe pour am�liorer son exp�rience utilisateur.


    Je n'adh�re pas du tout mais je trouve qu'il est int�ressant de comprendre la strat�gie des GAFAM. Et celle de Microsoft, je la comprends. Microsoft d�pensent des millions de $$ dans l'IA et donc essaie de trouver des nouveaux usages

  6. #86
    Chroniqueur Actualit�s
    Avatar de Anthony
    Homme Profil pro
    R�dacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 857
    D�tails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activit� : R�dacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 857
    Par d�faut Microsoft envisage de permettre aux entreprises de cr�er leurs propres employ�s virtuels aliment�s par l'IA
    Microsoft pr�voit de permettre aux entreprises de cr�er leurs propres employ�s virtuels aliment�s par l'IA, alors que la prochaine version de Copilot int�grera des agents autonomes

    Microsoft travaille sur une fonction Copilot � l'�chelle de l'entreprise qui permettrait aux soci�t�s de cr�er leurs propres employ�s virtuels IA. En pratique, cela signifie que les entreprises pourraient cr�er leurs propres chatbots IA pour interagir avec les clients ou des employ�s internes pour g�rer les t�ches internes, en veillant � ce que le ton et le comportement de l'agent soient conformes aux directives et aux pr�f�rences de l'entreprise.

    Ce projet intervient apr�s que Microsoft ait lanc� au d�but du mois d'octobre 2024 de nouvelles fonctionnalit�s Copilot sur Windows, y compris un outil qui permet � Microsoft Copilot de lire ce qui est affich� sur l'�cran d'un utilisateur pour lui fournir des r�ponses contextuelles, de parler � haute voix et de r�soudre des probl�mes complexes.

    Le projet, intitul� Microsoft Copilot Studio, est la prochaine �tape de l'IA au travail. Une version b�ta ferm�e a �t� lanc�e au d�but de l'ann�e et une phase de test publique est pr�vue pour le mois de novembre 2024.


    Les types de t�ches que les employ�s IA, appel�s agents par Microsoft, peuvent effectuer sont g�n�ralement des t�ches administratives, telles que r�pondre aux demandes des clients via un chatbot, g�n�rer ou r�soudre des tickets d'assistance informatique, et r�pondre � des courriels en utilisant des templates pr�d�finis.

    Le fait que Microsoft parle d'agents et d'� employ�s virtuels � joue sur les craintes existantes des gens � l'�gard de l'IA, � savoir que l'IA pourrait voler des emplois humains. Le g�ant de la technologie s'est donc empress� de souligner que les agents Copilot ne peuvent qu'automatiser des t�ches r�p�titives et souvent fastidieuses. L'id�e est que cela lib�re du temps humain pour des r�les plus cr�atifs et � plus haute responsabilit�.

    Comment fonctionne Copilot Studio ?

    Les entreprises n'ont pas besoin d'avoir des connaissances techniques approfondies pour travailler avec Copilot Studio, l'application utilisant un format low-code. L'interface, essentiellement graphique, requiert des connaissances limit�es en mati�re de programmation et Microsoft fournit des agents pr�d�finis que les clients peuvent utiliser pour cr�er leurs propres agents ou pour commencer � travailler imm�diatement.


    Parmi les agents pr�d�finis, on retrouve un agent de qualification des ventes (ax� sur la prospection des clients), un agent de communication avec les fournisseurs (destin� � optimiser les cha�nes d'approvisionnement) et un agent d'intention des clients (qui aide les employ�s du service client�le � r�diger des articles g�n�r�s automatiquement). Cela donne une id�e des utilisations pr�vues pour les entreprises qui mettent en �uvre Copilot Studio.

    Microsoft n'a pas donn� de calendrier pr�cis pour la mise � disposition de Copilot Studio au grand public, mais les phases de test progressant, cela pourrait se faire d�s l'ann�e 2025.

    Alors que Microsoft s�attelle � travers ce nouveau projet au d�veloppement de la prochaine it�ration de l'IA au travail, son assistant Copilot n'est pas �pargn� par la critique. En effet, le PDG de Salesforce, Marc Benioff, a r�cemment d�clar� dans un billet publi� sur X que l'assistant IA Copilot de Microsoft ne fonctionnait pas, qu'il n'offrait "aucun niveau de pr�cision" et que les clients �taient "oblig�s de nettoyer le d�sordre" caus� par la mise en �uvre de l'outil.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous que cette initiative de Microsoft est cr�dible ou pertinente ?

    Voir aussi :

    Le PDG de Salesforce, Marc Benioff, d�clare que l'assistant IA Copilot de Microsoft ne fonctionne pas, qu'il n'offre � aucun niveau de pr�cision � et que les clients sont � oblig�s de nettoyer le d�sordre �

    Les outils de d�veloppement GenAI n'am�liorent pas l'efficacit� du codage et augmentent le nombre de bogues : avec Microsoft Copilot les d�veloppeurs ont constat� une augmentation de 41 % des bogues

    � Si vous confiez les r�nes � Copilot, ne vous �tonnez pas qu'il d�voile vos secrets �, d'apr�s une r�cente �tude selon laquelle cette IA peut �tre transform�e en outil d'exfiltration de donn�es
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et R�digez des actualit�s

  7. #87
    Chroniqueur Actualit�s

    Homme Profil pro
    Administrateur de base de donn�es
    Inscrit en
    Mars 2013
    Messages
    9 659
    D�tails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activit� : Administrateur de base de donn�es

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 659
    Par d�faut Microsoft Copilot au c�ur d�une controverse sur la gestion des donn�es sensibles en entreprise
    Microsoft Copilot au c�ur d�une controverse sur la gestion des donn�es sensibles en entreprise :
    les utilisateurs ont d�couvert qu'ils pouvaient acc�der sans autorisation aux documents des RH et aux courriels du PDG

    Depuis son lancement, Microsoft Copilot, un assistant intelligent int�gr� � des outils tels que Microsoft 365, a suscit� un grand int�r�t pour sa capacit� � automatiser et � simplifier les t�ches quotidiennes. Cependant, une r�cente controverse a �merg� : des utilisateurs ont d�couvert que Copilot permettait d'acc�der � des informations sensibles, notamment des documents de ressources humaines (RH) ou des emails de dirigeants. Cette r�v�lation met en lumi�re � la fois les possibilit�s offertes par cette technologie et les d�fis en mati�re de s�curit� des donn�es.

    Qu'est-ce que Microsoft Copilot ?

    Microsoft Copilot est un assistant bas� sur l'intelligence artificielle, con�u pour int�grer les capacit�s de mod�les de langage avanc�s, tels que ceux de GPT, dans des environnements professionnels. Il vise � am�liorer la productivit� en g�n�rant des r�sum�s, en automatisant la r�daction de documents, ou encore en aidant � organiser des donn�es complexes. Int�gr� dans des applications comme Word, Excel ou Teams, il offre un support pr�cieux pour les utilisateurs, des employ�s aux cadres.

    Cependant, comme pour toute innovation technologique, son impl�mentation n'est pas sans risques. L�objectif ambitieux de Copilot est de fournir des r�ponses pertinentes en s'appuyant sur les donn�es accessibles � un utilisateur, mais cet aspect a suscit� des inqui�tudes lorsque des failles potentielles dans le contr�le des acc�s ont �t� d�couvertes.

    Un acc�s non ma�tris� aux donn�es sensibles

    Les utilisateurs de Copilot ont r�cemment signal� que l'outil pouvait acc�der � des informations qu'ils n'�taient pas cens�s consulter. Cela inclut des documents RH, tels que des contrats de travail ou des rapports de performance, ainsi que des emails d'une importance strat�gique envoy�s par des PDG. Cette situation a fait surgir plusieurs questions :
    • Pourquoi ces donn�es sont-elles accessibles via Copilot ?Microsoft Copilot fonctionne en exploitant l'int�gralit� des donn�es auxquelles un utilisateur a acc�s dans son environnement professionnel. Si les permissions des fichiers ou des bases de donn�es ne sont pas configur�es correctement, l'assistant peut, par inadvertance, fournir des r�ponses ou des informations tir�es de sources sensibles.
    • Un probl�me de configuration ou de conception ? Dans la plupart des cas rapport�s, le probl�me semble r�sider dans une mauvaise gestion des droits d'acc�s au niveau des fichiers ou des applications associ�es. Cependant, cela soul�ve �galement des interrogations sur la conception m�me de l'outil. Un assistant dot� d'une telle puissance devrait inclure des m�canismes plus robustes pour emp�cher l'acc�s accidentel � des donn�es sensibles.

    Implications pour les entreprises

    La r�v�lation de cette faille a de profondes implications pour les organisations.
    1. Risques pour la s�curit� des donn�es : Les entreprises collectent et stockent des donn�es sensibles, des informations financi�res aux dossiers personnels des employ�s. Si ces donn�es deviennent accessibles de mani�re non autoris�e via un outil tel que Copilot, cela pourrait entra�ner des violations des r�glementations sur la protection des donn�es, comme le RGPD en Europe.
    2. Atteinte � la confidentialit� : La confidentialit� des communications internes, notamment celles des cadres dirigeants, est essentielle pour prot�ger la strat�gie et les int�r�ts d�une organisation. La divulgation accidentelle d�emails de PDG pourrait nuire � la r�putation ou � la comp�titivit� d�une entreprise.
    3. Perte de confiance : Les employ�s pourraient perdre confiance dans les syst�mes technologiques s�ils craignent que leurs informations personnelles puissent �tre accessibles � des coll�gues ou � des tiers.

    Comment Microsoft r�pond � la controverse

    Aujourd'hui, le g�ant du logiciel tente de r�soudre le probl�me. Mardi, Microsoft a publi� de nouveaux outils et un guide pour aider les clients � att�nuer le probl�me de s�curit� de Copilot, qui a permis aux employ�s d'acc�der par inadvertance � des informations sensibles, telles que les courriels du PDG et les documents des ressources humaines.

    Ces mises � jour sont con�ues pour � identifier et att�nuer les probl�mes de partage excessif et de gouvernance �, a expliqu� l'entreprise dans un nouveau plan pour la suite logicielle de productivit� 365 de Microsoft.

    Nom : adress.png
Affichages : 51135
Taille : 116,6 Ko

    � De nombreux d�fis en mati�re de gouvernance des donn�es dans le contexte de l'IA n'ont pas �t� caus�s par l'arriv�e de l'IA �, a d�clar� un porte-parole de Microsoft. L'IA est simplement le dernier appel � l'action lanc� aux entreprises pour qu'elles g�rent de mani�re proactive leurs documents internes et autres informations, a ajout� le porte-parole.

    Ces d�cisions d�pendent de la situation unique de chaque entreprise. Selon le porte-parole de Microsoft, des facteurs tels que les r�glementations sectorielles sp�cifiques et la tol�rance au risque doivent guider ces d�cisions. Par exemple, diff�rents employ�s devraient avoir acc�s � diff�rents types de fichiers, d'espaces de travail et d'autres ressources.

    � Microsoft aide ses clients � am�liorer leur gouvernance centrale des identit�s et des autorisations, afin d'aider les organisations � mettre � jour et � g�rer en permanence ces contr�les fondamentaux �, a d�clar� le porte-parole.

    La magie de Copilot (sa capacit� � cr�er une pr�sentation de 10 diapositives ou � convoquer une liste des produits les plus rentables de votre entreprise) fonctionne en parcourant et en indexant toutes les informations internes de votre entreprise, � l'instar des robots d'indexation utilis�s par les moteurs de recherche.

    Historiquement, les services informatiques de certaines entreprises ont mis en place des autorisations laxistes pour d�terminer qui pouvait acc�der aux documents internes (en s�lectionnant � autoriser tous �, par exemple, pour le logiciel RH de l'entreprise, plut�t que de se donner la peine de s�lectionner des utilisateurs sp�cifiques).

    Cela n'a jamais pos� de probl�me, car il n'existait pas d'outil permettant � un employ� moyen d'identifier et de r�cup�rer les documents sensibles de l'entreprise (jusqu'� ce que Copilot soit mis en place). Par cons�quent, certains clients ont d�ploy� Copilot pour d�couvrir qu'il pouvait permettre aux employ�s de lire la bo�te de r�ception d'un dirigeant ou d'acc�der � des documents RH sensibles.

    � D�sormais, lorsque Joe Blow se connecte � un compte et d�sactive Copilot, il peut tout voir �, a d�clar� un employ� de Microsoft au courant des plaintes des clients. � Tout � coup, Joe Blow peut voir les courriels du PDG �.

    Les limites actuelles de l�IA g�n�rative

    Cet incident illustre un probl�me plus large dans l'adoption des outils d'intelligence artificielle g�n�rative en entreprise. Ces outils, bien qu'extr�mement performants, manquent souvent de contextes humains pour �viter des erreurs graves.

    Recommandations pour les entreprises

    Pour tirer parti de Copilot tout en minimisant les risques, les entreprises devraient :
    • Auditer r�guli�rement les permissions d'acc�s : S�assurer que les documents sensibles ne sont accessibles qu�� ceux qui en ont besoin.
    • Former les employ�s : Les sensibiliser � l'utilisation de ces outils et aux bonnes pratiques en mati�re de gestion des donn�es.
    • Collaborer avec les �diteurs : Travailler �troitement avec Microsoft pour adapter les param�tres de l�outil aux besoins sp�cifiques de l�entreprise.

    La fonction controvers�e Windows Recall a sign� son retour

    Microsoft a annonc� la fonction Recall lors de l'�v�nement Build en mai. Recall est une fonction bas�e sur l'IA pour les PC Copilot+. Elle suit toutes les activit�s d'un PC Windows afin de faciliter les recherches ult�rieures en utilisant le langage nature. Pour ce faire, Recall est cens�e capturer les donn�es de toutes les applications, sauf si vous en excluez une, en prenant une s�rie de captures d'�cran et en stockant ces interactions dans une base de donn�es. La fonction Recall s'ex�cute localement. Elle peut fonctionner sans connexion Internet et m�me lorsque vous n'�tes pas connect� � votre compte Microsoft.

    Mais Recall est d�cri�e par les experts en s�curit�. Si quelqu'un d'autre que vous acc�de aux donn�es collect�es par Recall, les cons�quences pourraient �tre d�sastreuses. Cela peut vous sembler familier, Recall est remarquablement similaire � la fonctionnalit� Timeline de Windows 10, qui a �chou� et a �t� mise de c�t�. Mais contrairement � Timeline, Recall ne se contente pas de restaurer une version de vos fichiers de bureau, il utilise l'IA pour vous ramener � ce moment, en ouvrant m�me les applications pertinentes. Un pirate qui parvient � trouver et exploiter une faille dans Recall pourrait causer des d�g�ts �normes.

    Quels sont les risques potentiels auxquels Microsoft Recall expose les utilisateurs de Windows 11 ?
    • Vous utilisez un ordinateur public : disons que vous faites des achats ou des op�rations bancaires en ligne sur un ordinateur de la biblioth�que. Vous n'avez pas r�alis� que Recall �tait actif. Cela permettrait � la personne qui utilise l'ordinateur apr�s vous vient d'aller dans les archives de Recall pour r�cup�rer toutes vos coordonn�es bancaires, votre adresse et vos mots de passe. C'est comme remettre les cl�s de votre maison � un cambrioleur avant de lui dire que vous partez en vacances pour la semaine.
    • Vous utilisez un ordinateur portable professionnel : Votre patron, votre �quipe informatique et toute personne ayant acc�s � votre appareil pourront voir quel usage vous faites de l�appareil. Ils peuvent s'en servir pour suivre votre rendement au travail et m�me lire les messages priv�s que vous envoyez � d'autres personnes.
    • Vous utilisez un PC familial : si vous utilisez l'ordinateur familial et que vous n'avez pas de profil prot�g� par un mot de passe, n'importe qui peut entrer et ouvrir votre historique de rappel. Si vous avez fait quelque chose de peu recommandable, cela va se voir, m�me si vous avez supprim� l'historique de vos recherches
    • Vous �tes victime d'un piratage ou votre ordinateur portable est vol� : si quelqu'un vole votre ordinateur portable et que vous ne disposez pas d'un mot de passe fort pour le verrouiller, un cybercriminel peut utiliser Microsoft Recall pour entrer en possession de vos donn�es et informations personnelles.

    Pourquoi ces risques sont-ils de l�ordre du plausible ? Parce que Microsoft souligne dans la Foire Aux Questions relative � cette fonctionnalit� que � Recall n'effectue pas de mod�ration de contenu. Il ne cache pas les informations telles que les mots de passe ou les num�ros de comptes financiers. Ces donn�es peuvent se trouver dans des instantan�s stock�s sur votre appareil, en particulier lorsque les sites ne respectent pas les protocoles Internet standard tels que la dissimulation de la saisie du mot de passe. �

    En d�autres termes, Microsoft Recall est un outil qui stocke vos mots de passe, vos informations, les d�tails de votre compte, etc. et qui est visible par tous les utilisateurs de votre profil. Si vous n'avez qu'un seul profil pour votre appareil, cela signifie que toutes les personnes ayant acc�s � ce PC pourront voir vos donn�es Recall.

    Nom : recall.png
Affichages : 10802
Taille : 160,7 Ko

    Face au toll� provoqu� par la situation, Microsoft a tent� de r�pondre aux pr�occupations avec une seconde version de son outil : la fonction serait d�sactiv�e par d�faut au lieu d'�tre activ�e, les utilisateurs devraient s'authentifier � nouveau avec Windows Hello avant d'acc�der aux donn�es Recall, et les donn�es Recall stock�es localement seraient prot�g�es par un chiffrement suppl�mentaire. Recall peut d�sormais �tre enti�rement supprim� d'un syst�me � l'aide des param�tres des � fonctionnalit�s optionnelles � de Windows.

    Conclusion : une innovation � double tranchant

    Microsoft Copilot repr�sente un pas en avant significatif dans l�utilisation de l�IA pour booster la productivit�, mais cet incident met en lumi�re les d�fis li�s � son impl�mentation. � mesure que les entreprises adoptent ces outils, elles doivent �tre vigilantes pour �quilibrer innovation et s�curit�. Si des mesures proactives sont prises pour renforcer le contr�le des acc�s, Copilot pourrait bien devenir un atout incontournable du monde professionnel.

    Source : Microsoft

    Et vous ?

    La technologie IA peut-elle r�ellement diff�rencier des donn�es sensibles de celles qui ne le sont pas ?

    Qui est responsable en cas de fuite de donn�es caus�e par un outil comme Copilot : Microsoft, l'entreprise utilisatrice ou les �quipes IT ?

    Les entreprises ont-elles aujourd�hui une ma�trise suffisante de la configuration des permissions sur leurs syst�mes internes ?

    Quels m�canismes suppl�mentaires Microsoft pourrait-il impl�menter pour renforcer la s�curit� des donn�es sensibles ?

    � quel point est-il r�aliste d�esp�rer qu�un outil aussi puissant reste totalement s�curis� et fiable dans des environnements complexes ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et R�digez des actualit�s

  8. #88
    Membre �prouv� Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 884
    D�tails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 884
    Par d�faut
    C'est marrant de voir des entreprises qui paniquent parce que des employ�s ont acc�s � des donn�es confidentielles, mais qui ne se posent absolument pas la question quand elles partagent/upload leurs donn�es sur pleins de clouds qui ne leur appartiennent pas!

    Je suppose que c'est le principe de "ce qui ne se voit pas n'existe pas".

    Citation Envoy� par St�phane le calme Voir le message
    La technologie IA peut-elle r�ellement diff�rencier des donn�es sensibles de celles qui ne le sont pas ?
    Bien s�r que non.

    Citation Envoy� par St�phane le calme Voir le message
    Qui est responsable en cas de fuite de donn�es caus�e par un outil comme Copilot : Microsoft, l'entreprise utilisatrice ou les �quipes IT ?
    Une GAFAM ne sera jamais responsable. Et puis vu son argent, bonne chance pour essayer de faire valoir vos "droits".
    Ce sera l'entreprise qui va payer plein pot, et c'est normal, puisque c'est l'entreprise qui a fait ces (mauvais) choix.
    Au mieux, une entreprise fera un proc�s qui lui co�tera affreusement cher pendant une dizaine d'ann�es.

    Citation Envoy� par St�phane le calme Voir le message
    Les entreprises ont-elles aujourd�hui une ma�trise suffisante de la configuration des permissions sur leurs syst�mes internes ?
    Ni aujourd'hui ni demain.
    Comment ma�triser ce qui est externe? (ces syst�mes n'ont d'interne que le nom, vu que tout fuit vers des services Cloud).
    Si vous me confiez vos donn�es, est-ce que vous en avez encore la ma�trise?

    Citation Envoy� par St�phane le calme Voir le message
    Quels m�canismes suppl�mentaires Microsoft pourrait-il impl�menter pour renforcer la s�curit� des donn�es sensibles ?
    Hmmm... La s�curit� des donn�es sensibles est-elle la priorit� de Microsoft?
    On peut s�rieusement se poser la question quand on voit qu'ils poussent pour Recall, malgr� les alertes de leurs propres ing�nieurs s�curit�...

    Citation Envoy� par St�phane le calme Voir le message
    � quel point est-il r�aliste d�esp�rer qu�un outil aussi puissant reste totalement s�curis� et fiable dans des environnements complexes ?
    Le probl�me ne vient pas de la "puissance" d'un outil mais de son int�gration � tout un tas de syst�mes et � la complexit� engendr�e.
    Aucune chance que �a soit r�aliste, donc.

    EDIT:
    Pour ce qui est du sch�ma "recall security architecture", je ne vois pas comment les points 1, 2, 3 et 4 peuvent prot�ger d'un attaquant.

    Lorsqu'un utilisateur installe un keylogger, ou lance un cryptolocker, ce n'est pas un attaquant physique qui effectue le travail.

    C'est l'utilisateur lui-m�me qui va le faire, en cliquant sur ce qu'il consid�re �tre quelque chose de l�gitime. Le prompter pour du windows hello, de la biom�trie, ou m�me ses informations hypoth�caires s'il le faut n'y changera absolument rien: le programme ex�cut� aura les droits sur cette "secure enclave" et n'aura plus qu'� exfiltrer les donn�es...

    Bref, c'est juste pour donner un sentiment de s�curit� sur une fonctionnalit� qui n'est qu'un spyware d�guis�.

    Vive les GAFAM...

  9. #89
    Chroniqueur Actualit�s

    Homme Profil pro
    Administrateur de base de donn�es
    Inscrit en
    Mars 2013
    Messages
    9 659
    D�tails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activit� : Administrateur de base de donn�es

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 659
    Par d�faut Microsoft est accus�e d'utiliser le contenu de Word et d'Excel en ligne pour former son IA Copilot
    Microsoft est accus�e d'utiliser le contenu de Word et d'Excel en ligne pour former ses diff�rents mod�les d'IA, � moins que vous n'y renonciez.
    l'entreprise nie s'en �tre servi

    La fonctionnalit� � Exp�riences connect�es � de Microsoft Office, activ�e par d�faut, a �t� critiqu�e pour avoir potentiellement utilis� le contenu utilisateur pour entra�ner l'IA sans l'expliquer clairement. Microsoft nie utiliser les donn�es des clients pour entra�ner l'IA, affirmant qu'elle est destin�e aux fonctions requises par Internet, comme la co-cr�ation de documents. Les critiques mettent en avant le contrat de services de Microsoft, qui accorde � l'entreprise des droits sur le contenu utilisateur. Pour se d�sinscrire, il faut acc�der � des param�tres sp�cifiques.

    Aux utilisateurs d'Office, Microsoft propose des exp�riences connect�es qui analysent votre contenu : � Les exp�riences qui analysent votre contenu sont des exp�riences qui utilisent le contenu de votre bureau pour vous fournir des recommandations de conception, des suggestions de r�vision, des aper�us de donn�es et d'autres fonctions similaires. Par exemple, le Traducteur ou le Concepteur PowerPoint �. Cette fonctionnalit�, activ�e par d�faut, a �t� accus�e de r�cup�rer le contenu cr�� par les utilisateurs pour former ses syst�mes d'IA internes.

    L'expert Linux @nixcraft sur X a qualifi� les � Exp�riences connect�es � de � contraires � l'�thique � car le nom de la fonctionnalit� ne dit pas qu'il s'agit uniquement de formation � l'IA. La base de connaissances de Microsoft indique que les exp�riences connect�es sont � con�ues pour vous permettre de cr�er, de communiquer et de collaborer plus efficacement � en analysant votre contenu. Il n'est fait aucune mention de l'utilisation de l'IA ou des donn�es pour les fonctionnalit�s Copilot ou pour former les mod�les d'IA de Microsoft.

    Attention : Microsoft Office, comme de nombreuses entreprises ces derniers mois, a sournoisement activ� une fonction � opt-out � qui r�cup�re vos documents Word et Excel pour entra�ner ses syst�mes d'intelligence artificielle internes. Cette fonction est activ�e par d�faut et vous devez d�cocher manuellement une case pour la d�sactiver. Si vous �tes un �crivain qui utilise MS Word pour r�diger des contenus propri�taires (articles de blog, romans ou tout autre travail que vous avez l'intention de prot�ger par des droits d'auteur et/ou de vendre), vous voudrez d�sactiver cette fonction imm�diatement.
    Nom : nix.png
Affichages : 23355
Taille : 21,4 Ko

    Plusieurs m�dias dans la presse sp�cialis�e ont repris ces all�gations, notant que dans le cadre de son fonctionnement normal, l'utilitaire comporte une fonction sournoise dans laquelle elle � recueille automatiquement des donn�es � partir de fichiers Word et Excel pour entra�ner les mod�les d'IA de l'entreprise �. La collecte de donn�es est apparemment activ�e par d�faut, ce qui signifie que le contenu des utilisateurs peut �tre utilis� pour entra�ner les algorithmes d'IA, � moins qu'il ne soit sp�cifiquement d�sactiv�. La d�sactivation elle-m�me serait � un processus tr�s alambiqu� �.

    Selon l'un des rapports, ce param�tre par d�faut permet � Microsoft d'utiliser toutes sortes de documents, qu'il s'agisse � d'articles, de romans ou d'autres �uvres destin�es � �tre prot�g�es par le droit d'auteur ou � des fins commerciales, sans consentement explicite �.

    Microsoft Connected Experiences collecte vos fichiers Word et Excel � des fins d'entra�nement � l'IA. Pourquoi ne pas parler de formation � l'IA ? Pourquoi utiliser de tels mots ? Il s'agit d'une pratique contraire � l'�thique suivie par une entreprise pesant des milliards de dollars. Comment cela peut-il �tre l�gal ? Je suis bien content de ne pas avoir Windows OS ou MS Office.
    Les cons�quences sont �normes pour tous ceux qui utilisent ces outils bien connus pour g�n�rer du contenu propri�taire, qu'il s'agisse de documents �crits ou, peut-�tre, de donn�es financi�res sensibles. Le probl�me est que lorsqu'un �l�ment de contenu est utilis� pour former l'une des IA actuelles, comme le Copilot de Microsoft, une sorte d'empreinte est laiss�e dans l'algorithme. Lorsqu'un utilisateur diff�rent demande des informations � un moment donn� dans le futur, il est possible que votre contenu, aussi sensible soit-il, ou les informations propri�taires qu'il contient, fassent � surface � sous une forme ou une autre dans la r�ponse de l'IA g�n�rative.

    Microsoft a r�pondu � ces accusations via le compte officiel @Microsoft365 sur les r�seaux sociaux, en niant ces all�gations. � Nous n'utilisons pas les donn�es des clients pour former les LLM �, a d�clar� Microsoft. Selon l'entreprise, � Microsoft Connected Experiences � ne concerne pas les outils d'IA g�n�rative ni la formation. � Ce param�tre active uniquement les fonctionnalit�s n�cessitant un acc�s � Internet, comme la co-cr�ation d'un document. �

    Cependant, comme le souligne Tom's Hardware, Microsoft 365 et Microsoft Connected Experiences sont couverts par le contrat de services de Microsoft, qui conf�re � l'entreprise tous les droits de propri�t� intellectuelle sur l'ensemble de votre contenu.

    � Dans la mesure n�cessaire pour vous fournir les Services et � d'autres, pour vous prot�ger et prot�ger les Services, et pour am�liorer les produits et services Microsoft, vous accordez � Microsoft une licence de propri�t� intellectuelle mondiale et libre de droits pour utiliser votre Contenu, par exemple, pour faire des copies, conserver, transmettre, reformater, afficher et distribuer via des outils de communication votre Contenu sur les Services �, peut-on lire dans le contrat.

    La r�action de Microsoft

    Microsoft a d�menti les affirmations selon lesquelles il alimente en informations priv�es de grands mod�les de langage. Les donn�es de Microsoft 365 peuvent d�sormais �tre automatiquement t�l�charg�es et trait�es pour offrir des � exp�riences connect�es � qui, selon Microsoft, � vous permettront de cr�er, de communiquer et de collaborer plus efficacement �.

    Le 21 octobre, Microsoft a publi� sur son blog des informations d�taill�es sur l'exp�rience connect�e, qui semblent avoir �voqu� le souvenir de Recall, un outil qui prend des clich�s de l'�cran des utilisateurs toutes les quelques secondes et qui a �t� d�crit comme un � cauchemar en mati�re de protection de la vie priv�e �.

    Enfouie au plus profond de la section confidentialit� des param�tres d'Office 365 se trouve une option d'exp�rience connect�e qui est activ�e par d�faut pour les clients am�ricains (il faut v�rifier pour les autres pays). Dans ce menu, on peut �galement lire en gras : � Votre vie priv�e est importante �. Si les utilisateurs ne choisissent pas express�ment de d�sactiver cette fonctionnalit�, les donn�es des documents sont r�colt�es et trait�es - ce qui a d�clench� la panique � l'id�e qu'elles pourraient �tre utilis�es pour entra�ner Copilot et d'autres mod�les d'IA.

    Des all�gations concernant le scrapping de donn�es par Microsoft ont circul� sur les m�dias sociaux au cours du week-end

    � Cela ne peut pas �tre vrai �, a �crit Florian Roth, responsable de la recherche chez Nextron Systems. � Alors que les entreprises sont occup�es � appliquer des politiques d'IA pour prot�ger les donn�es confidentielles, Microsoft active discr�tement cette fonctionnalit� par d�faut et l'intitule � Votre vie priv�e est importante �.

    � Il est incroyable que Microsoft ait discr�tement activ� cette fonction alors que tout le monde se concentrait sur sa fonction d'IA 'Recall' �, poursuit-il.

    Microsoft reste vague sur ce qu'elle fait des donn�es qu'elle recueille, m�me s'il ne fait aucun doute qu'elle les recueille.

    � Les exp�riences connect�es qui analysent votre contenu sont des exp�riences qui utilisent votre contenu Office pour vous fournir des recommandations de conception, des suggestions d'�dition, des informations sur les donn�es et des fonctionnalit�s similaires �, explique Microsoft.

    Avec les applications et services Web, les r�seaux sociaux, les moteurs de recherche et bien d'autres choses encore, plusieurs acteurs majeurs du secteur de la technologie et de l'IA ont �t� accus�s � juste titre d'avoir r�cup�r� des donn�es utilisateur pour entra�ner l'IA. Le PDG de Microsoft AI, Mustafa Suleyman, a r�cemment d�clar� que tout contenu sur le Web � est un usage �quitable � pour la formation, la reproduction et plus encore de l'IA. Tout le reste, y compris les donn�es que les gens choisissent activement de ne pas partager ou de cocher une case � ne pas r�cup�rer �, est une � zone grise �. De plus, il appartient aux tribunaux de d�cider quelles donn�es sont interdites.

    Revenons � Microsoft Connected Experiences. L'entreprise a d�clar� qu'elle n'utilisait pas vos documents Word pour entra�ner des mod�les d'IA. N�anmoins, si vous souhaitez vous d�sinscrire, vous devez acc�der � Fichier > Options > Centre de gestion de la confidentialit� > Param�tres du Centre de gestion de la confidentialit� > Options de confidentialit� > Param�tres de confidentialit� > Exp�riences connect�es facultatives > D�cochez la case : � Activer les exp�riences connect�es facultatives �.

    Que sont les exp�riences connect�es ?

    En parcourant les � exp�riences � de Microsoft, nous n'avons pas trouv� une qui mentionne explicitement l'entra�nement de donn�es d'IA (mais n'h�sitez pas � le pr�ciser si vous avez trouv� le contraire). D'ailleurs, certains semblent ne pas avoir trouv� la formulation qui expliquerait cet enchainement.

    Les cas d'utilisation mentionn�s qui � analysent votre contenu � comprennent l'application automatique d'�tiquettes de sensibilit� ou une fonction qui scanne les cartes de visite pour en extraire des informations.

    N�anmoins, un utilisateur inquiet a pos� une question sur la politique de Microsoft en mati�re de formation � l'IA sur son forum d'assistance, o� un agent a admis que sa position n'�tait pas tout � fait claire. Il a �crit :

    � � ma connaissance, Microsoft n'a pas fourni de d�tails d�taill�s accessibles au public sur les types sp�cifiques d'informations personnelles utilis�es pour former ses mod�les d'IA. Les informations relatives � l'utilisation des donn�es pour l'entra�nement de l'IA sont souvent vagues en raison de la nature des politiques de confidentialit� et des conditions de service.

    � Cependant, nous ne pouvons trouver que des indications g�n�rales sur la mani�re dont Microsoft traite les donn�es personnelles. Mais pour des raisons de confidentialit�, il se peut qu'elle ne fournisse pas de d�tails pr�cis sur les donn�es sp�cifiquement utilis�es pour l'apprentissage de l'IA. �

    Dans sa d�claration de confidentialit�, Microsoft indique : � Dans le cadre de nos efforts pour am�liorer et d�velopper nos produits, nous pouvons utiliser vos donn�es pour d�velopper et entra�ner nos mod�les d'IA. �

    Sur une page expliquant sa politique en mati�re d'entra�nement � l'IA, la soci�t� promet qu'elle n'entra�ne pas les mod�les d'IA Copilot � partir de � nos clients commerciaux, ou de toute donn�e provenant d'utilisateurs connect�s � un compte organisationnel M365/EntraID � ou � d'utilisateurs connect�s avec des abonnements personnels ou familiaux M365 �.

    Un porte-parole de Microsoft a explicitement d�menti les all�gations selon lesquelles l'entreprise utilisait les donn�es M365 pour entra�ner des mod�les d'IA et a d�clar� : � Dans les applications grand public et commerciales de Microsoft 365, les mod�les d'IA ne sont pas utilis�s : � Dans les applications grand public et commerciales de Microsoft 365, Microsoft n'utilise pas les donn�es des clients pour entra�ner des mod�les de langage de grande taille sans leur autorisation. �

    Sources : exp�riences connect�es dans Office, Microsoft Privacy Statement, Microsoft Community, politique de Microsoft sur la formation de l'IA

    Et vous ?

    Quelle lecture faites-vous de la situation ?

    Comment ce genre de pratiques affecte-t-il la r�putation de Microsoft aupr�s de ses utilisateurs et du grand public ?

    Pensez-vous que ce scandale potentiel incitera Microsoft � changer de politique, ou l�entreprise continuera-t-elle sur cette voie si les critiques restent limit�es ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et R�digez des actualit�s

  10. #90
    Membre extr�mement actif
    Homme Profil pro
    D�veloppeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 350
    D�tails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activit� : D�veloppeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 350
    Par d�faut
    Pas besoin de faire de grand discours... Cette news confirme simplement que Microsoft se croit tout permis et consid�re que les donn�es priv�es de ses clients sont des donn�es publiques pour elle!

    Si vous �tes actuellement derri�re votre PC Windows bien au chaud dans votre bureau croyant �tre dans l'intimit� de votre chez soi... Ben oubliez! Microsoft est install� sur votre �paule en train d'espionner tout ce que vous faites...

  11. #91
    Chroniqueur Actualit�s

    Homme Profil pro
    R�dacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 569
    D�tails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : B�nin

    Informations professionnelles :
    Activit� : R�dacteur technique
    Secteur : High Tech - �diteur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 569
    Par d�faut Microsoft revient � une application native pour Copilot et d�tourne un raccourci � son avantage
    Microsoft d�tourne un raccourci clavier pour attirer l'attention sur Copilot. L'assistant d'IA redevient, en quelque sorte, une application native sur Windows
    mais ne fonctionne pas localement sur votre PC

    Microsoft a l'intention de rendre son assistant d'IA Copilot plus utile et facilement accessible sur Windows 11. Pour cela, l'entreprise a d�cid� de passer d'une PWA � une application native et a dot� la fonction d'affichage rapide de l'outil d'un nouveau raccourci clavier (Alt + Espace). Mais ce raccourci clavier est d�j� utilis� par de nombreuses autres applications, y compris Microsoft PowerToys. PowerToys Run, par exemple, utilise ce raccourci pour ouvrir un lanceur dans lequel l'utilisateur peut taper le nom du service qu'il recherche. Microsoft est critiqu� sur ce choix, d�crit comme une nouvelle ruse de sa part pour mettre son produit en avant.

    Microsoft fait volte-face et revient � une application native pour l'assistant Copilot

    Il y a quelques mois, Microsoft d�cidait � la surprise g�n�rale de r�duire l'exp�rience Copilot � une PWA sur Windows. Cette d�cision a d��u un grand nombre d'utilisateurs qui s'attendaient � ce que Copilot soit mieux int�gr� � Windows. � Cela montre vraiment que Microsoft ne se tient pas � un niveau �lev�. Ils font tout ce bruit autour des PC propuls�s par l'IA et d'une nouvelle touche Copilot, pour ne livrer que... pas grand-chose �, a �crit un critique.

    L'entreprise est revenue sur sa d�cision et va remplacer cette version PWA par une exp�rience � native � qui introduit un nouveau raccourci clavier et une interface de vue rapide. L'affichage rapide de Copilot flotte au-dessus de la barre des t�ches, � l�image des nouvelles applications Companion que Microsoft teste actuellement pour les fichiers, contacts et entr�es de calendrier. Elle peut �tre d�clench�e via le raccourci clavier Alt + Espace ou via la barre syst�me.

    Nom : zerz.png
Affichages : 11197
Taille : 524,4 Ko

    L'affichage rapide ne fait rien de sp�cial ici, mais il reste visible en permanence, au-dessus des autres applications, jusqu�� ce que vous rel�guiez Copilot dans la barre des t�ches ou utilisiez � nouveau le raccourci Alt + Espace. Il offre un acc�s rapide et constant � Copilot, sans avoir besoin d�ouvrir une fen�tre distincte.

    Il s'agit d'un changement tr�s mineur, mais le fait de faire de l'assistant d'IA Copilot une application native sur Windows pourrait ouvrir la voie � de futures innovations et plus d'int�gration. Microsoft met actuellement la nouvelle version de Copilot � la disposition des participants au programme Windows Insiders.

    La mise � jour est progressivement d�ploy�e sur tous les appareils Windows 10 et 11 du programme Windows Insider. Bien que Microsoft insiste sur le fait que la fin du support de Windows 10 est pr�vue pour octobre 2025, l'entreprise r�cup�re un raccourci clavier pour son assistant d'IA mal-aim�.

    Par ailleurs, rien n'indique que Copilot fonctionnera localement sur votre PC, des testeurs ont d�couvert que l'application se contente toujours d'appeler le site Web Copilot de Microsoft. La soci�t� a indiqu� qu'une fois la mise � jour de l'application install�e, Copilot appara�tra dans la barre d'�tat syst�me.

    Le raccourci peut g�n�rer des conflits potentiels avec d�autres applications

    Le choix du raccourci clavier Alt + Espace pourrait poser probl�me aux utilisateurs de Windows, car de nombreuses applications utilisent d�j� cette combinaison, y compris l'utilitaire PowerToys de Microsoft. Ainsi, PowerToys Run utilise Alt + Space pour ouvrir un lanceur dans lequel les utilisateurs peuvent taper le nom du service qu'ils recherchent. Le raccourci clavier Alt + Espace est �galement utilis� pour afficher le menu contextuel de la fen�tre active.

    Par cons�quent, la d�cision de Microsoft d'ajouter le raccourci � Copilot pourrait ne pas plaire aux guerriers du clavier, habitu�s � ce que leurs raccourcis fonctionnent d'une mani�re particuli�re. Cela pourrait engendrer des conflits entre Copilot et d�autres outils, et la gestion du raccourci risque de devenir complexe pour les utilisateurs. Microsoft est conscient du probl�me, mais la firme de Redmond y a r�pondu d'une mani�re qui lui vaut des critiques :

    Citation Envoy� par Microsoft

    Note : l'application Copilot pour Windows utilise la fonction RegisterHotKey pour le raccourci clavier Alt + Espace. De nombreuses applications utilisent ce raccourci clavier aujourd'hui. Pour toutes les applications install�es sur votre PC qui pourraient utiliser ce raccourci clavier, Windows enregistrera l'application lanc�e en premier sur votre PC et fonctionnant en arri�re-plan comme l'application invoqu�e lors de l'utilisation des touches Alt + Espace.
    L'on peut en effet se demander pourquoi Microsoft a abandonn� l�ancien raccourci � Windows + C � utilis� avec Copilot, ou pourquoi il n�a pas conserv� la touche Copilot d�di�e introduite sur les nouveaux PC Copilot+ pilot�s par l'IA. Mais encore, Microsoft pr�cise que � Copilot continuera � explorer les options li�es aux raccourcis clavier de l'application �, ce qui donne l'impression que c'est l'assistant d'IA qui m�ne la barque chez le g�ant des logiciels.

    � Les personnes qui prennent ces d�cisions devraient �tre oblig�es de travailler au service d'assistance pendant un mois afin de comprendre l'impact du changement. Pour autant que je sache, Windows + S et Windows + Q font la m�me chose et ouvrent la recherche. Il y en a d'autres qui ne sont pas utilis�es. Je sugg�rerais bien Windows + C pour � Copilot �, mais pour une raison quelconque, cette touche est cens�e ouvrir �quipes �, a �crit un critique.

    � Les fonctions de ce type devraient �tre facultatives et faciles � d�sactiver si l'on change d'avis. Tout ce qui concerne Copilot devrait l'�tre. Mais derni�rement, Microsoft tente d'imposer aux utilisateurs des fonctions d'IA � peine utiles et qui s'av�rent parfois un v�ritable cauchemar pour la vie priv�e �, a �crit un autre.

    Copilot : une fonctionnalit� d'IA toujours en qu�te d�identit� ?

    Le passage d'une PWA � une application native pour Copilot repr�sente une �tape importante pour renforcer l'int�gration et utilit� de l'assistant d'IA sur Windows 10 et 11. Cependant, il reste encore de nombreux d�fis � surmonter pour en faire un assistant d'IA vraiment fluide et int�gr�. Alors que Microsoft jongle avec les diff�rentes versions et raccourcis, la soci�t� pourrait �couter les commentaires des utilisateurs pour mieux affiner cette exp�rience.

    Pour une raison inconnue, Microsoft tente �galement d'obliger les utilisateurs � accepter la fonctionnalit� controvers�e Recall, qui utilise l'IA pour enregistrer des captures d��cran automatiques des activit�s sur votre ordinateur, cr�ant ainsi une sorte de m�moire visuelle num�rique. Toutefois, les experts en cybers�curit� alertent sur les risques de s�curit�. Ils estiment notamment que Recall constitue une mine d'or pour les pirates informatiques.

    Selon Microsoft, le but de Recall est de permettre � l'utilisateur de retrouver facilement le contenu qu'il a consult� (fichiers, sites Web, etc.) simplement en tapant des mots-cl�s ou en naviguant dans la chronologie des captures. Malgr� la pol�mique de la fonctionnalit�, Microsoft poursuit le d�ploiement de Recall.

    Source : Microsoft

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du nouveau raccourci clavier ajout� par Microsoft � Copilot sur Windows ?
    Les critiques affirment que Microsoft tente de d�tourner le raccourci au profit de Copilot. Qu'en pensez-vous ?
    Que pensez-vous du choix de Microsoft de revenir � une application native pour Copilot ?
    Utilisez-vous Copilot sur Windows ? Si oui, le trouvez-vous utile ? Partagez votre exp�rience.

    Voir aussi

    Microsoft lance Copilot Pages, un canevas collaboratif am�lior� par l'IA pour les utilisateurs de Microsoft 365 qui int�gre la collaboration d'�quipe en temps r�el avec les capacit�s d'IA de Microsoft Copilot

    Microsoft rend son assistant Copilot beaucoup moins utile sur les nouveaux PC Copilot+ pilot�s par l'IA, la touche Copilot d�di�e ne fait rien d'autre que lancer une version PWA du chatbot

    La fonction controvers�e de Recall de Microsoft conna�t d�j� quelques probl�mes : elle ne respecte pas toujours les pr�f�rences de l'utilisateur et ne fonctionnera pas avec certains programmes d'accessibilit�

  12. #92
    Chroniqueur Actualit�s

    Homme Profil pro
    R�dacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 569
    D�tails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : B�nin

    Informations professionnelles :
    Activit� : R�dacteur technique
    Secteur : High Tech - �diteur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 569
    Par d�faut Microsoft impose son assistant d'IA Copilot aux utilisateurs de sa suite Microsoft 365 et les oblige � payer
    Microsoft impose son assistant d'IA Copilot aux utilisateurs de sa suite Microsoft 365 et les oblige � payer l'acc�s
    les utilisateurs sont frustr�s et r�clament des mesures contre l'entreprise

    Microsoft revient � la charge avec son assistant d'IA Copilot et d�clenche une nouvelle vague de pol�miques. Cette fois-ci, il a ajout� Copilot � sa suite de productivit� Microsoft 365 en Australie et dans plusieurs pays d'Asie du Sud-Est. Microsoft 365 est son service d'abonnement pour des logiciels tels que Word, Excel et PowerPoint. Parall�lement � l'int�gration de Copilot, l'entreprise a augment� les prix pour tous ceux qui utilisent Microsoft 365 dans ces pays. Les personnes qui n'utilisent pas Copilot ou qui n'ont pas envie de l'utiliser n'ont pas le choix et sont donc oblig�es de payer quelques dollars de plus pour continuer � avoir acc�s � Microsoft 365.

    Microsoft impose son outil d'IA Copilot aux utilisateurs et les force � payer l'acc�s

    L'assistant d'IA Copilot de Microsoft a �t� l'un des principaux points de frictions entre la soci�t� et ses utilisateurs cette ann�e. Le g�ant de Redmond cherche par tous les moyens � amener les utilisateurs � utiliser Copilot, s'adonnant parfois � des pratiques qui exasp�rent les clients. Le comportement de Microsoft a suscit� de vives critiques et des m�contentements notables parmi les utilisateurs au cours de l�ann�e, mais l'entreprise n'a pas l'intention de les �couter.


    R�cemment, Microsoft a d�cid� d'ajouter Copilot � sa suite de productivit� Microsoft 365 en Australie et dans plusieurs pays d'Asie du Sud-Est. Cette int�gration a �t� suivie d'une augmentation des prix de Microsoft 365. Qu'en est-il des personnes qui ne veulent pas payer pour que Copilot am�liore leurs documents et r�sume leurs courriels ? Ils n'ont pas de chance. Microsoft ne leur a pas laiss� la possibilit� de choisir s'ils veulent ou non ajouter l'IA � leur abonnement.

    Alistair Fleming utilise Word pour �crire des scripts pour sa cha�ne YouTube sur le catch japonais des ann�es 1990. L'Australien a remarqu� que chaque fois qu'il terminait une ligne, le logo de Copilot apparaissait � l'�cran et lui demandait s'il pouvait l'aider � �crire. � Il �tait tr�s d�sireux d'�tre utilis�, ce qui m'irritait en tant qu'utilisateur �, a d�clar� le vid�aste. Sa facture mensuelle pour Microsoft 365 �tait pass�e de 11 dollars australiens � 16 dollars australiens.

    Certains utilisateurs ont d�clar� sur les m�dias sociaux que les fen�tres contextuelles de Copilot leur rappelaient Clippy, un assistant que Microsoft a ajout� � sa suite Office � la fin des ann�es 1990 et qui offrait fr�quemment une aide non sollicit�e. Clippy a �t� largement tourn� en d�rision par les critiques.

    Ce dernier changement montre � quel point Microsoft tente d�sesp�r�ment de trouver des moyens de tirer profit de ses �normes investissements dans l'IA. Copilot est un maillon cl� du plan du PDG Satya Nadella pour continuer � d�velopper l'activit� logicielle de Microsoft pour les clients grand public et les entreprises.

    Mais la strat�gie agressive de Microsoft attise l'ire des utilisateurs, dont certains affirment se sentir abuser. Un porte-parole de Microsoft a refus� de commenter la strat�gie derri�re l'ajout forc� de Copilot dans certaines r�gions et n'a pas voulu dire s'il pr�voyait une approche similaire sur d'autres march�s.

    Alistair Fleming a cherch� � supprimer Copilot de son logiciel de travail, mais a constat� que ce n'�tait pas possible. Il a donc r�sili� son abonnement. Il utilise d�sormais Google Docs. De nombreux critiques ont d�clar� qu'ils abandonneront Microsoft 365 si cette mise � jour est d�ploy�e dans leurs r�gions.

    Des centaines de milliards ont �t� investis dans l'IA pour des r�sultats peu reluisants

    Microsoft est le plus gros investisseur d'OpenAI, le fabricant de ChatGPT. Certaines sources estiment que le g�ant de Redmond a d�j� inject� pr�s de 14 milliards de dollars dans OpenAI. Depuis le d�but de l'ann�e 2023, Microsoft tente d'utiliser l'IA g�n�rative pour gagner du terrain sur le march� des applications grand public. Il a d'abord int�gr� l'IA dans son moteur de recherche Bing comme outil de chat, mais n'a pas r�ussi � gagner assez de terrain face � Google.

    Il a ensuite lanc� Copilot, un chatbot et un g�n�rateur de contenu qui s'int�gre au logiciel 365 pour aider � r�diger des courriels, � r�sumer des r�unions et � cr�er des diapositives PowerPoint. La version premium grand public de Copilot a �t� lanc�e en janvier 2024 au prix de 20 $ par mois aux �tats-Unis, ce qui s'ajoute aux quelque 7 $ mensuels d'un abonnement individuel � 365. Toutefois, Microsoft doit rivaliser sur un march� qui est hautement concurrentiel.

    Le chatbot ChatGPT de son partenaire OpenAI domine le march�. � titre de comparaison, selon les donn�es de Sensor Tower, l'application Copilot a �t� t�l�charg�e 37 millions de fois entre mai 2023 et la mi-d�cembre, contre 433 millions de t�l�chargements pour ChatGPT. Outre ChatGPT, Copilot de Microsoft doit �galement faire face � une concurrence f�roce de la part d'assistants tels que Claude 3 d'Anthropic, Gemini de Google et Grok du milliardaire Elon Musk.

    Microsoft n'a pas publi� de chiffres de vente pour Copilot, mais a r�cemment d�clar� lors d'une conf�rence que � pr�s de 70 % des entreprises du classement Fortune 500 utilisaient l'assistant d'IA �. Le g�ant de Redmond a �galement d�clar� r�cemment que le chiffre d'affaires total de l'IA d�passera bient�t les 10 milliards de dollars sur une base annuelle. Ce chiffre englobe tous ses services d'IA, y compris les services cloud computing pour d'autres d�veloppeurs.

    L'on ignore ce sur quoi ses pr�visions sont bas�es. Microsoft est confront� � la pression des �diteurs de logiciels d'entreprise rivaux qui ont lanc� leurs propres produits � base d'IA, notamment Salesforce, ainsi qu'aux d�veloppeurs d'IA, comme OpenAI et Anthropic, qui se lancent dans la vente aux entreprises.

    Au sein de Microsoft, Copilot est consid�r� comme la premi�re �tape de sa strat�gie en mati�re d'IA. La prochaine vague sera centr�e sur les agents, des outils automatis�s capables de g�rer des t�ches plus complexes telles que les interactions avec le service client�le ou la r�servation de voyages.

    L'IA g�n�rative a mobilis� des investissements colossaux au cours des deux derni�res ann�es. Cependant, malgr� des investissements des grandes entreprises de l'IA estim�s � 292 milliards de dollars, le chiffre d'affaires g�n�r� reste faible. En outre, les centres de donn�es mettent � rude �preuve les r�seaux �lectriques.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des pratiques de Microsoft pour amener les gens � utiliser Copilot ?
    Selon vous, pourquoi l'entreprise continue sur cette lanc�e malgr� le m�contentement des utilisateurs ?
    � long terme, quels pourraient �tre les impacts de cette strat�gie sur Microsoft ? Risque-t-il un abandon massif de ses produits ?

    Voir aussi

    Microsoft d�tourne un raccourci clavier pour attirer l'attention sur Copilot. L'assistant d'IA redevient, en quelque sorte, une application native sur Windows, mais ne fonctionne pas localement sur votre PC

    Microsoft rend son assistant Copilot beaucoup moins utile sur les nouveaux PC Copilot+ pilot�s par l'IA, la touche Copilot d�di�e ne fait rien d'autre que lancer une version PWA du chatbot

    Malgr� des investissements des grandes entreprises de l'IA estim�s � 292 milliards de dollars, le chiffre d'affaire g�n�r� reste faible et les centres de donn�es mettent � rude �preuve les r�seaux �lectriques

  13. #93
    Chroniqueur Actualit�s

    Homme Profil pro
    Administrateur de base de donn�es
    Inscrit en
    Mars 2013
    Messages
    9 659
    D�tails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activit� : Administrateur de base de donn�es

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 659
    Par d�faut Microsoft accus�e de d�guiser son moteur de recherche Bing en Google pour tromper les internautes inattentifs
    Microsoft accus�e de d�guiser son moteur de recherche Bing en Google pour induire en erreur les internautes inattentifs.
    Pour certains, la strat�gie refl�te une concurrence f�roce, pour d'autre, c'est une manipulation d�lib�r�e

    Microsoft tente une nouvelle strat�gie pour inciter les gens � utiliser son moteur de recherche Bing. Lorsqu'une personne qui n'est pas connect�e � un compte Microsoft recherche � Google � sur Bing, la page de r�sultats change pour ressembler � celle de Google. L'interface comporte une barre de recherche, une image semblable � celle de Google en haut de la page et un texte sous la barre de recherche qui imite la pr�sentation de Google. La page d�file m�me un peu vers le bas pour masquer la barre de recherche habituelle de Bing. Bien que les r�sultats de recherche habituels de Bing s'affichent toujours sous cette fausse interface Google, ce changement se produit sp�cifiquement lorsque quelqu'un effectue une recherche sur � Google �. Cette tactique est particuli�rement visible lorsque les utilisateurs configurent un nouvel ordinateur avec le navigateur Microsoft Edge, ce qui peut les amener � utiliser Bing sans s'en rendre compte alors qu'ils voudraient en r�alit� utiliser Google.

    Microsoft aimerait vraiment, vraiment, vraiment que vous utilisiez Bing, son propre moteur de recherche qui concurrence le monopole de Google. Non seulement Bing est int�gr� � Windows et � d'autres produits Microsoft tels que le navigateur Edge, mais il utilise �galement de nombreuses astuces visuelles pour vous d�tourner de Google. Mais la derni�re astuce de l'entreprise est plus, eh bien, d�licate - en fait, il s'agit tout simplement d'un camouflage de Google.

    Microsoft, en qu�te de parts de march� dans le domaine des moteurs de recherche, semble avoir adopt� une approche audacieuse. En utilisant des interfaces ou des r�sultats qui imitent visuellement ceux de Google, Bing esp�re capter l�attention des utilisateurs habitu�s � ce dernier. Bien que cette tactique puisse para�tre astucieuse d�un point de vue marketing, elle brouille la fronti�re entre l�innovation (c�t� design) et la manipulation.

    Il est crucial de rappeler que Google domine le march� mondial des moteurs de recherche avec environ 90 % de part de march� selon les donn�es de StatCounter, tandis que Bing peine � d�passer 3 %. Face � cet �cart, Microsoft pourrait consid�rer ces m�thodes comme un moyen de r�duire l��cart rapidement, mais � quel prix ?

    Voici comment cela fonctionne. Si vous allez sur Bing et que vous cherchez [google] ou [moteur de recherche] et aussi [yandex], Bing vous dirigera vers une nouvelle bo�te de recherche qui ressemble beaucoup � celle de Google. En fait, il masque les marques Bing et Microsoft en vous ancrant juste assez loin pour que vous ne les voyiez pas.

    Voici une image GIF de ce syst�me en action :

    Nom : bing-search-box-trick.gif
Affichages : 12006
Taille : 1,98 Mo

    La strat�gie de Microsoft repose en partie sur la confusion des utilisateurs, ce qui soul�ve des inqui�tudes quant au respect de leur choix et de leur autonomie. Si certains internautes remarquent la supercherie, d�autres, moins attentifs, risquent d��tre dirig�s vers Bing sans s�en rendre compte. De plus, cette approche pourrait nuire � la cr�dibilit� de Bing. Plut�t que d�attirer des utilisateurs gr�ce � des fonctionnalit�s uniques ou une meilleure exp�rience, la marque s�expose � des critiques sur son int�grit�.

    Des r�actions mitig�es

    Cette pratique a suscit� des r�actions mitig�es dans l�opinion publique et parmi les experts du secteur. Certains estiment que cela refl�te une concurrence f�roce, voire d�sesp�r�e, dans un domaine domin� par un acteur quasi monopolistique. D�autres, en revanche, condamnent fermement cette tactique, la qualifiant de manipulation d�lib�r�e.

    Une question se pose tout de m�me : jusqu�o� une entreprise peut-elle aller pour concurrencer un leader du march� ? Si la concurrence encourage g�n�ralement l�innovation, des pratiques trompeuses risquent de compromettre la confiance des utilisateurs et d�affaiblir l��cosyst�me num�rique dans son ensemble.

    Microsoft a demand� aux utilisateurs de Chrome d'essayer Bing par le biais de fen�tres pop-up non qui ne pouvaient pas �tre bloqu�s

    Des publicit�s Bing apparaissaient sous forme de pop-ups dans Chrome sur Windows 10 et 11, poussant les utilisateurs � faire de Bing leur moteur de recherche par d�faut. Microsoft a pr�sent� cette d�marche comme une opportunit� pour les utilisateurs, offrant plus d�interactions avec Copilot et un historique de conversation enrichi.

    Comme les utilisateurs l'ont soulign�, lors de l'utilisation du navigateur de bureau de Google sur Windows 10 ou 11, une bo�te de dialogue appara�t soudainement et de mani�re irritante sur le c�t� de l'�cran, invitant les gens � faire de Bing de Microsoft le moteur de recherche par d�faut dans Chrome. Les internautes sont inform�s qu'ils peuvent utiliser Chrome pour interagir avec le chat bot OpenAI GPT-4 de Bing, ce qui leur permet de poser des questions et d'obtenir des r�ponses en utilisant le langage naturel :

    � Discutez gratuitement avec GPT-4 sur Chrome ! Obtenez des centaines de discussions quotidiennes avec Bing Al �, lit-on dans l'annonce. Si vous cliquez sur � Oui �, la fen�tre contextuelle installera l'extension Chrome � Bing Search � tout en faisant du moteur de recherche de Microsoft le moteur de recherche par d�faut.

    Si vous cliquez sur "Oui" dans l'annonce pour passer � Bing, une fen�tre contextuelle de Chrome s'affiche, vous demandant de confirmer que vous souhaitez changer le moteur de recherche par d�faut du navigateur. La fen�tre contextuelle demande : � Voulez-vous changer de fournisseur de recherche ? �. Puis un avertissement Chrome indique : � l'extension "Microsoft Bing Search for Chrome" a modifi� la recherche pour utiliser bing.com �.

    Juste en dessous de cette alerte, apparemment en pr�vision de la fen�tre contextuelle de Chrome, une autre notification Windows avertit : � Attendez - ne changez pas � nouveau ! Si vous le faites, vous d�sactiverez Microsoft Bing Search for Chrome et perdrez l'acc�s � Bing Al avec GPT-4 et DALL-E 3. S�lectionnez Garder pour rester avec Microsoft Bing �.

    Il ne semble pas y avoir de moyen simple d'emp�cher la publicit� d'appara�tre.

    Nom : micro.png
Affichages : 3355
Taille : 422,4 Ko

    Microsoft Bing aurait gagn� moins de 1 % de parts de march� depuis l'ajout du chatbot d'IA Bing Chat

    Malgr� l'int�gration des fonctions d'IA dans Bing, les r�sultats ne sont pas convaincants. Les donn�es de Sensor Tower, compil�es par Bloomberg, ont r�v�l� que les efforts de Microsoft en mati�re d'IA n'ont pas �rod� de mani�re significative la part de march� de Google dans le domaine de la recherche. Les donn�es de la soci�t� d'analyse Statcounter r�v�lent �galement que le moteur de recherche de Microsoft a termin� l'ann�e 2023 avec seulement une part de 3,4 % du march� mondial de la recherche, soit une augmentation de moins d'un point de pourcentage depuis l'arriv�e de Bing Chat. M�me son de cloche pour 2024 o� Bing termine avec 3,97 % de part de march�.

    Nom : statcounter.png
Affichages : 3329
Taille : 118,6 Ko

    Bing a longtemps lutt� pour sa pertinence et s'est attir� plus de moqueries que de reconnaissance au fil des ans en tant qu'alternative s�rieuse � Google. Les multiples changements de marque et de conception depuis ses d�buts en 2009 n'ont gu�re contribu� � accro�tre sa popularit�. Un mois avant que Microsoft ne dote le moteur de recherche d'une IA g�n�rative, les internautes passaient 33 % moins de temps � l'utiliser que 12 mois plus t�t. Selon Sensor Tower, l'ajout des fonctions d'IA � Bing a permis d'inverser cette tendance.

    N�anmoins, le directeur marketing de Microsoft, Yusuf Medhi, a d�clar� � Bloomberg que � des millions et des millions de personnes � continuent � utiliser les nouvelles fonctions d'IA. Mais selon les donn�es de StatCounter, la part de march� mondiale de Google se situe actuellement dans les 90 %, et ce depuis pratiquement toute la p�riode de 15 ans pour laquelle StatCounter fournit des donn�es. La part de march� mondiale de Bing sur la m�me p�riode a �t� remarquablement stable : elle �tait d'environ 3,5 % � l'�t� 2009, lorsque ce qui �tait connu sous le nom de Live Search a �t� rebaptis� Bing, et en d�cembre 2023, ce chiffre �tait d'environ 3,4 %.

    Les donn�es am�ricaines r�centes sont l�g�rement plus flatteuses pour Microsoft, car dans l'ensemble, les utilisateurs ont pass� 84 % plus de temps sur le moteur de recherche. L'utilisation de Bing est pass�e de 6,7 % en d�cembre 2022 � 7,7 % en d�cembre 2023. Mais les analystes rappellent que cela ne sugg�re pas n�cessairement un afflux de nouveaux utilisateurs de Bing. L'utilisation est rest�e dans la fourchette moyenne de 6 % pendant la majeure partie de 2023 avant d'augmenter vers la fin de l'ann�e et l'utilisation de Bing aux �tats-Unis a flott� dans cette m�me zone de 6 � 7 % pendant la majeure partie de la derni�re d�cennie.

    La course aux moteurs de recherche dop�s � l'IA

    L'�quipe de Bing ajoute des fonctions d'IA pour attirer du monde, mais Google d�veloppe �galement ses propres outils d'IA en vue de contre-attaquer. En mai, Google a lanc� une version exp�rimentale de son moteur de recherche appel�e "Search Generative Experience" (SGE), qui fournit des r�ponses conversationnelles en plus de la liste de liens habituelle.

    L'int�gration de l'IA g�n�rative dans les moteurs de recherche changera fondamentalement la fa�on dont les gens recherchent et re�oivent des r�ponses en ligne. Pour Microsoft, ce changement est l'occasion de propulser Bing vers l'avant. Mais les gains progressifs r�alis�s jusqu'� pr�sent montrent clairement que les fonctions d'IA ne suffiront peut-�tre pas � faire de Bing un acteur redoutable sur le march�. Les analystes se montrent sceptiques. � Nous sommes � l'heure de la ru�e vers l'or en ce qui concerne l'IA et la recherche �, a d�clar� Shane Greenstein, �conomiste et professeur � la Harvard Business School, qui a �tudi� la commercialisation d'Internet.

    � Pour l'instant, je doute que l'IA fasse bouger l'aiguille, car dans le domaine de la recherche, vous avez besoin d'un volant d'inertie : plus vous effectuez de recherches et meilleures sont les r�ponses. Google est la seule entreprise � avoir bien �tabli cette dynamique �, a ajout� Greenstein. Toutefois, Greenstein estime que Bing, en tant qu'outsider, dispose d'une plus grande marge de man�uvre pour exp�rimenter de nouvelles fonctions bas�es sur l'IA. L'�conomiste explique : � Google doit veiller � ne pas nuire � sa marque et � son produit lorsqu'il s'agit de tester de nouveaux outils d'IA. Bing peut se permettre de prendre des risques. Il n'a rien � perdre �.

    Cela ne veut pas dire que la domination de Google dans le domaine de la recherche est assur�e. Le moteur de recherche fait de plus en plus l'objet de controverses et les utilisateurs se plaignent de la d�gradation continue de la qualit� des r�sultats de recherche. Des chercheurs de l'universit� de Leipzig ont publi� une �tude qui confirme ce ph�nom�ne. L'�tude sugg�re que Google, et ses rivaux Bing et DuckDuckGo sont confront�s � la baisse de la qualit� des r�sultats de recherche. Selon les chercheurs, la baisse de la qualit� des SERP serait li�e aux mauvaises pratiques d'optimisation utilis�es par les sites Web pour am�liorer leur r�f�rencement.

    Source : rapports sur le comportement de Bing

    Et vous ?

    Quel moteur de recherche utilisez-vous ? Sur quel type d'appareil ?

    La domination de Google dans le secteur justifie-t-elle des pratiques agressives de la part de ses concurrents ?

    Quelles innovations pourraient permettre � Bing de rivaliser efficacement avec Google sans recourir � des pratiques trompeuses ?

    Les moteurs de recherche alternatifs ont-ils encore une chance de s'imposer dans un march� aussi consolid� ?

    Microsoft va-t-il trop loin en cherchant � profiter de la confusion des utilisateurs ?

    Les utilisateurs ont-ils une part de responsabilit� dans leur propre vigilance sur Internet ? Est-il acceptable pour une entreprise de capitaliser sur l�inattention ou l�habitude des internautes ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et R�digez des actualit�s

  14. #94
    Communiqu�s de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 508
    D�tails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activit� : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 508
    Par d�faut Microsoft lance l'option 365 Copilot Chat bas�e sur la consommation pour les utilisateurs professionnels
    Microsoft lance l'option 365 Copilot Chat bas�e sur la consommation pour les utilisateurs professionnels, permettant l'analyse de march�, l'�laboration de strat�gies, et la pr�paration de r�unions, entre autre

    Microsoft facturera les organisations pour Microsoft 365 Copilot Chat en fonction de la fr�quence � laquelle les employ�s l'utilisent et du type de travail qu'ils effectuent. Avec Copilot Chat, les employ�s des entreprises peuvent obtenir des r�ponses � leurs questions en utilisant des informations provenant de fichiers t�l�charg�s et du web. Ils peuvent �galement cr�er des agents qui effectuent des t�ches pour eux et leur parler. Le service est disponible dans l'application Microsoft 365 Copilot, anciennement connue sous le nom de Microsoft 365 (Office).

    Microsoft a annonc� le 15 janvier 2025 une version de son assistant Copilot destin�e aux entreprises, avec un mod�le de tarification bas� sur la consommation. La nouvelle option Microsoft 365 Copilot Chat repr�sente une alternative � Microsoft 365 Copilot, que les organisations ont pu payer en fonction du nombre d'employ�s y ayant acc�s.

    L'introduction de cette option montre la d�termination de Microsoft � populariser les logiciels d'intelligence artificielle g�n�rative sur le lieu de travail. Plusieurs entreprises ont adopt� le Microsoft 365 Copilot depuis qu'il est disponible pour 30 dollars par personne et par mois en novembre 2023. Pour les simples utilisateurs, Microsoft a propos� l'abonnement Copilot Pro, un abonnement premium de 20 dollars par mois pour les m�mes fonctionnalit�s.

    Copilot Chat peut �tre une rampe d'acc�s � Microsoft 365 Copilot, avec une barri�re � l'entr�e moins �lev�e, a d�clar� Jared Spataro, directeur marketing de Microsoft pour AI at work. Les deux offres s'appuient sur des mod�les d'intelligence artificielle d'OpenAI, soutenu par Microsoft. Copilot Chat peut rechercher des informations sur le web et r�sumer du texte dans des documents t�l�charg�s, et les personnes qui l'utilisent peuvent cr�er des agents qui effectuent des t�ches en arri�re-plan. Il peut enrichir les r�ponses avec des informations provenant des dossiers des clients et de sources tierces.

    Contrairement � Microsoft 365 Copilot, Copilot Chat ne se trouve pas dans les applications Office telles que Word et Excel. Les utilisateurs pourront acc�der � Copilot Chat l'application Microsoft 365 Copilot pour Windows, Android et iOS. L'application est anciennement connue sous le nom de Microsoft 365 (Office). Elle est �galement disponible sur le web, a indiqu� un porte-parole.

    Nom : 1.jpg
Affichages : 7332
Taille : 40,2 Ko

    Certaines �quipes de direction ont refus� de payer Microsoft pour offrir le 365 Copilot � des milliers d'employ�s parce qu'elles n'�taient pas s�res de l'utilit� de l'application au prix de 30 dollars par mois. Les co�ts du Copilot Chat varieront en fonction de l'utilisation qu'en feront les employ�s, mais au moins les organisations ne paieront pas pour la non-utilisation. "Comme me l'a dit un client, ce mod�le permet � la valeur commerciale de faire ses preuves", a d�clar� Spataro.

    Microsoft calcule les frais de Copilot Chat en fonction du nombre de "messages" utilis�s par un client, chaque message co�tant un centime. Les r�ponses qui s'appuient sur les fichiers propri�taires du client co�tent 30 messages chacune. Chaque action entreprise par un agent au nom des employ�s co�te 25 messages. " Nous parlons d'un centime, de 2 centimes, de 30 centimes, et c'est un moyen tr�s facile pour les gens de commencer", a d�clar� Spataro.

    � titre de comparaison, Salesforce facture 2 dollars par conversation pour son service de chat Agentforce AI, o� les employ�s peuvent mettre en place des processus automatis�s de vente et de service � la client�le.

    Le nombre de personnes utilisant quotidiennement Microsoft 365 Copilot a plus que doubl� d'un trimestre � l'autre, a d�clar� le PDG Satya Nadella en octobre, bien qu'il n'ait pas r�v�l� le nombre d'utilisateurs. Mais les inscriptions se sont multipli�es. UBS a d�clar� en octobre qu'elle disposait de 50 000 licences Microsoft 365 Copilot et, en novembre, Accenture s'est engag�e � avoir 200 000 utilisateurs de l'outil.

    Cependant, un groupe d'analystes a r�cemment qualifi� la pouss�e du produit de "lente/insuffisante". Face � cette situation, Microsoft avait ajout�, ou plut�t impos�, Copilot � sa suite de productivit� Microsoft 365 en Australie et dans plusieurs pays d'Asie du Sud-Est. Parall�lement � l'int�gration de Copilot, l'entreprise a augment� les prix pour tous ceux qui utilisent Microsoft 365 dans ces pays. Les personnes qui n'utilisent pas Copilot ou qui n'ont pas envie de l'utiliser n'ont pas le choix et sont donc oblig�es de payer quelques dollars de plus pour continuer � avoir acc�s � Microsoft 365.

    En outre, malgr� les capacit�s de Copilot � automatiser et � simplifier les t�ches quotidiennes, l'outil est au c�ur d'une controverse sur la gestion des donn�es sensibles en entreprise. En effet, des utilisateurs ont d�couvert que Copilot permettait d'acc�der � des informations sensibles, notamment des documents de ressources humaines (RH) ou des emails de dirigeants. Cette r�v�lation met en lumi�re � la fois les possibilit�s offertes par cette technologie et les d�fis en mati�re de s�curit� des donn�es.


    Voici les informations partag�es par Microsoft concernant Microsoft 365 Copilot Chat :

    Activation des agents dans Microsoft 365 Copilot Chat

    Notre ambition est d'�quiper chaque employ� d'un Copilot et de transformer chaque processus d'entreprise avec des agents. Aujourd'hui, nous continuons � concr�tiser cette ambition avec Microsoft 365 Copilot Chat. Copilot Chat permet � l'ensemble de votre personnel - des repr�sentants du service client�le aux techniciens de premi�re ligne en passant par les responsables marketing - de commencer � utiliser Copilot et les agents d�s aujourd'hui.

    Les agents jouent un r�le important dans la fa�on dont les organisations transforment leurs processus d'affaires avec l'IA. Bient�t, les agents cr��s dans Copilot Studio agent builder et Copilot Studio seront disponibles directement dans Copilot Chat. Voyons comment vous pouvez payer pour les agents avec Copilot Studio.

    Commencer avec la consommation des agents

    L'utilisation des agents est mesur�e en "messages" et le co�t total est calcul� sur la base de la somme des messages utilis�s par votre organisation. Vous pouvez acheter des messages via le compteur de Copilot Studio dans Microsoft Azure, une option de paiement � l'utilisation, pour 0,01 $/message, ou via des packs de messages pr�pay�s au prix de 200 $ pour 25 000 messages/mois.

    Le centre d'administration de Microsoft Power Platform est utilis� pour configurer la facturation et attribuer la capacit� de message � Copilot Chat et aux agents individuels. L'utilisation des messages par les agents varie en fonction de la complexit�, de la fr�quence et de l'utilisation de fonctions sp�cifiques. Ces fonctionnalit�s ont �t� class�es en cinq groupes, dont trois nouveaux introduits aujourd'hui.

    Nom : 2.jpg
Affichages : 2028
Taille : 23,1 Ko

    R�ponses classiques et g�n�ratives

    Les r�ponses sont le moyen par lequel les agents communiquent avec les utilisateurs et sont au c�ur du mod�le d'interaction "prompt et r�ponse". Les r�ponses sont factur�es pour chaque r�ponse de l'agent, et non pour les invites de l'utilisateur. Lorsque les cr�ateurs construisent des agents, ils peuvent d�finir des sujets de conversation, cr�er des flux logiques ramifi�s et appliquer l'IA g�n�rative pour cr�er des r�ponses bas�es sur des sources de connaissances. Pour prendre en charge cette gamme de capacit�s, nous proposons deux options :

    1. Les r�ponses classiques, utilis�es pour les r�ponses pr�d�finies r�dig�es manuellement par les cr�ateurs d'agents. Elles sont statiques, ne changent pas � moins d'�tre mises � jour manuellement, et sont g�n�ralement utilis�es lorsque des r�ponses pr�cises sont requises. Les r�ponses classiques co�tent un message.
    2. Les r�ponses g�n�ratives, utilis�es pour les r�ponses g�n�r�es dynamiquement sur la base de sources de connaissances et du contexte. Elles permettent des interactions plus souples et plus naturelles, car elles s'appuient sur le contexte de la conversation et sur les connaissances disponibles. Les r�ponses g�n�ratives co�tent deux messages.

    Notez que les utilisateurs disposant d'une licence Microsoft 365 Copilot peuvent utiliser gratuitement les r�ponses classiques et g�n�ratives dans le cadre de leur licence par utilisateur.

    Liaison "Tenant Graph" pour les messages

    La liaison "Tenant Graph" pour les messages fournit une connexion de haute qualit� pour les agents avec des informations pertinentes provenant de Microsoft Graph, y compris des fichiers stock�s dans SharePoint et des donn�es externes synchronis�es via des connecteurs Graph. Il n'inclut pas les donn�es Graph personnelles telles que les courriels et les chats. L'ancrage des messages dans Tenant Graph co�te 30 messages pour chaque recherche de connaissances.

    Cette fonctionnalit� payante est facultative et vous pouvez d�cider de l'activer ou de la d�sactiver dans Copilot Studio. Si cette fonctionnalit� est activ�e, chaque fois qu'un agent r�pondra par une r�ponse g�n�rative, il utilisera les connaissances dans Tenant Graph et la mise � jour de Tenant Graph pour les messages sera factur�e. Cette fonctionnalit� sera d�ploy�e en plusieurs phases : les agents existants qui l'ont activ�e pendant l'aper�u, ainsi que les nouveaux agents cr��s dans Copilot Studio, seront factur�s � partir du 1er f�vrier 2025 ; et les nouveaux agents cr��s dans Copilot Studio utilisant cette fonctionnalit� seront factur�s � partir d'aujourd'hui.

    Notez que les utilisateurs disposant d'une licence Microsoft 365 Copilot peuvent utiliser gratuitement la mise � la terre du graphique du locataire pour les messages dans le cadre de leur licence par utilisateur.

    Les actions autonomes font l'objet d'un aper�u payant

    Les agents autonomes comprennent votre travail, agissent en votre nom et peuvent automatiser des processus m�tier complexes. Nous avons constat� un int�r�t significatif pour ces capacit�s depuis le lancement de l'aper�u public en novembre 2024, et � partir du 1er f�vrier 2025, nous passons � un programme d'aper�u payant.

    Pour permettre aux agents autonomes de fonctionner, nous introduisons le concept d'actions autonomes. Les actions autonomes sont des d�clencheurs, des sujets, des connecteurs de donn�es et des flux de travail orchestr�s de mani�re g�n�rative et sont visibles dans la carte d'activit� affich�e en mode d'orchestration g�n�rative. Les actions autonomes co�tent 25 messages par action.

    Calcul du co�t de l'agent

    Les co�ts des agents sont calcul�s en fonction des capacit�s indiqu�es dans le tableau ci-dessus. Voici quelques exemples de calcul des co�ts :

    • Un agent hypoth�tique peut r�pondre aux questions des clients sur un site web. Hier, il a consomm� 500 r�ponses classiques et 2 000 r�ponses g�n�ratives. Il lui en co�terait donc 4 500 messages, ce qui �quivaut � 45 $ pour la journ�e.

    • Un agent hypoth�tique de Copilot Chat utilise des donn�es stock�es dans Microsoft Graph pour r�pondre aux questions des employ�s sur les politiques de ressources humaines. Hier, l'agent a consomm� 200 r�ponses g�n�ratives et 200 messages de mise � jour du graphique du locataire. Par cons�quent, il lui en co�terait 6 400 messages ou 64 $ pour cette journ�e.
    • Un agent autonome hypoth�tique r�pond aux commandes entrantes des clients et les achemine. Hier, il a consomm� 100 r�ponses g�n�ratives, 100 mises � jour de Tenant Graph pour les messages et 800 actions autonomes. Par cons�quent, il co�terait 23 200 messages ou 232 dollars pour cette journ�e.


    Bien entendu, chaque agent est diff�rent et le nombre de messages consomm�s d�pend de la fr�quence et de la complexit� de l'utilisation.

    Nous sommes conscients qu'il est essentiel de vous fournir des outils de gouvernance appropri�s pour g�rer les co�ts des agents au sein de votre organisation. Dans le centre d'administration de Microsoft Power Platform, les administrateurs peuvent affecter des agents � des environnements, surveiller l'utilisation des agents et allouer des capacit�s de messages pour s'assurer que vous gardez le contr�le de la facturation.
    Source : Microsoft

    Et vous ?

    Pensez-vous que cette nouvelle fonctionnalit� est cr�dible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Le PDG de Microsoft, Satya Nadella, a annonc� une restructuration radicale de l'organisation de l'ing�nierie de l'entreprise afin de se concentrer sur le d�veloppement des outils pour les agents d'IA

    � Si vous confiez les r�nes � Copilot, ne vous �tonnez pas qu'il d�voile vos secrets �, d'apr�s une r�cente �tude, selon laquelle cette IA peut �tre transform�e en outil d'exfiltration de donn�es

    Microsoft pr�voit de permettre aux entreprises de cr�er leurs propres employ�s virtuels aliment�s par l'IA, alors que la prochaine it�ration de Copilot int�grera des agents autonomes

  15. #95
    Membre averti

    Inscrit en
    Janvier 2011
    Messages
    31
    D�tails du profil
    Informations forums :
    Inscription : Janvier 2011
    Messages : 31
    Billets dans le blog
    1
    Par d�faut
    Ce n'est pas que quand on recherche "google", c'est pour n'importe quelle recherche...

  16. #96
    Chroniqueur Actualit�s

    Homme Profil pro
    R�dacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 569
    D�tails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : B�nin

    Informations professionnelles :
    Activit� : R�dacteur technique
    Secteur : High Tech - �diteur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 569
    Par d�faut Microsoft force les utilisateurs de la suite Office � adopter son assistant d'IA controvers� Copilot
    La hausse des prix des abonnements Microsoft 365 provoqu�e par l'int�gration de Copilot est qualifi�e de � d�sastre total � avec des r�actions extr�mement n�gatives


    Microsoft a augment� les prix des abonnements de sa suite bureautique Office (Microsoft 365) pour la premi�re fois en douze ans. La soci�t� justifie ces augmentations de prix par l'int�gration de l'assistant d'IA Copilot dans Microsoft 365. Mais cette d�cision a suscit� de vives tensions avec les consommateurs, car beaucoup ne veulent pas de ces nouvelles fonctions d'IA. Ces augmentations correspondent � une hausse d'environ 43 % pour l'abonnement Microsoft 365 Personnel et de 30 % pour l'abonnement Microsoft 365 Famille. Les utilisateurs de longue date de Microsoft 365 consid�rent cette politique comme un manque de reconnaissance de leur fid�lit�.

    Microsoft force les utilisateurs de la suite Office � adopter son assistant Copilot

    Microsoft a annonc� au d�but de l'ann�e que sa suite bureautique Microsoft 365 s'appelle d�sormais � Microsoft 365 Copilot �. La raison de changement est perceptible dans le nouveau nom : Microsoft a ajout� les fonctions d'IA de son assistant Copilot aux applications composant la suite bureautique. Ce changement s'est en outre traduit par une augmentation significative des prix des abonnements � Microsoft 365, provoquant un toll� dans la communaut�.

    Au cours des derniers mois, Microsoft a test� l'ajout de Copilot Pro dans les abonnements Microsoft 365. Par exemple, en Australie et en Asie du Sud-Est, Microsoft a impos� Copilot � tous les abonn�s, entra�nant une hausse des prix, ce qui a conduit certains clients � annuler leur abonnement. Ce qui n'�tait auparavant disponible qu'en Australie, en Nouvelle-Z�lande et dans certains pays d'Asie s'�tend d�sormais � la plupart des march�s du monde entier.

    Nouveaux tarifs :

    • Microsoft 365 Personnel : le prix mensuel passe de 6,99 � � 9,99 �, soit une augmentation de 3 � par mois. L'abonnement annuel est d�sormais propos� � 99,99 � ;
    • Microsoft 365 Famille : le tarif mensuel augmente de 9,99 � � 12,99 �, soit une hausse de 3 � par mois. L'abonnement annuel est fix� � 129,99 �.


    Ces augmentations correspondent � une hausse d'environ 43 % pour Microsoft 365 Personnel et de 30 % pour Microsoft 365 Famille. Les abonn�s actuels peuvent renoncer aux fonctionnalit�s d'IA pour ne pas subir l'augmentation de prix. Ces derniers ont la possibilit� de conserver leur tarif actuel en choisissant les plans � Personnel Classic � ou � Famille Classic �. Cependant, les offres classiques ne b�n�ficieront pas des mises � jour majeures futures.

    � Ces offres continueront � recevoir des mises � jour de s�curit� et des mises � jour de fonctionnalit�s mineures, mais toutes les innovations suppl�mentaires que nous proposerons � l'avenir ne seront pas incluses dans ces plans �, explique Microsoft. Les offres classiques ne seront disponibles que pour les abonn�s actuels � Microsoft 365. Les nouveaux abonn�s acc�deront par d�faut aux applications Office propuls�es par l'IA avec les nouvelles tarifications.

    Microsoft � facilite � �galement la d�sactivation de Copilot dans les applications Office si vous ne voulez tout simplement pas de l'assistant d'IA ou si vous �tes �tudiant et que votre �cole a des r�gles interdisant l'utilisation de l'IA. Cependant, vous n'�chappez pas � la hausse des prix en d�sactivant Copilot.

    La strat�gie de Microsoft pose de nombreux probl�mes aux consommateurs

    La strat�gie de Microsoft vise � int�grer plus profond�ment l'IA dans les applications Office. Mais la hausse des prix provoqu�e par l'ajout de Copilot dans Microsoft 365 a suscit� de nombreuses r�actions n�gatives de la part des consommateurs, ce qui pourrait un impact significatif sur l'image de Microsoft. De nombreux utilisateurs d�noncent cette strat�gie et affirment �galement que ces nouvelles fonctions d'IA ne sont pas � la hauteur du battage m�diatique.


    � Je ne veux pas payer pour ces choses ; je n'en veux pas du tout. Et j'aimerais qu'ils arr�tent d'appeler les grands mod�les de langage "Intelligence artificielle". Ce n'est pas le cas �, peut-on lire dans les commentaires. Voici les principaux points de friction cr��s par les changements de Microsoft :

    Frustrations et comparaison d�favorable avec la concurrence

    • perception d'un manque de choix : les utilisateurs de Microsoft qui ne souhaitent pas b�n�ficier de l'IA Copilot sont contraints soit de payer plus cher, soit de passer � des plans � classiques � sans les mises � jour majeures. Les consommateurs accusent Microsoft de porter atteinte � leurs droits, notamment � leur libert� de choix ;
    • m�contentement des consommateurs fid�les : les hausses de tarifs ont �galement frustr� des abonn�s de longue date, qui consid�rent cette politique comme un manque de reconnaissance de leur fid�lit� ;
    • Google Workspace : Google offre des fonctionnalit�s d'IA similaires sans imposer d'augmentation significative des prix, ce qui rend leur offre plus attrayante. Les clients de Microsoft comparent directement cette politique � celle de Google, ce qui accentue leur frustration.


    Microsoft accus� de surestimer les capacit�s de Copilot

    • critiques sur la valeur ajout�e : de nombreux utilisateurs affirment que Copilot n'apporte pas suffisamment de fonctionnalit�s justifiant une telle augmentation de prix. Marc Benioff, PDG de Salesforce, a m�me fait un parall�le avec Clippy (l'ancien assistant de Microsoft), ce qui a accentu� le scepticisme � l'�gard de Copilot ;
    • fonctionnalit�s non essentielles pour tous : Copilot n�est pas jug� pertinent pour les utilisateurs ayant des besoins basiques (�dition de texte, gestion de courriels, etc.). Pourtant, Microsoft les force � adopter Copilot. De plus, Microsoft supprime les mises � jour majeures pour les utilisateurs qui d�cident de renoncer aux fonctions d'IA, ce qui est tr�s mal per�u.


    Cette strat�gie porte atteinte � l'image de Microsoft

    • des annulations d'abonnement : dans des march�s comme l�Australie et l�Asie du Sud-Est, les hausses de tarifs et l�obligation d'adopter Copilot ont conduit des entreprises et des particuliers � annuler leurs abonnements, jug�s trop co�teux pour leur besoin r�el ;
    • impact sur les PME : les petites entreprises, qui sont souvent plus sensibles aux fluctuations de co�ts, ont exprim� leur m�contentement face � des augmentations qu'elles jugent injustifi�es pour des outils qu'elles n'utiliseront peut-�tre pas pleinement ;
    • accessibilit� financi�re limit�e : les abonnements deviennent moins abordables pour des �tudiants ou des utilisateurs individuels aux budgets restreints, en particulier dans les pays �mergents o� ces outils sont souvent essentiels pour le travail ou les �tudes.


    Microsoft augmente les prix des abonnements, mais limite l'utilisation de l'IA

    Les probl�mes susmentionn�s montrent que, bien que l'int�gration de Copilot ait un potentiel d'innovation, la gestion de son d�ploiement et les hausses de prix n'ont pas �t� optimales, ce qui a cr�� des tensions significatives avec les consommateurs. Malgr� les hausses de prix, ces fonctionnalit�s ne sont pas illimit�es et sont encadr�es par un syst�me de cr�dits mensuels utilisables sur l�ensemble des applications Office et quelques outils comme Designer et Paint.

    Vous recevrez des cr�dits mensuels dans Microsoft 365 (Personnel et Famille) � utiliser pour des choses comme la g�n�ration d'images dans Designer ou dans des applications Windows comme Paint, Photos et Notepad. Microsoft attribue � 60 cr�dits d�IA � par mois, qui ne peuvent pas �tre mis en r�serve ni report�s.

    Pour obtenir un usage �tendu, il sera n�cessaire de basculer sur Copilot Pro, qui co�te 22 � TTC suppl�mentaires par mois en plus des forfaits Microsoft 365 existants. Copilot Pro comprend essentiellement une utilisation illimit�e de toutes ces fonctions d'IA, sur la base d'une politique d'utilisation �quitable.

    Si Microsoft met en avant la valeur ajout�e de ses services, cette hausse de prix ne fait clairement pas l�unanimit�. Certains utilisateurs jugent Copilot superflu et regrettent de devoir payer pour des fonctionnalit�s non essentielles. Des alternatives telles que LibreOffice ou iWork restent disponibles.

    Mais pour les fid�les de la suite bureautique de Microsoft, ces nouveaux tarifs semblent in�vitables. Cette d�cision confirme en tout cas l�ambition de Microsoft de s�imposer comme un acteur majeur de l�IA dans le domaine de la productivit�, m�me s'il faut frustrer les utilisateurs au passage.

    Citation Envoy� par Critique

    Microsoft 365 est la suite bureautique standard de facto, et Microsoft sait que les gens - et surtout les entreprises - ne partiront pas en masse pour Libre Office. Ils ont transform� Microsoft 365 en un produit de location, et les utilisateurs paieront le loyer demand� et prendront tout ce qu'on leur donnera, car ils n'ont pas le courage de passer � l'open source et d'endurer la douleur � court terme pour un gain � long terme. Ils r�leront, mais ils paieront, et Microsoft continuera � s'enrichir comme des bandits, comme il l'a toujours fait.
    Les hausses de prix et la gestion controvers�e du lancement de Microsoft 365 Copilot pourraient avoir des impacts notables sur Microsoft, � court et long terme. Microsoft fait face � une vive contestation, les utilisateurs d�non�ant les efforts de l'entreprise visant � imposer son assistant Copilot malgr� l'opposition.

    Les critiques de Microsoft ouvrent la porte � de nouveaux acteurs dans le domaine des logiciels d'IA et de productivit�, ce qui pourrait affaiblir le quasi-monopole de la firme de Redmond. Les agissements de Microsoft pourraient �galement attirer le regard des r�gulateurs am�ricains et europ�ens.

    Source : Microsoft

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'int�gration de Copilot dans les applications Office ? Quelle en est l'utilit� ?
    Que pensez-vous de l'augmentation des prix des abonnements Microsoft 365 Personnel et Famille ?
    Que pensez-vous de la strat�gie de Microsoft en mati�re d'IA ? Quels impacts peut-elle avoir sur l'entreprise � long terme ?

    Voir aussi

    Microsoft impose son assistant d'IA Copilot aux utilisateurs de sa suite Microsoft 365 et les oblige � payer l'acc�s, les utilisateurs sont frustr�s et r�clament des mesures contre l'entreprise

    Microsoft lance l'option 365 Copilot Chat bas�e sur la consommation pour les utilisateurs professionnels permettant l'analyse de march�, l'�laboration de strat�gies, et la pr�paration de r�unions

    Microsoft accus�e de d�guiser son moteur de recherche Bing en Google pour induire en erreur les internautes inattentifs. Certains parlent de reflet d'une concurrence f�roce, d'autres de manipulation d�lib�r�e

  17. #97
    Membre �prouv�
    Homme Profil pro
    ing�nieur qualit�
    Inscrit en
    Mars 2015
    Messages
    1 621
    D�tails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activit� : ing�nieur qualit�
    Secteur : A�ronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 621
    Par d�faut
    Citation Envoy� par Mathis Lucas Voir le message
    Quel est votre avis sur le sujet ?
    Je comprends mieux pourquoi on nous encourage � nous en servir dans ma boite, elle a payer un pont ce service.
    Mais les r�sultats sont au mieux moyens.
    Seule la retranscription des r�unions est � peu pr�s acceptables (on comprends facilement les erreurs qu'elle fait)

  18. #98
    Invit� de passage
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Juin 2022
    Messages
    1
    D�tails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yonne (Bourgogne)

    Informations professionnelles :
    Activit� : Responsable de service informatique
    Secteur : Associations - ONG

    Informations forums :
    Inscription : Juin 2022
    Messages : 1
    Par d�faut D�ception
    D'apr�s mes tests Copilot n'est pas capable de transformer un Word en pr�sentation Powerpoint ... trop d��u

  19. #99
    Membre chevronn�

    Homme Profil pro
    Consultant informatique
    Inscrit en
    Avril 2015
    Messages
    483
    D�tails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Vend�e (Pays de la Loire)

    Informations professionnelles :
    Activit� : Consultant informatique
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2015
    Messages : 483
    Par d�faut
    J'ai connu l'avant-Microsoft. J'ai souffert sous DOS puis Windows, en gros jusqu'� 7.
    Microsoft a habitu� les gens � payer pour �tre b�ta-testeur, et surtout � attendre la prochaine version qui sera FORC�MENT bien plus mieux mieux.
    R�trospectivement, il est �vident que si quelques am�liorations fonctionnelles ont �t� bienvenues au d�but de leurs produits, l'�crasante majorit� de ces releases n'a que servi de machine � cash.
    En fait le niveau moyen des utilisateurs � baiss� en proportion directe de la diss�mination de l'informatique, ce qui est normal. Ce qui l'est moins c'est l'impossibilit� apparente de former les gens � utiliser pleinement ce qu'ils ont et � toujours esp�rer que la miraculeuse future version comblera leur d�ficit de comp�tences.
    Avec l'IA nous entrons dans un cycle o� l'on peut effectivement esp�rer que le logiciel comprendra les infinies subtilit�s de mise en page indispensables � notre prochaine pr�sentation Power Point, voire r�dig� lui-m�me notre magnifique pr�sentation marketing due pour la semaine pass�e.
    Cela a un co�t.
    Si vous ne voulez pas d'abonnement Microsoft, pourquoi ne choisissez-vous pas LibreOffice ? Pour la bureautique g�n�rale, la petite gestion de petites entreprises, la suite offre l'indispensable, en grande partie le n�cessaire et m�me un bout de superflu.
    Et souvenez-vous que nous aussi avons un cerveau, pas seulement Copilot, ChatGPT et consorts, bien qu'ils puissent nous �pauler efficacement.

  20. #100
    Membre du Club
    Homme Profil pro
    Assistant aux utilisateurs
    Inscrit en
    Ao�t 2016
    Messages
    9
    D�tails du profil
    Informations personnelles :
    Sexe : Homme
    �ge : 55
    Localisation : France, Manche (Basse Normandie)

    Informations professionnelles :
    Activit� : Assistant aux utilisateurs

    Informations forums :
    Inscription : Ao�t 2016
    Messages : 9
    Par d�faut Faible faible copilot
    J'ai essay� Copilot pro en version d'essai avec un � priori positif "Je vais gagnerplein de temps sur les mises en forme sous Word, il me fera les formules complexes adapt�es sous Excel..."
    Que nenni ! Demandez lui de structures un texte en utilisant les titres n il vous explique comment faire pas � pas. � vous de parcourir tout le texte, rep�rer les titres , les mettre en forme...
    et �a je sais le faire sans l'IA !
    Montrez lui un tableau de donn�es nombreuses et il ne vous proposera rien de plus ni de mieux que ce que l'analyseur faisait d�j�. Pour peu que vous connaissiez les fonctions avanc�es d'Excel Copilot vous semblera lent.

    Par contre il intervient sans arret pour proposer de r�ecrire votre texte, le r�sumer... tout �a pour 22�/mois !

    Et maintenant je suis oblig� de le prendre ??!!

    Je ne peux pas tout passer � Libre Office MS �tant si bien implant� en entreprise

    Encore une belle vente forc�e comme ce cher Bill en avait le secret!


    Pour preuve ci-dessous ma prose r��crite gratuitement par ChatGPT (demande d'un ton cynique et convivial avec exemples)

    Copilot Pro : la r�volution� du vide

    Tout excit� � l'id�e d'essayer Copilot Pro, je me disais :
    "Enfin ! Fini le casse-t�te des mises en forme sous Word ! Plus besoin de me creuser la t�te pour pondre des formules Excel tordues ! �a va �tre magique."

    Eh bien� spoiler alert : non.
    Une "assistance" qui assiste surtout de loin

    Vous voulez structurer un texte avec des titres bien propres ?
    Copilot vous r�pond avec une belle notice explicative : "Pour ajouter des titres, s�lectionnez votre texte et appliquez un style." Ah bah merci, j�y avais pas pens�

    Vous lui collez un gros tableau Excel, esp�rant qu�il va vous pondre des analyses intelligentes dignes d�un data scientist ? Il vous ressort� exactement ce que l�analyseur de donn�es Excel faisait d�j� depuis des lustres. Vous ma�trisez les fonctions avanc�es ? Alors l�, pr�parez-vous � �tre d�sesp�r�ment d��u. Copilot, c�est un peu comme ce coll�gue qui donne son avis sur tout sans jamais apporter de vraie valeur.
    Par contre, pour vous interrompre, il est au taquet !

    Ah �a, pour r��crire votre texte, vous proposer des reformulations et vous inciter � tout r�sumer, il est l�, Copilot. Toujours pr�t � vous sugg�rer des modifications que personne ne lui a demand�es. Et tout �a pour 22� par mois. Oui, vingt-deux balles pour un assistant qui fait moins bien que la version gratuite de votre propre cerveau.
    Et maintenant, c'est obligatoire ?

    Le meilleur dans tout �a ?
    Je ne peux m�me pas m�en passer. Parce que Microsoft est partout en entreprise et que tout balancer pour passer sous LibreOffice, c�est juste impensable.

    Bref, encore une vente forc�e bien ficel�e, dans la grande tradition de ce cher Bill et de ses coups de g�nie commerciaux. Apr�s Internet Explorer impos� d�office, voici Copilot, le stagiaire envahissant qu�on n�a jamais demand� mais qu�on va quand m�me devoir payer.

Discussions similaires

  1. Trolldi : une soci�t� propose de vous euthanasier pour conserver votre cerveau
    Par St�phane le calme dans le forum Actualit�s
    R�ponses: 10
    Dernier message: 11/05/2018, 19h33
  2. R�ponses: 1
    Dernier message: 18/06/2007, 18h51
  3. R�ponses: 12
    Dernier message: 18/06/2007, 13h03
  4. Comment vous faites pour g�rer votre temps?
    Par implosion dans le forum Emploi
    R�ponses: 12
    Dernier message: 10/01/2006, 18h31
  5. R�ponses: 19
    Dernier message: 14/08/2003, 11h37

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo