IdentifiantMot de passe
Loading...
Mot de passe oubli� ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les r�ponses en temps r�el, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

La nouvelle fonctionnalit� de cr�ation de fichiers de Claude comporte des risques de s�curit� importants


Sujet :

Intelligence artificielle

  1. #1
    Communiqu�s de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 508
    D�tails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activit� : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 508
    Par d�faut La nouvelle fonctionnalit� de cr�ation de fichiers de Claude comporte des risques de s�curit� importants
    L'IA Claude d'Anthropic peut d�sormais cr�er et modifier des formats de fichiers courants : Excel, documents, pr�sentations PowerPoint et PDF, sans quitter l'exp�rience web ou l'application de bureau.

    Anthropic a annonc� une nouvelle fonctionnalit� de Claude qui lui permet de cr�er et de modifier des formats de fichiers courants, notamment des feuilles de calcul Excel, des documents, des pr�sentations PowerPoint et des fichiers PDF, sans quitter l'exp�rience web Claude.ai ou l'application de bureau. Claude a d�sormais acc�s � un environnement informatique priv� qu'il utilisera pour �crire et ex�cuter du code afin de cr�er les fichiers et les analyses dont vous avez besoin.

    Anthropic, une start-up am�ricaine sp�cialis�e dans l'intelligence artificielle (IA) fond�e en 2021, recherche et d�veloppe l'IA afin � d'�tudier ses propri�t�s de s�curit� � la fronti�re technologique � et utilise ces recherches pour d�ployer des mod�les s�rs pour le public. Fond�e par d'anciens membres d'OpenAI, dont les fr�re et s�ur Daniela Amodei et Dario Amodei, l'entreprise est � l'origine de la famille de grands mod�les de langage Claude. La famille Claude 4, qui comprend Opus et Sonnet, a �t� lanc� en mai 2025.

    Jusqu'� pr�sent, Claude ne pouvait fournir que des r�ponses textuelles et des artefacts int�gr�s � l'application, mais il ne pouvait pas cr�er ni modifier de fichiers. Aujourd'hui, Anthropic a annonc� une nouvelle fonctionnalit� de Claude qui lui permet de cr�er et de modifier des formats de fichiers courants, notamment des feuilles de calcul Excel, des documents, des pr�sentations PowerPoint et des fichiers PDF, sans quitter l'exp�rience web Claude.ai ou l'application de bureau.

    Claude a d�sormais acc�s � un environnement informatique priv� qu'il utilisera pour �crire et ex�cuter du code afin de cr�er les fichiers et les analyses dont vous avez besoin. Cette nouvelle fonctionnalit� de cr�ation de fichiers est en cours de d�ploiement en avant-premi�re pour les utilisateurs des plans Claude Max, Team et Enterprise. Les utilisateurs de Claude Pro b�n�ficieront �galement de cette nouvelle fonctionnalit� dans les semaines � venir.


    Selon Anthropic, Claude cr�e des fichiers � partir de vos instructions, qu'il s'agisse de travailler � partir de donn�es t�l�charg�es, de rechercher des informations ou de partir de z�ro. Voici quelques exemples :

    • Transformez les donn�es en informations : fournissez � Claude des donn�es brutes et obtenez des r�sultats raffin�s avec des donn�es nettoy�es, des analyses statistiques, des graphiques et des informations �crites expliquant ce qui est important.

    • Cr�ez des feuilles de calcul : d�crivez ce dont vous avez besoin : des mod�les financiers avec analyse de sc�narios, des outils de suivi de projet avec tableaux de bord automatis�s ou des mod�les de budget avec calculs d'�carts. Claude les cr�e avec des formules fonctionnelles et plusieurs feuilles.

    • Travaillez sur plusieurs formats : t�l�chargez un rapport PDF et obtenez des diapositives PowerPoint. Partagez des notes de r�union et obtenez un document format�. T�l�chargez des factures et obtenez des feuilles de calcul organis�es avec des calculs. Claude se charge du travail fastidieux et pr�sente les informations dont vous avez besoin.

    Que vous ayez besoin d'une analyse de segmentation de la client�le, de pr�visions de ventes ou d'un suivi budg�taire, Anthropic affirme que Claude se charge du travail technique et produit les fichiers dont vous avez besoin. La cr�ation de fichiers transforme des projets qui n�cessitent normalement une expertise en programmation, des connaissances statistiques et des heures d'effort en quelques minutes de conversation.

    Nom : 1.jpg
Affichages : 5687
Taille : 103,3 Ko

    Avec ces nouvelles fonctionnalit�s, Claude passe ainsi du statut de conseiller � celui de collaborateur actif. Vous fournissez le contexte et la strat�gie, Claude se charge de la mise en �uvre technique en coulisses. Cela montre o� nous voulons aller : rendre accessible, par le biais de la conversation, un travail sophistiqu� en plusieurs �tapes. � mesure que ces capacit�s se d�veloppent, l'�cart entre l'id�e et l'ex�cution continuera de se r�duire.

    Pour commencer � cr�er des fichiers :

    1. Activez � Cr�ation et analyse de fichiers am�lior�es � dans Param�tres > Fonctionnalit�s > Exp�rimental.
    2. T�l�chargez les fichiers pertinents ou d�crivez ce dont vous avez besoin.
    3. Guidez Claude dans son travail via le chat.
    4. T�l�chargez vos fichiers termin�s ou enregistrez-les directement sur Google Drive.

    Commencez par des t�ches simples comme le nettoyage de donn�es ou la cr�ation de rapports simples, puis passez � des projets plus complexes comme les mod�les financiers une fois que vous �tes � l'aise avec la fa�on dont Claude g�re les fichiers. Cette fonctionnalit� donne � Claude un acc�s � Internet pour cr�er et analyser des fichiers, ce qui peut exposer vos donn�es � des risques. Surveillez attentivement les chats lorsque vous utilisez cette fonctionnalit�.

    Nom : 2.jpg
Affichages : 845
Taille : 40,7 Ko

    Une annonce qui intervient apr�s que le PDG d'Anthropic, Dario Amodei, a r�it�r� son avertissement selon lequel l'intelligence artificielle (IA) pourrait supprimer la moiti� des emplois de bureau d�butants au cours des cinq prochaines ann�es. Amodei a d�clar� que cette technologie �tait d�j� tr�s performante pour les t�ches d�butantes et qu'elle � s'am�liorait rapidement �. Selon lui, les t�ches r�p�titives mais variables dans les cabinets d'avocats, le conseil, l'administration et la finance pourraient bient�t �tre �limin�es, les PDG cherchant � utiliser l'IA pour r�duire les co�ts.

    Source : Anthropic

    Et vous ?

    Pensez-vous que ces fonctionnalit�s sont cr�dibles ou pertinentes ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Anthropic a cl�tur� une nouvelle lev�e de fonds 13 milliards de $, portant la valorisation de l'entreprise � 183 milliards de $. Une somme colossale qui gonfle encore plus la bulle IA

    L'industrie de l'IA au bord du pr�cipice ? La plus grande action collective en mati�re de droits d'auteur contre Anthropic pourrait ruiner l'industrie de l'IA, selon les associations professionnelles

    L'IA agentique va dominer l'augmentation des budgets informatiques au cours des 5 prochaines ann�es, d�passant 26 % des d�penses informatiques mondiales et atteignant 1 300 milliards de $ en 2029, d'apr�s IDC

  2. #2
    Chroniqueur Actualit�s

    Homme Profil pro
    R�dacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 569
    D�tails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : B�nin

    Informations professionnelles :
    Activit� : R�dacteur technique
    Secteur : High Tech - �diteur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 569
    Par d�faut La nouvelle fonctionnalit� de cr�ation de fichiers de Claude comporte des risques de s�curit� importants
    La nouvelle fonctionnalit� de cr�ation de fichiers de l'assistant d'IA Claude comporte des risques de s�curit� importants
    mais les mesures de protection propos�es par Anthropic sont jug�es insuffisantes

    L'IA Claude d'Anthropic dispose d'une nouvelle fonctionnalit� permettant de cr�er et d��diter des fichiers. Cette avanc�e offre plus de flexibilit� et de capacit�s aux utilisateurs, mais elle introduit des failles de s�curit� critiques. Elles peuvent permettre l�injection de contenu nuisible, l��l�vation de privil�ges ou l�ex�cution de code sans que l�utilisateur s�en aper�oive. Anthropic a mis en place des environnements isol�s (sandbox) pour limiter ces risques et appelle les utilisateurs � surveiller les fichiers g�n�r�s et les interactions avec l�IA. Mais les experts estiment que ces mesures sont insuffisantes et accusent Anthropic de d�l�guer la s�curit� aux utilisateurs.

    Jusqu'� pr�sent, Claude ne pouvait fournir que des r�ponses textuelles et des artefacts int�gr�s � l'application, mais il ne pouvait pas cr�er ni modifier de fichiers. Anthropic vient d'ajouter une fonctionnalit� � Claude qui lui permet de cr�er et de modifier des formats de fichiers courants, notamment des feuilles de calcul Excel, des documents, des pr�sentations PowerPoint et des fichiers PDF, sans quitter l'exp�rience Web Claude.ai ou l'application de bureau.

    Claude a d�sormais acc�s � un environnement informatique priv� qu'il utilisera pour �crire et ex�cuter du code afin de cr�er les fichiers et les analyses dont vous avez besoin. Cette nouvelle fonctionnalit� de cr�ation de fichiers est en cours de d�ploiement en avant-premi�re pour les utilisateurs des plans Claude Max, Team et Enterprise. Les utilisateurs de Claude Pro b�n�ficieront �galement de cette nouvelle fonctionnalit� dans les semaines � venir.


    Bien que cette fonctionnalit� puisse �tre pratique pour les utilisateurs de Claude, la documentation d'assistance de l'entreprise avertit qu'elle peut � mettre vos donn�es en danger � et explique en d�tail comment l'assistant d'IA peut �tre manipul� pour transmettre les donn�es des utilisateurs � des serveurs externes.

    Le probl�me de s�curit� vient du fait que la fonctionnalit� donne � Claude l'acc�s � un sandbox, qui lui permet de t�l�charger des paquets et d'ex�cuter du code pour cr�er des fichiers. � Cette fonctionnalit� donne � Claude un acc�s � Internet pour cr�er et analyser des fichiers, ce qui peut mettre vos donn�es en danger. Surveillez attentivement les chats lorsque vous utilisez cette fonctionnalit� �, explique Anthropic dans son annonce sur son blogue.

    Anthropic d�l�gue la s�curit� aux utilisateurs de son assistant Claude

    Dans la documentation, Anthropic explique qu'un acteur malveillant manipulant cette fonctionnalit� pourrait potentiellement � ajouter discr�tement des instructions via des fichiers externes ou des sites Web � qui manipulent Claude � pour que l'assistant lise des donn�es sensibles � partir d'une source de connaissances connect�e � claude.ai et utilise l'environnement sandbox pour effectuer une requ�te r�seau externe afin de divulguer les donn�es �.

    Il s'agit d'une attaque par injection de prompt, dans laquelle des instructions cach�es int�gr�es dans un contenu apparemment innocent peuvent manipuler le comportement du mod�le d'IA, une vuln�rabilit� que les chercheurs en s�curit� ont document�e pour la premi�re fois en 2022.

    Ces attaques repr�sentent une faille de s�curit� pernicieuse et non r�solue des grands mod�les de langage (LLM), car les donn�es et les instructions sur la mani�re de les traiter sont transmises au mod�le dans le m�me format dans le cadre de la � fen�tre contextuelle �, ce qui rend difficile pour un mod�le d'IA de faire la distinction entre les instructions l�gitimes et les commandes malveillantes cach�es dans le contenu fourni par l'utilisateur.

    Anthropic dit avoir d�couvert ces vuln�rabilit�s gr�ce � des tests de s�curit� et de red teaming avant sa sortie. La soci�t� recommande aux utilisateurs de surveiller Claude pendant l'utilisation de la fonctionnalit� et de l'arr�ter s'ils constatent qu'il utilise ou acc�de � des donn�es de mani�re inattendue.

    Cependant, cela fait peser enti�rement la responsabilit� de la s�curit� sur l'utilisateur dans ce qui est commercialis� comme un syst�me automatis� et sans intervention. Simon Willison, chercheur ind�pendant en IA, a comment� cette fonctionnalit�, soulignant que la recommandation d'Anthropic de � surveiller Claude pendant l'utilisation de la fonctionnalit� � revient � � externaliser injustement le probl�me aux utilisateurs d'Anthropic �.

    Simon Willison affirme que les mesures de s�curit� mises en place par Anthropic sont insuffisantes. � Je pr�vois d'utiliser cette fonctionnalit� avec prudence pour toutes les donn�es que je ne souhaite absolument pas voir divulgu�es � des tiers, s'il existe le moindre risque qu'une instruction malveillante s'y glisse �, a-t-il d�clar�.

    Des mesures d'att�nuation jug�es insuffisantes par les chercheurs

    Anthropic n'ignore toutefois pas compl�tement le probl�me. La soci�t� a mis en place plusieurs mesures de s�curit� pour la fonctionnalit� de cr�ation de fichiers. Pour les utilisateurs Pro et Max, Anthropic a d�sactiv� le partage public des conversations qui utilisent la fonctionnalit� de cr�ation de fichiers. Pour les utilisateurs Enterprise, la soci�t� a mis en place un environnement sandbox afin que les environnements ne soient jamais partag�s entre les utilisateurs. Anthropic a �galement limit� la dur�e des t�ches et le temps d'ex�cution des conteneurs afin d'�viter les boucles d'activit�s malveillantes.

    Pour les administrateurs Team et Enterprise, Anthropic fournit �galement une liste blanche des domaines auxquels Claude peut acc�der, notamment api.anthropic.com, github.com, registry.npmjs.org et pypi.org. La documentation indique que � Claude ne peut �tre amen� � divulguer les donn�es auxquelles il a acc�s dans une conversation que par le biais d'un prompt, d'un projet ou de connexions activ�es par un utilisateur individuel �.

    Nom : claude-analysis-toggle.jpg
Affichages : 6454
Taille : 77,2 Ko

    Anthropic dispose d'un processus continu de tests de s�curit� et de red teaming de cette fonctionnalit�. L'entreprise encourage les organisations � � �valuer ces protections par rapport � leurs exigences sp�cifiques en mati�re de s�curit� lorsqu'elles d�cident d'activer ou non cette fonctionnalit� �. Conform�ment � son cadre relatif aux agents s�rs et fiables, Anthropic a appliqu� les mesures d'att�nuation suivantes pour les utilisateurs individuels :

    • vous avez le contr�le total de cette fonctionnalit�. Vous pouvez l'activer ou la d�sactiver � tout moment ;
    • vous pouvez arr�ter les actions de Claude � tout moment et Anthropic recommande de surveiller son travail lorsque vous utilisez cette fonctionnalit� ;
    • vous avez la possibilit� de revoir et d'auditer les actions effectu�es par Claude dans l'environnement Sandbox ;
    • le partage public des conversations incluant des artefacts de fichiers provenant de la fonctionnalit� de cr�ation de fichiers a �t� d�sactiv� pour les utilisateurs Pro et Max ;
    • la dur�e des t�ches pouvant �tre effectu�es par Claude et la dur�e d'utilisation d'un seul conteneur Sandbox ont �t� limit�es afin d'�viter les boucles d'activit�s malveillantes ;
    • les ressources r�seau, conteneur et stockage ont �t� intentionnellement limit�s ;
    • mise en place d'un classificateur pour d�tecter les injections de prompt et arr�ter l'ex�cution si elles sont d�tect�es.


    L'IA deviendra bient�t incontournable dans les services informatiques

    Gartner a r�cemment organis� un symposium informatique de Gartner � Gold Coast, en Australie, au cours duquel plusieurs experts ont pris la parole pour �voquer l'impact potentiel de l'IA dans le secteur informatique dans un avenir proche. Alicia Mullery, vice-pr�sidente et analyste chez Gartner, a rappel� qu'� l'heure actuelle, 81 % du travail est effectu� par des humains sans aucune aide de l'IA. Mais la tendance devrait s'inverser d'ici la fin de la d�cennie.

    D'ici 5 ans, Gartner estime que jusqu'� 75 % du travail informatique sera constitu� d'activit�s humaines augment�es par l'IA, le reste �tant effectu� par des robots seuls. Daryl Plummer, vice-pr�sident analyste �m�rite, a d�clar� que cette �volution permettra aux services informatiques de gagner en capacit� de travail et qu'ils devront prouver qu'ils m�ritent de la conserver. � Il ne faut jamais donner l'impression d'avoir trop de personnel �, a-t-il conseill�.

    Daryl Plummer a sugg�r� aux responsables informatiques de consulter leurs homologues d'autres services de l'entreprise afin d'identifier les opportunit�s � valeur ajout�e que les services informatiques peuvent exploiter. Pourtant, l'omnipr�sence de l'IA commence � agacer de plus en plus de travailleurs.

    Depuis plusieurs mois, un malaise grandit chez les utilisateurs de GitHub. Copilot, qui devait �tre une r�volution en mati�re de productivit�, se transforme pour beaucoup en cauchemar impos�. Pr�sent� au d�part comme une option, Copilot devient un �l�ment quasi indissociable de l�exp�rience GitHub et Visual Studio Code, auquel il est int�gr� par d�faut. Il est difficile � d�sactiver et omnipr�sent jusque dans les suggestions de probl�mes ou de pull requests.

    Ce glissement d�un service facultatif vers une imposition syst�matique nourrit une impression d�intrusion, voire de manipulation. Pour nombreux utilisateurs de la plateforme, GitHub ne respecte plus leur autonomie et leur libert� de choix, deux valeurs pourtant fondatrices de la culture open source.

    Conclusion

    L'IA s'impose de plus en plus dans les organisations et les fournisseurs s'empressent d'am�liorer les capacit�s de leurs produits afin de rester comp�titifs sur le march�. D'ici � 2023, la r�alisation de 75 % du travail informatique impliquera l'IA et les 25 % restants seront enti�rement automatis�s. Mais l'adoption de l'IA ne se fera pas sans encombre. Selon Gartner, de nombreux obstacles restent � surmonter et la plupart des projets d'IA �chouent pour l'instant.

    La nouvelle fonctionnalit� de l'assistant Claude d'Anthropic offre des capacit�s avanc�es, mais comporte des risques de s�curit� majeurs. Les utilisateurs doivent en �tre conscients et rester vigilants et prendre des pr�cautions pour �viter tout incident li� � des fichiers malveillants ou des exploits de l�IA.

    Sources : Anthropic, billet de blogue

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la fonctionnalit� de cr�ation et d'�dition de fichiers de Claude ?
    Selon vous, faut-il faire confiance � une IA pour cr�er ou manipuler des fichiers sensibles ?
    Comment les utilisateurs peuvent-ils se prot�ger efficacement lors de l'utilisation de cette fonctionnalit� ?
    Les experts en cybers�curit� affirment que les mesures d'att�nuation mises en place Anthropic sont insuffisantes. Qu'en pensez-vous ?

    Voir aussi

    L'IA Claude d'Anthropic peut d�sormais cr�er et modifier des formats de fichiers courants : Excel, documents, pr�sentations PowerPoint et PDF, sans quitter l'exp�rience web ou l'application de bureau

    Microsoft modifie sa strat�gie en mati�re d'IA en int�grant les mod�les Claude d'Anthropic dans les applications Office 365, qui seraient plus performants que les mod�les d'OpenAI dans certains cas

    GitHub sous tension : certains utilisateurs m�contents se rebellent contre les fonctionnalit�s IA Copilot impos�es quand l'aide optionnelle au codage se transforme en prison num�rique

Discussions similaires

  1. R�ponses: 1
    Dernier message: 26/06/2025, 14h17
  2. R�ponses: 1
    Dernier message: 29/03/2006, 09h29
  3. Peut on utiliser OR avec des jointures de tables??
    Par gins06 dans le forum Langage SQL
    R�ponses: 2
    Dernier message: 04/10/2005, 12h40
  4. R�ponses: 4
    Dernier message: 20/05/2005, 15h14

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo