Vue lecture

Pegasus a bien infecté environ 1 400 smartphones via WhatsApp en 2019

NS0 click
Pegasus a bien infecté environ 1 400 smartphones via WhatsApp en 2019

En 2019, WhatsApp a attaqué l’entreprise d’espionnage israélienne NSO devant la Justice américaine. Des documents du procès encore en cours d’instruction révèlent que le spyware Pegasus a utilisé des exploits dans WhatsApp pour infecter environ 1 400 smartphones rien que pendant cette année-là. De son côté, l’entreprise israélienne défausse la responsabilité sur ses clients.

Il y a maintenant cinq ans, WhatsApp, qui fait désormais partie du groupe Meta, a porté plainte (PDF) contre l’entreprise israélienne NSO, bien connue maintenant pour son logiciel d’espionnage des smartphones Pegasus. L’entreprise de messagerie instantanée l’accusait d’avoir utilisé ses serveurs pour infecter « approximativement 1 400 téléphones mobiles et appareils » avec son spyware.

Des documents de l’instruction en cours publiés jeudi 14 novembre et repérés par le média The Record confirment que Pegasus a été utilisé pour infecter ces 1 400 appareils. Dans un premier document [PDF], les avocats de Meta expliquent que « NSO a admis qu’Eden [un vecteur d’attaque qu’elle a développé, ndlr] est responsable des attaques décrites dans la plainte ».

Le CEO de NSO a confirmé l’utilisation de ses outils

Cette affirmation fait référence à la déposition de Yaron Shohat, actuel CEO et ancien directeur des opérations de NSO. Dans un second document [PDF], ils citent plus particulièrement la phrase qu’ils considèrent comme un aveu : « NSO a développé la technologie qui a été utilisée lors de l’événement auquel la plainte fait référence ».


Il reste 68% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ La FTC va enquêter sur des pratiques de Microsoft sur le cloud

Selon le Financial Times, l’autorité de la concurrence américaine Federal Trade Commission (FTC) va lancer une enquête sur les pratiques de Microsoft pour maintenir sa position sur le marché du cloud.

L’agence américaine va notamment se pencher sur des accusations contre l’entreprise de Redmond, qui imposerait des contrats de licences punitifs pour empêcher les clients de transférer leurs données hors de ses outils. La FTC cible en particulier les logiciels dits « de productivité » tels que la suite bureautique Office 365.

Sont également visés l’augmentation des frais lors de la résiliation et l’incompatibilité de sa suite avec celles de ses concurrents.

Le journal économique américain souligne que l’ouverture de cette enquête marquerait encore un peu plus la patte de la dirigeante de l’agence Lina Khan sur une limitation plus agressive des monopoles des géants du numérique.

☕️ La FTC va enquêter sur des pratiques de Microsoft sur le cloud

Selon le Financial Times, l’autorité de la concurrence américaine Federal Trade Commission (FTC) va lancer une enquête sur les pratiques de Microsoft pour maintenir sa position sur le marché du cloud.

L’agence américaine va notamment se pencher sur des accusations contre l’entreprise de Redmond, qui imposerait des contrats de licences punitifs pour empêcher les clients de transférer leurs données hors de ses outils. La FTC cible en particulier les logiciels dits « de productivité » tels que la suite bureautique Office 365.

Sont également visés l’augmentation des frais lors de la résiliation et l’incompatibilité de sa suite avec celles de ses concurrents.

Le journal économique américain souligne que l’ouverture de cette enquête marquerait encore un peu plus la patte de la dirigeante de l’agence Lina Khan sur une limitation plus agressive des monopoles des géants du numérique.

Droits voisins : une partie de la presse française attaque X et Microsoft en justice

Un voisin qui vous veut du bien
Droits voisins : une partie de la presse française attaque X et Microsoft en justice

Deux actions judiciaires viennent d’être lancées par plusieurs éditeurs de presse français contre le réseau social X et Microsoft concernant les droits voisins.

Alors que la loi sur les droits voisins de la presse a maintenant plus de cinq ans, certaines négociations entre les plateformes et les éditeurs de presse ne sont pas encore conclues. C’est même un euphémisme, notamment pour le réseau social X qui, même lorsqu’il n’était pas encore dans l’escarcelle d’Elon Musk et s’appelait encore Twitter, refusait de considérer que cette loi s’appliquait à lui.

Plainte contre le réseau social X

Le Figaro, Le Parisien, Les Echos, Le Nouvel Obs, le groupe Le Monde et le groupe Malesherbes Publications (propriétaire du magazine La Vie) ont décidé de poursuivre en justice le réseau social X.

Cette volonté d’aller au tribunal est notamment due au peu de considération pour ces négociations montrée par le réseau social d’Elon Musk. En mai dernier, le tribunal judiciaire de Paris lui avait ordonné en référé de leur fournir, « dans un délai de deux mois », une série de données commerciales permettant d’évaluer les revenus que le réseau social tire de leurs contenus : le nombre de vues et le taux de clics sur leurs publications, le nombre moyen d’engagements (retweets, citations, réponses, j’aime, partages…), ainsi que « les revenus publicitaires générés en France sur X » en lien avec ces publications. Le réseau social devait aussi fournir la description de ses algorithmes d’affichage de publications. Et ce, afin de permettre de donner une base aux négociations.

Cinq mois après, ces groupes de presse expliquent n’avoir eu aucune nouvelle de ces informations. Marc Feuillée, le directeur général du Groupe Le Figaro, explique que « c’est la raison pour laquelle nous déclenchons le paiement de l’astreinte. Celle-ci s’élève à 1 000 euros par jour et par titre, ce qui n’est guère dissuasif pour une plateforme de cette envergure. En parallèle, nous assignons X sur le fond ».

Pour Pierre Louette, PDG du groupe Les Échos-Le Parisien, cité par Le Figaro, « l’utilisation des contenus produits par nos 700 journalistes doit être soumise à une rémunération au titre de la directive sur les droits voisins. X comme les autres plateformes qui génèrent du trafic et des revenus grâce à nos contenus doivent s’y soumettre. Il y va de la sauvegarde de l’information de qualité, véritable socle de notre démocratie ».

De son côté, le réseau social semble considérer que la loi sur les droits voisins ne la concerne pas, car elle ne partage pas de liens vers des articles de presse, mais que ce sont ses utilisateurs qui le font.

L’AFP, elle, avait déjà entamé une démarche judiciaire seule en aout 2023 contre X pour les mêmes raisons, le réseau social refusant d’entrer en discussion avec l’agence de presse sur le sujet.

Microsoft et LinkedIn aussi dans le viseur

Mais X, n’est pas le seul dans le viseur, Microsoft et son réseau social ont aussi été visés par la presse française ces derniers jours. Une cinquantaine de médias ont saisi la justice, expliquait Le Figaro, vendredi 8 novembre contre Microsoft pour l’obliger à transmettre, comme l’oblige la loi sur les droits voisins, les différentes informations qui permettront d’appuyer les négociations.

L’Alliance de la presse d’information générale, qui représente ces médias, explique que, « malgré des demandes réitérées depuis des années, Microsoft continue à se dérober à cette obligation ». Ici, cette cinquantaine de médias vise le moteur de recherche de Microsoft, Bing, ainsi que son portail Microsoft Start. Mais Le Figaro a aussi déposé une autre assignation contre le réseau social de Microsoft, LinkedIn dont la section « Actualités » met aussi en avant les contenus de la presse.

Pour l’instant, parmi les plateformes, seuls Google et Meta ont signé des accords-cadres, même si le géant de Mountain View a quand même récemment écopé d’une prune de 250 millions d’euros pour avoir fait trainer sans coopérer dans un premier temps. Ces accords viennent d’entrer dans une phase de renégociations fin octobre, expliquait La Lettre.

dessin satirique de Flock

Dans un billet publié aujourd’hui annonçant une étude sur l’impact des contenus d’actualités dans les résultats de recherche en Europe, Google affirme : « en France, nous versons plusieurs dizaines de millions d’euros par an à plus de 280 éditeurs de presse – couvrant ainsi plus de 450 publications ». Dans l’Union européenne, l’entreprise revendique des accords avec « plus de 4 000 publications de presse dans 20 pays ».

C’est aussi l’occasion de rappeler l’autre partie des négociations sur ces accords. En 2022, les syndicats voulaient plus que des « miettes » pour les journalistes. Si ces discussions se font aussi en interne, groupe par groupe, au Figaro comme au Monde, les syndicats ont obtenu récemment le versement aux journalistes de 25 % des droits voisins perçus pour l’utilisation de leurs contenus par Meta et Google. De même pour l’utilisation des contenus du Monde par OpenAI.

Droits voisins : une partie de la presse française attaque X et Microsoft en justice

Un voisin qui vous veut du bien
Droits voisins : une partie de la presse française attaque X et Microsoft en justice

Deux actions judiciaires viennent d’être lancées par plusieurs éditeurs de presse français contre le réseau social X et Microsoft concernant les droits voisins.

Alors que la loi sur les droits voisins de la presse a maintenant plus de cinq ans, certaines négociations entre les plateformes et les éditeurs de presse ne sont pas encore conclues. C’est même un euphémisme, notamment pour le réseau social X qui, même lorsqu’il n’était pas encore dans l’escarcelle d’Elon Musk et s’appelait encore Twitter, refusait de considérer que cette loi s’appliquait à lui.

Plainte contre le réseau social X

Le Figaro, Le Parisien, Les Echos, Le Nouvel Obs, le groupe Le Monde et le groupe Malesherbes Publications (propriétaire du magazine La Vie) ont décidé de poursuivre en justice le réseau social X.

Cette volonté d’aller au tribunal est notamment due au peu de considération pour ces négociations montrée par le réseau social d’Elon Musk. En mai dernier, le tribunal judiciaire de Paris lui avait ordonné en référé de leur fournir, « dans un délai de deux mois », une série de données commerciales permettant d’évaluer les revenus que le réseau social tire de leurs contenus : le nombre de vues et le taux de clics sur leurs publications, le nombre moyen d’engagements (retweets, citations, réponses, j’aime, partages…), ainsi que « les revenus publicitaires générés en France sur X » en lien avec ces publications. Le réseau social devait aussi fournir la description de ses algorithmes d’affichage de publications. Et ce, afin de permettre de donner une base aux négociations.

Cinq mois après, ces groupes de presse expliquent n’avoir eu aucune nouvelle de ces informations. Marc Feuillée, le directeur général du Groupe Le Figaro, explique que « c’est la raison pour laquelle nous déclenchons le paiement de l’astreinte. Celle-ci s’élève à 1 000 euros par jour et par titre, ce qui n’est guère dissuasif pour une plateforme de cette envergure. En parallèle, nous assignons X sur le fond ».

Pour Pierre Louette, PDG du groupe Les Échos-Le Parisien, cité par Le Figaro, « l’utilisation des contenus produits par nos 700 journalistes doit être soumise à une rémunération au titre de la directive sur les droits voisins. X comme les autres plateformes qui génèrent du trafic et des revenus grâce à nos contenus doivent s’y soumettre. Il y va de la sauvegarde de l’information de qualité, véritable socle de notre démocratie ».

De son côté, le réseau social semble considérer que la loi sur les droits voisins ne la concerne pas, car elle ne partage pas de liens vers des articles de presse, mais que ce sont ses utilisateurs qui le font.

L’AFP, elle, avait déjà entamé une démarche judiciaire seule en aout 2023 contre X pour les mêmes raisons, le réseau social refusant d’entrer en discussion avec l’agence de presse sur le sujet.

Microsoft et LinkedIn aussi dans le viseur

Mais X, n’est pas le seul dans le viseur, Microsoft et son réseau social ont aussi été visés par la presse française ces derniers jours. Une cinquantaine de médias ont saisi la justice, expliquait Le Figaro, vendredi 8 novembre contre Microsoft pour l’obliger à transmettre, comme l’oblige la loi sur les droits voisins, les différentes informations qui permettront d’appuyer les négociations.

L’Alliance de la presse d’information générale, qui représente ces médias, explique que, « malgré des demandes réitérées depuis des années, Microsoft continue à se dérober à cette obligation ». Ici, cette cinquantaine de médias vise le moteur de recherche de Microsoft, Bing, ainsi que son portail Microsoft Start. Mais Le Figaro a aussi déposé une autre assignation contre le réseau social de Microsoft, LinkedIn dont la section « Actualités » met aussi en avant les contenus de la presse.

Pour l’instant, parmi les plateformes, seuls Google et Meta ont signé des accords-cadres, même si le géant de Mountain View a quand même récemment écopé d’une prune de 250 millions d’euros pour avoir fait trainer sans coopérer dans un premier temps. Ces accords viennent d’entrer dans une phase de renégociations fin octobre, expliquait La Lettre.

dessin satirique de Flock

Dans un billet publié aujourd’hui annonçant une étude sur l’impact des contenus d’actualités dans les résultats de recherche en Europe, Google affirme : « en France, nous versons plusieurs dizaines de millions d’euros par an à plus de 280 éditeurs de presse – couvrant ainsi plus de 450 publications ». Dans l’Union européenne, l’entreprise revendique des accords avec « plus de 4 000 publications de presse dans 20 pays ».

C’est aussi l’occasion de rappeler l’autre partie des négociations sur ces accords. En 2022, les syndicats voulaient plus que des « miettes » pour les journalistes. Si ces discussions se font aussi en interne, groupe par groupe, au Figaro comme au Monde, les syndicats ont obtenu récemment le versement aux journalistes de 25 % des droits voisins perçus pour l’utilisation de leurs contenus par Meta et Google. De même pour l’utilisation des contenus du Monde par OpenAI.

IA générative : la course au plus gros modèle commence à montrer ses limites

IA pas que la taille qui compte
IA générative : la course au plus gros modèle commence à montrer ses limites

Les leaders de l’IA générative ont, depuis l’arrivée de ChatGPT, mené une course au plus gros modèle. Mais OpenAI et ses concurrents ont de plus en plus de mal à créer des modèles qui dépassent les performances de leurs précédents. La course à l’entrainement de modèles de plus en plus gros ne suffit plus.

Les entreprises de l’IA génératives qui se sont concentrées sur la création de modèles toujours plus gros pour toujours plus de capacités commencent à voir les limites de cette stratégie arriver.

Le média américain The Information raconte que le nouveau modèle d’OpenAI, Orion, dont la sortie a été annoncée pour décembre prochain par The Verge et immédiatement démenti par Sam Altman, devrait apporter à lui seul une augmentation de performance beaucoup moins importante que le saut qu’avait pu avoir lieu entre GPT-3 et GPT-4. Orion n’est pourtant pas une nouvelle version de GPT-4 comme GPT-4o mais vraiment un nouveau modèle de l’entreprise et pourrait donc être considéré comme GPT-5 (même si OpenAI ne le publiera peut-être pas sous cette nomenclature).

Un Orion moins géant que prévu

Nous savons depuis quelque temps que les benchmarks des modèles de langage nous désinforment et ont tendance à nous faire croire à une évolution difficile à mesurer. Mais certains chercheurs d’OpenAI, selon The Information, pensent que les performances d’Orion ne seront pas meilleures dans ces comparaisons de modèles pour certaines tâches comme la génération de code.

Comme le disent nos confrères, cela remet en cause l’application aux modèles de langage de ce que certains appellent les « lois d’échelle » (scaling laws). Celles-ci voudraient qu’en entrainant les modèles avec des données toujours plus importantes sur des machines de plus en plus puissantes, on obtiendrait forcément des modèles plus puissants. Tadao Nagasaki, responsable d’OpenAI au Japon, s’appuyait pourtant encore très récemment sur ces « lois d’échelle » pour vanter la progression inexorable des modèles de son entreprise.

Des ressources presque épuisées ?

Une des hypothèses évoquées pour expliquer ce ralentissement serait que les entreprises d’IA génératives ont déjà puisé dans les plus grosses sources de textes de qualité et finalement presque épuisé les ressources sur lesquelles elles comptaient pour améliorer indéfiniment leurs modèles.

Le problème pour OpenAI, dans ces circonstances, est qu’utiliser un modèle plus gros demande plus d’énergie et coûte inévitablement plus cher.

La destruction du mythe du « plus c’est gros, mieux c’est » était déjà bien entamée, mais l’élaboration d’Orion chez OpenAI semble bien la confirmer.

Interrogé par Reuters, Ilya Sutskever, co-fondateur d’OpenAI ensuite parti créer la Safe Superintelligence, confirme que, pour lui, l’intensification du pré-entrainement a maintenant atteint un plateau. Lui-même a pourtant plaidé longtemps pour s’appuyer sur toujours plus de données et de puissance de calcul pour faire progresser les IA génératives.

À notre niveau, nous avons également exploré la question de l’importance des données d’entrainement sur les IA et les dangers du surapprentissage. En faire toujours plus n’est effectivement pas synonyme d’être toujours meilleur, loin de là même.

Des besoins d’optimisation

Ces entreprises prennent de plus en plus en compte d’autres techniques pour améliorer les réponses de leurs IA. Des chercheurs de Google et de l’université de Berkeley ont exploré cet été les moyens d’améliorer les performances des modèles pendant la phase d’inférence, c’est-à-dire après la phase d’entrainement, quand le modèle doit répondre à des questions des utilisateurs. Selon Reuters, la technique aurait été utilisée par OpenAI pour GPT-4o.

Ces entreprises essayaient déjà d’optimiser leurs modèles. Chez OpenAI, les sparse autoencoders, « méthode qui permet d’identifier une poignée de « caractéristiques » dans le réseau neuronal qui sont importantes pour produire un résultat donné », ont été utilisés pour optimiser les résultats de GPT-4, par exemple. Mais il semble que ces entreprises vont devoir redoubler d’effort et s’appuyer d’autant plus sur la recherche en cours pour améliorer les performances de leurs modèles.

Ce plafond de verre de la course aux modèles toujours plus gros pose aussi des questions sur la place de NVIDIA dans cette industrie. Cette course au « toujours plus » plaçait le producteur de GPU dans une situation idéale de pourvoyeur de puissance inévitable pour créer des modèles toujours plus puissants. Mais il est donc possible que les besoins en calcul ne suivent pas l’évolution prévue et que les espoirs de certains investisseurs soient quelque peu douchés.

IA générative : la course au plus gros modèle commence à montrer ses limites

IA pas que la taille qui compte
IA générative : la course au plus gros modèle commence à montrer ses limites

Les leaders de l’IA générative ont, depuis l’arrivée de ChatGPT, mené une course au plus gros modèle. Mais OpenAI et ses concurrents ont de plus en plus de mal à créer des modèles qui dépassent les performances de leurs précédents. La course à l’entrainement de modèles de plus en plus gros ne suffit plus.

Les entreprises de l’IA génératives qui se sont concentrées sur la création de modèles toujours plus gros pour toujours plus de capacités commencent à voir les limites de cette stratégie arriver.

Le média américain The Information raconte que le nouveau modèle d’OpenAI, Orion, dont la sortie a été annoncée pour décembre prochain par The Verge et immédiatement démenti par Sam Altman, devrait apporter à lui seul une augmentation de performance beaucoup moins importante que le saut qu’avait pu avoir lieu entre GPT-3 et GPT-4. Orion n’est pourtant pas une nouvelle version de GPT-4 comme GPT-4o mais vraiment un nouveau modèle de l’entreprise et pourrait donc être considéré comme GPT-5 (même si OpenAI ne le publiera peut-être pas sous cette nomenclature).

Un Orion moins géant que prévu

Nous savons depuis quelque temps que les benchmarks des modèles de langage nous désinforment et ont tendance à nous faire croire à une évolution difficile à mesurer. Mais certains chercheurs d’OpenAI, selon The Information, pensent que les performances d’Orion ne seront pas meilleures dans ces comparaisons de modèles pour certaines tâches comme la génération de code.

Comme le disent nos confrères, cela remet en cause l’application aux modèles de langage de ce que certains appellent les « lois d’échelle » (scaling laws). Celles-ci voudraient qu’en entrainant les modèles avec des données toujours plus importantes sur des machines de plus en plus puissantes, on obtiendrait forcément des modèles plus puissants. Tadao Nagasaki, responsable d’OpenAI au Japon, s’appuyait pourtant encore très récemment sur ces « lois d’échelle » pour vanter la progression inexorable des modèles de son entreprise.

Des ressources presque épuisées ?

Une des hypothèses évoquées pour expliquer ce ralentissement serait que les entreprises d’IA génératives ont déjà puisé dans les plus grosses sources de textes de qualité et finalement presque épuisé les ressources sur lesquelles elles comptaient pour améliorer indéfiniment leurs modèles.

Le problème pour OpenAI, dans ces circonstances, est qu’utiliser un modèle plus gros demande plus d’énergie et coûte inévitablement plus cher.

La destruction du mythe du « plus c’est gros, mieux c’est » était déjà bien entamée, mais l’élaboration d’Orion chez OpenAI semble bien la confirmer.

Interrogé par Reuters, Ilya Sutskever, co-fondateur d’OpenAI ensuite parti créer la Safe Superintelligence, confirme que, pour lui, l’intensification du pré-entrainement a maintenant atteint un plateau. Lui-même a pourtant plaidé longtemps pour s’appuyer sur toujours plus de données et de puissance de calcul pour faire progresser les IA génératives.

À notre niveau, nous avons également exploré la question de l’importance des données d’entrainement sur les IA et les dangers du surapprentissage. En faire toujours plus n’est effectivement pas synonyme d’être toujours meilleur, loin de là même.

Des besoins d’optimisation

Ces entreprises prennent de plus en plus en compte d’autres techniques pour améliorer les réponses de leurs IA. Des chercheurs de Google et de l’université de Berkeley ont exploré cet été les moyens d’améliorer les performances des modèles pendant la phase d’inférence, c’est-à-dire après la phase d’entrainement, quand le modèle doit répondre à des questions des utilisateurs. Selon Reuters, la technique aurait été utilisée par OpenAI pour GPT-4o.

Ces entreprises essayaient déjà d’optimiser leurs modèles. Chez OpenAI, les sparse autoencoders, « méthode qui permet d’identifier une poignée de « caractéristiques » dans le réseau neuronal qui sont importantes pour produire un résultat donné », ont été utilisés pour optimiser les résultats de GPT-4, par exemple. Mais il semble que ces entreprises vont devoir redoubler d’effort et s’appuyer d’autant plus sur la recherche en cours pour améliorer les performances de leurs modèles.

Ce plafond de verre de la course aux modèles toujours plus gros pose aussi des questions sur la place de NVIDIA dans cette industrie. Cette course au « toujours plus » plaçait le producteur de GPU dans une situation idéale de pourvoyeur de puissance inévitable pour créer des modèles toujours plus puissants. Mais il est donc possible que les besoins en calcul ne suivent pas l’évolution prévue et que les espoirs de certains investisseurs soient quelque peu douchés.

☕️ Amazon : fuite d’informations concernant des employés via un sous-traitant

Lundi 11 novembre, Amazon a confirmé avoir été victime d’une fuite de données, explique TechCrunch. Celle-ci concerne des informations de contacts professionnels de ses salariés : emails, numéros de téléphones et localisations dans les bâtiments de l’entreprise, a affirmé Amazon à nos confrères.

Boites en carton Amazon
Photo de ANIRUDH sur Unsplash

Elle tient à préciser que « les systèmes d’Amazon et d’AWS restent sécurisés et nous n’avons pas connu d’incident de sécurité. Nous avons été informés d’un incident de sécurité chez l’un de nos fournisseurs de gestion immobilière qui a affecté plusieurs de ses clients, dont Amazon ».

L’entreprise ne veut pas dire combien de salariés sont touchés par cette fuite. Mais cette confirmation arrive alors qu’un pirate a revendiqué la fuite sur BreachForums expliquant avoir en sa possession plus de 2,8 millions de lignes de données. Il aurait profité de la faille du logiciel de transfert de données MOVEit intervenue en juin 2023.

Comme le liste Bleeping Computer, cette personne revendique avoir récupéré les données d’employés de 25 autres entreprises comme MetLife, Cardinal Health, HSBC, US Bank, HP, Schwab ou 3M.

☕️ Amazon : fuite d’informations concernant des employés via un sous-traitant

Lundi 11 novembre, Amazon a confirmé avoir été victime d’une fuite de données, explique TechCrunch. Celle-ci concerne des informations de contacts professionnels de ses salariés : emails, numéros de téléphones et localisations dans les bâtiments de l’entreprise, a affirmé Amazon à nos confrères.

Boites en carton Amazon
Photo de ANIRUDH sur Unsplash

Elle tient à préciser que « les systèmes d’Amazon et d’AWS restent sécurisés et nous n’avons pas connu d’incident de sécurité. Nous avons été informés d’un incident de sécurité chez l’un de nos fournisseurs de gestion immobilière qui a affecté plusieurs de ses clients, dont Amazon ».

L’entreprise ne veut pas dire combien de salariés sont touchés par cette fuite. Mais cette confirmation arrive alors qu’un pirate a revendiqué la fuite sur BreachForums expliquant avoir en sa possession plus de 2,8 millions de lignes de données. Il aurait profité de la faille du logiciel de transfert de données MOVEit intervenue en juin 2023.

Comme le liste Bleeping Computer, cette personne revendique avoir récupéré les données d’employés de 25 autres entreprises comme MetLife, Cardinal Health, HSBC, US Bank, HP, Schwab ou 3M.

☕️ e-Enfance devient le premier signaleur de confiance en France

Le DSA prévoit que les plateformes travaillent avec des « signaleurs de confiance » : des entités, associations ou individus, qui, labellisés au sein de chaque État, sont reconnus pour leur expertise et voient leurs notifications traitées en priorité.

Harcèlement sur les réseaux sociaux en Europe

Encore fallait-il qu’il en existe. C’est maintenant le cas en France, puisque l’Arcom, chargée de la mise en oeuvre du DSA en France, vient de désigner l’association e-Enfance, comme premier signaleur de confiance.

Cette association reconnue d’utilité publique gère notamment le 3018, numéro gratuit et anonyme pour les victimes de harcèlement ou de violences numériques.

Les signaleurs de confiance sont chargés de soumettre aux plateformes des signalements de contenus soupçonnés d’être illégaux. Ils doivent être la porte d’entrée indépendante de ces signalements vers les plateformes. Une fois que le signalement est transmis, si la plateforme décide de retirer le contenu, l’auteur doit en être informé et a la possibilité de faire appel. La personne qui a fait le signalement a la même possibilité si la décision n’est pas allé dans son sens.

e-Enfance travaille déjà avec Pharos, la Commission européenne, Facebook et YouTube sur le signalement de contenus.

☕️ e-Enfance devient le premier signaleur de confiance en France

Le DSA prévoit que les plateformes travaillent avec des « signaleurs de confiance » : des entités, associations ou individus, qui, labellisés au sein de chaque État, sont reconnus pour leur expertise et voient leurs notifications traitées en priorité.

Harcèlement sur les réseaux sociaux en Europe

Encore fallait-il qu’il en existe. C’est maintenant le cas en France, puisque l’Arcom, chargée de la mise en oeuvre du DSA en France, vient de désigner l’association e-Enfance, comme premier signaleur de confiance.

Cette association reconnue d’utilité publique gère notamment le 3018, numéro gratuit et anonyme pour les victimes de harcèlement ou de violences numériques.

Les signaleurs de confiance sont chargés de soumettre aux plateformes des signalements de contenus soupçonnés d’être illégaux. Ils doivent être la porte d’entrée indépendante de ces signalements vers les plateformes. Une fois que le signalement est transmis, si la plateforme décide de retirer le contenu, l’auteur doit en être informé et a la possibilité de faire appel. La personne qui a fait le signalement a la même possibilité si la décision n’est pas allé dans son sens.

e-Enfance travaille déjà avec Pharos, la Commission européenne, Facebook et YouTube sur le signalement de contenus.

Anthropic ne résiste pas à l’appel des renseignements américains

What could go wrong?
Anthropic ne résiste pas à l’appel des renseignements américains

Les services de l’armée et des renseignements américains vont pouvoir utiliser le modèle d’IA générative Claude de la startup Anthropic via une plateforme. Celle-ci sera mise en place via un partenariat entre la startup, Amazon Web Services et Palantir.

Dans un communiqué de presse publié le 7 novembre, Palantir, Anthropic et Amazon Web Services (AWS) expliquent qu’elles vont fournir aux agences de renseignement et de défense des États-Unis un accès aux modèles Claude d’Anthropic (version 3 et 3.5) sur la plateforme d’IA développée par Palantir (nommée simplement AI Platform, AIP) et hébergée par AWS.

Palantir et AWS ont obtenu l’accréditation « impact level 6 » de l’Agence de défense des systèmes d’information (Defense Information Systems Agency, DISA). Ce niveau d’accréditation est réservé au stockage et au traitement des informations classifiées jusqu’à « secret » (un cran en dessous de « top secret ») et exige, notamment, que ce stockage se fasse dans un cloud accessible uniquement aux employés du ministère de la Défense.

L’annonce arrive alors que Meta vient de retourner sa veste en autorisant l’usage militaire de ses modèles de langage Llama par les États-Unis. L’entreprise de Mark Zuckerberg avait imposé jusque-là dans ses conditions d’utilisation l’interdiction de ses logiciels d’intelligence artificielle à des fins « militaires, de guerre ou nucléaires », entre autres. Mais on a appris aussi récemment que des chercheurs chinois se servent de Llama pour des usages militaires sans que Meta ait autorisé cette utilisation.

Des conditions d’utilisation floues chez Anthropic

Mais du côté d’Anthropic, les choses sont plus floues. Si les fondateurs de l’entreprise et anciens d’OpenAI ont affiché une volonté d’un usage mesuré de leur technologie, les conditions d’utilisation de Claude ne restreignent pas clairement une utilisation militaire. Le texte prévoit seulement que les modèles d’Anthropic ne puissent être utilisé pour « interférer avec le fonctionnement des bases militaires et des infrastructures connexes ».

La Startup prévoit bien des « exigences relatives aux cas d’utilisation à haut risque » mais ceux-ci se limitent aux aspects légaux, de santé, d’assurance de finance, d’emploi, d’utilisation dans un usage académique ou médiatique sans que ne soit évoqués les usages militaires ou de renseignement.

Pourtant, dans un billet de blog publié en juin, Anthropic expliquait avoir élaboré « des exceptions contractuelles » à sa politique générale d’utilisation, « soigneusement calibrées pour permettre des utilisations bénéfiques par des agences gouvernementales soigneusement sélectionnées ». Ces exceptions sont floues et ne mentionnent pas spécifiquement des activités militaires mais dans son billet, la startup assurait qu’elles permettent que Claude soit « utilisé pour des analyses de renseignements étrangers légalement autorisées, telles que la lutte contre le trafic d’êtres humains, l’identification de campagnes secrètes d’influence ou de sabotage, et l’avertissement à l’avance d’activités militaires potentielles, ouvrant ainsi une fenêtre diplomatique pour les prévenir ou les dissuader ».

Pour ce contrat, de toute façon, la startup peut choisir à loisir d’appliquer ou non ses conditions d’utilisation, ou d’avoir un accord spécifique avec le gouvernement américain.

Une concurrence en vue

Si Anthropic est la première entreprise de l’IA générative à accéder à ce genre de contrat, on peut s’attendre à ce que ses concurrents la rejoignent petit à petit. OpenAI a aussi supprimé les mentions d’interdiction d’utilisation dans des contextes militaire et de guerre et a passé récemment un contrat avec Carahsoft, une entreprise spécialisée dans les contrats numériques gouvernementaux américains, qui, comme l’explique Forbes, a récemment été accusée de pratiques anticoncurrentielles.

La modification faite par Meta sur les conditions d’utilisation des modèles Llama indique aussi une volonté de l’entreprise de Mark Zuckerberg de ne pas laisser filer ce marché.

☕️ L’IA générative débarque jusque dans Notepad

Depuis l’arrivée de ChatGPT, les GAFAM ont trouvé un moyen simple à défaut d’être original de booster leurs produits : l’IA générative.

Microsoft annonce ajouter dans son fameux éditeur Notepad (appelé aussi Bloc-notes en français) un outil appelé Rewrite en anglais, Réécriture en français, qui doit permettre de « reformuler des phrases, ajuster le ton ou modifier la longueur de votre contenu en fonction de vos préférences ».

L’éditeur a ajouté l’option dans la barre d’outils avec un accès par le raccourci clavier Ctrl + I. Pour l’instant, Microsoft n’a pas déployé la fonctionnalité pour tous les utilisateurs de Windows : « la réécriture dans le Bloc-notes est actuellement disponible pour les Windows Insiders dans les canaux Canary et Dev sur Windows 11 ».

Et encore, puisque l’entreprise précise que c’est le cas pour les utilisateurs qui se trouvent dans les pays suivants : États-Unis, France, Royaume-Uni, Canada, Italie et Allemagne. Pour ceux d’Australie, de Nouvelle-Zélande, de Malaisie, de Singapour et de Taïwan, il faut disposer d’un abonnement Microsoft 365 Personnel ou Famille, ou d’un abonnement Copilot Pro.

Cette fonctionnalité n’est par contre pas indéfiniment utilisable. Microsoft explique avoir mis en place un système de « crédits IA » qu’il faut réapprovisionner en s’abonnant à Copilot Pro.

Réécriture utilise les serveurs d’Azure « pour traiter et générer du contenu en fonction de vos options de sélection de texte et de personnalisation », et Microsoft assure qu’elle « ne stocke pas le texte ou le contenu généré après le traitement ».

☕️ L’IA générative débarque jusque dans Notepad

Depuis l’arrivée de ChatGPT, les GAFAM ont trouvé un moyen simple à défaut d’être original de booster leurs produits : l’IA générative.

Microsoft annonce ajouter dans son fameux éditeur Notepad (appelé aussi Bloc-notes en français) un outil appelé Rewrite en anglais, Réécriture en français, qui doit permettre de « reformuler des phrases, ajuster le ton ou modifier la longueur de votre contenu en fonction de vos préférences ».

L’éditeur a ajouté l’option dans la barre d’outils avec un accès par le raccourci clavier Ctrl + I. Pour l’instant, Microsoft n’a pas déployé la fonctionnalité pour tous les utilisateurs de Windows : « la réécriture dans le Bloc-notes est actuellement disponible pour les Windows Insiders dans les canaux Canary et Dev sur Windows 11 ».

Et encore, puisque l’entreprise précise que c’est le cas pour les utilisateurs qui se trouvent dans les pays suivants : États-Unis, France, Royaume-Uni, Canada, Italie et Allemagne. Pour ceux d’Australie, de Nouvelle-Zélande, de Malaisie, de Singapour et de Taïwan, il faut disposer d’un abonnement Microsoft 365 Personnel ou Famille, ou d’un abonnement Copilot Pro.

Cette fonctionnalité n’est par contre pas indéfiniment utilisable. Microsoft explique avoir mis en place un système de « crédits IA » qu’il faut réapprovisionner en s’abonnant à Copilot Pro.

Réécriture utilise les serveurs d’Azure « pour traiter et générer du contenu en fonction de vos options de sélection de texte et de personnalisation », et Microsoft assure qu’elle « ne stocke pas le texte ou le contenu généré après le traitement ».

☕️ Cybercriminalité : une vaste opération d’Interpol mène à l’arrestation de 41 personnes

Interpol explique dans un communiqué avoir mené une opération nommée « Synergia II » entre le 1er avril et le 31 aout 2024. Elle ciblait spécifiquement le phishing, les ransomware et le vol d’information via des outils comme des infostealers.

Synergia II a impliqué les forces de l’ordre de 95 pays (Hong Kong, la Mongolie, Macau, Madagascar et l’Estonie sont particulièrement mis en avant par l’organisation internationale), mais aussi des entreprises privées comme Group-IB, Trend Micro, Kaspersky et Team Cymru.

L’Organisation internationale de police criminelle explique que cette opération a mené à 41 arrestations et des enquêtes concernent 65 autres personnes.

Sur à peu près 30 000 adresses IP identifiées comme liées à de telles activités, « 76 % d’entre elles ont été mises hors service et 59 serveurs ont été saisis. En outre, 43 appareils électroniques, dont des ordinateurs portables, des téléphones mobiles et des disques durs, ont été saisis ».

☕️ Cybercriminalité : une vaste opération d’Interpol mène à l’arrestation de 41 personnes

Interpol explique dans un communiqué avoir mené une opération nommée « Synergia II » entre le 1er avril et le 31 aout 2024. Elle ciblait spécifiquement le phishing, les ransomware et le vol d’information via des outils comme des infostealers.

Synergia II a impliqué les forces de l’ordre de 95 pays (Hong Kong, la Mongolie, Macau, Madagascar et l’Estonie sont particulièrement mis en avant par l’organisation internationale), mais aussi des entreprises privées comme Group-IB, Trend Micro, Kaspersky et Team Cymru.

L’Organisation internationale de police criminelle explique que cette opération a mené à 41 arrestations et des enquêtes concernent 65 autres personnes.

Sur à peu près 30 000 adresses IP identifiées comme liées à de telles activités, « 76 % d’entre elles ont été mises hors service et 59 serveurs ont été saisis. En outre, 43 appareils électroniques, dont des ordinateurs portables, des téléphones mobiles et des disques durs, ont été saisis ».

Viginum alerte sur une hausse des attaques de manipulation de l’information ciblant la France

Viginum alerte sur une hausse des attaques de manipulation de l’information ciblant la France

Lors d’une audition par la Commission des affaires étrangères, de la défense et des forces armées du Sénat quelques heures après l’élection de Donald Trump, le Secrétariat général de la Défense et de la Sécurité nationale (SGDSN), l’Anssi et Viginum ont alerté sur l’augmentation des tentatives de manipulations de l’information en France.

Alors que le projet de loi de finances 2025 va bientôt passer devant le Sénat, sa commission des affaires étrangères, de la défense et des forces armées a auditionné mercredi 6 novembre, le secrétaire général du SGDSN, Stéphane Bouillon, le directeur général de l’ANSSI, Vincent Strubel, et Marc-Antoine Brillant, le chef du Service de vigilance et de protection contre les ingérences numériques étrangères (Viginum).

Pour rappel, Viginum et l’ANSSI sont deux services à compétence nationale rattachés au secrétariat général de la défense et de la sécurité nationale (SGDSN).

Concernant les financements, les coupes budgétaires prévues par le gouvernement touchent aussi le budget de ce service interministériel. Stéphane Bouillon confirme, comme le relate Public Sénat : « nous devrons fonctionner avec 307,6 millions d’euros, soit 8 millions de moins qu’en 2024 » tout en expliquant avoir des mesures « pour assurer la continuité des missions importantes ». Il assure les sénateurs que « nous ne serons pas empêchés dans notre cœur de métier ».

Le secrétaire général du SGDSN a aussi estimé, alors que cette audition se passait le jour de la proclamation des résultats des élections américaines, que « l’élection de Donald Trump va rebattre toutes les cartes » dans le conflit déclenché par l’invasion de l’Ukraine par la Russie.

Une « bagarre stratégique »

S’agissant des enjeux numériques et technologiques, « ceux-ci font l’objet d’une véritable bagarre stratégique pour la conquête d’une pôle-position ou le rattrapage d’un retard », a estimé Marc-Antoine Brillant.

Il a notamment fait la liste des cinq campagnes dévoilées par Viginum : « la fameuse affaire des étoiles de David, la campagne « Olympia » qui impliquait des acteurs azerbaïdjanais qui visait à dénigrer les capacités de la France à organiser les JO dans de bonnes conditions de sécurité, le dispositif Portal combat, la dénonciation des manœuvres informationnelles en Nouvelle-Calédonie de la part d’acteurs pro azerbaïdjanais et la campagne Matriochka ».

Si l’année n’est pas encore complètement écoulée, le responsable de Viginum a expliqué aux sénateurs qu’il fallait s’attendre à une forte augmentation du volume des manipulations de l’information à destination des français : « L’année dernière, je vous avais rendu compte d’une activité opérationnelle qui était croissante avec près de 40% de détections supplémentaires par rapport à l’année 2022. En 2023, nous avions identifié 230 phénomènes inauthentiques de manipulation de l’information. Pour cette année 2024, au 1er octobre, nous avons déjà dépassé ce chiffre à la faveur de dispositifs informationnels particulièrement persistants dans notre débat public numérique et très opportunistes ».

Une menace « intime »

Devant les sénateurs, Marc-Antoine Brillant a insisté pour qualifier la manipulation de l’information de menace « intime », pour plusieurs raisons. Et d’expliquer : « tout d’abord parce qu’elle connait le fonctionnement de notre démocratie, de notre société et de nos lignes de fracture. Elle suit notre actualité, s’y intéresse et tente d’exploiter tout fait divers ou tout événement. La situation de nos territoires ultramarins est parfaitement connue de certains acteurs étrangers qui n’hésitent pas à susciter, attiser la contestation, en trompant volontairement l’opinion publique. Elle connait aussi notre histoire et notre héritage ». Il prend la tentative d’instrumentalisation de notre débat public sur le sujet des étoiles de David comme un « parfait exemple ». Mais, pour lui, c’est le cas aussi des « accusations répétées de notre politique étrangère d’être colonialiste dans certains territoires ».

Ce qualificatif d’ «intime » se justifie, selon lui, aussi parce qu’ « elle s’attache à nous accompagner dans la durée avec des modes opératoires qui sont de plus en plus persistants ». Ici, il s’appuie notamment sur les campagnes RNN/ Doppelgänger et mais aussi Portal Combat qui « ont démontré leur capacité d’adaptation à nos réponses ».

Selon lui, cette « menace intime » « nous met à l’épreuve et nous impose de l’humilité et des réponses qui ne sont pas uniquement du champ régalien mais feront davantage la preuve de celui de l’éducation, de l’information et d’une meilleure collaboration avec la société civile ».

Le responsable de Viginum a rappelé aux sénateurs que cette manipulation de l’information passe par l’animation de réseaux de faux comptes pour massifier la diffusion de contenus et également la génération de contenus faux crédibles grâce à l’usage de l’IA générative, l’utilisation d’influenceurs ou de comptes à forte audience pour amplifier la visibilité de certains récits et qui sont susceptibles de remplacer, à terme, nos médias auprès de certaines catégories de citoyens. Mais il pointe aussi l’usurpation de l’identité d’institutions officielles « comme la DGSI, le SGDSN mais également la CIA ou nos médias ».

Difficile mesure de l’impact réel

Sur le résultat réel de ces tentatives de manipulation, Marc-Antoine Brillant a expliqué aux sénateurs qu’il n’y a pas de consensus académique ou scientifique pour le mesurer. « Principalement empirique, l’analyse de l’impact consiste bien souvent à relever des indicateurs de visibilité des principales plateformes de réseaux sociaux, avec le caractère relatif de ces indicateurs (nombre de vues, de likes, de repartage ou commentaires) » décrit-il.

Mais il s’est empressé de rajouter que « ça ne fournit qu’une vision parcellaire d’une exposition d’un lectorat ou auditorat à une campagne sans permettre de connaitre les effets sur le long terme ». Et il ajoute qu’ « une simple approche qui serait fondée aujourd’hui sur des indicateurs issus de plateforme, ne permet qu’une mesure partielle de la visibilité de la manœuvre informationnelle puisqu’elle écarte la nécessaire analyse de l’état sociologique d’une population donnée exposée de manière répétée à un narratif sur un temps long avec les biais qui peuvent en découler ».

Il ajoute donc que Viginum « a une posture de prudence s’agissant de la mesure d’un impact d’une campagne. Nous préférons évoquer un risque d’impact où on essaye de faire le lien avec un changement de comportement dans la population qui est visée et de voir si une campagne qui a un champ virtuel numérique produit des effets dans le champ de la vie réelle ».

Viginum alerte sur une hausse des attaques de manipulation de l’information ciblant la France

Viginum alerte sur une hausse des attaques de manipulation de l’information ciblant la France

Lors d’une audition par la Commission des affaires étrangères, de la défense et des forces armées du Sénat quelques heures après l’élection de Donald Trump, le Secrétariat général de la Défense et de la Sécurité nationale (SGDSN), l’Anssi et Viginum ont alerté sur l’augmentation des tentatives de manipulations de l’information en France.

Alors que le projet de loi de finances 2025 va bientôt passer devant le Sénat, sa commission des affaires étrangères, de la défense et des forces armées a auditionné mercredi 6 novembre, le secrétaire général du SGDSN, Stéphane Bouillon, le directeur général de l’ANSSI, Vincent Strubel, et Marc-Antoine Brillant, le chef du Service de vigilance et de protection contre les ingérences numériques étrangères (Viginum).

Pour rappel, Viginum et l’ANSSI sont deux services à compétence nationale rattachés au secrétariat général de la défense et de la sécurité nationale (SGDSN).

Concernant les financements, les coupes budgétaires prévues par le gouvernement touchent aussi le budget de ce service interministériel. Stéphane Bouillon confirme, comme le relate Public Sénat : « nous devrons fonctionner avec 307,6 millions d’euros, soit 8 millions de moins qu’en 2024 » tout en expliquant avoir des mesures « pour assurer la continuité des missions importantes ». Il assure les sénateurs que « nous ne serons pas empêchés dans notre cœur de métier ».

Le secrétaire général du SGDSN a aussi estimé, alors que cette audition se passait le jour de la proclamation des résultats des élections américaines, que « l’élection de Donald Trump va rebattre toutes les cartes » dans le conflit déclenché par l’invasion de l’Ukraine par la Russie.

Une « bagarre stratégique »

S’agissant des enjeux numériques et technologiques, « ceux-ci font l’objet d’une véritable bagarre stratégique pour la conquête d’une pôle-position ou le rattrapage d’un retard », a estimé Marc-Antoine Brillant.

Il a notamment fait la liste des cinq campagnes dévoilées par Viginum : « la fameuse affaire des étoiles de David, la campagne « Olympia » qui impliquait des acteurs azerbaïdjanais qui visait à dénigrer les capacités de la France à organiser les JO dans de bonnes conditions de sécurité, le dispositif Portal combat, la dénonciation des manœuvres informationnelles en Nouvelle-Calédonie de la part d’acteurs pro azerbaïdjanais et la campagne Matriochka ».

Si l’année n’est pas encore complètement écoulée, le responsable de Viginum a expliqué aux sénateurs qu’il fallait s’attendre à une forte augmentation du volume des manipulations de l’information à destination des français : « L’année dernière, je vous avais rendu compte d’une activité opérationnelle qui était croissante avec près de 40% de détections supplémentaires par rapport à l’année 2022. En 2023, nous avions identifié 230 phénomènes inauthentiques de manipulation de l’information. Pour cette année 2024, au 1er octobre, nous avons déjà dépassé ce chiffre à la faveur de dispositifs informationnels particulièrement persistants dans notre débat public numérique et très opportunistes ».

Une menace « intime »

Devant les sénateurs, Marc-Antoine Brillant a insisté pour qualifier la manipulation de l’information de menace « intime », pour plusieurs raisons. Et d’expliquer : « tout d’abord parce qu’elle connait le fonctionnement de notre démocratie, de notre société et de nos lignes de fracture. Elle suit notre actualité, s’y intéresse et tente d’exploiter tout fait divers ou tout événement. La situation de nos territoires ultramarins est parfaitement connue de certains acteurs étrangers qui n’hésitent pas à susciter, attiser la contestation, en trompant volontairement l’opinion publique. Elle connait aussi notre histoire et notre héritage ». Il prend la tentative d’instrumentalisation de notre débat public sur le sujet des étoiles de David comme un « parfait exemple ». Mais, pour lui, c’est le cas aussi des « accusations répétées de notre politique étrangère d’être colonialiste dans certains territoires ».

Ce qualificatif d’ «intime » se justifie, selon lui, aussi parce qu’ « elle s’attache à nous accompagner dans la durée avec des modes opératoires qui sont de plus en plus persistants ». Ici, il s’appuie notamment sur les campagnes RNN/ Doppelgänger et mais aussi Portal Combat qui « ont démontré leur capacité d’adaptation à nos réponses ».

Selon lui, cette « menace intime » « nous met à l’épreuve et nous impose de l’humilité et des réponses qui ne sont pas uniquement du champ régalien mais feront davantage la preuve de celui de l’éducation, de l’information et d’une meilleure collaboration avec la société civile ».

Le responsable de Viginum a rappelé aux sénateurs que cette manipulation de l’information passe par l’animation de réseaux de faux comptes pour massifier la diffusion de contenus et également la génération de contenus faux crédibles grâce à l’usage de l’IA générative, l’utilisation d’influenceurs ou de comptes à forte audience pour amplifier la visibilité de certains récits et qui sont susceptibles de remplacer, à terme, nos médias auprès de certaines catégories de citoyens. Mais il pointe aussi l’usurpation de l’identité d’institutions officielles « comme la DGSI, le SGDSN mais également la CIA ou nos médias ».

Difficile mesure de l’impact réel

Sur le résultat réel de ces tentatives de manipulation, Marc-Antoine Brillant a expliqué aux sénateurs qu’il n’y a pas de consensus académique ou scientifique pour le mesurer. « Principalement empirique, l’analyse de l’impact consiste bien souvent à relever des indicateurs de visibilité des principales plateformes de réseaux sociaux, avec le caractère relatif de ces indicateurs (nombre de vues, de likes, de repartage ou commentaires) » décrit-il.

Mais il s’est empressé de rajouter que « ça ne fournit qu’une vision parcellaire d’une exposition d’un lectorat ou auditorat à une campagne sans permettre de connaitre les effets sur le long terme ». Et il ajoute qu’ « une simple approche qui serait fondée aujourd’hui sur des indicateurs issus de plateforme, ne permet qu’une mesure partielle de la visibilité de la manœuvre informationnelle puisqu’elle écarte la nécessaire analyse de l’état sociologique d’une population donnée exposée de manière répétée à un narratif sur un temps long avec les biais qui peuvent en découler ».

Il ajoute donc que Viginum « a une posture de prudence s’agissant de la mesure d’un impact d’une campagne. Nous préférons évoquer un risque d’impact où on essaye de faire le lien avec un changement de comportement dans la population qui est visée et de voir si une campagne qui a un champ virtuel numérique produit des effets dans le champ de la vie réelle ».

☕️ Google a accidentellement publié Jarvis, une IA qui automatise des tâches dans Chrome

The Information a repéré que Google avait mis en ligne, accidentellement et pendant quelques instants, une pré-version de son nouvel outil d’intelligence artificielle nommé Jarvis.

Certains utilisateurs de Chrome ont pu brièvement le télécharger dans la boutique d’extensions du navigateur web Chrome de Google. Cette extension était décrite comme « un agent d’utilisation de l’ordinateur ». Elle n’était pour autant pas utilisable, car demandant des accès non autorisés dans Chrome.

Le média américain avait déjà décrit ce projet de l’entreprise fin octobre : une extension Chrome permettant d’automatiser certaines tâches d’utilisation du navigateur. Jarvis utiliserait un des modèles de langage de la famille Gemini.

Jarvis doit permettre d’automatiser certaines tâches du quotidien telles que « la recherche d’informations, l’achat d’un produit ou la réservation d’un vol ».

Selon The Information, la date de publication officielle du projet est prévue pour le mois de décembre prochain. Si Jarvis est le nom de travail de l’extension en interne, il est possible que Google choisisse de distribuer l’extension sous un autre nom à ce moment-là.

Logo de Google Chrome

☕️ Google a accidentellement publié Jarvis, une IA qui automatise des tâches dans Chrome

The Information a repéré que Google avait mis en ligne, accidentellement et pendant quelques instants, une pré-version de son nouvel outil d’intelligence artificielle nommé Jarvis.

Certains utilisateurs de Chrome ont pu brièvement le télécharger dans la boutique d’extensions du navigateur web Chrome de Google. Cette extension était décrite comme « un agent d’utilisation de l’ordinateur ». Elle n’était pour autant pas utilisable, car demandant des accès non autorisés dans Chrome.

Le média américain avait déjà décrit ce projet de l’entreprise fin octobre : une extension Chrome permettant d’automatiser certaines tâches d’utilisation du navigateur. Jarvis utiliserait un des modèles de langage de la famille Gemini.

Jarvis doit permettre d’automatiser certaines tâches du quotidien telles que « la recherche d’informations, l’achat d’un produit ou la réservation d’un vol ».

Selon The Information, la date de publication officielle du projet est prévue pour le mois de décembre prochain. Si Jarvis est le nom de travail de l’extension en interne, il est possible que Google choisisse de distribuer l’extension sous un autre nom à ce moment-là.

Logo de Google Chrome
❌