Vue normale

Aujourd’hui — 5 novembre 2024Next - Articles gratuits

Meta retourne sa veste et autorise l’usage militaire de son IA par les États-Unis

5 novembre 2024 à 15:45
Docteur FoLlama
Meta retourne sa veste et autorise l’usage militaire de son IA par les États-Unis

Vendredi, on apprenait que des chercheurs chinois liés à l’Armée populaire de libération avaient entrainé le modèle de langage Llama à des fins militaires, en violation des règles d’utilisation de Meta. Ce lundi, le président des affaires internationales de Meta révèle de son côté que des prestataires de l’armée états-unienne utilisent déjà Llama à des fins militaires, et qu’elle va autoriser les « Five Eyes » à faire de même.

Meta autorisera les agences gouvernementales américaines et les sous-traitants travaillant dans le domaine de la sécurité nationale à utiliser ses modèles d’intelligence artificielle à des fins militaires, rapporte le New York Times.

Et ce, à rebours de sa politique qui interdisait jusque-là l’utilisation de sa technologie à de telles fins. La décision de Meta constitue à ce titre une exception à sa « politique d’utilisation acceptable », qui interdisait l’utilisation de ses logiciels d’intelligence artificielle à des fins « militaires, de guerre ou nucléaires », entre autres.

Une « norme mondiale » pour l’IA open source, à l’instar de Linux et Android

Nick Clegg, président des affaires internationales de Meta, a en effet publié ce lundi un billet de blog intitulé « L’IA Open Source peut aider l’Amérique à dominer l’IA et à renforcer la sécurité mondiale ». Il y explique que l’entreprise soutient désormais les « utilisations responsables et éthiques » de la technologie qui soutiennent les États-Unis et les « valeurs démocratiques » dans la course mondiale à la suprématie de l’IA.

« Meta veut jouer son rôle pour soutenir la sûreté, la sécurité et la prospérité économique de l’Amérique, ainsi que de ses alliés les plus proches », précise Nick Clegg : « l’adoption généralisée des modèles d’IA open source américains sert à la fois les intérêts économiques et sécuritaires » :

« Nous pensons qu’il est dans l’intérêt de l’Amérique et de l’ensemble du monde démocratique que les modèles open source américains excellent et réussissent par rapport aux modèles chinois et autres. Au fur et à mesure que les modèles open source deviennent plus performants et plus largement adoptés, une norme mondiale open source pour les modèles d’IA est susceptible d’émerger, comme cela a été le cas pour des technologies telles que Linux et Android. Cela se produira, que les États-Unis s’engagent ou non. »

Le leadership américain et son engagement en faveur de la paix

« Il est essentiel que la norme open source sur laquelle le monde s’appuie soit fondée sur des normes élevées d’ouverture, de transparence et de responsabilité », poursuit Nick Clegg :

« C’est pourquoi le leadership américain et son engagement en faveur du droit international sont si importants pour la paix et la sécurité dans le monde. Il incombe aux pays qui exploitent l’IA pour leur sécurité nationale de déployer l’IA de manière éthique, responsable et conforme au droit international et aux principes fondamentaux applicables, principes que les États-Unis et nombre de leurs alliés se sont engagés à respecter dans la Déclaration politique sur l’utilisation militaire responsable de l’intelligence artificielle et de l’autonomie. »

Un porte-parole de Meta a précisé que l’entreprise partagerait aussi sa technologie avec les membres de l’alliance de renseignement Five Eyes : Canada, Grande-Bretagne, Australie et Nouvelle-Zélande, confirmant une information de Bloomberg.

Un revirement de posture qui ne date probablement pas d’hier

L’entreprise a précisé qu’elle mettrait ses modèles d’IA Llama à la disposition des agences fédérales et qu’elle travaillait aussi avec des entreprises de défense telles que Lockheed Martin et Booz Allen, ainsi qu’avec des entreprises technologiques axées sur la défense, notamment Palantir et Anduril, et des prestataires d’agences gouvernementales, telles qu’Amazon Web Services, IBM, Oracle et Microsoft.

Oracle, par exemple, s’appuie sur Llama pour synthétiser les documents de maintenance des avions, afin que les techniciens puissent diagnostiquer les problèmes plus rapidement et avec plus de précision, « ce qui accélère les délais de réparation et permet de remettre en service les avions les plus importants ».

Scale AI affine pour sa part Llama afin de soutenir la planification des opérations et l’identification des vulnérabilités des adversaires. Lockheed Martin a de son côté intégré Llama dans son usine d’IA, accélérant la génération de code, l’analyse de données et l’amélioration des processus d’affaires. La solution watsonx d’IBM met Llama à la disposition des agences de sécurité nationale dans leurs centres de données et leurs nuages autogérés.

Ces cas d’usage, énumérés dans le billet de blog de Nick Clegg, laissent entendre que le revirement de posture de Meta ne date pas d’hier, même si son annonce pourrait avoir été précipitée par l’enquête de l’agence de presse Reuters, publiée vendredi dernier.

Elle y révélait en effet avoir repéré le travail de chercheurs chinois, dont deux travaillent pour l’Académie des sciences militaires de l’Armée populaire de libération, s’appuyant sur un modèle de langage de la famille Llama pour créer un outil d’IA. Baptisé ChatBIT (sic), il serait destiné à améliorer la prise de décisions opérationnelles de l’armée chinoise.

Llama a déjà été téléchargé 350 millions de fois

Le revirement de Meta « risque de faire l’objet d’un examen minutieux », relève le New York Times, qui rappelle que les applications militaires des produits technologiques de la Silicon Valley ont été contestées ces dernières années. De nombreux employés de Microsoft, Google et Amazon avaient ainsi bruyamment protesté contre certains des accords conclus par leur entreprise avec des entreprises militaires et des agences de défense.

Meta fait en outre l’objet d’un examen minutieux en raison de son approche « open source » de l’IA, souligne le Times. OpenAI et Google avancent en effet que la technologie qui sous-tend leurs IA serait trop puissante et susceptible d’être utilisée à mauvais escient pour être diffusée dans la nature. A contrario, Meta estime que l’IA ne peut être améliorée et rendue plus sûre qu’en permettant à des millions de personnes d’examiner le code et de l’analyser.

Les dirigeants de Meta craignent également que le gouvernement américain et d’autres pays réglementent sévèrement l’intelligence artificielle open source, ont déclaré aux Times deux personnes familières de l’entreprise.

Fin août, Meta indiquait par ailleurs que son logiciel avait été téléchargé près de 350 millions de fois, faisant de Llama « la première famille de modèles open source », et que l’utilisation mensuelle (en volume de jetons) de Llama avait été multipliée par 10 de janvier à juillet 2024.

Hier — 4 novembre 2024Next - Articles gratuits

La plateforme Medium est, elle aussi, inondée par les contenus générés par IA

4 novembre 2024 à 15:07
MedIAm
La plateforme Medium est, elle aussi, inondée par les contenus générés par IA

Environ 7 % des articles publiés sur des sites d’information seraient en fait générés par des IA. Sur la plateforme de publication d’articles et de billets Medium, ce taux serait de plus de 40 %. Une pollution que relativise le PDG de l’entreprise, estimant que personne ne les lit.

À l’origine, le slop désigne l’amas de boues qui tapisse au fur et à mesure le fond des citernes des navires, notamment pétroliers, écrivait le Courrier International en juin dernier. Le terme est aussi depuis quelques mois utilisé pour désigner les contenus bas de gamme générés par des IA et qui inondent de plus en plus le web.

Non content de polluer Amazon Books et Youtube (jusque et y compris les chaînes de philosophie, constatait récemment Monsieur Phi), le slop envahirait aussi la plateforme de blogs Medium. WIRED raconte en effet avoir demandé à la société Pangram Labs, spécialisée dans la détection de l’intelligence artificielle, d’analyser un échantillon de 274 466 articles récents, publiés sur une période de six semaines sur la plateforme.

La start-up, qui présente sa technologie comme « la plus précise pour détecter les contenus générés par l’IA à grande échelle », avec un taux de précision de « plus de 99,98 % », a estimé que plus de 47 % d’entre eux étaient probablement générés par l’IA (GenAI).

WIRED a demandé à une seconde start-up, elle aussi dédiée à la détection des contenus GenAI, Originality AI, de comparer deux échantillons de posts Medium, l’un datant de 2018, l’autre de cette année. 3,4 % du premier avaient probablement été générés par IA.

Un pourcentage qui correspond au taux de faux positifs de l’entreprise, précise son PDG, John Gillham, d’autant que les outils d’IA n’étaient pas encore largement utilisés. A contrario, un peu plus de 40 % de l’échantillon de 2024 étaient probablement générés par l’IA.

7 % des articles d’actualité seraient générés par des IA

« C’est deux ordres de grandeur de plus que ce que je vois sur le reste de l’internet », explique Max Spero, PDG de Pangram, à WIRED. En août, la start-up avait en effet analysé 857 434 articles publiés sur 26 675 sites web d’information sur une seule journée de juillet dernier, et découvert que 59 653 d’entre eux, soit 6,96 %, avaient été, en tout ou partie (de 50 à 100 %), rédigés par des IA.

Le Ghana arrivait en tête des pays ayant le plus recours aux IA, avec près de 33 % des articles GenAI, suivi par le Pérou (plus de 20 %), le Brésil, la Colombie et le Pakistan (16 %). Si la France (8 %) arrivait en avant-dernière position du classement, juste derrière Singapour et l’Espagne, ce dernier mentionnait principalement des pays d’Amérique du Sud, d’Afrique de l’Ouest et d’Asie du Sud, et aucun autre pays européen, ni nord américain.

La Tech arrivait en tête des thématiques les plus polluées par les contenus GenAI, devant la beauté (du fait des articles sponsorisés), le business, le jeu, la finance et la science, notamment en rapport avec des escroqueries liées aux crypto-actifs.

Appeaux putaclics à pubs et escroqueries aux cryptos

Pangram avait identifié plusieurs types d’articles GenAI. Certains n’ont que pour objectif de remplir des « sites conçus pour la publicité » (made-for-advertising sites, ou MFAs) afin d’attirer des lecteurs, et de les exposer à des publicités bas de gamme.

Leurs contenus ne sont dès lors « pas vraiment destinés à être lus », mais juste à attirer le chaland, via des titres « putaclics » notamment. Les annonceurs ne sont, eux non plus, pas conscients d’afficher leurs publicités sur ces sites bas de gamme. Pangram estime que les MFAs représentent environ 50 % des contenus GenAI.

L’entreprise a aussi constaté qu’une « grande partie » des articles sur le thème de la beauté était en fait « sponsorisés », et donc écrits par des communicants et rédacteurs sous-traitant la rédaction de tels contenus à des IA. De même, de nombreux modes d’emploi liés à de nouveaux crypto-actifs s’avèrent être des escroqueries, dont la rédaction est là aussi sous-traitée à des IA.

78 % des articles taggués NFT, web3 et Ethereum étaient GenAI

Sur Medium, 4 492 des 5 712 articles (soit 78 %) taggués NFT avait eux aussi probablement été générés par IA. Une proportion démesurée que Pangram a aussi constaté du côté des articles estampillés web3, Ethereum, « AI » et… pets (animaux de compagnie).

McKenzie Sadeghi, rédacteur chez NewsGuard, une société de surveillance de la désinformation en ligne qui a de son côté identifié plus de 1 000 sites web d’information GenAI, a de son côté constaté que la plupart de ce type de contenus portaient sur les cryptoactifs, le marketing et l’optimisation des moteurs de recherche (SEO).

Les nombreux comptes semblant avoir publié des volumes importants de documents générés par l’IA semblent par ailleurs ne concerner qu’un lectorat faible, voire inexistant, relève WIRED. Un compte signalé par Pangram Labs comme ayant rédigé plusieurs articles consacrés à des cryptos avait ainsi publié six d’entre eux en une journée seulement, mais sans aucune interaction, suggérant un impact négligeable.

À l’inverse, WIRED a aussi constaté que d’autres articles signalés par Pangram, Originality et la société de détection de l’IA Reality Defender comme étant probablement générés par l’IA, avaient des centaines de « claps », similaires aux « likes » que l’on trouve sur d’autres plateformes, mais sans que l’on sache s’ils émanent d’être humains, ou de bots.

Medium est fait pour le storytelling humain, pas pour les articles GenAI

« Medium fonctionne essentiellement grâce à la curation humaine », rétorque Tony Stubblebine, le PDG de la plateforme, évoquant les 9 000 rédacteurs en chef des publications de Medium, ainsi que l’évaluation humaine supplémentaire des articles susceptibles d’être artificiellement « boostés ».

S’il reconnaît que les contenus GenAI publiés sur Medium « a probablement décuplé depuis le début de l’année », il s’oppose néanmoins à l’utilisation de détecteurs d’IA pour évaluer la portée du problème, en partie parce qu’il estime qu’ils ne peuvent pas faire la différence entre les messages entièrement générés par l’IA et les messages dans lesquels l’IA est utilisée de manière plus légère (ce que rejette le PDG de Pangram, au demeurant).

Contrairement à LinkedIn et Facebook, qui encouragent explicitement l’utilisation de l’IA, Medium n’autorise plus d’articles GenAI. « Medium est destiné à la narration humaine, pas à l’écriture générée par l’IA », avait souligné la plateforme sur son blog, l’an passé. « La grande majorité des histoires détectables générées par l’IA dans les flux bruts pour ces sujets font zéro vue », renchérit Stubblebine.

« À mesure que les outils d’IA générative se banalisent, les plateformes qui renoncent à essayer d’éliminer les bots incuberont un monde en ligne dans lequel le travail créé par les humains deviendra de plus en plus difficile à trouver sur les plateformes submergées par l’IA », conclut WIRED, en écho à la théorie de l’Internet mort.

Estampillée complotiste, elle avance qu’Internet ne serait pratiquement plus peuplé que par des bots et que la majorité du contenu est généré par des algorithmes, marginalisant l’activité humaine.

À partir d’avant-hierNext - Articles gratuits

☕️ Le président de Google EMEA annonce son intention de quitter l’entreprise

11 octobre 2024 à 15:08
Le président de Google EMEA annonce son intention de quitter l’entreprise

Le président de Google Europe, Moyen-Orient et Afrique (EMEA), Matt Brittin, vient d’annoncer sur LinkedIn son intention de quitter l’entreprise, qu’il avait rejointe il y a 18 ans :

« Lorsque j’ai rejoint Google, moins d’une personne sur cinq était en ligne. Aujourd’hui, près de 70 % d’entre elles ont les informations du monde entre leurs mains et les opportunités qui en découlent. […] La région EMEA représente environ un tiers du chiffre d’affaires global de Google et nous l’avons multiplié par plusieurs fois. »

« C’est un moment charnière pour passer le relais », a-t-il ajouté : « Nous commençons à peine à entrevoir les effets transformateurs que l’IA aura sur des milliards de vies – et les gens de notre région du monde montrent la voie ».

Britin rappelle en effet que Google DeepMind est dirigé depuis Londres, et qu’il est à l’origine de percées telles qu’AlphaFold de prédiction de la structure des protéines à partir de leur séquence en acides aminés, qui vient de valoir à deux de ses développeurs d’être désignés co-lauréats du prix Nobel de chimie.

Matt Brittin avait d’abord rejoint Google en tant que responsable des opérations au Royaume-Uni et en Irlande en 2007, avant de gravir les échelons pour devenir vice-président de l’Europe du Nord et centrale, puis président de la région EMEA en 2014, relève Reuters.

Avant de travailler pour Google, Brittin avait travaillé plusieurs années en tant que consultant pour McKinsey & Co. Il a précisé qu’il continuerait à diriger les activités de Google dans la région EMEA jusqu’à ce qu’un successeur soit choisi.

☕️ Le taïwanais Foxconn délocalise au Mexique son usine de serveurs NVIDIA Blackwell AI

8 octobre 2024 à 14:33
Le taïwanais Foxconn délocalise au Mexique son usine de serveurs NVIDIA Blackwell AI

Le groupe de fabrication électronique taïwanais Foxconn construit au Mexique la plus grande usine du monde fabriquant les serveurs d’intelligence artificielle les plus avancés de NVIDIA, Blackwell AI, rapporte le Financial Times. Le FT voit dans cette délocalisation une illustration « frappante » du découplage des chaînes d’approvisionnement technologiques mondiales par rapport à la Chine.

Gouvernements et entreprises occidentaux cherchent en effet depuis des années à rapprocher de leurs territoires la fabrication de produits technologiques sensibles et de fournitures essentielles, afin de réduire leur dépendance à l’égard de la Chine, compte tenu des tensions géopolitiques croissantes et des perturbations de la chaîne d’approvisionnement.

Young Liu, président de Foxconn, a déclaré à ses clients et partenaires, lors de la présentation annuelle de Foxconn à Taipei, que le poids de la Chine dans l’empreinte manufacturière mondiale du groupe allait diminuer pour atteindre un peu plus de 70 %.

La plateforme Blackwell fait l’objet d’une demande « folle », a précisé Young Liu lors de cet événement auquel participait également Deepu Talla, vice-président de NVIDIA, qui n’a donné que peu de détails sur l’usine de 450 mètres de long. L’usine, située dans la ville de Guadalajara, au centre du Mexique, assemblera les serveurs d’intelligence artificielle GB200 Blackwell.

Foxconn est déjà très présent au Mexique et a investi plus de 500 millions de dollars à ce jour dans l’État de Chihuahua, relève l’agence Reuters. Samedi, Foxconn a en outre enregistré le chiffre d’affaires le plus élevé de son histoire pour le troisième trimestre, grâce à la forte demande de serveurs AI.

L’autre objectif de Foxconn est de se diversifier et de s’éloigner de son rôle de fabricant d’électronique grand public pour Apple, dans l’espoir d’utiliser son savoir-faire technologique pour proposer la fabrication à façon de véhicules électriques et produire des véhicules utilisant des modèles construits par la marque Foxtron.

Liu a également prédit que la montée de « l’IA souveraine » – la nécessité pour les nations de développer leur propre intelligence artificielle pour s’aligner sur leurs intérêts de sécurité nationale – conduirait également à une production de plus en plus localisée des serveurs nécessaires.

En plus de l’IA souveraine, « je proposerais un concept de « serveur de souveraineté » », a-t-il déclaré. « À l’avenir, les serveurs seront produits dans les pays qui en ont besoin. C’est la direction que nous prenons actuellement ».

Un nouvel organisme traitera les litiges entre les utilisateurs européens, Meta, TikTok et YouTube

8 octobre 2024 à 14:19
alt.moderation
Un nouvel organisme traitera les litiges entre les utilisateurs européens, Meta, TikTok et YouTube

Article mis à jour à 16h55 avec le communiqué du directeur du nouvel Appeals Centre Europe.

Les utilisateurs de réseaux sociaux de l’Union européenne pourront bientôt déposer des plaintes contre Facebook, TikTok et YouTube concernant la modération des contenus auprès d’un nouvel organisme indépendant créé en Irlande, rapporte l’agence Reuters.

Cet organisme, soutenu par le Conseil de surveillance (Oversight Board) de Meta et certifié par l’autorité irlandaise de régulation des médias, servira d’organe de règlement extrajudiciaire des litiges en vertu de la loi européenne sur les services numériques (DSA).

Jusqu’à présent, les particuliers et organisations ne disposaient que d’options limitées pour contester les décisions des entreprises de médias sociaux en matière de contenu sans passer par les tribunaux, souligne Reuters.

Un service rapide, économique et impartial, assuré par des experts

L’Appeals Centre Europe (ACE) entrera en fonction avant la fin de l’année, et inclura d’autres plateformes de médias sociaux au fil du temps. Son site web précise qu’il « propose un service rapide, économique et impartial, assuré par des experts, pour prendre des décisions conformes aux politiques de contenu des plateformes ».

Users of @facebook , @tiktok_uk and @YouTube in the EU can now raise content disputes to a new body.

The Appeals Centre Europe empowers you to challenge content decisions on social media.

For more information please visit https://t.co/jvSLVqXMyE pic.twitter.com/p37Xh0oEI3

— appealscentre (@AppealsCentre) October 8, 2024

Il sera financé par les frais facturés aux entreprises de médias sociaux, et sera géré par un Conseil de sept administrateurs indépendants, dont trois des membres de l’Oversight Board : Cherine Chalaby, Catherine O’Regan et Marie Wieck, « tous experts reconnus dans leur domaine ».

À ces trois premiers administrateurs indépendants viendront s’ajouter quatre autres administrateurs « sans lien avec une entreprise de réseaux sociaux ni relation avec une entité financée par une entreprise de réseaux sociaux », précise son site web :

« En conjuguant leur expérience des droits de l’Homme, de la gouvernance de l’internet et de la technologie, les administrateurs indépendants seront chargés de superviser la constitution de ce nouvel organe indépendant afin qu’il se conforme aux normes les plus strictes dès ses premières interventions. »

Un organisme indépendant des gouvernements et des entreprises

« Nous voulons que les utilisateurs aient le choix de soumettre un litige à un organisme indépendant des gouvernements et des entreprises, qui veille à ce que les politiques de contenu des plateformes soient appliquées de manière équitable et impartiale », a déclaré Thomas Hughes, premier directeur général du Centre d’appel, ancien directeur exécutif de l’association de défense des droits de la liberté d’expression Article 19 et ex-directeur de l’Oversight Board.

Aidé d’une équipe d’experts, il devra examiner chaque cas dans un délai de 90 jours, et décider si les décisions des plateformes sont cohérentes avec leurs politiques de contenu, ainsi qu’à toute règle ou exception qui font référence aux droits de l’Homme. Les cas complexes seront quant à eux confiés à des spécialistes qui possèdent de l’expertise dans des régions, des langues ou des domaines de politique spécifiques.

Une redevance nominale, remboursée en cas de décision favorable

Les utilisateurs qui soulèvent un litige devront payer une somme symbolique, qui leur sera remboursée si la décision est en leur faveur, précise Reuters. L’agence souligne que, toutefois, selon les règles de la DSA, les plateformes en ligne peuvent également refuser de s’engager avec un tel organisme de règlement des litiges, et que celui-ci n’aura pas non plus le pouvoir d’imposer un règlement contraignant aux parties.

« Nous nous félicitons de la certification de nouveaux organismes indépendants par le régulateur irlandais », a déclaré Thomas Regnier, porte-parole de la Commission européenne. « Nous soutiendrons le développement efficace et uniforme de ce système dans l’ensemble de l’UE afin de renforcer les droits en ligne de tous les utilisateurs de l’UE ».

Une alternative à l' »appropriation des tâches » par les agences gouvernementales

Coimisiún na Meán, le régulateur irlandais des médias, précise que l’ACE a obtenu une certification pour une période de cinq ans, du 26 septembre 2024 au 26 septembre 2029.

Dans un communiqué, Thomas Hugues précise que« comme aucune autre législation avant elle, la loi sur les services numériques (DSA) de l’UE a le potentiel de rétablir l’équilibre des pouvoirs entre les individus, les entreprises et les gouvernements sur ce que les gens voient et publient en ligne » :

« Cela dit, si elle est mal exécutée, cette législation pourrait être monopolisée par des organismes publics, ce qui entraînerait une « appropriation des tâches » par les agences gouvernementales à une échelle industrielle et une censure de la parole en ligne. Les plateformes pourraient être incitées à tort à supprimer de grandes quantités de contenus, et la diversité des compétences et des normes de ces organismes pourrait aboutir à des décisions médiocres, voire préjudiciables. Le Centre d’appel vise à maximiser ces opportunités et à minimiser ces risques. »

☕️ Eric Schmidt estime les objectifs climatiques inatteignables, et propose de les confier à des IA

8 octobre 2024 à 08:45

Interrogé sur la capacité des industriels à répondre aux besoins énergétiques de l’IA « sans faire exploser les objectifs climatiques », Eric Schmidt, l’ex-PDG de Google, explique que « nous n’y parviendrons pas en économisant l’énergie », rapporte Tom’s Hardware :

« Mon avis est que nous n’atteindrons pas les objectifs climatiques de toute façon parce que nous ne sommes pas organisés pour le faire […] et oui les besoins dans ce domaine seront problématiques mais je préfère parier sur l’IA pour résoudre le problème plutôt que de la contraindre et d’avoir le problème. »

Former Google CEO Eric Schmidt says energy demand for AI is infinite and we are never going to meet our climate goals anyway, so we may as well bet on building AI to solve the problem pic.twitter.com/USCDKBVsbh

— Tsarathustra (@tsarnick) October 5, 2024

Il précise qu’à Deep Mind, les IA auraient « battu nos meilleurs ingénieurs de 15 % en termes d’efficacité énergétique totale et dans certains cas, c’était 50 % parce que les systèmes d’IA voient des choses que les humains ne voient pas ».

Évoquant « une demande infinie » en matière d’énergie, et le fait que « la plupart des gens avec qui j’ai parlé disent que la facture d’électricité est devenue un élément très important de leurs dépenses », il reconnaît cela dit que « nous allons peut-être faire des erreurs » face à la survenue de cette « intelligence inconnue que nous ne comprenons pas » :

« Mais je peux vous assurer que nous n’y parviendrons pas par la prudence, c’est le point clé et l’économie sera de toute façon le moteur de cette technologie. »

Tom’s Hardware souligne que la demande pourrait également augmenter avec la baisse des prix de l’énergie, du fait des améliorations technologiques, en termes d’efficacité, un phénomène appelé paradoxe de Jevons, cas le plus extrême de l’effet rebond.

Les émissions de gaz à effet de serre de Google ont d’ailleurs augmenté de 48 % depuis 2019, principalement en raison de la demande d’énergie de ses centres de données. Selon McKinsey, relève Business Insider, les besoins des centres de données de Google aux États-Unis devraient passer de 17 à 35 GW d’ici 2030.

☕️ OpenAI obtient 4 milliards de dollars de crédit, s’ajoutant aux 6,6 milliards de sa levée de fonds

4 octobre 2024 à 12:25
OpenAI obtient 4 milliards de dollars de crédit, s’ajoutant aux 6,6 milliards de sa levée de fonds

Dans la foulée de sa levée de fonds de 6,6 milliards de dollars, OpenAI vient d’annoncer dans un communiqué avoir obtenu une facilité de crédits de 4 milliards de dollars auprès de JPMorgan Chase, Citi, Goldman Sachs, Morgan Stanley, Santander, Wells Fargo, SMBC, UBS, et HSBC :

« Cela signifie que nous avons désormais accès à plus de 10 milliards de dollars de liquidités, ce qui nous donne la flexibilité nécessaire pour investir dans de nouvelles initiatives et opérer avec une agilité totale au fur et à mesure que nous nous développons. Cela réaffirme également notre partenariat avec un groupe exceptionnel d’institutions financières, dont beaucoup sont également des clients d’OpenAI. »

« Cette facilité de crédit renforce notre bilan et nous donne la flexibilité nécessaire pour saisir les opportunités de croissance futures », précise Sarah Friar, directrice financière d’OpenAI.

La ligne de crédit, qui n’est pas garantie et peut être utilisée sur une période de trois ans, comporte en outre une option pour l’augmenter de 2 milliards de dollars supplémentaires, souligne CNBC, pour un taux d’intérêt d’environ 6 %.

OpenAI a généré 300 millions de dollars de revenus le mois dernier, soit une hausse de 1 700 % depuis le début de l’année dernière, relève CNBC. Elle prévoit de réaliser un chiffre d’affaires de 11,6 milliards de dollars l’année prochaine, contre 3,7 milliards de dollars en 2024, mais s’attend à perdre environ 5 milliards de dollars cette année, selon une personne proche d’OpenAI qui a demandé à ne pas être nommée.

☕️ Le gouvernement Barnier veut généraliser la vidéosurveillance algorithmique (VSA)

2 octobre 2024 à 11:28
Le gouvernement Barnier veut généraliser la vidéosurveillance algorithmique (VSA)

La vidéosurveillance algorithmique (VSA) « va être généralisée par le gouvernement de Michel Barnier », selon les informations obtenues par franceinfo, et confirmées par le ministère de l’Intérieur au Figaro.

« C’est bien l’intention du ministre [de l’Intérieur, Bruno Retailleau, ndlr] de tirer les enseignements des JO. Ce point en fait partie et la nécessité d’une loi est incontournable » précise le ministère de l’Intérieur à Tech&Co.

Cette généralisation « devrait être autorisée par une loi spécifique qui, à l’issue d’un débat démocratique, fixerait des cas d’usages précis avec des garanties au bénéfice des personnes », soulignait la CNIL en 2022. « Une généralisation non maîtrisée de ces dispositifs, par nature intrusifs, conduirait à un risque de surveillance et d’analyse généralisée dans l’espace public » prévenait la Commission, rappelant que l’adoption d’une nouvelle loi était indispensable.

Ce mardi après-midi, dans sa déclaration de politique générale, le Premier ministre Michel Barnier avait en effet dit souhaiter, au moment d’évoquer les enjeux sécuritaires, une « généralisation de la méthode expérimentée pendant les Jeux olympiques », mais « sans préciser quel serait cet énigmatique nouveau procédé », relevait l’AFP.

Selon les informations de franceinfo, il s’agirait bien de « développer l’utilisation de la vidéosurveillance algorithmique ». Jusqu’ici, le ministère de l’Intérieur « assurait que l’expérimentation n’irait pas au-delà de la période des Jeux olympiques, même si dans les faits, le texte de la loi prévoyait déjà une prolongation jusqu’au 31 mars 2025 », rappelle franceinfo.

Sans donner réellement de chiffre ni de compte-rendu aux députés, le préfet de police de Paris, avait de son côté affirmé que « le bilan de l’expérimentation, pour nous, est positif », appelant lui aussi à prolonger l’expérimentation.

Pour rappel, les logiciels d’analyse d’images associées aux caméras « ont pour finalité de détecter en temps réel des événements prédéterminés » dans « huit situations, notamment pour repérer des départs de feu, des mouvements de foule, des objets abandonnés, la présence d’un véhicule ou d’une personne dans une zone interdite en vue d’alerter pompiers, policiers ou gendarmes ».

La loi JOP précise en outre qu’ils ne devaient être expérimentés qu’à l’occasion de « manifestations sportives, récréatives ou culturelles » qui seraient « particulièrement exposées à des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes », tout en excluant le recours à la reconnaissance biométrique faciale.

Le comité d’évaluation des caméras algorithmiques doit remettre un rapport d’ici la fin de l’année. Mais selon les autorités, le bilan de cette expérimentation serait positif, « même si le dispositif est à améliorer sur la détection d’armes, les départs de feu ou la détection d’objets abandonnés », souligne franceinfo.

☕️ Aux USA, la construction de centres de données a été multipliée par plus de 7 en seulement 2 ans

2 octobre 2024 à 10:31

Aux États-Unis, le marché de colocation des centres de données a doublé en quatre ans, indique un rapport de Jones Lang LaSalle (JLL), l’un des principaux fournisseurs mondiaux de services de gestion immobilière et d’investissement : « la construction atteint des niveaux extraordinaires, ayant été multipliée par plus de sept en seulement deux ans », en raison d’une « demande insatiable ».

« Jamais, au cours de mes 25 années de carrière dans l’immobilier, je n’ai vu une telle demande à l’échelle mondiale », explique au Los Angeles Times Darren Eades, courtier immobilier chez JLL et spécialiste des centres de données.

Les principaux moteurs sont l’IA et les fournisseurs de services en nuage, qui comprennent certains des plus grands noms de la technologie, tels qu’Amazon, Microsoft, Google et Oracle. Une manne pour le secteur immobilier, en crise depuis la pandémie de COVID-19, et alors que le taux d’occupation des immeubles de bureaux conventionnels est toujours en forte baisse.

Le rapport de JLL indique aussi que la construction n’arrive toujours pas à suivre, mais également que le réseau électrique américain n’arrive pas non plus à supporter un développement plus rapide. La sortie du ChatGPT d’OpenAI en novembre 2022 aurait changé la donne, les produits et plateformes basés sur l’IA générative étant « devenus omniprésents du jour au lendemain », souligne JLL.

La demande d’énergie pour l’informatique augmente tellement qu’elle menacerait même de mettre à rude épreuve le réseau électrique national, souligne le LA Times, renvoyant les utilisateurs dans des endroits éloignés où l’énergie est abondante et de préférence bon marché.

D’ici 2030, les centres de données pourraient représenter jusqu’à 11 % de la demande d’électricité aux États-Unis, contre 3 % aujourd’hui, selon les analystes de Goldman Sachs.

Un autre des défis posés par cette expansion rapide consiste à trouver des travailleurs qualifiés pour équiper les installations 24 heures sur 24, sept jours sur sept. « Il s’agit d’emplois très bien rémunérés et très demandés », a déclaré M. Eades, les employeurs s’arrachant les diplômés en informatique et en ingénierie à la sortie de l’université.

30 % des employés des centres de données ont en outre démissionné au cours de l’année écoulée, invoquant un manque d’équilibre entre leur vie professionnelle et leur vie privée, selon le rapport de JLL.

☕️ Pegasus : débouté par la Justice française, le Maroc pourrait attaquer la France à la CEDH

27 septembre 2024 à 15:10
Pegasus : débouté par la Justice française, le Maroc pourrait attaquer la France à la CEDH

La Cour de cassation a rejeté les 13 pourvois qu’avait intentés le Maroc à l’encontre de six médias français, rapporte L’Informé, confirmant une information du Desk marocain. L’avocat Alexandre Archambault relève de son côté que les 13 pourvois sont consultables sur le site web de la Cour de cassation.

Ces six médias avaient relayé les accusations du Projet Pegasus, du nom de code donné à l’enquête journalistique coordonnée par l’ONG Forbidden Stories et consacrée aux (soi-disant) « 50 000 cibles potentielles » de 15 États clients du logiciel espion de la société israélienne NSO.

Si le consortium n’avait, à l’époque, identifié que 1 000 des 50 000 détenteurs de ces numéros de téléphones seulement, y figuraient nombre de défenseurs des droits humains, journalistes et responsables politiques.

Le MondeMediapartFrance InfoFrance InterFrance Culture et l’Humanité étaient plus particulièrement accusés d’avoir relaté dans 13 articles le fait le Maroc était le client de NSO ayant visé les cibles potentielles françaises, dont les téléphones de 14 ministres de l’époque, du Premier ministre Edouard Philippe, et du président Emmanuel Macron, entre 2018 et 2021.

« Le royaume du Maroc ira jusqu’au bout de sa démarche, tant il est offusqué par la mise en cause de ses services de renseignement. Nous étudions toutes les voies de recours », a expliqué à L’informé l’avocat de Rabat, maître Olivier Baratelli, laissant entendre qu’il envisagerait un recours auprès de la Cour européenne des droits de l’homme.

Une démarche jugée « cocasse si une telle procédure de la part du Maroc devait survenir », ironise Simon Foreman, l’avocat d’Amnesty International à l’origine des révélations du Projet Pegasus. Le royaume chérifien est classé à la 129ᵉ position (sur 180) du classement mondial de la liberté de la presse de l’ONG Reporters sans frontières (RSF).

☕️ En Colombie, le logiciel espion Pegasus aurait été acheté avec de l’argent du blanchiment

25 septembre 2024 à 08:58

Selon le président colombien Gustavo Petro, le logiciel espion Pegasus de la société israélienne NSO avait été acheté en échange de 11 millions de dollars en espèces durant le gouvernement de son prédécesseur et rival politique, le conservateur Iván Duque (2018 - 2022), rapporte l’AFP.

« Dans l’enquête que nous menons, nous avons la certitude qu’il s’agit de blanchiment d’argent », a déclaré le directeur de la Direction nationale du renseignement (DNI), Jorge Lemus, dans une interview diffusée lundi par la chaîne publique Señal Colombia. L’argent « est sorti illégalement, ils n’ont laissé aucune trace. Ils ont commis un crime », a accusé le patron du renseignement colombien.

Selon le président Petro, le paiement « s’est fait en deux fois, en juin et novembre 2021, via notamment un avion privé transportant le cash de Bogota à Tel-Aviv ». Entre 2006 et 2009, alors opposant, M. Petro avait lui-même été victime d’écoutes téléphoniques illégales pour lesquelles le gouvernement a été condamné en 2020, relève l’AFP.

☕️ La Federal Trade Commission recommande l’adoption d’une version états-unienne du RGPD

24 septembre 2024 à 13:22

Article mis à jour à 17h30 avec la réponse de l’IAB, le lobby des annonceurs.

Un nouveau rapport de la Federal Trade Commission (FTC) montre que les principaux médias sociaux et services de streaming vidéo « se sont engagés dans une vaste surveillance des consommateurs afin de monétiser leurs informations personnelles tout en ne protégeant pas de manière adéquate les utilisateurs en ligne, en particulier les enfants et les adolescents ».

Neuf entreprises sont concernées, « dont certains des plus grands médias sociaux et services de streaming vidéo » : Amazon.com via sa plateforme de jeux Twitch, Facebook, YouTube, Twitter/X Corp., Snap, ByteDance pour sa plateforme de partage de vidéos TikTok, Discord, Reddit et WhatsApp.

Le rapport constate que les entreprises « collectent et peuvent conserver indéfiniment des masses de données », y compris des informations provenant de courtiers en données, et concernant à la fois les utilisateurs et non-utilisateurs de leurs plateformes.

Il souligne également que de nombreuses entreprises se sont engagées dans « un vaste partage de données » qui « soulève de sérieuses inquiétudes » quant à l’adéquation des contrôles et de la surveillance du traitement des données par les entreprises.

Le rapport a en outre constaté que les utilisateurs et non-utilisateurs n’avaient que peu ou pas de moyens de refuser l’utilisation de leurs données par ces systèmes automatisés, mais aussi que certaines entreprises ne supprimaient pas toutes les données des utilisateurs en réponse à leurs demandes de suppression.

Les droits accordés par le RGPD n’ont pas été élargis aux Américains

Intitulé « Un regard derrière les écrans », le rapport s’étonne que « les droits accordés en vertu du règlement général sur la protection des données n’ont pas été automatiquement accordés aux consommateurs américains » :

« Seules quelques entreprises ont déclaré avoir étendu aux utilisateurs américains les mêmes protections que celles accordées aux utilisateurs européens en vertu du RGPD. La plupart des entreprises ont déclaré avoir étendu aux utilisateurs américains une partie, mais pas la totalité, des modifications qu’elles ont apportées en réponse au RGPD. »

« Bien que lucratives pour les entreprises, ces pratiques de surveillance peuvent mettre en danger la vie privée des gens, menacer leurs libertés et les exposer à toute une série de préjudices, allant du vol d’identité au harcèlement », a déclaré la présidente de la FTC, Lina M. Khan :

« L’incapacité de plusieurs entreprises à protéger correctement les enfants et les adolescents en ligne est particulièrement troublante. Les conclusions du rapport arrivent à point nommé, en particulier au moment où les responsables politiques des États et du gouvernement fédéral envisagent de légiférer pour protéger les personnes contre les pratiques abusives en matière de données. »

Le rapport recommande dès lors au Congrès d’adopter une législation fédérale complète sur la protection de la vie privée afin de limiter la surveillance, de mettre en place des protections de base et d’accorder aux consommateurs des droits en matière de protection des données.

Les entreprises, de leur côté, ne devraient pas collecter d’informations sensibles par le biais de technologies de suivi publicitaire portant atteinte à la vie privée, mais également « limiter la collecte de données », et donc mettre en œuvre des politiques concrètes et applicables de minimisation et de conservation des données.

Elles devraient par ailleurs limiter le partage des données avec des tiers et des sociétés affiliées, supprimer les données des consommateurs lorsqu’elles ne sont plus nécessaires et adopter des politiques de protection de la vie privée « conviviales, claires, simples et faciles à comprendre ».

La publicité n’est pas une « surveillance commerciale de masse »

En réponse au rapport de la FTC, l’Interactive Advertising Bureau (IAB) explique être « déçue » de voir que la commission « continue de caractériser le secteur de la publicité numérique comme étant engagé dans une « surveillance commerciale de masse » » :

« Cette accusation laisse entendre que les données personnelles des consommateurs sont secrètement collectées et utilisées à des fins publicitaires. Rien n’est moins vrai, car d’innombrables études ont montré que les consommateurs comprennent l’échange de valeur et se réjouissent d’avoir accès à des contenus et services gratuits ou fortement subventionnés. »

L’IAB précise que « nous plaidons depuis longtemps pour que les consommateurs disposent de certains droits leur permettant de limiter l’utilisation de leurs données personnelles, y compris à des fins publicitaires », ce pourquoi il « soutient avec véhémence une loi nationale complète sur la confidentialité des données » :

« C’est au Congrès, et non à une agence fédérale, qu’il revient de trouver un équilibre entre les droits des consommateurs en matière de protection de la vie privée, la concurrence et l’échange de valeurs entre les consommateurs et les éditeurs. L’IAB et ses membres continueront à défendre la vie privée des consommateurs, la transparence et la capacité de tous les acteurs de l’économie numérique à faire des affaires. »

☕️ La CNIL offre un « accompagnement renforcé » à Docaposte, Doctrine, la FDJ et ShareID

24 septembre 2024 à 06:01
La CNIL offre un « accompagnement renforcé » à Docaposte, Doctrine, la FDJ et ShareID

La CNIL avait lancé, en mai, un appel à candidature pour permettre à des entreprises innovantes, « dont le modèle d’affaires repose sur le traitement de données », de bénéficier d’un appui des équipes de la CNIL, « afin de les guider vers une bonne prise en compte de la règlementation sur la protection des données », autour de 3 principales modalités :

  • un appui juridique et technique « dans des délais rapides » en leur apportant des réponses à des questions juridiques ou techniques, une formation et assistance à la réalisation d’analyse d’impact relative à la protection des données (AIPD), des recommandations en matière de cybersécurité, etc. ;
  • une « revue de conformité » des traitements mis en œuvre et des « grands enjeux de conformité » afin de lui proposer des recommandations adaptées ;
  • des actions de sensibilisation aux enjeux de la protection des données, « notamment à destination des salariés et/ou des dirigeants ».

La CNIL vient d’annoncer avoir sélectionné quatre entreprises, qui bénéficieront donc d’un « accompagnement renforcé » sur les six prochains mois :

  • DOCAPOSTE, qui développe une solution d’IA générative « éthique et souveraine », « Dalvia Santé », dédiée aux professionnels et établissements de santé, afin de leur permettre, face à l’augmentation du volume de données, « d’optimiser leur temps consacré aux soins, en leur fournissant des synthèses médicales et en facilitant l’analyse des dossiers patient » ;
  • DOCTRINE, qui exploite l’intelligence artificielle (notamment générative) pour centraliser l’information juridique et légale disponible et la rendre accessible et pertinente pour les professionnels du droit (avocats, juristes, magistrats) ;
  • FRANCAISE DES JEUX (FDJ), qui « indique souhaiter poursuivre sa politique de jeu responsable et promouvoir une pratique récréative du jeu auprès de ses 27 millions de clients » ;
  • SHAREID, qui intervient dans le domaine de l’identité numérique en proposant des solutions de vérification d’identité, d’authentification et de vérification d’âge, et « développe une solution pour permettre la vérification d’âge par double anonymat ».

« Les enseignements tirés de cet accompagnement viendront également alimenter et enrichir les publications de la CNIL afin que d’autres acteurs puissent en bénéficier », précise la Commission, qui rappelle par ailleurs qu’elle « propose différentes formes d’accompagnement pour tous les organismes publics et privés », comme nous l’avait explicité en juin Thomas Dautieu, directeur de la conformité juridique de la CNIL.

☕️ La gendarmerie aurait mis « plus d’un an » à craquer le cryptophone Ghost

23 septembre 2024 à 09:00

L’enquête ayant mené au démantèlement du cryptophone australien Ghost avait débuté en 2021. Des enquêteurs suédois avaient découvert, dans le cadre d’une enquête sur un réseau criminel, que les suspects utilisaient cette messagerie chiffrée, raconte GendInfo, le site d’information de la gendarmerie.

Le Centre de lutte contre les criminalités numériques (C3N) du Commandement de la gendarmerie dans le cyberespace (COMCYBERGEND) avait alors « rapidement » été sollicité, « à la fois parce que l’un des serveurs de cette application est localisé en France, mais aussi et surtout parce que la gendarmerie nationale est identifiée comme un pôle d’excellence dans ce domaine, depuis le démantèlement d’Encrochat en 2020 », souligne Gendinfo.

#BellesAffaires 🌏 Coup d'arrêt pour l'application criminelle téléphonique #Ghost !
En analysant l'un de ces appareils, les experts du @ComCyberMI et du @CyberGEND sont parvenus à pirater le réseau, permettant ainsi aux enquêteurs de lire en direct les messages échangés par les… pic.twitter.com/b3H5DqBZFb

— Gendarmerie nationale (@Gendarmerie) September 19, 2024

À l’époque, la gendarmerie avait en effet réussi à intercepter, analyser et décrypter plus d’une centaine de millions de messages chiffrés, grâce à trois « dispositifs techniques ». Deux étaient couverts par le secret défense, probablement développés par le service spécialisé de la Direction générale de la sécurité intérieure (DGSI). Ce qui avait alors permis des centaines d’arrestations, et la saisie de millions d’euros et de milliers de tonnes de drogues.

Pour parvenir à craquer Ghost, les experts cyber du Centre national d’expertise numérique (CNENUM) du COMCYBER-MI – plus précisément son laboratoire de rétro-conception situé à Pontoise, composé de militaires dont les profils vont du technicien au docteur en informatique – ont mené « un travail similaire à celui réalisé sur Encrochat », « très technique » et qui a duré « plus d’un an ».

Collaborant avec d’autres laboratoires européens, dans le cadre du projet Overclock de décryptage des données chiffrées, « cette unité très spécialisée va analyser la structure de l’application, exploiter les vulnérabilités identifiées, et tester des dispositifs de captation et d’interception », précise GendInfo :

« Cette très belle opération a été le fruit d’une coopération internationale, avec notamment la constitution d’une Équipe commune d’enquête (ECE) entre la gendarmerie et le Federal bureau of investigation (FBI) américain, note le colonel Michel. Ce n’est que la seconde fois que cela se produit, et cela prouve bien la reconnaissance de la compétence et de l’efficacité de la gendarmerie et du COMCYBER-MI aux yeux de tous les acteurs mondiaux. »

☕️ Bernard Arnault interdit à ses employés de parler aux journalistes d’investigation indépendants

18 septembre 2024 à 09:39

La Lettre (ex Lettre A) révèle une « liste noire » de sept médias à qui les employés du groupe LVMH ont désormais « une interdiction absolue de parler » (termes soulignés et grassés dans le mail) : La Lettre, Glitz Paris (également publiée par Indigo Publications), Miss Tweed, l’Informé, Puck (US), Mediapart, Le Canard enchaîné, ainsi que « toutes les autres lettres confidentielles ou pages du même type qui existent ou pourraient être créées ».

[Info @lalettre_fr] Bernard Arnault n’est pas fan des articles sur LVMH publiés "en dehors des circuits de communication". Dans un mail interne, le PDG a dressé une liste noire des médias d’investigation auxquels il est absolument interdit de parler ⤵https://t.co/wVRNOkNfut pic.twitter.com/oAPtMf4b40

— Alexandre Berteau (@aberteau_) September 18, 2024

Dans un mail de « recommandations » adressé en janvier dernier aux 16 membres du comité exécutif du groupe, le milliardaire Bernard Arnault, récemment tombé à la cinquième place des fortunes mondiales, puis remonté à la quatrième, rappelle qu’ « en tant que propriétaire de grands médias, nous savons l’importance d’une information fiable et honnête », et que « nous ne pouvons pas prendre ce sujet à la légère » :

« Mais il faut compter avec le fait que les médias recherchent aussi de l’information « confidentielle », venant de sources internes en dehors des circuits de communication que nous avons mis en place dans nos entreprises et qui obéissent à des règles très précises, sans parler des publications orientées, la plupart du temps à caractère négatif, des lettres soi-disant confidentielles, des sites dits d’investigation qui se servent de l’attrait du public pour le luxe pour attirer de manière racoleuse, un nouveau lectorat. »

« Je condamne formellement tout comportement consistant à entretenir des relations avec des journalistes peu scrupuleux », conclut le patron du groupe de luxe, également propriétaire des médias Les Échos, Le Parisien et Radio Classique, rajoutant que « tout manquement à ces recommandations (et cela sera inévitablement connu) sera considéré comme une faute grave, avec les conséquences qui y sont attachées ».

La Lettre relève que les publications visées « ont pour point commun d’avoir choisi un business model sans soutien publicitaire des grands annonceurs », et que « cette indépendance prive nécessairement l’état-major du groupe de luxe de potentiels moyens de pression ».

LVMH, qui est en effet l’un des principaux annonceurs de la presse, est également connu pour faire pression sur les journalistes en cessant d’acheter des publicités dans les médias publiant des enquêtes déplaisant aux intérêts du groupe.

LVMH s’était également illustré pour avoir espionné François Ruffin et son journal Fakir pendant au moins un an, caviardé Wikipedia, et payé le cabinet d’intelligence économique Avisa Partners pour publier « un article pour dézinguer François Ruffin », comme l’expliqua un lanceur d’alertes à Fakir. Cet aveu déclencha le scandale des faux contenus journalistiques également révélé par Mediapart, et valut à Next, Arrêt sur Image, l’ADN et Reflets d’être poursuivis en Justice, Avisa nous accusant d’avoir relayé leurs articles.

Avisa ayant finalement retiré sa plainte, le tribunal judiciaire de Paris a estimé qu’il n’avait donc pas « eu un comportement abusif ». Ce pourquoi nous avons fait appel, estimant qu’il s’agit clairement d’une procédure-bâillon à notre encontre et que ces pratiques représentent un danger pour la liberté de la presse. La date des plaidoiries est fixée au 16 octobre, le délibéré quelques semaines plus tard.

☕️ Apple demande à la Justice l’abandon des poursuites contre l’éditeur de logiciel espion NSO

16 septembre 2024 à 14:29
Apple demande à la Justice l’abandon des poursuites contre l’éditeur de logiciel espion NSO

Apple a demandé vendredi à un tribunal états-unien de rejeter son action en justice pour piratage, vieille de trois ans, contre le pionnier des logiciels espions NSO Group, révèle le Washington Post.

L’entreprise a fait valoir qu’elle pourrait ne jamais être en mesure d’obtenir les fichiers les plus critiques concernant l’outil de surveillance Pegasus de NSO, mais également que ses propres divulgations de documents pourraient tomber en de mauvaises mains, et aider NSO ainsi que ses concurrents à contourner ses mesures de protection mises en place ces dernières années.

Une version expurgée de la plainte déposée auprès du tribunal fédéral de San Francisco cite un article paru en juillet dans le Guardian, selon lequel des fonctionnaires israéliens avaient saisi des fichiers au siège de NSO pour empêcher que ceux-ci ne soient transmis à un tribunal américain, dans le cadre d’une procédure de piratage antérieure, toujours en cours, intentée contre NSO par WhatsApp, filiale de Meta. Ils avaient aussi demandé à un tribunal israélien de garder le secret sur cette action, y compris vis-à-vis des personnes impliquées dans la procédure liée à WhatsApp.

NSO avait par ailleurs tenté, en vain, de rejeter l’affaire en janvier dernier. L’entreprise reprochait à Apple d’avoir fourni des logiciels vulnérables et d’avoir permis à des criminels et à des terroristes de communiquer de façon sécurisée.

Si NSO se réjouira probablement de l’abandon des poursuites, Apple et certains de ses alliés ont déclaré que cette décision était en partie due au déclin de NSO, précise le Washington Post. Connu pour avoir été utilisé par des régimes autoritaires contre des dissidents, des défenseurs des droits de l’homme et des journalistes, NSO était considéré ces dernières années comme le principal vendeur de logiciels espion gouvernementaux.

Or, placé sous liste noire par les États-Unis en 2021, NSO avait dû résilier les contrats le liant à dix de ses clients en raison des abus qu’ils avaient perpétrés au moyen de son logiciel espion Pegasus. Face aux scandales à répétition, Israël avait en outre interdit la vente d’outils de piratage et de surveillance dans 65 pays, réduisant le nombre de pays autorisés à importer des systèmes de cybersécurité israéliens de 102 à 37 seulement.

De plus, nombre de ses employés ont depuis quitté l’entreprise pour monter leurs propres sociétés, ou rejoindre des concurrents. « Le groupe NSO est sur la corde raide, il n’est plus la seule entreprise en ville et n’est plus aussi redoutable qu’il l’était autrefois », explique au journal américain Ronald Deibert, directeur du Citizen Lab de l’université de Toronto et l’un des principaux critiques de l’industrie des logiciels espions.

Le chef de la NSA israélienne démissionne, faute d’avoir pu empêcher l’attaque du 7 octobre

16 septembre 2024 à 14:06
Le chef de la NSA israélienne démissionne, faute d’avoir pu empêcher l’attaque du 7 octobre

Le général de brigade Yossi Sariel, commandant de l’unité 8200 de Tsahal, l’équivalent israélien de la NSA, a annoncé son intention de démissionner. Il évoque ce qu’il considérait comme sa responsabilité dans les failles qui ont conduit au massacre du 7 octobre 2023.

Le général a reconnu que l’enquête préliminaire sur le rôle de l’unité 8200 dans les échecs du 7 octobre avait constaté que « dans les années, mois, jours et heures qui ont précédé l’attaque surprise », l’unité avait rédigé des rapports détaillés sur « le projet d’attaque du Hamas dans sa version opérationnelle », rapporte The Times of Israel.

Néanmoins, déplore Yossi Sariel, « les informations détaillées qui ont été produites et diffusées à propos des projets du Hamas et de ses préparatifs ne sont pas parvenues à éveiller suffisamment l’attention, que ce soit au sein de la communauté du renseignement ou de l’armée, de notre unité ou de nos partenaires ».

8200 avait identifié les préparatifs d’une « invasion de grande ampleur »

L’Unité 8200 avait, en effet, « dès avril 2022, obtenu un document précis exposant les projets du Hamas pour une telle attaque – document qu’elle n’a jamais fait suivre au chef d’État-major », relève le Times :

« L’Unité 8200 avait par ailleurs rassemblé un dossier le 19 septembre – soit moins de trois semaines avant le 7 octobre – disant que le Hamas s’entraînait pour une invasion de grande ampleur en Israël. Ce dossier n’aurait pas été pris au sérieux par les plus hautes autorités de la communauté du renseignement. »

Le Times rappelle que d’autres hauts responsables des services de sécurité ont, eux aussi, quitté leur poste dans les mois qui ont suivi l’attaque du 7 octobre, « mais la majeure partie des hauts-gradés de Tsahal sont toujours là » :

« En juillet, le chef du district sud de l’agence de sécurité du Shin Bet a démissionné et, avant lui, en avril, le général de division Aharon Haliva, chef de la Direction du renseignement militaire. En juin, le général de brigade Avi Rosenfeld, chef de la division de Gaza, avait annoncé sa démission, tout comme le général de brigade Amit Saar, chef de la division de la recherche de la direction, en mars, après avoir été diagnostiqué d’un cancer. »

Le chef de 8200 trahi par les méta-données de son e-book

L’identité du patron de l’unité 8200, qui est d’ordinaire tenue secrète, avait été découverte en avril dernier par le Guardian dans les méta-données d’un ebook qu’il avait auto-publié sur Amazon. Il y théorisait les programmes d’intelligence artificielle utilisés pour cibler et bombarder les personnes identifiées comme « terroristes » (et leurs familles) à Gaza.

« Where’s Daddy ? » et l’« usine d’assassinats de masse »

Le média indépendant + 972 a depuis révélé que l’un des modèles algorithmiques utilisés par Tsahal, « Habsora » (évangile), avait été décrit par un ancien officier du renseignement comme une « usine d’assassinats de masse » qui « met l’accent sur la quantité, pas sur la qualité » des cibles recommandées.

Les forces armées israéliennes ont en effet eu recours à un système automatisé cyniquement appelé « Where’s Daddy ? » (Où est papa ?), conçu spécifiquement pour suivre les individus ciblés et les bombarder lorsqu’ils rentrent chez eux. Et ce, quitte à faire s’effondrer la maison sur toutes les personnes qui s’y trouvaient et décimer sa famille, femmes et enfants compris, ou encore à les tuer alors même que la cible aurait, à tort, été identifiée comme étant rentrée chez elle.

☕️ Telegram fait volte-face et commence à coopérer avec les autorités

11 septembre 2024 à 14:35

« Le revirement est inédit », souligne Libération. Johanna Brousse, cheffe de la section J3 de la Junalco (parquet de Paris, qui a signé le mandat de recherche de Pavel Durov), confirme au journal que « la porte s’ouvre vraiment » :

« Selon nos informations, la plateforme de messagerie a en effet donné suite à des demandes formulées par l’Office mineurs (Ofmin) de la police nationale et la gendarmerie dans plusieurs enquêtes pénales, en livrant des éléments susceptibles d’identifier certains suspects. Des dossiers de pédocriminalité, notamment, sont concernés. Un changement de pied perceptible dès la garde à vue de Dourov. »

« Nous constatons en effet que, depuis quelque temps, Telegram est plus enclin à collaborer avec la justice », indique par ailleurs le parquet fédéral belge à Libération : « Nous surveillons ce dossier de près, en espérant que la collaboration continuera d’évoluer dans le bon sens ».

Alors que Telegram se vantait depuis des années de ne pas traiter les requêtes liées au contenu illégal sur son réseau, sa FAQ a été discrètement modifiée la semaine passée pour indiquer qu’il est désormais possible de signaler les contenus illégaux, « en quelques clics seulement ».

Sur Telegram, Pavel Durov a par ailleurs répondu aux accusations dont il fait l’objet en rétorquant s’être fixé « comme objectif de veiller à ce que nous améliorions considérablement les choses » en matière de modération des contenus illégaux.

Dans un second message, publié le lendemain, le milliardaire franco-russe a par ailleurs déclaré vouloir faire de la modération de sa plateforme une « matière à éloges » plutôt qu’une « matière à critiques », relève Libération.

Il a en outre annoncé la disparition d’une fonctionnalité controversée, la « recherche de personnes à proximité », au nom de « problèmes avec des bots et des escrocs ». Libération souligne qu’« en réalité, elle était accusée par les autorités de nombreux pays d’encourager les trafics en tous genres, en particulier de stupéfiants ».

Toujours la semaine passée, Telegram avait aussi supprimé des « deepfakes » pornographiques de collégiennes, étudiantes et célébrités à la demande des autorités sud-coréennes. Ce ménage a fait suite à un scandale ayant fait réagir jusqu’au président de la République de la Corée du Sud. La police du pays a ouvert une enquête judiciaire au sujet de la chaîne Telegram concernée, qui réunissait 220 000 personnes.

☕️ Les experts cyber du ministère de l’Intérieur doutent de la faisabilité de #ChatControl

9 septembre 2024 à 14:49

« Depuis qu’existe la lutte contre la cybercriminalité, les liens avec le monde de la recherche n’ont jamais été aussi riches qu’aujourd’hui », explique le 8ᵉ numéro de La MInute Cyber, la lettre d’information du Commandement du ministère de l’Intérieur dans le cyberespace (COMCYBER-MI), qu’il a partagée sur LinkedIn et X.com.

Rédigée par des experts cyber de la gendarmerie, elle évoque plusieurs des nombreux projets académiques et universitaires auquel le Commandement contribue. Elle rappelle que « la communauté française de recherche en cybersécurité est en effet particulièrement riche et couvre de nombreuses dimensions et approches qui contribuent à la lutte contre les cybermenaces », y compris du côté des sciences sociales :

« Le COMCYBER-MI milite notamment pour renforcer les liens entre les sciences de l’information et les sciences humaines, et nos nombreux échanges avec la communauté montrent qu’il existe un fort intérêt en ce sens. »

En termes feutrés et choisis, le COMCYBER-MI relève par ailleurs que la proposition de la Commission européenne de règlement renforçant la lutte contre les abus sexuels sur mineurs, surnommé #ChatControl par ses nombreux opposants, soulève un certain nombre de problèmes.

Si le renforcement de la prévention et de la lutte contre les abus sexuels sur mineurs « constitue une priorité des autorités françaises », rappelle le COMCYBER-MI, « à l’échelon européen, le compromis est cependant difficile à obtenir en raison des divergences de positions sur la proportionnalité des injonctions de détection et l’atteinte au chiffrement de bout en bout ».

Certains États sont ainsi « extrêmement réservés » au sujet de la proposition de « recherche indifférenciée de contenus et du grooming dans les communications privées », au motif que les technologies de détection des contenus nouveaux et du grooming (ou « pédopiégeage », sollicitation d’enfants à des fins sexuelles, y compris en se faisant passer pour un mineur) « ne sont pas assez matures » pour éviter un risque élevé de « faux positifs », souligne le COMCYBER-MI :

« En outre, il semble très complexe de prévoir un système de détection obligatoire pour les communications interpersonnelles chiffrées sans affaiblir le chiffrement, et porter ainsi atteinte au droit au respect de la vie privée. »

Une analyse qui fait écho à certains des arguments avancés il y a quelques mois dans une lettre ouverte co-signée par plus de 300 scientifiques et chercheurs de 35 pays, ainsi qu’aux « preuves scientifiques » collectées par l’ONG EDRi ayant, elles aussi, démontré l’infaisabilité technique de cette proposition. Elles sont d’ailleurs si nombreuses que l’ONG en est venue à qualifier le texte de « projet de loi européen le plus critiqué de tous les temps ».

☕️ Russia Today (RT), financier occulte d’un réseau de désinformation d’extrême-droite américain

6 septembre 2024 à 15:13

Le ministère de la Justice américain (DOJ) a annoncé la saisie de 32 sites web, et la sanction de 10 personnes ayant contribué à plusieurs opérations de désinformation russe ciblant la présidentielle états-unienne, rapporte Le Monde.

Tenet Media, dont le siège est situé dans l’État du Tennessee et qui se présente comme « l’endroit où s’expriment les voix des sans-peur », avait réussi à attirer quelques personnalités reconnues de l’extrême-droite états-unienne.

Le contrat de l’un d’entre eux prévoyait une rémunération d’environ 400 000 euros par mois. Thaïs d’Escufon, porte-parole du groupuscule Génération identitaire jusqu’à sa dissolution en 2021, y était également intervenue pour expliquer que « les communistes ont volé l’élection française », relève de son côté le collectif Sleeping Giants de lutte contre le financement du discours de haine.

Or, les deux créateurs de Tenet Media avaient caché que ces fonds provenaient de Russia Today (RT), la chaîne d’État russe, interdite de diffusion en Europe depuis le début de la guerre en Ukraine, et de sa maison mère ANO TV-Novosti. Les liens financiers entre l’entreprise du Tennessee et la chaîne d’État russe, à hauteur de 10 millions d’euros, étaient en outre maquillés par une série de sociétés écrans.

Plusieurs des noms de domaine saisis avaient été utilisés pour usurper l’identité visuelle de médias français et y publier des infox cherchant à déstabiliser la France. Une opération qu’avait déjà dénoncée l’agence Viginum de protection contre les ingérences numériques étrangères de l’État en février dernier, ainsi qu’en juin.

❌
❌