Le réseau social de Donald Trump, Truth Social, lance un service de pronostics en ligne avec la plateforme de cryptoactifs Crypto.com.
Nommé Truth Predict, le service permettra de parier sur les résultats d’événements variés, allant de compétitions sportives à des élections en passant par les variations de l’économie.
Avec ce projet, le groupe Trump Media and Technology Group (TMTG) joue sur le succès des services de pronostics (predictions en anglais), qui ne sont pas considérés comme des acteurs du pari en ligne par les autorités locales.
En l’occurrence, Truth Predict cherche à concurrencer Polymarket, le leader du domaine.
En amont des élections présidentielles de 2024, note Wired, ce type de services de pronostics était présenté par leurs promoteurs comme une meilleure manière de mesurer l’opinion publique que les sondages.
Certains acteurs du monde financier les décrivaient même comme une meilleure « source de vérité » (truth en anglais, qui est aussi le nom des plateformes de Trump), quand bien même la validité de paris et leur représentativité de l’opinion générale peuvent être débattus.
Les députés ont voté mardi 28 octobre en soirée un amendement de LFI pour un impôt sur les multinationales et un passage de 3 à 6 % de la taxe GAFAM proposé par le député Renaissance Jean-René Cazeneuve, qui avait envisagé d’aller jusqu’à 15 %.
En première lecture du projet de loi du budget 2026, les députés ont approuvé à 207 voix contre 89 « un impôt universel sur les sociétés transnationales qui échappent au Fisc » proposé par LFI. Ils ont aussi approuvé à 296 voix pour et 58 contre 58 le doublement de la taxe GAFAM, proposé cette fois par le député Jean-René Cazeneuve.
Votées ce 28 octobre contre l’avis du gouvernement, ces deux mesures pourraient rapporter 26 milliards d’euros en tout, selon leurs auteurs. Mais elles ont peu de chances de passer l’étape du Sénat. Selon notre consœur de Médiapart Pauline Graulle, elles seraient « peut-être même un coup de grâce porté aux discussions budgétaires à l’Assemblée nationale ».
Taxer les bénéfices des multinationales en proportion de leur activité en France
Inspiré par une proposition de l’association ATTAC et par les travaux de l’économiste Gabriel Zucman, l’amendement de LFI veut « taxer les bénéfices des multinationales proportionnellement à leur activité réellement réalisée en France ». Il prévoit que « toute personne morale ayant une activité en France est imposable à hauteur du ratio de son chiffre d’affaires réalisé sur le territoire national ramené à son chiffre d’affaires mondial ».
Le texte s’appuie sur une définition très élargie de celui-ci, puisque ce CA serait calculé en « incluant également le chiffre d’affaires des entités juridiques dont [l’entreprise] détient plus de 50 % des actions, parts, droits financiers ou droits de vote ». De quoi faire réagir des multinationales du numérique comme Google ou Amazon.
« Je crains que cet amendement soit contraire à une directive européenne fixant [le taux d’imposition] à 15 % et non 25 % », a réagi le rapporteur du budget et député Républicain, Philippe Juvin, en s’y opposant. De son côté, le président de la commission des finances et député LFI, Manuel Bompard, considère que « c’est compatible avec la législation française et internationale ». Le ministre de l’Économie, Roland Lescure, s’y est aussi opposé, arguant que le vote de cet amendement apporterait « 20 milliards d’ennuis » à la France et rappelant les diverses conventions fiscales signées par la France en bilatéral avec 125 pays.
Un doublement de la taxe Gafam
L’autre amendement voté hier soir de manière un peu surprenante est celui augmentant la taxe Gafam. Comme nous l’expliquions la semaine dernière, un amendement déposé par le député Renaissance, Jean-René Cazeneuve, proposait « de porter de 3 % à 15 % » le taux de cette taxe. Le contre-projet du PS publié en septembre dernier projetait une augmentation à 6 %. C’est finalement ce doublement de la taxe qui a été adopté, le député Renaissance ayant accepté un tel taux en affirmant « je ne suis pas là pour rouvrir une guerre commerciale entre la France et les États-Unis », comme le rapporte Le Monde.
Roland Lescure a déclaré prendre « acte de la volonté du Parlement de renforcer la taxe sur les géants du numérique » tout en ajoutant qu’il aurait préféré que ce sujet soit traité « à l’échelle européenne et par la discussion internationale ».
Rappelons que si ces deux sources de financement ont obtenu une majorité à l’Assemblée nationale, elles ont peu de chances d’être acceptées par le Sénat à majorité de droite. Le texte global du budget, avec ces dispositions, pourrait ne même pas recueillir de majorité à l’Assemblée : certains députés Renaissance opposés notamment à l’impôt universel sur les multinationales pourraient refuser de le voter.
Au tribunal, les internautes ayant fait circuler la thèse de la transidentité de Brigitte Macron plaident l’« esprit Charlie » et la liberté d’expression. Ce type de théorie est régulièrement utilisé pour attaquer des femmes proches du pouvoir.
Dix personnes étaient jugées ces 27 et 28 octobre pour avoir cyberharcelé Brigitte Macron, l’accusant, entre autres, de mentir sur son genre et assimilant son écart d’âge avec celui d’Emmanuel Macron à de la pédophilie. Âgés de 41 à 60 ans, les prévenus étaient huit hommes et deux femmes.
Des peines allant de 3 à 12 mois, avec des amendes susceptibles de monter jusqu’à 8 000 euros ont été requises contre eux, les plus lourdes visant Aurélien Poirson-Atlan, publicitaire de 41 ans, connu sur les réseaux sociaux sous le pseudonyme de Zoé Sagan, ainsi que la médium connue sous le pseudo d’Amandine Roy et le galeriste Bertrand Scholler (plus de 100 000 abonnés sur X), décrits comme « instigateurs » de la thèse de la transidentité de Brigitte Macron.
Le délibéré sera rendu le 5 janvier 2026.
Les accusés plaident l’« esprit Charlie »
Ce procès est le résultat d’une série de plaintes déposées le 27 août 2024 par l’épouse du président de la République. Celles-ci avaient mené à une série d’interpellations en décembre 2024 et février 2025 par la brigade de la répression de la délinquance contre la personne (BRDP) – celle des profils les plus « virulents », selon un rapport de police consulté par Le Monde.
Au tribunal, tous les accusés ont minimisé les faits. Informaticien, Jérôme A. plaide n’avoir qu’un « petit compte Twitter de 90 abonnés ». Jean-Christophe D. évoque des publications « parodiques ». On cite l’ « humour » et l’ « esprit Charlie »,relate Franceinfo.
Autrice d’une vidéo virale selon laquelle Brigitte Macron n’aurait jamais existé et son frère Jean-Michel Trogneux aurait pris son identité, la médium Delphine J., connue sous le pseudonyme d’Amandine Roy, se déclare même harcelée en tant que « femme anatomique », par opposition aux femmes trans.
Habitué des thèses complotistes, visé par plusieurs plaintes, Aurélien Poirson-Atlan a de son côté donné une conférence de presse improvisée dans laquelle il a nié avoir participé à toute forme de cyberharcèlement et qualifié le procès d’attaque contre la liberté d’expression. Il avait diffusé la thèse de la transidentité de l’épouse du président alors que son compte X était suivi par plus de 200 000 personnes (le compte a depuis été suspendu).
À la barre, Tiphaine Auzière, l’une des filles de Brigitte Macron, témoigne de son côté de la « dégradation des conditions de vie » de sa mère. Dénonçant la « haine » qui vise l’épouse du Président, elle précise que cette dernière est désormais sur le « qui-vive » en permanence.
Attaque récurrente contre les femmes proches du pouvoir
Jouant à la fois sur des ressorts transphobes et misogynes, la suspicion de transidentité est un récit utilisé de manière récurrente dans les campagnes de désinformation. Michelle Obama, Kamala Harris ou encore Kate Middleton ont été visées par le même type de campagnes de « transvestigation », comme les nomment leurs auteurs, c’est-à-dire des mobilisations collectives autour d’une même thèse fausse, qui se traduit ici par du cyberharcèlement.
En juillet 2025, le couple Macron a déposé plainte devant un tribunal du Delaware, aux États-Unis, contre l’influenceuse d’extrême droite Candace Owens, qui a donné un écho international aux fausses allégations concernant Brigitte Macron.
En février, un couple de quadragénaires qui avait affublé cette dernière d’un prénom masculin dans leur déclaration d’impôts a été relaxé. Le fait que ce prénom se retrouve visible dans l’espace personnel de l’épouse du chef de l’État était le résultat d’un bug du système informatique de la Direction générale des Finances publiques dont le couple ne pouvait avoir connaissance, a tranché le tribunal correctionnel.
Nouvelle version majeure pour le navigateur centré sur la sécurité et la protection de la vie privée, qui exploite le réseau Tor. L’occasion de récupérer la dernière version ESR de Firefox (140) et donc de moderniser sa base.
Tor Browser 15.0 introduit également bon nombre de nouveautés apparues dans Firefox au cours de l’année écoulée. On retrouve ainsi les onglets verticaux, les groupes d’onglets ou encore le bouton de recherche unifiée pour passer rapidement d’un moteur à un autre.
L’équipe indique dans son communiqué que ces fonctions sont pour les personnes sachant ce qu’elles font, car le fonctionnement par défaut du navigateur est une session vierge à chaque démarrage, alors que ces outils vont clairement dans le sens d’une préservation des informations entre les sessions.
La version Android se dote pour sa part d’un écran de verrouillage imposant la saisie d’un code pour continuer, pour ajouter une couche de protection. L’équipe prévient que la prochaine version majeure du navigateur abandonnera les versions 5.0, 6.0 et 7.0 d’Android, âgées mais toujours prises en charge par Mozilla pour le moment. Mais Firefox va s’en débarrasser et les ressources à investir seraient trop conséquentes pour faire perdurer cette prise en charge dans Tor Browser.
Enfin, Tor Browser adopte une approche hybride pour WebAssembly (Wasm). La désactivation générale n’est plus possible, car Mozilla s’en sert dans certaines parties de son Firefox, dont le lecteur PDF intégré. « Par conséquent, nous avons décidé de transférer le contrôle de Wasm à NoScript, qui est fourni avec le navigateur Tor et gère déjà JavaScript et d’autres fonctionnalités de sécurité. Cela signifie que Wasm fonctionne désormais sur les pages de navigateur privilégiées telles que le moteur de rendu PDF, mais que NoScript continuera à bloquer la technologie sur les sites Web réguliers aux niveaux de sécurité Safer et Safest », explique l’équipe.
Nous avons vu ce qu’était un serveur, puis une baie (ou un rack). Si on multiplie les baies, on arrive à une salle, puis un datacenter. Mais un « DC » ce n’est pas que des baies, c’est aussi bien d’autres éléments.
Difficile de définir ce qu’est exactement un datacenter (ou centre de données, pour la traduction littérale) puisqu’aucune règle n’est précise. La présentation d’IBM correspond assez bien à l’idée qu’on s’en fait : « une salle, un bâtiment ou une installation physique qui abrite l’infrastructure informatique nécessaire à la création, à l’exécution et à la fourniture d’applications et de services ».
Il n’y a pas de taille minimale ni maximale : on peut très bien faire un datacenter dans une cave souterraine, un abri anti-atomique en plein cœur de Paris, dans une ancienne maison, un immeuble, un bunker, un bâtiment industriel, un conteneur, etc. Vous voyez, c’est large !
Un datacenter, c’est plusieurs (grosses) arrivées électriques
Il reste 90% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
En février dernier, Donald Trump a signé un décret de sanctions contre la Cour pénale internationale. Un juge français de la Cour, Nicolas Guillou, n’a maintenant plus la possibilité d’accéder ni à des services numériques états-uniens, ni aux services bancaires de Visa et Mastercard.
Les sanctions décidées par Donald Trump contre la Cour pénale internationale ont des conséquences directes sur la vie numérique des juges de cette institution judiciaire. En février dernier, le dirigeant états-unien a pris un décret imposant « des sanctions à l’encontre de la Cour pénale internationale » en réaction à l’émission des mandats d’arrêt à l’encontre de Benyamin Nétanyahou et de l’ancien ministre israélien de la Défense Yoav Gallant.
Des juges de la CPI nommément visés depuis aout dernier
Il reste 79% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Mi-septembre, l’Albanie introduisait sa « ministre-IA », un système construit grâce à Microsoft auquel le choix des marchés publics est délégué. Ce 25 octobre, le Premier ministre albanais l’a décrite « enceinte » de « 83 enfants », pour évoquer de futurs programmes automatisés.
Depuis la mi-septembre, l’Albanie est le premier pays au monde à compter dans son gouvernement une intelligence artificielle officiant comme ministre. Nommée Diella, c’est-à-dire « soleil » en albanais, la machine anthropomorphisée par le gouvernement local doit gérer les marchés publics.
Quelques semaines après cette décision en elle-même surprenante, le Premier ministre albanais Edi Rama continue sur sa lancée.
Interrogé à Berlin sur ce nouveau système intégré à son gouvernement, le responsable politique a décrit Diella comme une femme enceinte. La machine, a-t-il affirmé, serait « enceinte de 83 enfants ». En pratique, une variété de programmes supposés remplir diverses tâches administratives et gouvernementales.
Déplacer les marchés publics des ministères vers un système technique
Le projet Diella a été introduit au public dès janvier 2025, sous la forme d’un assistant conversationnel disponible sur le portail national eAlbanie. Alors qu’à l’été, Edi Rama annonçait déjà la probable arrivée d’une « ministre-IA » au sein de son gouvernement, le projet s’est accéléré à la rentrée, avec le déploiement de Diella 2.0.
D’un simple robot textuel, le projet avait été étoffé d’un avatar animé, une femme habillée en Zadrima, l’habit traditionnel albanais, aux traits et au visage proches de ceux de l’actrice Anika Bisha. D’après Tirana Post, cette dernière a passé un contrat valide jusqu’à fin décembre 2025 pour permettre au gouvernement albanais d’utiliser son image et sa voix.
Lors du congrès du Parti socialiste, tenu à Tirana en septembre, Edi Rama indiquait que les décisions relatives aux marchés publics seraient « sorties des ministères » pour être confiées à la machine. Mené par étape, le processus aurait pour but de faire de l’Albanie un pays où ces marchés seraient « 100 % incorruptibles et où chaque fonds public passant par la procédure d’appel d’offres serait 100 % lisible ». Un postulat étonnant, quand on connaît l’opacité des grands modèles de langage généralement utilisés pour faciliter l’interaction textuelle ou vocale avec des robots conversationnels.
En pratique, relève Balkan Insight, la partie gestion de langage naturel de Diella, assurée par Microsoft, ne prend pas les décisions. Derrière le discours et l’avatar du robot reste l’organisme gouvernemental en charge de la transformation numérique de l’Albanie, qui répond directement au Premier ministre. C’est cette entité qui a consolidé l’essentiel de l’infrastructure numérique publique local, et elle aussi qui est derrière le portail eAlbanie.
Des assistants virtuels pour les parlementaires socialistes
Le postulat avancé par Edi Rama s’inscrit par ailleurs dans un contexte de lutte contre la corruption, souligne Politico, la situation albanaise ayant été pointée à de multiples reprises par l’Union européenne. Sa déclaration sur la « grossesse » du programme et ses « 83 enfants » à naître, elle, s’inscrit dans la droite ligne de l’anthropomorphisation utilisée depuis plusieurs mois dans sa communication.
Derrière ce lien bizarrement tracé entre une femme en passe de devenir mère et un système informatique, il faut en fait comprendre le développement de 83 assistants virtuels qui, à terme, devraient être assignés aux 83 parlementaires du Parti socialiste, transcrire les échanges pris en réunion, suggérer d’autres membres du Parlement avec lesquels collaborer.
« Ces enfants auront les connaissances de leur mère », indique Rama, ce qui suggère que les nouveaux programmes seront construits à partir des données de Diella.
L’Albanie n’est pas la seule à tester le déploiement d’outils d’IA dans ses institutions. En termes de personnification, un député britannique a créé un double IA de sa personne. Interrogée par le média Metro, la machine a fait preuve d’une compréhension tout à fait relative des questions qui lui étaient posées. D’un point de vue gestion des affaires courantes, les États-Unis y ont aussi recours, de manière particulièrement fracassante (c’est-à-dire pas toujours sécurisée, pour les systèmes eux-mêmes ou pour les citoyens concernés par les traitements de données) depuis la création de son « ministère de l’efficacité gouvernementale » (DOGE).
Plus de dix ans après la plainte initiale, Apple a finalement été condamnée à 48 millions d’euros pour ses contrats abusifs avec les opérateurs français. La société américaine a déjà annoncé qu’elle fera appel de la décision.
Pour comprendre le jugement rendu par le Tribunal des activités économiques de Paris, il faut se replonger loin dans le passé. En 2013, les quatre opérateurs français signaient tous des contrats avec Apple pour la distribution de l’iPhone. Cette année, c’était au tour des modèles 5 s et 5c.
Des contrats singuliers
Ces contrats étaient particuliers, car ils forçaient les opérateurs à participer eux-mêmes aux campagnes marketing, comme le révèle l’Informé. La facture était salée : 10 millions d’euros par an pour Orange, 8 millions pour SFR, 7 millions pour Bouygues et 7 millions pour Free.
En outre, les quatre opérateurs devaient acheter des volumes fixes d’iPhone (jusqu’à 5,35 millions d’iPhone sur trois ans pour Orange, 4 millions chez SFR et 350 000 chez Free), respecter les prix de vente fixés par Apple, l’obligation de transmettre à l’entreprise les rapports d’inventaire et les chiffres de ventes unitaires, ou encore possibilité pour Apple d’utiliser librement les marques des opérateurs dans ses communications.
Toutes ces pratiques ont été épinglées par le tribunal comme autant de violations du Code du commerce, plus particulièrement son article L. 442 - 1, I, 2° qui interdit de soumettre un partenaire commercial à des obligations créant un déséquilibre significatif.
Contexte unique et dédommagements
Ces contrats étaient à l’image de l’aura de l’iPhone à l’époque. Le tribunal a ainsi noté « le caractère révolutionnaire de l’iPhone, qui était en train de bouleverser la téléphonie mobile dans le monde, faisait pencher le rapport de force très nettement en faveur d’Apple, et rendait obligatoire pour les opérateurs mobiles de conclure un accord ».
Or, comme le souligne notamment MacG, le contexte de vente était très différent à l’époque. L’iPhone s’écoulait à 90 % par les opérateurs en France, qui pouvaient subventionner les appareils et donc étaler les paiements. Sur l’Apple Store, il n’était question que de paiement cash et Amazon n’était pas encore autorisée à vendre le précieux appareil.
Apple a donc été condamnée à payer 48 millions d’euros, qui se décomposent comme suit :
8 millions d’euros d’amende
950 000 euros de frais de procédure
16 millions d’euros pour Bouygues
15 millions d’euros pour Free
7,7 millions d’euros pour SFR
Orange n’a rien obtenu. L’opérateur réclamait pourtant 108 millions d’euros, mais les juges ont déclaré que l’entreprise avait « engagé sa responsabilité dans la situation qu’elle déplore et a concouru au préjudice qu’elle allègue ». Le tribunal se montre d’ailleurs sévère avec les opérateurs, qui « ont accepté pendant plusieurs années des dispositions qu’ils qualifient aujourd’hui de défavorables, et qu’ils se sont abstenus de contester lors du renouvellement du contrat ». Bouygues et SFR ont ainsi vu leurs dédommagements réduits pour la même raison.
Apple a confirmé qu’elle fera appel de la décision : « Nous contestons cette décision, qui concerne une affaire remontant à plus de dix ans, et nous faisons appel. Comme toujours, notre priorité est d’offrir des expériences exceptionnelles à nos clients en France et dans le monde entier ».
Derrière la destruction de l’aile est de la Maison-Blanche, construite en 1902 pendant la présidence de Theodore Roosevelt et définitivement détruite vendredi 24 octobre, il y a le projet de création de salle de bal de Donald Trump. Et derrière ce projet de salle de bal à 300 millions de dollars, il y a des financements issus de multiples industries, dans lesquelles celle des technologies est la mieux représentée.
Apple, Amazon, Coinbase, Google, HP, Meta, Micron Technology, Microsoft, Palantir, Ripple, Tether sont au nombre des financeurs.
À leurs côtés, en leurs noms propres, citons encore Charles et Marissa Cascarilla (Charles Cascarilla est le fondateur de la société Paxos, active dans le milieu des cryptoactifs), Konstantin Sokolov (investisseur spécialisé dans les technologies et les télécoms), et les frères Winklevoss (très investis dans le monde des cryptomonnaies).
YouTube a récemment signé un accord avec Trump à propos de la suspension de son compte suite à l’assaut du Capitole. L’entreprise y acceptait de reverser 22 millions de dollars à une organisation sans but lucratif dédiée à la construction de la salle de bal.
Inquiets de voir ces différents noms financer un projet pour lequel ils n’auront pas de gains évidents, des sénateurs démocrates ont demandé à chacun d’expliquer comment ils avaient été sollicités pour ces donations, et ce qu’ils espéraient concrètement recevoir en échange, rapporte le Washington Post.
Beaucoup des entreprises citées dans la liste de donateurs fournie par la Maison Blanche avaient déjà versé des fonds pour l’investiture de Donald Trump ou pour d’autres initiatives en faveur de son retour à la tête des États-Unis.
Microsoft et OpenAI ont annoncé la refonte et la consolidation de l’accord qui les unit depuis 2019. Selon les nouveaux termes, Microsoft détiendra une participation de 27 % dans OpenAI, valorisée 135 milliards de dollars, et l’exclusivité sur certains pans de la propriété intellectuelle de l’entreprise de Sam Altman, qui s’engage de son côté à consommer 250 milliards de dollars de services Azure supplémentaires.
Alors que s’annonce le troisième anniversaire du lancement grand public de ChatGPT, OpenAI et Microsoft ont renouvelé leurs vœux mardi 28 octobre, et détaillé les nouvelles modalités du partenariat stratégique qui unit leurs deux sociétés depuis 2019.
Cette évolution intervient dans un contexte particulier pour OpenAI, puisque l’entreprise de Sam Altman prépare depuis le printemps le transfert de ses activités vers une nouvelle structure répondant au statut Public Benefit Corporation (PBC), soit littéralement entreprise d’intérêt public, ou société à mission dans la terminologie française.
Microsoft détient 27 % de la structure commerciale OpenAI
Pour établir cette nouvelle gouvernance, à plus forte raison dans un contexte de recapitalisation de l’entreprise, OpenAI devait logiquement obtenir le feu vert de Microsoft, qui compte parmi ses premiers actionnaires. C’est désormais chose faite, grâce au nouveau périmètre de l’accord unissant les deux entreprises.
À l’issue de cette opération, il est prévu que Microsoft détienne 27 % de la structure OpenAI Group PBC, indiquent les deux intéressées dans un communiqué. Cette participation est estimée à 135 milliards de dollars, ce qui confirme que les accords se font sur la base d’une valorisation d’OpenAI à 500 milliards de dollars.
« Cet accord préserve les éléments clés qui ont alimenté ce partenariat fructueux, ce qui signifie qu’OpenAI reste le partenaire de Microsoft en matière de modèles de pointe et que Microsoft continue de bénéficier de droits de propriété intellectuelle exclusifs et de l’exclusivité de l’API Azure jusqu’à l’avènement de l’intelligence artificielle générale (AGI). », résument les deux associés.
Cette allusion à l’AGI n’est pas anecdotique : il est en effet prévu que les droits de Microsoft sur les technologies d’OpenAI cessent lorsque l’éditeur de ChatGPT aura atteint ce seuil, sans révéler publiquement les modalités d’évaluation associées. Désormais, les deux entreprises conviennent que cette AGI, si elle devait être atteinte, serait annoncée par OpenAI et vérifiée par un panel d’experts indépendants.
L’importance de ce jalon a de toute façon été revue à la baisse. Le nouvel accord prévoit en effet que les droits de Microsoft en matière de propriété intellectuelle sur les modèles et produits d’OpenAI courent jusqu’en 2032 et englobent aussi les modèles « post-AGI », sous certaines conditions de sécurité. Les droits associés aux projets de recherche sont quant à eux limités soit à 2030, soit à l’accomplissement de l’AGI. En revanche, ces droits excluent maintenant les produits matériels que pourrait commercialiser OpenAI.
Azure partenaire principal, mais pas exclusif
Le nouvel accord assouplit également l’exclusivité qui lie OpenAI à Azure, l’infrastructure cloud de Microsoft, en matière de services délivrés sous forme d’interfaces de programmation (API). « OpenAI peut désormais développer conjointement certains produits avec des tiers. Les produits basés sur des API développés avec des tiers seront exclusivement disponibles sur Azure. Les produits non basés sur des API pourront être déployés sur n’importe quel fournisseur de services cloud ». OpenAI gagne par ailleurs la possibilité de fournir un accès par API indépendant d’Azure aux services publics liés à la sécurité nationale aux États-Unis.
De son côté, l’entreprise de Sam Altman renforce son engagement financier lié à la consommation de services Azure, avec 250 milliards de dollars supplémentaires attendus (sur un laps de temps non rendu public). En échange, Microsoft perd son droit de préemption pour être le fournisseur de services informatiques d’OpenAI, ce qui donne à cette dernière les coudées franches pour avancer avec les partenaires de son choix dans la construction de ses différents projets Stargate (en Norvège, aux Émirats arabes unis, en Argentine…).
Qualcomm ne veut pas rester sur le bord de l’autoroute des puces dédiées à l’IA pour les datacenters. L’entreprise annonce ses AI200 et AI250 pour redéfinir les « performances d’inférence à l’échelle du rack pour l’ère de l’IA ». De belles promesses, mais avec quasiment aucun chiffre, histoire probablement d’occuper le terrain…
Qualcomm annonce deux nouveaux produits pour l’intelligence artificielle, qui sont basés sur ses NPU (Neural Processing Unit) Hexagon, ceux que l’on retrouve dans ses SoC. Le géant des semi-conducteurs ne vise pas les opérations lourdes liées à l’entrainement des grands modèles de langage, mais celles liées à la phase d’inférence, c’est-à-dire lorsqu’il faut répondre aux utilisateurs.
Qualcomm AI200 et AI250 : où sont les caractéristiques techniques ?
Il est question de « cartes accélératrices basées sur puces Qualcomm AI200 et AI250, ainsi que des racks », c’est-à-dire des baies complètes à installer dans les datacenters. La première solution, AI200, « prend en charge 768 Go de LPDDR par carte pour une capacité mémoire accrue et un coût réduit ». Une quantité relativement importante pour de l’inférence, mais comme Qualcomm ne donne aucun détail supplémentaire, difficile d’en savoir plus…
Si on regarde la dernière génération de SoC avec un NPU Hexagon, le Snapdragon 8 Elite Gen 5, il est question de « 12 scalar + 8 vector + 1 accelerator configuration », avec la prise en charge des niveaux de précision INT2, INT4, INT8 et INT16 pour les entiers, ainsi que FP8 et FP16 pour les nombres à virgule.
Qu’en est-il pour les « cartes » qui composeront les racks de Qualcomm ? Mystère et boule de gomme… L’annonce intervient dans une période chargée sur les accélérateurs dédiés à l’intelligence artificielle générative, avec notamment OpenAI qui multiplie les promesses avec des milliards de dollars et des GW de puissance électrique comme s’il en pleuvait. Il y a eu NVIDIA, puis AMD et Broadcom plus récemment.
Concernant l’AI250, c’est encore plus vague : elle « fera ses débuts avec une architecture mémoire innovante basée sur du calcul proche de la mémoire (near-memory computing), apportant un saut générationnel d’efficacité et de performances pour les workloads d’inférence IA en offrant une bande passante mémoire effective supérieure de plus de 10x et une consommation énergétique nettement inférieure ». Le bingo bullshit fait ensuite un carton plein : « Cela permet une inférence IA désagrégée pour une utilisation efficiente du matériel ».
Qualcomm ajoute que ses racks (ou baies) utilisent un refroidissement liquide direct (DLC) qui est désormais standardisé dans les datacenters, proposent du PCIe et du réseau Ethernet ; le tout avec « une consommation électrique par rack de 160 kW ». Cette puissance est, pour le moment, plutôt dans la moyenne haute actuelle pour ce genre d’usage. Pour rappel, OVHcloud prévoit même des baies de 240 kW par la suite.
C’est aussi un moyen de faire comme ses petits camarades : parler de puissance électrique pour l’intelligence artificielle, mais sans annoncer la moindre puissance de calcul.
Les Qualcomm AI200 et AI250 ne sont pas disponibles tout de suite, loin de là. La première n’arrivera pas avant l’année prochaine et la seconde qu’en 2027. Qualcomm s’engage à tenir une « cadence annuelle à l’avenir, axée sur des performances d’inférence pour l’IA de pointe, l’efficacité énergétique et le TCO (Total Cost of Ownership) ».
Sur sa page dédiée aux datacenters, Qualcomm référence déjà une solution pour l’inférence : la Cloud AI 100 Ultra. Il s’agit d’une carte PCIe x16 (gen 4) avec une puissance de 870 TOPS en INT8, 128 Go de mémoire et un TDP de 150 W.
Qualcomm annonce aussi une « collaboration majeure visant à déployer une infrastructure d’intelligence artificielle avancée en Arabie saoudite ». HUMAIN, une société du Fonds public d’investissement d’Arabie saoudite, « prévoit de déployer 200 mégawatts dès 2026, en s’appuyant sur les solutions d’accélération en rack Qualcomm AI200 et AI250 ». Ces annonces ont fait grimper de près de 20 % l’action de Qualcomm à l’ouverture lundi, avant qu’elle ne se stabilise sur une hausse de l’ordre de 10 %.
Mi-septembre, la Data Protection Commission (DPC, l’autorité homologue de la CNIL en Irlande) a accueilli en son sein une nouvelle commissaire, Niamh Sweeney, ayant travaillé pendant 10 ans en tant que lobbyiste dont six ans comme salariée de Meta (de 2015 à 2021).
L’association noyb avait déjà réagi en estimant que « Meta s’autorégule désormais officiellement ». Mais ce mardi, c’est l’organisation irlandaise Irish Council for Civil Liberties qui annonce avoir porté plainte devant la Commission européenne contre l’Irlande pour « ne pas avoir fourni de garanties suffisantes quant à l’indépendance et l’impartialité de son processus de nomination d’un nouveau commissaire à la protection des données ». Elle déplore l’ « absence de garanties contre les conflits d’intérêts et les ingérences politiques ».
Mais la Commission européenne se considère incompétente pour prendre en charge cette plainte : « il appartient aux États membres de nommer les membres de leurs autorités respectives chargées de la protection des données », selon le porte-parole de la Commission, Guillaume Mercier, cité par Politico. Il a ajouté que la Commission « n’est pas impliquée dans ce processus et n’est pas habilitée à prendre des mesures concernant ces nominations ».
Il a néanmoins souligné que les pays doivent suivre un processus de nomination « transparent » et que les personnes nommées doivent « posséder les qualifications, l’expérience et les compétences, notamment en matière de protection des données à caractère personnel, requises pour exercer leurs fonctions et leurs pouvoirs ».
L’application de dessin et de retouche GIMP a désormais un Snap officiel. L’équipe de développement « répare » donc une carence, puisque le logiciel possédait déjà des conteneurs AppImage et Flatpak.
Techniquement, GIMP était déjà disponible dans le Snap Store. Il s’agissait cependant d’une construction réalisée par la communauté et affichée en tant que telle par une coche jaune. Cette fois, il s’agit d’un paquet officiellement produit par l’équipe de GIMP, dont la production est assurée par le même processus que pour les autres conteneurs.
Pour les personnes intéressées, cela garantit notamment que les nouvelles versions seront disponibles le jour même dans le Store d’Ubuntu, ou dans les autres distributions utilisant Snap. Cependant, si vous utilisez déjà un autre type de paquet, comme Flatpak, vous avez déjà ce type d’avantage. Si vous passez par les paquets classiques comme DEB, rien ne change non plus, ils continueront d’être proposés.
Elon Musk vient de lancer son encyclopédie Grokipedia, visiblement inspirée de Wikipédia, mais diffusant les idées de son fondateur sur diverses thématiques que ce dernier a l’habitude de brocarder – y compris en ravivant des thèses relevant du « racisme scientifique ».
Autrefois, Elon Musk adorait Wikipédia. Il l’écrivait même sur Twitter, avant de racheter et de renommer le réseau social en X.
Depuis son tournant résolument politique, en revanche, l’entrepreneur a clairement fait savoir que, désormais, il détestait l’encyclopédie. Après avoir critiqué sa ligne éditoriale à plusieurs reprises —, Musk parle de « Wokipedia » — et appelé à cesser toute donation envers la fondation Wikimédia, l’entrepreneur a lancé ce 27 octobre sa propre encyclopédie, nommée Grokipedia. Son fondateur avait reculé son lancement d’une semaine, et annonce déjà l’arrivée d’une version « dix fois meilleure », sans donner de date précise.
Appuyé sur les productions du grand modèle de langage qui fait tourner Grok, le chatbot conversationnel disponible sur X, le projet n’a rien et tout à voir avec son inspiration originelle.
Un projet intégré à l’écosystème X
Ne proposant qu’une barre de recherche et la possibilité de s’identifier (notamment depuis son compte X), la page d’accueil de Grokipedia ressemble à celle d’un moteur de recherche – ou à celle de Wikipédia, appels à soutien de la fondation Wikimedia en moins.
Pour l’internaute, le login permet de gérer son compte ou d’accéder à des discussions avec le chatbot Grok. Sur les pages de l’encyclopédie, il permet aussi, en sélectionnant un passage, d’échanger à son sujet avec Grok, ou de déclarer que les faits présentés sont faux et de proposer des corrections. Pour les sociétés d’Elon Musk, il permet de lier les traces d’activités d’une seule et même personne sur les différentes plateformes que sont X, Grok et Grokipedia.
Des mentions plus ou moins directes de la source Wikipédia
Lançons une recherche pour des termes anglophones. « The Beatles », suggéré par la plateforme elle-même, renvoie une immense page sur le groupe de musique, avec un sommaire parfaitement chronologique (dont les titres évoquent de très près ceux du sommaire disponible sur Wikipedia) et pas moins de 276 notes de bas de page.
« Bauhaus » renvoie, de même, à un texte précédé de la mention « fact-checké hier par Grok », une phrase qui alimente la comparaison entre la machine Grok et les professionnels humains de la vérification des faits. Quant à savoir pourquoi Grok a fact-checké « hier » et pas aujourd’hui, difficile de répondre. Un passage de souris sur la mention permet simplement de supposer que la dernière version du texte remonte au 27.10 à 17 h.
Capture du haut de la page « Bauhaus » sur Grokipedia.
Pour s’aider dans la lecture, un sommaire en 7 parties et 19 sous-parties s’affiche à gauche de la page. À son terme, 141 notes de bas de page. C’est plus que sur la page Wikipédia du mouvement artistique, mais on n’y trouve que des articles de presse, sites web de musée et liens vers des blogs ou des pages Reddit, quand les auteurs de la page Bauhaus de Wikipédia citent une quinzaine d’ouvrages spécialisés parmi leurs multiples références.
Quand bien même ces citations peuvent donner une impression de qualité, le contenu, généré par IA, contient diverses approximations. Ainsi de citations de Tucker Carlson transformées en énoncés factuels dans la page qui lui est dédiée. Ou du nombre de décès dans les émeutes du Capitole, le 6 janvier 2021, réduit de cinq à quatre.
Testons désormais des notions dont Elon Musk s’est déjà ouvertement agacé. Par réflexe, nous écrivons « genre », en français, dans la barre de recherche. Nous voici sur un résultat complètement écrit en anglais, qui ne prend donc en compte que l’acception anglophone du terme. Sur des lignes et des lignes de textes, quelqu’un ou quelque chose (le fameux LLM avec lequel nous pouvons converser si nous nous connectons à notre compte personnel ?) nous détaille différents genres musicaux. Et puis, en pied de page, surprise : une référence directe à la source, Wikipédia.
Capture d’écran du pied de la page « genre » sur Grokipedia.
Des notices ouvertement parcellaires, racistes, désinformatrices
Grokipedia n’est visiblement pas multilingue, repassons donc à l’anglais. L’entrée « gender » (genre) indique que le genre se réfère à la « classification binaire des humains comme homme ou femme en fonction du sexe biologique ». Exit le troisième genre présent dans de multiples sociétés ancestrales ou contemporaines. Exit, aussi, toute possibilité de se déclarer non-binaire ou transgenre.
Pour comparaison, le Wikipedia anglophone indique que le genre « consiste en la variété d’aspects sociaux, psychologiques, culturels ou comportementaux liés au fait d’être un homme (ou un garçon), une femme (ou une fille), ou un troisième genre ».
Au début de la lecture, l’entrée « racism » (racisme) pourrait sembler de qualité, si tant est que l’on apprécie le style relativement verbeux que nous reconnaissons déjà sur les pages de Grokipedia. Une inspection du sommaire alerte, néanmoins : la deuxième partie (sur huit) est titrée « perspectives biologiques et scientifiques », sa première sous-partie « preuves de races biologiques ». Cliquons sur le lien.
Dans son style d’apparence factuelle et neutre, Grokipedia développe sur une douzaine de paragraphes (trois sous-parties au total) des thèses donnant crédit au racisme le plus assumé. Citant une poignée d’études d’apparences scientifiques, avec force chiffres qui peuvent jouer ici le rôle d’arguments d’autorité, Grokipedia remet au goût du jour des éléments issus du racisme scientifique du XIXe siècle, dont des éléments de craniométrie (supposée montrer par des mesures du crâne la supériorité des populations blanches ou européennes sur les autres), ou des différences de comportements voire de quotient intellectuel selon l’origine géographique ou la couleur de peau.
En anglais comme en français, les notices écrites par des groupes d’auteurs humains à partir de recherches scientifiques sur Wikipédia rendent bien plus évident que l’eugénisme ou les pratiques de classification des êtres humains en fonction de leurs variations morphologiques relèvent des pseudo-sciences, mais aussi qu’elles servent des projets politiques comme l’impérialisme et le colonialisme.
D’autres pistes qui résonnent avec les préoccupations d’Elon Musk ? Intéressons-nous aux attaques du Capitole, du 6 janvier 2021. Si l’on se renseigne sur le sujet du côté de Grokipedia, il s’est agit d’une « émeute » permise, notamment, par des faiblesses des dispositifs de sécurité. Une présentation saluée comme « factuelle, chronologique et sobre » par l’entrepreneur et soutien d’Elon Musk Mario Nawfal, qui critique en revanche la présentation, sur Wikipédia, de l’événement comme « une tentative de coup d’état ».
Dans le déroulé chronologique des événements (format si régulier, sur les pages visitées, qu’il semble découler du fonctionnement même de Grok), les thèses des soutiens de Trump sur la falsification de votes sont présentées comme légitimes. Le site les intègre sans jamais le lier à la propension déjà affichée par Trump pendant son premier mandat à pousser des théories complotistes et à utiliser régulièrement des tactiques de désinformation. La machine indique par ailleurs que 4 personnes sont mortes pendant ces évènements (5 en réalité), de causes « non-violentes » (quand bien même le texte relate le tir d’un policier sur Ashli Babbitt).
À la page « changement climatique », la machine propose des éléments relativement factuels, jusqu’à la partie finale, titrée « controverses et points de vue alternatifs ». Cette dernière cite par exemple une unique étude scientifique, présentée comme à même de remettre en cause le consensus scientifique sur l’origine humaine du bouleversement climatique. Le texte présente aussi les médias et plusieurs organisations de protection du climat comme « alimentant des paniques morales » et « amplifiant » des récits perçus comme strictement politiques, donc faux, ou a minima disproportionnés.
Évoquant le vocabulaire de « crise » climatique désormais récurrent, la phrase de conclusion indique : « Cette évolution linguistique reflète les efforts coordonnés visant à présenter la question comme un impératif existentiel, influençant le discours public et les politiques sans toujours s’appuyer sur des preuves empiriques proportionnées », à rebours du consensus scientifique.
Sur chacune de ces thématiques plus directement politiques, ou a minima mobilisées dans le débat public, Grokipedia s’apparente donc plus à un porte-voix des idées d’Elon Musk – qui préfère utiliser le vocabulaire du « risque existentiel » au sujet de l’intelligence artificielle plutôt que du changement climatique – qu’à une encyclopédie cherchant à fournir un état factuel des connaissances.
Wikipédia, rappelons-le, n’est pas exempte de débats sur sa propre ligne éditoriale. À l’heure actuelle, sur la plupart de ses versions, ces discussions sont réglées publiquement entre contributeurs et contributrices.
Considérant que ses démarches auprès des différentes CNIL européennes contre Clearview sont restées infructueuses, l’association noyb passe à la vitesse supérieure en attaquant l’entreprise et ses dirigeants devant la justice autrichienne.
noyb vient d’annoncer le dépôt d’une plainte devant la justice autrichienne contre Clearview mais aussi ses dirigeants. Si les reproches formulés par l’association de Max Schrems ne sont pas nouveaux, elle utilise maintenant un autre outil légal contre l’entreprise de reconnaissance faciale : la plainte au pénal.
En effet, ça fait quatre ans que le dossier Clearview est passé devant différentes autorités européennes de protection des données. En 2021, Privacy International, le Hermes Center for Transparency and Digital Human Rights, Homo Digitalis et noyb déposaient des plaintes devant la CNIL et ses homologues italienne, grecque, britannique et autrichienne.
Une base de données de plus de 10 milliards d’images
Les associations expliquaient que Clearview utilisait un « dispositif automatisé de récupération d’images », soit un outil qui explore le web et récupère toutes les images qu’il détecte comme contenant des visages humains ».
Suite à cette saisie, la CNIL a condamné en octobre 2022 l’entreprise états-unienne à 20 millions d’euros d’amende. L’autorité a constaté que Clearview a aspiré « plus de 10 milliards d’images à travers le monde » sans le consentement des intéressés et « sans base légale », et donc en violation du RGPD. D’autres autorités ont aussi prononcé des amendes : 20 millions d’euros en Italie, le même montant en Grèce et 7,5 millions de livres en Grande-Bretagne. L’autorité autrichienne n’a pas infligé d’amendes à Clearview tout en considérant que son utilisation des données était illégale [PDF].
Mais huit mois après, constatant que l’entreprise ignorait sa décision, la CNIL a infligé 5 millions d’euros d’astreinte à Clearview. Le problème reste que l’autorité a très peu de moyen de récupérer ces amendes et ainsi de faire respecter le RGPD à une entreprise qui n’a pas de siège social en Europe.
Questionnée par Next sur ses moyens de faire respecter sa décision, l’autorité avait répondu à l’époque que, « s’agissant de l’injonction, la CNIL continue de se rapprocher de son homologue américain, la Federal Trade Commission (FTC), pour évoquer la façon dont nous pourrions nous assurer de l’exécution de l’injonction prononcée à l’encontre de la société ». Pour l’astreinte, elle affirmait :« le Ministère de l’Économie et des Finances se rapproche de la FTC pour envisager les moyens existants et possibles à mettre en œuvre pour recouvrer l’amende ainsi que l’astreinte ».
Nous avons demandé à la CNIL où en était ce dossier et nous actualiserons l’article si l’autorité nous répond.
Selon noyb, Clearview a fait de même pour toutes les décisions des autorités européennes, ne faisant appel que devant l’autorité britannique (le sujet est encore en cours de discussion au travers des diverses instances du Royaume-Uni).
Le pénal comme solution ?
L’association a donc décidé, comme elle l’explique dans un communiqué, de passer par une autre voie : la justice pénale. Ainsi, elle attaque Clearview devant un tribunal autrichien en s’appuyant sur la transposition du RGPD dans le droit du pays qui prévoit des sanctions pénales pour certaines violation du règlement européen. Notamment, une disposition prévoit une peine d’emprisonnement d’un an maximum ou une amende (d’un maximum de 720 jours-amendes), pour les personnes ayant l’intention de s’enrichir en rendant accessible à un tiers ou publiant des données à caractère personnel en les ayant obtenues de manière illicite.
noyb souligne que, « contrairement aux violations du RGPD, les infractions pénales permettent également de prendre des mesures à l’encontre des dirigeants et de recourir à l’ensemble des procédures pénales, y compris à l’échelle de l’UE ». Elle ajoute que « si celle-ci aboutit, Clearview AI et ses dirigeants pourraient être condamnés à des peines de prison et être tenus personnellement responsables, en particulier s’ils se rendent en Europe ».
L’association ne communique pas le texte de sa plainte mais Next a demandé à y accéder et nous mettrons à jour cet article au besoin.
Comme nous l’expliquions récemment, le co-fondateur de Clearview avait en tête, dès l’origine du projet, la reconnaissance faciale des immigrants et la surveillance des frontières étasuniennes. L’entreprise propose sur son site web aux autorités d’ « exploiter le pouvoir de la reconnaissance faciale dans les enquêtes criminelles ».
Mozilla prépare un important changement, avec l’obligation pour les extensions de préciser si des données sont collectées et lesquelles. Cette règle sera active le 3 novembre pour les nouvelles extensions, mais sera étendue à toutes en 2026.
La fondation Mozilla va imposer de nouvelles règles aux extensions publiées dans sa boutique officielle addons.mozilla.org. Ainsi, à compter du 3 novembre, toutes les nouvelles extensions qui seront soumises pour vérification devront intégrer une nouvelle clé dans leur fichier manifeste (manifest.json).
Qui collecte quoi
Cette clé – browser_specific_settings.gecko.data_collection_permissions – devra impérativement être renseignée, sous peine de rejet lors de l’examen. Dans le cas où une extension ne collecterait aucune donnée, la clé devra avoir pour valeur « none ». Dans le cas contraire, tous les types d’informations devront être mentionnés, par exemple la position géographique.
L’idée, bien sûr, est d’afficher cette information pour que l’internaute sache précisément à quoi s’en tenir. L’information sera d’ailleurs indiquée à plusieurs endroits : dans la fenêtre d’installation, sur la page officielle de l’extension dans la boutique de Mozilla, ainsi que dans la section Permissions de la page « Vie privée et sécurité » des paramètres du navigateur.
Durant une phase de plusieurs mois, cette obligation ne concernera que les nouvelles extensions proposées pour révision, et pas les mises à jour des extensions existantes. Une fois qu’une extension disposera de la nouvelle clé, elle devra la réutiliser pour toutes ses versions ultérieures. Si elle devait ne pas être renseignée dans le manifeste, l’extension serait rejetée.
Généralisation à toutes les extensions l’année prochaine
Cependant, durant le premier semestre 2026, le mécanisme sera étendu à toutes les extensions. L’éditeur ne précise pas si ces extensions auront une date limite pour s’y atteler ou si l’obligation concernera uniquement les mises à jour. Mozilla indique dans son billet que des informations supplémentaires seront bientôt publiées et que tous les développeurs seront prévenus de cette bascule.
Il est probable que la nouvelle règle s’applique surtout aux mises à jour, au moins dans un premier temps. Une date butoir pourrait être envisagée, mais sera sans doute assez lointaine, pour ne pas risquer de voir la boutique se vider d’un trop grand nombre d’extensions. Il peut exister de multiples raisons pouvant expliquer une absence de mise à jour, dont un manque de temps voire un abandon du projet. La question sera alors de savoir si ces extensions pourront encore rester sur la boutique.
Le changement, quoi qu’il en soit, est positif en matière de sécurité et de vie privée. Notez que des informations existent déjà sur les fiches des extensions sur la boutique de Mozilla, de même que dans le Chrome Web Store. L’idée de Mozilla est surtout de mettre en avant une information cruciale qui pourrait influer sur la décision d’installer ou non plus une extension. Le Chrome Web Store précise quand une extension peut lire et modifier toutes les données sur l’ensemble des sites, mais pas quand des données sont collectées. La liste des autorisations sur la fiche correspondante permet cependant de le deviner.
Il y a trois semaines, Meta annonçait un nouveau modèle de compression en open source. Nous l’avons installé sur une de nos machines afin de tester ses possibilités sur différents types de fichiers, au-delà des tests de Meta. Nous avons découvert quelques limitations au passage.
Pour nos tests, nous utilisons une machine virtuelle avec Ubuntu Server 24.02 LTS (SSD dédié, 24 cœurs CPU et 56 Go de mémoire) sur notre serveur Dell PowerEdgeT630 avec Proxmox.
Installation d’OpenZL et premiers tours de piste
L’installation n’est vraiment pas compliquée et ne nécessite que trois lignes de code.
git clone https://github.com/facebook/openzl.git
cd openzl
make
La première ligne va créer un répertoire openzl et y copier le contenu du dépôt GitHub d’OpenZL de Meta (Facebook). La deuxième ligne nous permet d’aller dans ce répertoire, la troisième de lancer la compilation d’OpenZL. C’est tout !
Le programme s’appelle « zli » et on peut l’appeler, dans notre cas, via cette commande : « /home/gathor/openzl-repo/cachedObjs/*/zli ». Par exemple, pour connaitre la version de l’algorithme : « /home/gathor/openzl-repo/cachedObjs/*/zli --version ». Pour simplifier, nous garderons simplement la commande zli pour la suite de cet article.
Le fonctionnement classique de zli est le suivant : « zli <command> [options] < args> ». Les commandes possibles sont compress, decompress, train, benchmark, etc. On peut aussi préciser un nom de fichier de sortie avec -o, un profil avec -p, etc. On peut utiliser « zli --help » pour avoir tous les détails.
Sur sao, OpenZL explose bien la concurrence
Premier test : vérifier les allégations de Meta sur le niveau de compression des données sao. Il faut d’abord récupérer le corpus silesia et ensuite extraire le fichier sao. Deux lignes de commandes plus tard, c’est fait.
Nous lançons dans la foulée trois tests de compression avec zli (profil sao), xz avec le niveau 9 de compression et zstd avec le niveau 3 (time permet de récupérer le temps nécessaire au traitement de la commande) pour répéter les tests de Meta.
Nous arrivons bien à un ratio de 2,06, exactement ce qu’annonce Meta. Même chose pour xz avec 1,64x et zstd avec 1,31x. xz est déjà à son niveau maximum de compression, mais pas zstd qui peut monter bien plus haut. Avec un niveau de 22, cela donne un ratio de compression de 1,45x (mais avec un temps de traitement beaucoup plus long), comme on peut le voir dans le graphique ci-dessous.
Passons maintenant aux tests maison !
Il reste 85% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
La Python Software Foundation explique avoir dû refuser une subvention de 1,5 million de dollars. Les conditions assorties mentionnaient l’interdiction de toute politique DEI (diversité, équité et inclusion).
Comme elle l’explique dans un billet publié ce 27 octobre, la Python Software Foundation – qui gère le développement du langage – vient de refuser une importante subvention américaine.
1,5 million de dollars sur deux ans
En janvier dernier, elle avait en effet envoyé une demande de subvention à la National Science Foundation du gouvernement américain dans le cadre du programme Safety, Security, and Privacy of Open Source Ecosystems. Ce programme permet de recevoir des fonds pour travailler spécifiquement sur la sécurité des composants open source.
Selon la fondation, c’était la première fois qu’elle demandait une telle subvention. Dans ce contexte, la construction du dossier aurait réclamé beaucoup de temps, menée par Seth Larson, développeur de sécurité et chercheur principal, et Loren Crary, directeur général adjoint de la fondation. Cette dernière estimait que son travail cadrait parfaitement avec le programme de la NSF.
La subvention a été accordée, provoquant initialement la joie de la fondation. Et pour cause : le montant alloué était de 1,5 million de dollars sur deux ans. La fondation dit fonctionner sur un budget habituel d’environ 5 millions de dollars par an, qui sert aux développeurs, à diverses opérations de communication et sensibilisation, et aux salaires de ses 14 employés.
Pas de politique de diversité, équité et inclusion
Elle indique cependant avoir déchanté en découvrant les conditions assorties. Si la fondation acceptait la subvention, elle devait notamment renoncer à toute politique DEI (diversité, équité et inclusion).
« Ces conditions comprenaient l’affirmation de la déclaration selon laquelle nous « n’exploitons pas, et ne gérerons pas, pendant la durée de cette aide financière, des programmes qui font progresser ou promeuvent la DEI ou une idéologie d’équité discriminatoire en violation des lois fédérales anti-discrimination ». Cette restriction s’appliquerait non seulement au travail de sécurité directement financé par la subvention, mais à toutes les activités de la PSF dans son ensemble. »
Sans surprise, la fondation a décidé de refuser la subvention et de s’en expliquer. Elle précise à ce titre que l’argent aurait « fait une grande différence dans le budget », en matière de sécurité comme pour son fonctionnement général. Elle aurait représenté « de loin » la plus grosse subvention reçue par la fondation depuis sa création.
La fondation ajoute que le refus de la subvention accentue nettement la pression financière sur la structure, surtout après avoir travaillé à son obtention depuis janvier. Elle cite l’inflation, la baisse du parrainage, la pression économique dans le secteur technologique, l’incertitude générale et les conflits mondiaux comme autant de facteurs. La fondation indique avoir « plus que jamais besoin d’un soutien financier » et encourage aux participations, que ce soit sous forme de dons simples ou d’adhésion à la structure. Les entreprises peuvent demander à devenir des sponsors.
Mise à jour 28 octobre à 15h10 : Dans un communiqué, Amazon confirme le licenciement de 14 000 personnes.
Les sources de plusieurs médias états-uniens donnaient plus tôt un chiffre atteignant 30 000 salariés licenciés, suivant un calendrier commençant dès ce mardi 28 octobre.
Ainsi, l’agence de presse Reuters explique que si ce chiffre représente une petite partie des 1,55 million de personnes qui travaillent pour Amazon à travers le monde, c’est 10 % des salariés officiant dans les bureaux de l’entreprise de Jeff Bezos qui devraient être touchés.
Les sources du Wall Street Journal affirment que « les ressources humaines, le cloud computing, la publicité et plusieurs autres divisions » devraient être concernées. Reuters ajoute à la liste les divisions « appareils et services » et Amazon Web Services, qui a très récemment essuyé une panne de grande ampleur. Selon celles du New York Times, des postes élevés dans la hiérarchie devraient être plus touchés que lors des précédentes vagues de licenciements.
Les sources de Reuters expliquent que le programme de quasi-arrêt du télétravail (retour au bureau cinq jours par semaine) lancé au sein d’Amazon en début d’année n’aurait pas permis de générer le nombre de départs espérés. Certains employés habitant loin et ne venant pas quotidiennement au bureau auraient été considérés comme démissionnaires par l’entreprise. Celle-ci estimerait en conséquence ne pas avoir à leur verser d’indemnités de licenciement.
Une enquête basée sur des documents internes a par ailleurs récemment révélé qu’Amazon s’attendait à pouvoir éviter 600 000 embauches d’ici 2033 grâce à l’automatisation et aux robots.
La Commission européenne a publié le 20 octobre une grille de lecture permettant d’apposer une note de souveraineté sur les offres cloud. Elle doit aider ses propres instances à choisir leurs prestataires en tenant compte de divers critères. Il pourrait cependant préfigurer les futures grandes lignes du Cloud and AI Development Act, qui doit définir ce qu’est la souveraineté numérique en Europe.
Le document publié le 20 octobre a été rédigé par la Direction générale des services numériques de la Commission européenne. On y apprend dans l’introduction que ce Cloud Sovereignty Framework opère une synthèse de bon nombre de travaux existants, dont le Trusted Cloud Referential v2 du CIGREF, des règles de Gaia-X, de plusieurs directives européennes sur la cybersécurité (dont NIS2 et DORA, en cours de transposition en France), ou encore certaines stratégies nationales comme « Cloud de Confiance » en France et « Souveräner Cloud » en Allemagne.
Ce référentiel liste huit objectifs de souveraineté numérique pour les offres cloud, permettant de calculer un score. Le document s’adresse aux instances européennes pour qu’elles puissent s’équiper en services répondant à des notes minimales fixées par avance. Il mentionne également une volonté de classer les offres cloud via une échelle concrète allant de 0 à 4.
Il reste 80% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.