Vue normale

Reçu aujourd’hui — 28 octobre 2025Next.ink

☕️ GIMP a maintenant son Snap, en plus de ses AppImage et Flatpak

28 octobre 2025 à 13:38

L’application de dessin et de retouche GIMP a désormais un Snap officiel. L’équipe de développement « répare » donc une carence, puisque le logiciel possédait déjà des conteneurs AppImage et Flatpak.

Techniquement, GIMP était déjà disponible dans le Snap Store. Il s’agissait cependant d’une construction réalisée par la communauté et affichée en tant que telle par une coche jaune. Cette fois, il s’agit d’un paquet officiellement produit par l’équipe de GIMP, dont la production est assurée par le même processus que pour les autres conteneurs.

Pour les personnes intéressées, cela garantit notamment que les nouvelles versions seront disponibles le jour même dans le Store d’Ubuntu, ou dans les autres distributions utilisant Snap. Cependant, si vous utilisez déjà un autre type de paquet, comme Flatpak, vous avez déjà ce type d’avantage. Si vous passez par les paquets classiques comme DEB, rien ne change non plus, ils continueront d’être proposés.

Elon Musk lance Grokipedia, le concurrent raciste et désinformateur de Wikipédia

28 octobre 2025 à 13:14
Neutralité suprémaciste
Elon Musk lance Grokipedia, le concurrent raciste et désinformateur de Wikipédia

Elon Musk vient de lancer son encyclopédie Grokipedia, visiblement inspirée de Wikipédia, mais diffusant les idées de son fondateur sur diverses thématiques que ce dernier a l’habitude de brocarder – y compris en ravivant des thèses relevant du « racisme scientifique ».

Autrefois, Elon Musk adorait Wikipédia. Il l’écrivait même sur Twitter, avant de racheter et de renommer le réseau social en X.

Depuis son tournant résolument politique, en revanche, l’entrepreneur a clairement fait savoir que, désormais, il détestait l’encyclopédie. Après avoir critiqué sa ligne éditoriale à plusieurs reprises —, Musk parle de « Wokipedia » — et appelé à cesser toute donation envers la fondation Wikimédia, l’entrepreneur a lancé ce 27 octobre sa propre encyclopédie, nommée Grokipedia. Son fondateur avait reculé son lancement d’une semaine, et annonce déjà l’arrivée d’une version « dix fois meilleure », sans donner de date précise.

Appuyé sur les productions du grand modèle de langage qui fait tourner Grok, le chatbot conversationnel disponible sur X, le projet n’a rien et tout à voir avec son inspiration originelle.

Un projet intégré à l’écosystème X

Ne proposant qu’une barre de recherche et la possibilité de s’identifier (notamment depuis son compte X), la page d’accueil de Grokipedia ressemble à celle d’un moteur de recherche – ou à celle de Wikipédia, appels à soutien de la fondation Wikimedia en moins.

Pour l’internaute, le login permet de gérer son compte ou d’accéder à des discussions avec le chatbot Grok. Sur les pages de l’encyclopédie, il permet aussi, en sélectionnant un passage, d’échanger à son sujet avec Grok, ou de déclarer que les faits présentés sont faux et de proposer des corrections. Pour les sociétés d’Elon Musk, il permet de lier les traces d’activités d’une seule et même personne sur les différentes plateformes que sont X, Grok et Grokipedia.

Des mentions plus ou moins directes de la source Wikipédia

Lançons une recherche pour des termes anglophones. « The Beatles », suggéré par la plateforme elle-même, renvoie une immense page sur le groupe de musique, avec un sommaire parfaitement chronologique (dont les titres évoquent de très près ceux du sommaire disponible sur Wikipedia) et pas moins de 276 notes de bas de page.

« Bauhaus » renvoie, de même, à un texte précédé de la mention « fact-checké hier par Grok », une phrase qui alimente la comparaison entre la machine Grok et les professionnels humains de la vérification des faits. Quant à savoir pourquoi Grok a fact-checké « hier » et pas aujourd’hui, un passage de souris sur la mention permet simplement de supposer que la dernière version du texte remonte au 27.10 à 17 h.

Capture du haut de la page « Bauhaus » sur Grokipedia.

Pour s’aider dans la lecture, un sommaire en 7 parties et 19 sous-parties s’affiche à gauche de la page. À son terme, 141 notes de bas de page. C’est plus que sur la page Wikipédia du mouvement artistique, mais on n’y trouve que des articles de presse, sites web de musée et liens vers des blogs ou des pages Reddit, quand les auteurs de la page Bauhaus de Wikipédia citent une quinzaine d’ouvrages spécialisés parmi leurs multiples références.

Quand bien même ces citations peuvent donner une impression de qualité, le contenu, généré par IA, contient diverses approximations. Ainsi de citations de Tucker Carlson transformées en énoncés factuels dans la page qui lui est dédiée. Ou du nombre de décès dans les émeutes du Capitole, le 6 janvier 2021, réduit de cinq à quatre.

Testons désormais des notions dont Elon Musk s’est déjà ouvertement agacé. Par réflexe, nous écrivons « genre », en français, dans la barre de recherche. Nous voici sur un résultat complètement écrit en anglais, qui ne prend donc en compte que l’acception anglophone du terme. Sur des lignes et des lignes de textes, quelqu’un ou quelque chose (le fameux LLM avec lequel nous pouvons converser si nous nous connectons à notre compte personnel ?) nous détaille différents genres musicaux. Et puis, en pied de page, surprise : une référence directe à la source, Wikipédia.

Capture d’écran du pied de la page « genre » sur Grokipedia.

Des notices ouvertement parcellaires, racistes, désinformatrices

Grokipedia n’est visiblement pas multilingue, repassons donc à l’anglais. L’entrée « gender » (genre) indique que le genre se réfère à la « classification binaire des humains comme homme ou femme en fonction du sexe biologique ». Exit le troisième genre présent dans de multiples sociétés ancestrales ou contemporaines. Exit, aussi, toute possibilité de se déclarer non-binaire ou transgenre.

Pour comparaison, le Wikipedia anglophone indique que le genre « consiste en la variété d’aspects sociaux, psychologiques, culturels ou comportementaux liés au fait d’être un homme (ou un garçon), une femme (ou une fille), ou un troisième genre ».

Au début de la lecture, l’entrée « racism » (racisme) pourrait sembler de qualité, si tant est que l’on apprécie le style relativement verbeux que nous reconnaissons déjà sur les pages de Grokipedia. Une inspection du sommaire alerte, néanmoins : la deuxième partie (sur huit) est titrée « perspectives biologiques et scientifiques », sa première sous-partie « preuves de races biologiques ». Cliquons sur le lien.

Dans son style d’apparence factuelle et neutre, Grokipedia développe sur une douzaine de paragraphes (trois sous-parties au total) des thèses donnant crédit au racisme le plus assumé. Citant une poignée d’études d’apparences scientifiques, avec force chiffres qui peuvent jouer ici le rôle d’arguments d’autorité, Grokipedia remet au goût du jour des éléments issus du racisme scientifique du XIXe siècle, dont des éléments de craniométrie (supposée montrer par des mesures du crâne la supériorité des populations blanches ou européennes sur les autres), ou des différences de comportements voire de quotient intellectuel selon l’origine géographique ou la couleur de peau.

En anglais comme en français, les notices écrites par des groupes d’auteurs humains à partir de recherches scientifiques sur Wikipédia rendent bien plus évident que l’eugénisme ou les pratiques de classification des êtres humains en fonction de leurs variations morphologiques relèvent des pseudo-sciences, mais aussi qu’elles servent des projets politiques comme l’impérialisme et le colonialisme.

D’autres pistes qui résonnent avec les préoccupations d’Elon Musk ? Intéressons-nous aux attaques du Capitole, du 6 janvier 2021. Si l’on se renseigne sur le sujet du côté de Grokipedia, il s’est agit d’une « émeute » permise, notamment, par des faiblesses des dispositifs de sécurité. Une présentation saluée comme « factuelle, chronologique et sobre » par l’entrepreneur et soutien d’Elon Musk Mario Nawfal, qui critique en revanche la présentation, sur Wikipédia, de l’événement comme « une tentative de coup d’état ».

Dans le déroulé chronologique des événements (format si régulier, sur les pages visitées, qu’il semble découler du fonctionnement même de Grok), les thèses des soutiens de Trump sur la falsification de votes sont présentées comme légitimes. Le site les intègre sans jamais le lier à la propension déjà affichée par Trump pendant son premier mandat à pousser des théories complotistes et à utiliser régulièrement des tactiques de désinformation. La machine indique par ailleurs que 4 personnes sont mortes pendant ces évènements (5 en réalité), de causes « non-violentes » (quand bien même le texte relate le tir d’un policier sur Ashli Babbitt).

À la page « changement climatique », la machine propose des éléments relativement factuels, jusqu’à la partie finale, titrée « controverses et points de vue alternatifs ». Cette dernière cite par exemple une unique étude scientifique, présentée comme à même de remettre en cause le consensus scientifique sur l’origine humaine du bouleversement climatique. Le texte présente aussi les médias et plusieurs organisations de protection du climat comme « alimentant des paniques morales » et « amplifiant » des récits perçus comme strictement politiques, donc faux, ou a minima disproportionnés.

Évoquant le vocabulaire de « crise » climatique désormais récurrent, la phrase de conclusion indique : « Cette évolution linguistique reflète les efforts coordonnés visant à présenter la question comme un impératif existentiel, influençant le discours public et les politiques sans toujours s’appuyer sur des preuves empiriques proportionnées », à rebours du consensus scientifique.

Sur chacune de ces thématiques plus directement politiques, ou a minima mobilisées dans le débat public, Grokipedia s’apparente donc plus à un porte-voix des idées d’Elon Musk – qui préfère utiliser le vocabulaire du « risque existentiel » au sujet de l’intelligence artificielle plutôt que du changement climatique – qu’à une encyclopédie cherchant à fournir un état factuel des connaissances.

Wikipédia, rappelons-le, n’est pas exempte de débats sur sa propre ligne éditoriale. À l’heure actuelle, sur la plupart de ses versions, ces discussions sont réglées publiquement entre contributeurs et contributrices.

noyb poursuit au pénal la reconnaissance faciale de Clearview et ses dirigeants

28 octobre 2025 à 12:06
pano'pti'con
noyb poursuit au pénal la reconnaissance faciale de Clearview et ses dirigeants

Considérant que ses démarches auprès des différentes CNIL européennes contre Clearview sont restées infructueuses, l’association noyb passe à la vitesse supérieure en attaquant l’entreprise et ses dirigeants devant la justice autrichienne.

noyb vient d’annoncer le dépôt d’une plainte devant la justice autrichienne contre Clearview mais aussi ses dirigeants. Si les reproches formulés par l’association de Max Schrems ne sont pas nouveaux, elle utilise maintenant un autre outil légal contre l’entreprise de reconnaissance faciale : la plainte au pénal.

En effet, ça fait quatre ans que le dossier Clearview est passé devant différentes autorités européennes de protection des données. En 2021, Privacy International, le Hermes Center for Transparency and Digital Human Rights, Homo Digitalis et noyb déposaient des plaintes devant la CNIL et ses homologues italienne, grecque, britannique et autrichienne.

Une base de données de plus de 10 milliards d’images

Les associations expliquaient que Clearview utilisait un « dispositif automatisé de récupération d’images », soit un outil qui explore le web et récupère toutes les images qu’il détecte comme contenant des visages humains ».

Suite à cette saisie, la CNIL a condamné en octobre 2022 l’entreprise états-unienne à 20 millions d’euros d’amende. L’autorité a constaté que Clearview a aspiré « plus de 10 milliards d’images à travers le monde » sans le consentement des intéressés et « sans base légale », et donc en violation du RGPD. D’autres autorités ont aussi prononcé des amendes : 20 millions d’euros en Italie, le même montant en Grèce et 7,5 millions de livres en Grande-Bretagne. L’autorité autrichienne n’a pas infligé d’amendes à Clearview tout en considérant que son utilisation des données était illégale [PDF].

Mais huit mois après, constatant que l’entreprise ignorait sa décision, la CNIL a infligé 5 millions d’euros d’astreinte à Clearview. Le problème reste que l’autorité a très peu de moyen de récupérer ces amendes et ainsi de faire respecter le RGPD à une entreprise qui n’a pas de siège social en Europe.

Questionnée par Next sur ses moyens de faire respecter sa décision, l’autorité avait répondu à l’époque que, « s’agissant de l’injonction, la CNIL continue de se rapprocher de son homologue américain, la Federal Trade Commission (FTC), pour évoquer la façon dont nous pourrions nous assurer de l’exécution de l’injonction prononcée à l’encontre de la société ». Pour l’astreinte, elle affirmait :« le Ministère de l’Économie et des Finances se rapproche de la FTC pour envisager les moyens existants et possibles à mettre en œuvre pour recouvrer l’amende ainsi que l’astreinte ».

Nous avons demandé à la CNIL où en était ce dossier et nous actualiserons l’article si l’autorité nous répond.

Selon noyb, Clearview a fait de même pour toutes les décisions des autorités européennes, ne faisant appel que devant l’autorité britannique (le sujet est encore en cours de discussion au travers des diverses instances du Royaume-Uni).

Le pénal comme solution ?

L’association a donc décidé, comme elle l’explique dans un communiqué, de passer par une autre voie : la justice pénale. Ainsi, elle attaque Clearview devant un tribunal autrichien en s’appuyant sur la transposition du RGPD dans le droit du pays qui prévoit des sanctions pénales pour certaines violation du règlement européen. Notamment, une disposition prévoit une peine d’emprisonnement d’un an maximum ou une amende (d’un maximum de 720 jours-amendes), pour les personnes ayant l’intention de s’enrichir en rendant accessible à un tiers ou publiant des données à caractère personnel en les ayant obtenues de manière illicite.

noyb souligne que, « contrairement aux violations du RGPD, les infractions pénales permettent également de prendre des mesures à l’encontre des dirigeants et de recourir à l’ensemble des procédures pénales, y compris à l’échelle de l’UE ». Elle ajoute que « si celle-ci aboutit, Clearview AI et ses dirigeants pourraient être condamnés à des peines de prison et être tenus personnellement responsables, en particulier s’ils se rendent en Europe ».

L’association ne communique pas le texte de sa plainte mais Next a demandé à y accéder et nous mettrons à jour cet article au besoin.

Comme nous l’expliquions récemment, le co-fondateur de Clearview avait en tête, dès l’origine du projet, la reconnaissance faciale des immigrants et la surveillance des frontières étasuniennes. L’entreprise propose sur son site web aux autorités d’ « exploiter le pouvoir de la reconnaissance faciale dans les enquêtes criminelles ».

Dans Firefox, les extensions vont devoir lister les données collectées

28 octobre 2025 à 10:42
Simple et efficace
Dans Firefox, les extensions vont devoir lister les données collectées

Mozilla prépare un important changement, avec l’obligation pour les extensions de préciser si des données sont collectées et lesquelles. Cette règle sera active le 3 novembre pour les nouvelles extensions, mais sera étendue à toutes en 2026.

La fondation Mozilla va imposer de nouvelles règles aux extensions publiées dans sa boutique officielle addons.mozilla.org. Ainsi, à compter du 3 novembre, toutes les nouvelles extensions qui seront soumises pour vérification devront intégrer une nouvelle clé dans leur fichier manifeste (manifest.json).

Qui collecte quoi

Cette clé – browser_specific_settings.gecko.data_collection_permissions – devra impérativement être renseignée, sous peine de rejet lors de l’examen. Dans le cas où une extension ne collecterait aucune donnée, la clé devra avoir pour valeur « none ». Dans le cas contraire, tous les types d’informations devront être mentionnés, par exemple la position géographique.

L’idée, bien sûr, est d’afficher cette information pour que l’internaute sache précisément à quoi s’en tenir. L’information sera d’ailleurs indiquée à plusieurs endroits : dans la fenêtre d’installation, sur la page officielle de l’extension dans la boutique de Mozilla, ainsi que dans la section Permissions de la page « Vie privée et sécurité » des paramètres du navigateur.

Durant une phase de plusieurs mois, cette obligation ne concernera que les nouvelles extensions proposées pour révision, et pas les mises à jour des extensions existantes. Une fois qu’une extension disposera de la nouvelle clé, elle devra la réutiliser pour toutes ses versions ultérieures. Si elle devait ne pas être renseignée dans le manifeste, l’extension serait rejetée.

Généralisation à toutes les extensions l’année prochaine

Cependant, durant le premier semestre 2026, le mécanisme sera étendu à toutes les extensions. L’éditeur ne précise pas si ces extensions auront une date limite pour s’y atteler ou si l’obligation concernera uniquement les mises à jour. Mozilla indique dans son billet que des informations supplémentaires seront bientôt publiées et que tous les développeurs seront prévenus de cette bascule.

Il est probable que la nouvelle règle s’applique surtout aux mises à jour, au moins dans un premier temps. Une date butoir pourrait être envisagée, mais sera sans doute assez lointaine, pour ne pas risquer de voir la boutique se vider d’un trop grand nombre d’extensions. Il peut exister de multiples raisons pouvant expliquer une absence de mise à jour, dont un manque de temps voire un abandon du projet. La question sera alors de savoir si ces extensions pourront encore rester sur la boutique.

Le changement, quoi qu’il en soit, est positif en matière de sécurité et de vie privée. Notez que des informations existent déjà sur les fiches des extensions sur la boutique de Mozilla, de même que dans le Chrome Web Store. L’idée de Mozilla est surtout de mettre en avant une information cruciale qui pourrait influer sur la décision d’installer ou non plus une extension. Le Chrome Web Store précise quand une extension peut lire et modifier toutes les données sur l’ensemble des sites, mais pas quand des données sont collectées. La liste des autorisations sur la fiche correspondante permet cependant de le deviner.

On a testé OpenZL, le modèle de compression de Meta : résultats et limitations

28 octobre 2025 à 10:04
Allez, on se tasse !
On a testé OpenZL, le modèle de compression de Meta : résultats et limitations

Il y a trois semaines, Meta annonçait un nouveau modèle de compression en open source. Nous l’avons installé sur une de nos machines afin de tester ses possibilités sur différents types de fichiers, au-delà des tests de Meta. Nous avons découvert quelques limitations au passage.

Pour nos tests, nous utilisons une machine virtuelle avec Ubuntu Server 24.02 LTS (SSD dédié, 24 cœurs CPU et 56 Go de mémoire) sur notre serveur Dell PowerEdgeT630 avec Proxmox.

Installation d’OpenZL et premiers tours de piste

L’installation n’est vraiment pas compliquée et ne nécessite que trois lignes de code.

git clone https://github.com/facebook/openzl.git
cd openzl
make

La première ligne va créer un répertoire openzl et y copier le contenu du dépôt GitHub d’OpenZL de Meta (Facebook). La deuxième ligne nous permet d’aller dans ce répertoire, la troisième de lancer la compilation d’OpenZL. C’est tout !

Le programme s’appelle « zli » et on peut l’appeler, dans notre cas, via cette commande : « /home/gathor/openzl-repo/cachedObjs/*/zli ». Par exemple, pour connaitre la version de l’algorithme : « /home/gathor/openzl-repo/cachedObjs/*/zli --version ». Pour simplifier, nous garderons simplement la commande zli pour la suite de cet article.

Le fonctionnement classique de zli est le suivant : « zli <command> [options] < args> ». Les commandes possibles sont compress, decompress, train, benchmark, etc. On peut aussi préciser un nom de fichier de sortie avec -o, un profil avec -p, etc. On peut utiliser « zli --help » pour avoir tous les détails.

Sur sao, OpenZL explose bien la concurrence

Premier test : vérifier les allégations de Meta sur le niveau de compression des données sao. Il faut d’abord récupérer le corpus silesia et ensuite extraire le fichier sao. Deux lignes de commandes plus tard, c’est fait.

Nous lançons dans la foulée trois tests de compression avec zli (profil sao), xz avec le niveau 9 de compression et zstd avec le niveau 3 (time permet de récupérer le temps nécessaire au traitement de la commande) pour répéter les tests de Meta.

curl -L -o silesia.zip http://sun.aei.polsl.pl/~sdeor/corpus/silesia.zip
python3 -c "import zipfile; zipfile.ZipFile('silesia.zip').extract('sao', '')"
time zli compress sao -o sao.ozl -p sao -f
time xz - 9 -k sao -f
time zstd - 3 -k sao -o sao.zst -f

Nous arrivons bien à un ratio de 2,06, exactement ce qu’annonce Meta. Même chose pour xz avec 1,64x et zstd avec 1,31x. xz est déjà à son niveau maximum de compression, mais pas zstd qui peut monter bien plus haut. Avec un niveau de 22, cela donne un ratio de compression de 1,45x (mais avec un temps de traitement beaucoup plus long), comme on peut le voir dans le graphique ci-dessous.

Passons maintenant aux tests maison !


Il reste 85% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Inclusion ou subvention américaine, la fondation Python a choisi

28 octobre 2025 à 09:08
Serpents et panier de crabes
Inclusion ou subvention américaine, la fondation Python a choisi

La Python Software Foundation explique avoir dû refuser une subvention de 1,5 million de dollars. Les conditions assorties mentionnaient l’interdiction de toute politique DEI (diversité, équité et inclusion).

Comme elle l’explique dans un billet publié ce 27 octobre, la Python Software Foundation – qui gère le développement du langage – vient de refuser une importante subvention américaine.

1,5 million de dollars sur deux ans

En janvier dernier, elle avait en effet envoyé une demande de subvention à la National Science Foundation du gouvernement américain dans le cadre du programme Safety, Security, and Privacy of Open Source Ecosystems. Ce programme permet de recevoir des fonds pour travailler spécifiquement sur la sécurité des composants open source.

Selon la fondation, c’était la première fois qu’elle demandait une telle subvention. Dans ce contexte, la construction du dossier aurait réclamé beaucoup de temps, menée par Seth Larson, développeur de sécurité et chercheur principal, et Loren Crary, directeur général adjoint de la fondation. Cette dernière estimait que son travail cadrait parfaitement avec le programme de la NSF.

La subvention a été accordée, provoquant initialement la joie de la fondation. Et pour cause : le montant alloué était de 1,5 million de dollars sur deux ans. La fondation dit fonctionner sur un budget habituel d’environ 5 millions de dollars par an, qui sert aux développeurs, à diverses opérations de communication et sensibilisation, et aux salaires de ses 14 employés.

Pas de politique de diversité, équité et inclusion

Elle indique cependant avoir déchanté en découvrant les conditions assorties. Si la fondation acceptait la subvention, elle devait notamment renoncer à toute politique DEI (diversité, équité et inclusion).

« Ces conditions comprenaient l’affirmation de la déclaration selon laquelle nous « n’exploitons pas, et ne gérerons pas, pendant la durée de cette aide financière, des programmes qui font progresser ou promeuvent la DEI ou une idéologie d’équité discriminatoire en violation des lois fédérales anti-discrimination ». Cette restriction s’appliquerait non seulement au travail de sécurité directement financé par la subvention, mais à toutes les activités de la PSF dans son ensemble. »

Sans surprise, la fondation a décidé de refuser la subvention et de s’en expliquer. Elle précise à ce titre que l’argent aurait « fait une grande différence dans le budget », en matière de sécurité comme pour son fonctionnement général. Elle aurait représenté « de loin » la plus grosse subvention reçue par la fondation depuis sa création.

La fondation ajoute que le refus de la subvention accentue nettement la pression financière sur la structure, surtout après avoir travaillé à son obtention depuis janvier. Elle cite l’inflation, la baisse du parrainage, la pression économique dans le secteur technologique, l’incertitude générale et les conflits mondiaux comme autant de facteurs. La fondation indique avoir « plus que jamais besoin d’un soutien financier » et encourage aux participations, que ce soit sous forme de dons simples ou d’adhésion à la structure. Les entreprises peuvent demander à devenir des sponsors.

☕️ Amazon va licencier 30 000 personnes

28 octobre 2025 à 08:43

Amazon va lancer, dès ce mardi 28 octobre, un plan de licenciements d’environ 30 000 salariés selon des sources de plusieurs médias états-uniens.

Ainsi, l’agence de presse Reuters explique que si ce chiffre représente une petite partie des 1,55 million de personnes qui travaillent pour Amazon à travers le monde, c’est 10 % des salariés officiant dans les bureaux de l’entreprise de Jeff Bezos qui devraient être touchés.

Les sources du Wall Street Journal affirment que « les ressources humaines, le cloud computing, la publicité et plusieurs autres divisions » devraient être concernées. Reuters ajoute à la liste les divisions « appareils et services » et Amazon Web Services, qui a très récemment essuyé une panne de grande ampleur. Selon celles du New York Times, des postes élevés dans la hiérarchie devraient être plus touchés que lors des précédentes vagues de licenciements.

Les sources de Reuters expliquent que le programme de quasi-arrêt du télétravail (retour au bureau cinq jours par semaine) lancé au sein d’Amazon en début d’année n’aurait pas permis de générer le nombre de départs espérés. Certains employés habitant loin et ne venant pas quotidiennement au bureau auraient été considérés comme démissionnaires par l’entreprise. Celle-ci estimerait en conséquence ne pas avoir à leur verser d’indemnités de licenciement.

Une enquête basée sur des documents internes a par ailleurs récemment révélé qu’Amazon s’attendait à pouvoir éviter 600 000 embauches d’ici 2033 grâce à l’automatisation et aux robots.

L’Europe se dote d’une grille de lecture interne pour le cloud souverain

28 octobre 2025 à 08:25
L'air de rien
L’Europe se dote d’une grille de lecture interne pour le cloud souverain

La Commission européenne a publié le 20 octobre une grille de lecture permettant d’apposer une note de souveraineté sur les offres cloud. Elle doit aider ses propres instances à choisir leurs prestataires en tenant compte de divers critères. Il pourrait cependant préfigurer les futures grandes lignes du Cloud and AI Development Act, qui doit définir ce qu’est la souveraineté numérique en Europe.

Le document publié le 20 octobre a été rédigé par la Direction générale des services numériques de la Commission européenne. On y apprend dans l’introduction que ce Cloud Sovereignty Framework opère une synthèse de bon nombre de travaux existants, dont le Trusted Cloud Referential v2 du CIGREF, des règles de Gaia-X, de plusieurs directives européennes sur la cybersécurité (dont NIS2 et DORA, en cours de transposition en France), ou encore certaines stratégies nationales comme « Cloud de Confiance » en France et « Souveräner Cloud » en Allemagne.

Ce référentiel liste huit objectifs de souveraineté numérique pour les offres cloud, permettant de calculer un score. Le document s’adresse aux instances européennes pour qu’elles puissent s’équiper en services répondant à des notes minimales fixées par avance. Il mentionne également une volonté de classer les offres cloud via une échelle concrète allant de 0 à 4.

Le prisme des souverainetés


Il reste 80% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Copilot : l’Australie poursuit Microsoft au sujet des hausses de prix de Microsoft 365

28 octobre 2025 à 07:50
Y'en a un peu plus, je vous le mets quand même ?
Copilot : l’Australie poursuit Microsoft au sujet des hausses de prix de Microsoft 365

L’Autorité de la concurrence australienne engage des poursuites en justice à l’encontre de Microsoft. Elle accuse l’éditeur d’avoir délibérément trompé 2,7 millions de consommateurs australiens en appliquant des hausses de prix aux abonnements Microsoft 365 sans les avertir correctement de l’existence d’une formule dépourvue des fonctions IA Copilot.

L’annonce de la hausse des tarifs de Microsoft 365, motivée selon son éditeur par l’intégration des fonctions IA Copilot, avait fait grincer quelques dents parmi les lecteurs de Next. En Australie, elle vient d’occasionner une procédure nettement plus formelle. L’ACCC (Australian Competition and Consumer Commission), le gendarme de la concurrence local, vient en effet d’attaquer Microsoft en justice pour avoir, selon elle, « induit en erreur environ 2,7 millions de clients australiens lors de la communication des options d’abonnement et des augmentations de prix, après avoir intégré son assistant d’IA, Copilot, aux forfaits Microsoft 365 ».

Une option sans IA bien cachée

Le mouvement avait été annoncé aux abonnés Microsoft 365 à partir de la fin octobre 2024 : à compter du début d’année 2025, l’abonnement, qui permet pour mémoire d’accéder aux principaux logiciels de la suite bureautique Office, allait s’enrichir de fonctions d’IA générative, grâce à l’intégration de Copilot, l’agent développé par Microsoft.

Une hausse de prix significative a accompagné cette nouveauté. En France, le tarif annuel de l’offre Microsoft 365 Personnel est ainsi passé de 69 euros à 99 euros par an, tandis que l’offre Famille a quant à elle vu son prix grimper de 99 à 129 euros par an.

Il existe toutefois une possibilité de rester sur une formule dépourvue des fonctions IA, en basculant vers un forfait dit « Classique », mais cette dernière n’est absolument pas mise en avant par Microsoft. Signalée à l’époque dans une discrète page de support, cette option n’est aujourd’hui pas affichée sur la page de gestion d’un abonnement Microsoft 365 : il faut passer par une demande de désactivation de la facturation automatique pour se la voir proposer.

Il faut engager une démarche de résiliation pour voir apparaître l’offre Classique dépourvue des fonctions IA – capture d’écran Next

Une omission trompeuse ?

C’est le caractère très discret de cette option qu’attaque la Concurrence australienne. « À l’issue d’une enquête approfondie, nous affirmerons devant le tribunal que Microsoft a délibérément omis de mentionner les forfaits Classic dans ses communications et a dissimulé leur existence jusqu’à ce que les abonnés entament le processus de résiliation, afin d’augmenter le nombre de consommateurs optant pour les forfaits plus chers intégrant Copilot », résume l’avocate Gina Cass-Gottlieb, présidente de l’ACCC, dans un communiqué.

En Australie, l’intégration de Copilot s’est traduite par une augmentation de 45 % du prix du forfait Microsoft 365 Personnel, passé de 109 à 159 dollars australiens. Cette dernière a, comme ailleurs dans le monde, été annoncée par email aux abonnés existants, après publication par Microsoft d’un billet de blog vantant les mérites de Copilot.

« Nous alléguons que les deux emails de Microsoft aux abonnés existants et le billet de blog étaient faux ou trompeurs car ils indiquaient que les consommateurs devaient accepter les plans intégrés à Copilot plus chers et que la seule autre option était d’annuler », ajoute Gina Cass-Gottlieb.

Pour l’ACCC, il y aurait donc communication trompeuse. « S’ils avaient été informés de l’option Classic pendant la période de renouvellement, de nombreux consommateurs auraient pu opter pour cette option. Ils auraient pu le faire pour des raisons d’économie, parce qu’ils ne souhaitaient pas ou n’avaient pas besoin de l’intégration de l’IA, ou pour une combinaison de ces raisons. Les consommateurs qui auraient choisi l’option Classique s’ils en avaient eu connaissance, mais qui ont finalement accepté le prix plus élevé de l’abonnement Bundle, ont subi un préjudice correspondant à la différence de prix entre les deux options », expose plus en détails l’organisme dans sa déclaration de plainte (PDF).

En cas de condamnation, Microsoft pourrait se voir sanctionné, selon la loi australienne, d’une amende maximale de 50 millions de dollars australiens.

☕️ Automattic riposte en justice contre WP Engine

28 octobre 2025 à 07:25

Un an après avoir été poursuivie en justice par WP Engine, pour entre autres tentative d’extorsion et abus de pouvoir, Automattic contre-attaque dans la même affaire, a annoncé l’entreprise dans un billet de blog. Elle accuse WP Engine de concurrence déloyale et de contrefaçon de la marque WordPress.

Notamment, elle pointe l’utilisation du terme dans ces produits comme « Core WordPress » ou « Headless WordPress ». Automattic pointe aussi l’utilisation par WP Engine de l’appellation « « The WordPress Technology Company » et l’accuse d’avoir laissé ses partenaires avoir utilisé le nom « WordPress Engine » pour parler de WP Engine.

Logo WordPress

L’année dernière, l’écosystème commercial de WordPress avait assisté de façon impuissante à la confrontation entre ces deux entreprises qui dominent le marché. WP Engine avait fini par attaquer en justice Automattic et Matt Mullenweg (créateur du logiciel WordPress et de la fondation du même nom mais aussi CEO d’Automattic) pour tentative d’extorsion.

Reçu hier — 27 octobre 2025Next.ink

Free TV : TF1 et France Télévisions dénoncent une « méthode brutale et unilatérale »

27 octobre 2025 à 16:05
Quand lama fâché lui toujours faire ainsi
Free TV : TF1 et France Télévisions dénoncent une « méthode brutale et unilatérale »

France Télévisions et TF1 ont dénoncé lundi le lancement « sans concertation préalable » de l’offre Free TV, qui promet un accès gratuit à 170 chaînes de télévision sur smartphone, ordinateur ou écran de TV, en échange de publicités. Les deux groupes en appellent aux pouvoirs publics et au régulateur.

Actionnaire historique de Molotov, Xavier Niel sait très bien qu’il jette un pavé dans la mare quand il relaie le lancement de l’offre de télévision Free TV, en axant son discours sur la gratuité du service. Une semaine plus tard, réponse du berger à la bergère : France Télévisions et le Groupe TF1 associent leurs voix dans un communiqué commun pour dénoncer l’initiative :

« France Télévisions et le Groupe TF1 dénoncent avec la plus grande fermeté l’initiative de Free visant à commercialiser leurs services sans aucune concertation préalable avec les éditeurs concernés. Cette méthode brutale et unilatérale témoigne d’un mépris des droits des ayants droit créateurs et acteurs du secteur audiovisuel et de leurs partenaires commerciaux. 

Appel aux pouvoirs publics et à l’Arcom

Free TV propose pour mémoire à tous les internautes (abonnés à Free ou non) d’accéder à 170 chaînes de télévision dans sa formule gratuite, financée par la publicité. Le bouquet comprend la majorité des chaînes de la TNT gratuite, dont celles de France TV, mais les canaux des groupes TF1 et M6 en sont exclus.

À ce premier étage s’ajoute une offre optionnelle Free TV+ (5,99 euros par mois, gratuite pour les abonnés Freebox avec le service de télévision ou les abonnés mobiles Forfait Free 5G et Série Free) qui réunit quant à elle 300 chaînes, dont celles du groupe TF1.

Résumé de l’offre Free TV et de son pendant payant Free TV+

TF1 et France Télévisions voient dans cette approche une façon directe de concurrencer leurs propres canaux de distribution, et donc une menace à caractère stratégique. «  La majorité des éditeurs privilégient l’intégration de leurs services via leur propre application pour des raisons évidentes de maitrise éditoriale, expérience utilisateurs et maîtrise publicitaire », avancent les deux groupes, selon qui l’initiative de Free « remet en cause la stratégie de développement et les ressources disponibles des éditeurs pour financer la création ».

« Dans un contexte de profonde mutation du secteur », ils appellent donc à la fois les pouvoirs publics et le régulateur, l’Arcom, « à examiner avec la plus grande attention cette initiative qui déstabilise l’ensemble de l’écosystème ».

Maîtriser la distribution

L’actualité récente illustre bien à quel point la distribution de leurs contenus revêt un caractère stratégique pour les groupes audiovisuels. Chez TF1, on a par exemple inauguré récemment des micro-transactions au sein de l’application TF1+, dédiée aux programmes du groupe et pensée comme un relais de croissance face à la montée en puissance des grandes plateformes vidéo.

Et ces dernières ne sont pas que de simples concurrentes dans l’équation : elles deviennent également des alliées, comme en témoigne l’accord, inédit au moment de son annonce, grâce auquel Netflix diffusera les chaînes et contenus de TF1 à compter de 2026. L’audiovisuel public n’est pas en reste : début juillet, France Télévisions a ainsi formalisé la signature d’un partenariat commercial avec Amazon Prime Video.

Free n’ignore logiquement rien de ces enjeux commerciaux. C’est d’ailleurs le précédent Molotov qui explique que les chaînes appartenant à TF1 et M6 soient exclues du bouquet gratuit Free TV et réservées à l’option payante.

Free et TF1 sont pour mémoire liés par un accord global de distribution qui permet à l’opérateur de distribuer les contenus du groupe audiovisuel à destination de ses abonnés Freebox. Lors de son dernier renouvellement, en 2024, l’accord prévoyait que « les abonnés Freebox [puissent] accéder à l’ensemble des chaînes TNT du groupe TF1 (TF1, TMC, LCI, TFX, TF1 Séries Films) et aux programmes du groupe TF1 en replay (MYTF1) dans l’application OQEE by Free en mobilité et sur TV connectée ».

À l’époque, l’application OQEE était cependant réservée aux abonnés Freebox, quand Free TV ne pose aucune autre barrière à l’entrée que la création d’un compte et l’acceptation des cookies.

Les services d’immigration américains ont leur outil de surveillance des réseaux sociaux

27 octobre 2025 à 15:30
Panoptique automatisé
Les services d’immigration américains ont leur outil de surveillance des réseaux sociaux

C’est déjà signé. L’ICE, l’agence de l’immigration et des douanes des États-Unis a, depuis un mois, accès à un système de surveillance des réseaux sociaux nommé Zignal Labs qui lui permet de surveiller les familles immigrées et les opposants à la politique de chasse des étrangers mise en place par Donald Trump.

Les services de l’immigration et des douanes états-uniens, l’ICE, viennent de signer un contrat pour accéder à la plateforme de monitoring de réseaux sociaux de Zignal Labs.

On sait depuis peu que l’ICE a prévu de mettre en place une équipe spécifiquement assignée à la surveillance des réseaux sociaux. Cette agence a accès à Immigration OS, l’outil d’assistance à l’expulsion de Palantir, comme l’indiquait Amnesty International en aout dernier. Mais celui-ci ne scrute pas en permanence X, TikTok et autres Instagram. L’autre agence de protection des frontières, le Service des douanes et de la protection des frontières (CBP), utilise Babel X pour cela, toujours selon Amnesty.

5,7 millions d’euros sur cinq ans

Mais l’ICE a finalement choisi une autre solution, Zignal Labs, donc, avec un contrat de 5,7 millions de dollars sur cinq ans, comme l’a révélé le média The Lever. Zignal Labs, c’est au départ une entreprise de Californie qui analyse les réseaux sociaux pour en tirer des données pour l’analyse publicitaire. Elle a aussi noué des partenariats sur l’analyse de données, notamment avec le Washington Post dès 2016.

Ainsi en 2021, le média s’appuyait sur ses données en expliquant que « les fausses informations en ligne concernant la fraude électorale ont chuté de 73 % après que plusieurs réseaux sociaux ont suspendu le compte du président Trump et de ses principaux alliés la semaine dernière, selon les conclusions du cabinet d’études Zignal Labs, soulignant ainsi le pouvoir des entreprises technologiques à limiter les fausses informations qui empoisonnent le débat public lorsqu’elles agissent de manière agressive ».

Mais la même année, l’entreprise annonçait son pivot vers des logiciels pour les agences de sécurité avec, comme le souligne The Lever, la création d’un bureau regroupant des anciens responsables de l’armée états-unienne ou venant de la police.

Zignal surveille aussi Gaza

The Lever a repéré sur internet une brochure de l’entreprise datant de 2025 qui vante les capacités de sa plateforme pour donner des « renseignements tactiques » aux « opérateurs sur le terrain » à Gaza, sans pour autant nommer précisément l’armée israélienne. Interrogée par nos confrères, l’entreprise n’a pas répondu sur ce sujet ni sur le contrat avec l’ICE.

Ce n’est d’ailleurs pas directement avec Zignal que l’ICE a passé le contrat. L’agence états-unienne est passé par une autre société, Carahsoft, qui fournit le service et avec qui Zignal Labs s’était associé en juillet dernier pour fournir une plateforme OSINT de nouvelle génération aux agences gouvernementales et de défense.

Comme on peut le voir sur la brochure évoquée ci-dessus, Zignal est plus qu’une entreprise surveillant les réseaux sociaux. Elle se vante de « fournir en temps réel des renseignements exploitables aux opérateurs » en proposant une solution d’OSINT (des renseignements dont l’origine sont des « sources ouvertes »).

Le département de la Sécurité intérieure, dont dépend l’ICE, n’en est pas à sa première signature impliquant une solution de Zignal, puisqu’elle avait engagé un premier contrat de 700 000 dollars directement avec l’entreprise en 2019.

« Terroriser les familles d’immigrants […] cibler les militants »

« [Le département de la Sécurité intérieure] ne devrait pas acheter des outils de surveillance qui récupèrent nos publications sur les réseaux sociaux sur Internet, puis utilisent l’IA pour examiner minutieusement nos propos en ligne. Et les agences ne devraient certainement pas déployer ce type de technologie opaque en secret, sans aucune obligation de rendre des comptes », avance Patrick Toomey, directeur adjoint du projet de sécurité nationale de l’Union américaine pour les libertés civiles (ACLU) à The Lever.

« L’ICE est une agence sans foi ni loi qui utilisera la surveillance des réseaux sociaux basée sur l’IA non seulement pour terroriser les familles d’immigrants, mais aussi pour cibler les militants qui luttent contre ses abus. Il s’agit d’une atteinte à notre démocratie et à notre droit à la liberté d’expression, alimentée par l’algorithme et financée par nos impôts. », réagit Will Owen de l’association Surveillance Technology Oversight Project (STOP) interrogé par Wired.

☕️ Nouvelle alerte sur des « tsunamis » de déchets électroniques

27 octobre 2025 à 14:34

L‘organisation non gouvernementale Basel Action Network (BAN) a publié le résultat d’une enquête sur les déchets électroniques de dix entreprises américaines. L’ONG parle d’un « tsunami caché d’exportations de déchets électroniques vers l’Asie ».

Pour BAN, des « volumes importants d’électronique des États-Unis continuent d’être exportés vers des pays qui ont interdit leur importation et manquent souvent de capacités pour les gérer ». Selon leur enquête, cela pourrait représenter « environ 2 000 conteneurs (représentant 32 947 tonnes métriques) qui pourraient être remplis de déchets électroniques abandonnés ».

Parmi les destinations mises en avant par BAN, on retrouve la Malaisie, l’Indonésie, la Thaïlande, les Philippines et les Émirats arabes unis. Dans les entreprises identifiées, Best Buy est citée. Sur les dix entreprises, huit étaient certifiées R2V3 pour… « responsible recycling », affirme l’ONG.

Monstre de consommation numérique s'auto-alimentant

La situation n’a malheureusement rien de nouveau. En 2021 déjà, l’OMS alertait sur un « tsunami de déchets électroniques », comme le rapportait Le Monde. Un exemple au Ghana : « Des adolescents, parfois très jeunes, brûlent les déchets électroniques pour en récupérer le cuivre, le cobalt, le platine et autres métaux précieux. Des fumées noires et âcres rendent l’air irrespirable. Plomb, mercure, arsenic, cadmium se répandent dans le sol, contaminent l’eau », expliquaient nos confrères.

Le Temps parlait aussi de tsunami en 2024, suite à la publication d’un rapport de l’Institut des Nations unies pour la recherche et la formation (Unitar) : « Les « e-déchets » augmentent cinq fois plus vite que leur recyclage ». En 2022, selon le rapport, 62 millions de tonnes d’e-déchets ont été produits, en « hausse de 82 % par rapport à 2010. Ce chiffre est même en passe d’atteindre 82 millions de tonnes d’ici à 2030 ». Il y a de fortes disparités : « un Européen en produit environ sept fois plus qu’un Africain ».

Pour l’ONU, « les métaux – notamment le cuivre, l’or et le fer – représentent la moitié des 62 millions de tonnes, pour une valeur totale de quelque 91 milliards de dollars. Les plastiques représentent 17 millions de tonnes et les 14 millions de tonnes restantes comprennent des substances telles que les matériaux composites et le verre ».

AWS : le post-mortem de la grande panne révèle un bug rare et une automatisation extrême

27 octobre 2025 à 13:06
Quelle dépendance ?
AWS : le post-mortem de la grande panne révèle un bug rare et une automatisation extrême

Amazon Web Services a publié un long post-mortem, revenant de manière détaillée sur la gigantesque panne qui a affecté ses services le 20 octobre. À la racine de la cascade, une situation de compétition autour d’enregistrements DNS et un effondrement d’autres services par effet domino. L’automatisation s’est retournée contre ses concepteurs.

La panne AWS du 20 octobre a affecté de très nombreuses entreprises s‘appuyant sur son cloud pour proposer leurs services. Alexa, Asana, Snapchat, Fortnite, Epic Games Store, ChatGPT, Autocad ou encore Docker ont été directement touchés, avec une interruption totale ou partielle de leurs activités pendant plusieurs heures.

Comment une telle panne a-t-elle pu arriver ?

AWS avait publié une série d’informations tout au long de la panne, ne serait-ce que pour tenir informée la clientèle, forcément démunie. On savait que le service de base de données DynamoDB était impliqué et qu’Amazon avait rencontré des problèmes avec les DNS. Mais le rapport complet de l’incident est nettement plus intéressant.

Pour comprendre ce qui s’est passé, rappelons qu’AWS est une infrastructure immense, dans laquelle DynamoDB tient une place importante. Le service utilise des centaines de milliers d’enregistrements DNS pour gérer la flotte de serveurs qui lui sont rattachés. Deux systèmes entièrement automatisés sont chargés d’assurer la résilience de l’ensemble en gérant ces enregistrements et en assurant la cohérence du tout.

C’est aussi à travers eux que le problème s’est présenté, sous la forme d’une situation de compétition (race condition en anglais). Expliquons rapidement de quoi il s’agit : une situation de compétition est un bug survenant quand le comportement d’un programme dépend de l’ordre ou du moment précis d’exécution de plusieurs processus tournant en parallèle.

Dans le cas présent, les deux systèmes automatisés travaillaient simultanément sur les mêmes enregistrements DNS. En temps normal, ce n’est pas un problème et des mécanismes existent pour gérer les résultats. Mais pour une raison inconnue (AWS ne dit pas laquelle), l’un des systèmes automatisés, appelé DNS Enactor, s’est mis à afficher un retard important dans ses calculs et donc dans la mise à jour des enregistrements DNS. L’autre système a fini ses calculs, mis à jour les enregistrements DNS, puis a lancé un nettoyage pour effacer les anciennes informations.


Il reste 68% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

T@LC : on a posé 20 fois la même question à une IA, on a eu 5 réponses différentes

27 octobre 2025 à 09:37
Oublie que t'as aucune chance, vas-y fonce ! On sait jamais !
T@LC : on a posé 20 fois la même question à une IA, on a eu 5 réponses différentes

Dans notre nouvel épisode de T@LC (Tests À La Con), nous avons posé 20 fois une même question à Claude, mais n’avons obtenu la bonne réponse que 16 fois. L’intelligence artificielle générative s’est trompée dans ses calculs (elles ne sont pas bonnes dans ce domaine), mais aussi dans son raisonnement.

On en parle à longueur d’actualités, mais un rappel ne peut pas faire de mal : les intelligences artificielles génératives ont deux principaux défauts. Tout d’abord, elles hallucinent plus ou moins régulièrement, c’est-à-dire qu’elles proposent des résultats incorrects ou trompeurs, pour reprendre la notion qui est généralement admise dans cette communauté (sans être une définition absolue).

Le deuxième défaut est étroitement lié au premier : les intelligences artificielles sont probabilistes. Et qui dit probabilité, dit risque d’erreur. C’est aussi simple que cela. En fait, une intelligence artificielle va donner la réponse qu’elle juge la plus probable selon ses modèles mathématiques.

On pourrait très grossièrement résumer en disant que si une IA est fiable à 90 % sur un sujet, elle donnera la bonne réponse 9 fois sur 10 (ce n’est pas si simple, mais c’est une première approche). La dixième fois, elle peut halluciner et répondre complètement à côté de la plaque. Les probabilités peuvent varier, mais de par la construction des modèles, il est impossible de garantir un résultat fiable à 100 % en toutes circonstances.

Une question, vingt réponses : quatre sont fausses

Vous voulez un exemple ? Nous avons posé plusieurs fois une même question à Claude avec le modèle Haiku 4.5 : « Combien de temps faut-il pour consommer 500 Go avec un débit de 50 Mb/s ? ».

Rien de bien compliqué pour un humain : 50 Mb/s c’est équivalent à 6,25 Mo/s (on divise par huit), soit 80 000 secondes pour 500 000 Mo (500 Go) ou bien encore 22,2 heures. C’est également 22 heures, 13 minutes et 33 secondes.

Enfin « rien de compliqué » à condition de s’entendre sur le passage des Go aux Mo. Parle-t-on de 500 000 Mo (500 * 10³) ou bien de 512 000 Mo (500 * 1024 ou 500 * 2¹⁰) pour 500 Go ? Ce n’est pas la question ici, mais avec 512 000 Mo on arrive à 81 920 secondes, soit 22,76 heures ou encore 22 heures, 45 minutes et 33 secondes.

Nous avons posé 20 fois la même question à Claude, en effaçant à chaque fois la conversation précédente et en lançant une nouvelle. Nous avons accordé une bonne réponse aussi bien pour 22h13 que 22h45. Sur les 20 tentatives, l’intelligence artificielle n’a cependant donné la bonne réponse que 16 fois.

Deux fois elle s’est trompée lors des opérations mathématiques, mais le raisonnement était bon, les deux autres fois son raisonnement était faux. Avant de passer aux explications détaillées, voici le bilan de nos 20 questions (identiques) :


Il reste 77% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Informatique quantique : Lucy et ses 12 qubits s’installent au Très Grand Centre de Calcul

27 octobre 2025 à 08:07

Quandela (fabricant français d’ordinateurs quantiques), le GENCI (Grand équipement national de calcul intensif) et le CEA (Commissariat à l’énergie atomique et aux énergies alternatives) ont annoncé en fin de semaine dernière la livraison de Lucy : « un ordinateur quantique photonique universel numérique de 12 qubits ». Il est installé au Très Grand Centre de Calcul (TGCC) du CEA dans le 91.

Le CEA affirme que c’est « l’ordinateur quantique photonique le plus puissant au monde », mais rappelons qu’il existe bien d’autres technologies pour réaliser les qubits des ordinateurs quantiques. La machine a été acquise par « l’EuroHPC Joint Undertaking dans le cadre du consortium EuroQCS-France ».

Quandela s’était déjà trouvé une place chez OVHcloud. L’hébergeur roubaisien avait inauguré son MosaiQ en mars 2024, une machine quantique de Quandela avec deux qubits photoniques. Elle est évolutive et peut passer facilement à six qubits si besoin, puis 12 et même 24 à condition d’installer une seconde machine pour cette dernière étape. Quandela s’est aussi installée au Canada en 2024, chez Exaion.

OVHcloud et Quandela nous expliquaient alors que la consommation électrique classique en utilisation de la machine à deux qubits était de l’ordre de 2,5 kW, mais avec cinq kW recommandés car l’ordinateur a besoin de plus de puissance au démarrage. Pour plus de détails sur la machine quantique d’OVHcloud vous pouvez lire cette actualité.

Le CEA met en avant l’expertise française et européenne :

« Assemblé en seulement douze mois dans le site industriel de Quandela, le système illustre la force de la collaboration européenne. Les modules cryogéniques ont été conçus par attocube systems AG près de Munich, les dispositifs quantiques ont été fabriqués sur la ligne pilote de Quandela à Palaiseau, et l’intégration finale a été réalisée dans son usine de Massy. Avec 80% de ses composants – et l’ensemble des composants critiques – d’origine européenne, Lucy incarne la capacité de l’Europe à concevoir et livrer des technologies quantiques souveraines ».

L’ouverture aux chercheurs européens est prévue pour début 2026.

☕️ Sora d’OpenAI utilisée pour insérer des propos racistes dans la bouche de célébrités

27 octobre 2025 à 07:43

Sora a déjà permis des deepfakes et des représentations racistes et sexistes de personnages historiques. Mais l’application d’OpenAI rend aussi possible la création de vidéos dans lesquelles des personnes connues semblent proférer des insultes racistes.

Ainsi, comme l’explique Rolling Stone, des deepfakes commencent à circuler sur le nouveau réseau social d’OpenAI (non accessible officiellement en France) où l’on voit des personnalités étatsuniennes comme le boxeur et youtubeur Jack Paul proférer des insultes racistes. Ou plutôt, qui semblent proférer. Car les utilisateurs qui créent ce genre de vidéos s’appuient sur la proximité sonore de certains mots pour passer outre les blocages.

Un crâne ouvert au sommet sert de piscine à un homme qui se baigne dans une bouée canard, le tout sur fond bleu tirant vers le noir.

Ainsi, par exemple, Jack Paul est représenté dans un supermarché criant « I hate juice » (je déteste le jus), qui se rapproche fortement de façon sonore d’une phrase antisémite, jouant sur le rapprochement sonore de « juice » (jus) et de « jews » (juifs). La vidéo a été générée par Sora le 12 octobre et est encore en ligne actuellement.

De la même façon, une vidéo met en scène Sam Altman crier « I hate knitters » (je déteste les personnes qui tricotent), pour se rapprocher du terme « niggers » (nègres).

Les chercheurs de l’entreprise Copyleaks qui ont repéré le phénomène expliquent : « ce comportement illustre une tendance peu surprenante en matière de contournement basé sur les prompts, où les utilisateurs testent intentionnellement les systèmes à la recherche de faiblesses dans la modération du contenu. Lorsqu’ils sont associés à des ressemblances avec des personnes reconnaissables, ces deepfakes deviennent plus viraux et plus préjudiciables, se propageant rapidement sur la plateforme et au-delà (toutes les vidéos que nous avons examinées pouvaient être téléchargées, ce qui permettait leur publication croisée ailleurs) ».

Reçu avant avant-hierNext.ink

#Nextpresso : que vaut un SSD de 480 Go à 21 euros ?

24 octobre 2025 à 15:47
Le premier qui dit 21 euros a… gagné
#Nextpresso : que vaut un SSD de 480 Go à 21 euros ?

21 euros pour un SSD de 2,5 pouces, voilà de quoi redonner une seconde vie à quelques vieux ordinateurs ou ajouter un peu de stockage à moindre coût. Que peut-on attendre pour ce prix ? Nous en avons testé et démonté un.

Le prix des SSD ne cesse de baisser au fil des années. La barre symbolique d’un euro par Go a été dépassée au début des années 2010. La descente du prix au Go a ensuite été rapide durant cette décennie. 35 centimes par Go aux alentours de 2015, 15 à 20 centimes le Go en 2018, moins de 10 centimes en 2019 et jusqu’à 5 centimes en 2024.

Au gré des promotions, il est parfois possible de descendre encore plus bas. C’est le cas de l’Acer SA100 de 480 Go en S-ATA (447 Go une fois formaté, selon l’explorateur de fichiers de Windows 11), qui a été vendu il y a quelques jours à 20,99 euros par Amazon. Nous en avons commandé un pour voir ce qu’il propose pour ce prix.

Premiers tours de piste

On commence avec les classiques ATTO Disk Benchmark 4.01, CrystalDiskMark 8.0.6 et HD Tune Pro 6.10.


Il reste 93% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Budget 2026 : de nouvelles taxes sur les géants du numérique en perspective ?

24 octobre 2025 à 15:35
Money !
Budget 2026 : de nouvelles taxes sur les géants du numérique en perspective ?

Lors des discussions sur le budget 2026 de l’État, les députés vont devoir se positionner sur plusieurs taxes ciblant les grandes entreprises du numérique. La taxe GAFAM, qui existe déjà et les vise particulièrement, pourrait passer de 3 à 15 %. Ils devront aussi discuter d’une contribution sur l’utilisation des réseaux de communication par les fournisseurs de contenus.

Venant de plusieurs horizons, des propositions pour taxer les grandes entreprises du numérique (surtout états-uniennes) vont être discutées dans l’hémicycle ces prochains jours.

Les débats s’ouvrent ce vendredi 24 octobre en séance plénière à l’Assemblée nationale pour discuter puis voter le budget de 2026. Si son examen n’est pas fini au bout de 70 jours, le gouvernement peut recourir à une adoption par ordonnances (article 47 de la Constitution).

Dans la nuit de mercredi 22 à jeudi 23 octobre, la commission des finances de l’Assemblée nationale a rejeté globalement la première partie du budget de l’État qui avait été amendée au cours de la semaine. C’est donc sur la base du projet de loi initial que les députés vont devoir s’exprimer cette fois-ci en séance plénière.

Proposition de relever la taxe GAFAM à 15 %

Mais une mesure qui ne figure pas dans cette version initiale pourrait trouver une majorité dans l’hémicycle. En effet, le taux de la taxe GAFAM, aujourd’hui à 3 %, pourrait allègrement augmenter. Elle consiste notamment à taxer les recettes générées par le ciblage publicitaire.

L’année dernière déjà, le député Corentin Le Fur (droite républicaine) avait proposé de le porter à 5 %. Dans son contre-projet qu’il a publié en septembre dernier, le PS indiquait vouloir le doubler et donc le passer de 3 à 6 %.

Mais, dans un amendement déposé par le député Renaissance, Jean-René Cazeneuve, il est proposé « de porter de 3 % à 15 % » le taux de cette taxe. Ce texte, qui a été voté lors de l’examen en commission, propose aussi d’augmenter le seuil de taxation au niveau mondial à 2 milliards d’euros au lieu des 700 millions actuellement dans la loi.

Dans son exposé, le député affirme que « la France a instauré cette taxe en 2019 pour remédier à l’inégalité fiscale entre les entreprises du numérique, souvent étrangères, et les acteurs économiques soumis à l’impôt sur le territoire. Son rendement, d’environ 700 millions d’euros en 2024, demeure sans rapport avec les profits réalisés en France par les grands groupes du secteur ».

Si le texte revient donc aujourd’hui à l’Assemblée sans les amendements votés en commission et donc sans intégrer cet amendement de Jean-René Cazeneuve, celui-ci a des chances d’être de nouveau voté dans l’hémicycle via un nouvel amendement.

Une taxe sur les fournisseurs de contenus comme Netflix ?

Un autre sujet de financement du numérique revient via les discussions sur le budget 2026 : le financement des réseaux télécoms par les plus importants fournisseurs de contenus. Selon le dernier bilan de l’état de l’Internet en France de l’Arcep, « cinq acteurs – Netflix, Akamai, Google, Meta et Amazon – génèrent 47 % de ce trafic », qui était de 50,8 Tb/s fin 2024 (+ 9,2 % en un an).

Le député RN Jean-Philippe Tanguy a déposé, en commission, un amendement [PDF] qui proposait la création d’une « contribution annuelle forfaitaire » de « 12 000 euros par Gb/s d’utilisation annuelle moyenne ». Cela ne concerne que « les personnes désignées contrôleurs d’accès par la Commission européenne », et « utilisant une bande passante moyenne annuelle supérieure à 1 Gb/s ». « Idée délirante, tarif délirant », rétorque Pierre Beyssac, porte-parole du Parti Pirate.

Ceci pour participer aux investissements « [des] pouvoirs publics et [des] fournisseurs d’accès à internet » pour développer et maintenir les infrastructures. Comme nous l’expliquions déjà en 2022, c’est encore le retour d’une idée récurrente. Cet amendement du député RN a été rejeté en commission, mais Jean-Philippe Tanguy l’a de nouveau présenté pendant la séance plénière. Il a peu de chance d’être intégré au texte final. Le député RN semble attaché à cette mesure, puisqu’il l’avait déjà proposé l’année dernière.

La Fédération Française des Télécoms (FFTélécoms), important lobby du secteur qui rassemble les principaux FAI mais aussi l’opérateur d’infrastructures Axione ou Verizon France par exemple, a publié récemment une tribune sur le sujet dans Les Echos. Elle y accuse les « big tech » (sont visés ici Netflix, Meta, Google et Amazon) d’être des « passagers clandestins » (terme utilisé aussi par le député RN dans l’exposé de son amendement) profitant d’« une asymétrie délétère pour l’Europe ».

Si la FFTélécoms réclame une contribution financière de leur part, elle souhaite « des accords commerciaux entre les opérateurs et les grands fournisseurs de trafic, pas une nouvelle taxe », explique-t-elle à nos confrères de Contexte. Elle souhaiterait, par contre, que l’Europe impose un cadre à ces négociations via le Digital Networks Act. Ce texte doit être présenté dans moins de deux mois à la Commission européenne. Mais il est difficile de savoir ce qu’il va contenir. Et, toujours selon Contexte, la CCIA Europe, lobby de la tech étatsunienne, veut éviter « toute tentative d’introduire des « network fees » » et y met tout son poids en organisant diverses réunions de lobbying.

❌