Vue lecture

Une quarantaine de chercheurs appellent à surveiller les « pensées » des systèmes d’IA

Les arrières-pensées que nous prêtons aux autres ne sont jamais que nos propres pensées.
Une quarantaine de chercheurs appellent à surveiller les « pensées » des systèmes d’IA

Plusieurs dizaines de chercheurs en vue dans le monde de l’IA appellent à développer des techniques de surveillance des « fils de pensée » des modèles d’IA. L’idée même que ces systèmes techniques soient capable de raisonnement est profondément débattue.

Enquêter sur les « pensées » des modèles de « raisonnement » d’intelligence artificielle ? C’est ce à quoi appellent 41 chercheurs financés par les plus grandes sociétés d’IA – Antrophic, OpenAI, Google DeepMind, Meta –, des scientifiques affiliés à diverses institutions comme le UK AI Security Instititute et de grands noms du domaine comme Yoshua Bengio.

L’idée qu’ils défendent : déployer des technologies de surveillance des « chaînes de pensée » des systèmes d’IA pour y « détecter l’intention de mal se comporter ». Dans un article (un position paper intitulé « Chain of Thought Monitorability : a new and fragile opportunity for AI safety ») publié ce 15 juillet, les signataires appellent les développeurs de « modèles frontières » à se pencher sur la possibilité de suivre les « fils de pensée » (chain of thoughts, CoT) des modèles à mesure qu’ils les développent.

La proposition s’inscrit dans un contexte de difficulté à comprendre la manière dont les modèles d’apprentissage machine et les grands modèles de langage construits grâces à ces techniques parviennent à leurs résultats. Plus récemment, elle s’inscrit dans l’affirmation selon laquelle des modèles comme le o3 d’OpenAI ou le R1 de DeepSeek seraient capables de « raisonnement ». Pour les auteurs de l’article, « la surveillance des CoT est un complément précieux aux mesures de sécurité des modèles frontières, car elle offre un rare aperçu de la manière dont les agents IA prennent des décisions ».

Modèles de quoi ?

Poussée par OpenAI à l’été 2023, l’expression « modèle frontière » décrit d’après l’entreprise « des modèles de fondation très performants qui pourraient posséder des capacités dangereuses suffisantes pour poser des risques graves pour la sécurité publique ». Meta qualifie par exemple son modèle Llama 3.1 de modèle « frontière ».

Si elle est débattue dans le milieu scientifique, la notion de modèle de fondation est quant à elle définie dans le droit européen comme « un système d’IA entraîné sur un vaste jeu de données, et construit pour la généralité de ses productions ».

Les modèles de langage de raisonnement (reasoning language models) sont un qualificatif accolé à différents LLM depuis la publication du système o1 d’Open Ai, en septembre 2024. Ils fonctionnent grâce à des logiques de « fils de pensée », ces fonctionnalités grâce auxquelles un système génératif fournit un aperçu des étapes par lesquelles il est passé pour produire sa réponse. Ces derniers permettent en effet d’illustrer comment un grand modèle de langage divise une question ou une tâche en étapes, qu’il réalise les unes après les autres pour finalement produire une réponse globale.

Ouvrir les boîtes noires ?

Explicabilité et transparence sont par ailleurs depuis de nombreuses années en tête des requêtes des chercheurs pour faciliter l’audit et la compréhension de toutes sortes de modèles algorithmiques, que ceux-ci soient génératifs ou, par exemple, en charge de trier ou de modérer les flots de contenus présents sur les réseaux sociaux. En 2018, déjà, le rapport Villani soulignait la nécessité de faciliter la compréhension de leur fonctionnement.

Le position paper tout juste publié cherche justement à attirer de nouveau l’attention sur ces enjeux d’explicabilité. Ses cosignataires, que soutiennent quatre experts de renom, dont le prix Nobel Geoffrey Hinton ou le fondateur de Safe Superintelligence Inc. et ex-Open AI Ilya Sustkever, appellent à développer des techniques de surveillance des « fils de pensée », mais aussi de maintien de ces fonctionnalités. Le but : les explorer plus précisément pour gagner une meilleure compréhension du fonctionnement des LLM. Mais aussi s’assurer que « le degré actuel de visibilité » perdure.

La publication se fait dans un contexte dans lequel les plus grosses sociétés du secteur sont en compétition ouverte. Depuis quelques semaines, Meta s’est notamment employé à débaucher bon nombre de spécialistes travaillant jusqu’ici pour Google Deepmind, OpenAI, Anthropic ou même Apple pour développer son propre laboratoire en intelligence artificielle. Historiquement engagé sur les sujets de « sécurité de l’IA », ou AI safety, le cofondateur d’Anthropic Dario Amodei a de son côté indiqué en avril souhaiter « ouvrir la boîte noire » des systèmes d’IA d’ici 2027.

Surveiller les « pensées » des systèmes d’IA, une anthropomorphisation supplémentaire ?

S’il est signé par de multiples pontes du domaine, cet article creuse par ailleurs un sillon déjà largement tracé de comparaisons du fonctionnement de systèmes techniques à des comportements humains. La pratique est ardemment débattue par des scientifiques comme la linguiste Emily Bender ou l’informaticienne Timnit Gebru, pour qui elle brouille la compréhension du public et des décideurs du fonctionnement réel de ces systèmes.

En l’occurrence, évoquer les « fils de pensée » de modèles statistiques participe directement à instiller l’idée que ces machines soient conscientes — à la sortie du modèle o1 d’OpenAI, Emily Bender et la sociologue Alex Hanna avaient qualifié de « ridicule » la décision de l’entreprise de le présenter comme capable de raisonnement.

Ce flou est à l’origine de multiples débats dans la communauté de la recherche en intelligence artificielle – en 2022, l’ingénieur Blake Lemoine avait été écarté de Google après avoir affirmé que le modèle LaMDA était conscient. Dans une certaine mesure, il permet aussi aux sociétés du secteur de « continuer de faire ce qu’elles veulent », expliquait l’autrice de l’enquête Empire of AI, Karen Hao, à Next.

  •  

La productivité des développeurs semble baisser quand ils utilisent l’IA générative

l'artifice surestimé
La productivité des développeurs semble baisser quand ils utilisent l’IA générative

Les entreprises d’IA générative promettent à leurs utilisateurs un gain de productivité. Des chercheurs d’un laboratoire privé ont mesuré, au contraire, une perte de productivité en comparant le travail de 16 développeurs expérimentés avec ou sans IA.

Les chercheurs du laboratoire privé METR montrent, « de façon surprenante », que l’IA générative rendrait les développeurs « plus lents » : « ils prennent 19 % plus de temps que sans », expliquent ces chercheurs dans un billet de blog vulgarisant leur travail.

Une promesse de productivité non prouvée

Pourtant, c’est LA promesse de l’intelligence artificielle : augmenter la productivité du travail. Par exemple, pour promouvoir son récent plan « Osez l’IA » conçu pour accélérer l’adoption de l’IA en entreprise, le gouvernement ose affirmer que « l’IA est un levier de compétitivité » et promet aux entreprises « 20% de productivité en plus par entreprise ». Il s’appuie, pour ça, sur un rapport de McKinsey d’il y a plus d’un an (le cabinet préfère lui-même renvoyer à un rapport plus récent) et dans lequel on peine à trouver cette affirmation.

Dans son rapport de 2024, McKinsey expliquait que 46 des 876 répondants affirmaient qu’une partie significative de leur bénéfice avant intérêts et impôts (earnings before interest and taxes, EBIT, en anglais) était attribuable à l’IA générative. Mais « 42 % de ces entreprises très performantes [affirmaient] que plus de 20 % de leur EBIT est attribuable à leur utilisation d’IA analytique et non générative ». Bref, il est encore difficile de savoir si l’IA générative est réellement un boost pour la productivité.

Une étude qualitative sur des développeurs expérimentés et des tâches réelles

Le METR a donc mis en place une expérience pour tester si les produits d’IA générative de 2025 comme Cursor Pro avec Claude 3.5/3.7 Sonnet boostaient la productivité des développeurs. Ils ont mis en ligne un article décrivant leur démarche sur la plateforme de preprint arXiv. Prévenons tout de suite les fans des études quantitatives, celle-ci est effectuée sur 16 développeurs. Ceux-ci ne sont pas représentatifs de tous les développeurs, mais l’étude ne le prétend pas.

Elle teste, par contre, qualitativement, à l’échelle de ces 16 personnes, les conséquences de l’utilisation de l’IA générative sur leur productivité. Le METR explique avoir pioché les participants dans son réseau professionnel et dans les contributeurs de projets populaires sur GitHub. « Les développeurs sont des ingénieurs logiciels expérimentés (généralement plus d’une décennie d’expérience) et contribuent régulièrement à des dépôts que nous utilisons – en moyenne, ils ont 5 ans d’expérience sur leur dépôt, ce qui représente 59 % de la durée de vie du dépôt, au cours de laquelle ils ont effectué 1 500 modifications », expliquent les chercheurs du METR. En toute transparence, ils expliquent avoir payé chaque développeur 150 dollars de l’heure pour le motiver à participer à l’expérience.

En contradiction avec les prédictions des économistes, des experts en machine learning et des développeurs eux-mêmes

Et ils expliquent, qu’au final, « de manière surprenante, [ils constatent] qu’autoriser l’utilisation de l’IA augmente en fait le temps d’exécution de 19 % ». Le constat contredit les experts en économie interrogés par les chercheurs, qui prédisaient en moyenne une productivité améliorée de 39 %, mais aussi les experts en machine learning qui prédisaient une augmentation de 38 % de cette productivité.

Ce résultat contredit aussi ce que les développeurs qui ont participé pensent eux-mêmes. Avant l’expérience, ils pensaient que l’IA générative leur permettait une augmentation de 24 % de leur productivité. Mais, même après avoir participé, ils sont encore persuadés que ces outils leur permettent d’augmenter de 20 % leur productivité.

Remarquons que ces 19 % sont une moyenne dans un écart très important. Mais, dans cette expérience, la productivité avec les outils d’IA générative reste, au mieux, aussi élevée que sans. Au pire, elle baisse de 40 %.

Moins efficace surtout sur les tâches longues

Pour élaborer ces tests, le METR a demandé à ces développeurs de lui fournir une liste de problèmes à résoudre existants vraiment dans les dépôts sur lesquels ils travaillent et de les trier en fonction du temps qu’ils estimaient devoir prendre pour les résoudre (avec et sans assistance d’une IA).

Puis ils les ont laissés travailler, parfois avec assistance d’une IA (136 problèmes), parfois sans (110 problèmes), et soumettre leur travail à leurs collègues comme d’habitude avec un « pull request » dans les dépôts sur lesquels ils travaillent. Chaque développeur a donné le temps utilisé pour effectuer chaque tâche.

Finalement, ils ont globalement mis plus de temps (1,34 fois plus) pour corriger les problèmes quand ils étaient autorisés à utiliser les outils d’IA générative que quand ils ne l’étaient pas. Remarquons qu’ils avaient pourtant prévu que ce temps diminuerait en utilisant l’IA :

En plongeant un peu plus dans les données, on peut voir que, pour les tâches ne dépassant pas une heure, ils ont mis autant de temps avec ou sans IA. Mais que pour des tâches qui leur ont pris entre 1 et 6 heures, ils allaient finalement plus vite sans outil d’IA générative :

Le METR fournit aussi des données sur le temps passé pour chaque « activité » durant ce temps de développement :

Cette étude ne montre pas que l’IA générative n’augmente jamais la productivité des développeurs. Mais ses résultats suggèrent que les développeurs très expérimentés perdent du temps lorsqu’ils utilisent des outils d’IA générative pour coder, même s’ils pensent qu’ils vont améliorer leur productivité.

  •  

☕️ Caméras augmentées : les buralistes répondent à la CNIL

Ils accusent réception, mais n’en pensent pas moins. La Confédération des buralistes a réagi, mercredi 16 juillet, à l’avis rendu cinq jours plus tôt par la CNIL au sujet de l’utilisation de caméras « augmentées » censées permettre de déterminer automatiquement si une personne est mineure afin de faciliter les contrôles d’âge pour la vente de tabac.

« Considérées depuis leur lancement comme un outil d’aide à la décision pour faciliter la demande d’un titre d’identité et ainsi prouver sa majorité, les caméras augmentées constituent avant tout un élément dissuasif auprès des mineurs, qui ne manquent pas de ressources pour s’approvisionner », fait valoir la fédération dans un communiqué.

« La Confédération des buralistes et les sociétés commercialisant des caméras augmentées tâcheront de prendre en compte l’avis de la CNIL afin de respecter le souhait des personnes ne souhaitant pas être filmés dans le point de vente », ajoute-t-elle.

Les buralistes ne précisent cependant pas comment se fera cette « prise en compte ». Installées au niveau de la caisse dans les bureaux de tabac, ces caméras augmentées sont censées analyser l’image des clients, sans la stocker, puis émettre une lumière verte si la personne est considérée comme majeure, ou une lumière rouge si ses traits laissent supposer qu’elle a moins de 18 ans.

La Confédération des buralistes illustre son propos avec la caméra MyCheckr Mini, commercialisée en France par la société Bergens

Dans son avis du 11 juillet dernier, la CNIL avait estimé que ce traitement automatisé n’était ni nécessaire, ni proportionné aux enjeux, notamment parce que la caméra ne peut de toute façon pas se substituer à un contrôle de l’âge sur base de pièce d’identité.

Aucune sanction n’a été envisagée à ce stade. Interrogée par l’AFP, la Commission a précisé qu’en « l’absence de plainte de personnes concernées, à ce jour, la CNIL souhaite laisser le temps aux buralistes concernés de se mettre en conformité ».

D’après la Confédération des buralistes, dont le communiqué est illustré par l’image d’une caméra MyCheckr Mini, vendue par la société Bergens, la caméra augmentée serait déjà déployée chez « 1 000 buralistes de France ».

  •  

☕️ Google lancera sa gamme Pixel 10 le 20 août

Nouvel été, nouvelle gamme de smartphones en approche chez Google. Un an après le lancement des Pixel 9, Google s’apprête à remettre le couvert avec des appareils aux entrailles renouvelées.

Selon l’état actuel des rumeurs et autres fuites supposées, Google ne toucherait pas ou presque pas au design de ses smartphones, préférant se concentrer sur les composants. Le cœur des Pixel serait alimenté par une puce Tensor de cinquième génération, gravée en 3 nm. Le Pixel 10 Pro embarquerait trois caméras à l’arrière, comme sur l’actuel Pixel 9 Pro, tandis que le nouveau Fold obtiendrait la précieuse certification IP68 pour la résistance à l’eau et à la poussière.

La gamme Pixel 9 actuelle

Sans surprise, ces Pixel 10 devraient faire la part belle à l’IA, avec un renforcement des capacités de calculs et toute une liste de nouvelles fonctions. Ce serait particulièrement le cas avec l’édition vidéo.

Google profiterait de l’évènement pour lancer une nouvelle montre Pixel Watch. Selon les rumeurs, elle serait plus épaisse que le modèle actuel, pour y caser une batterie plus volumineuse. Une direction inverse à celle d’Apple, dont la dernière Watch était plus fine, avec des optimisations logicielles pour maintenir l’autonomie existante.

  •  

Firefox 141 pour Windows intègrera l’API WebGPU

En retard, mais pas le dernier
Firefox 141 pour Windows intègrera l’API WebGPU

La prochaine version du navigateur, prévue pour le 22 juillet, prendra en charge une API graphique dont le développement est le fruit d’un effort collectif. Bien que Chrome en soit doté depuis longtemps, l’arrivée de WebGPU dans Firefox reste un petit évènement.

« Après des années de développement, nous allons lancer WebGPU sur Windows dans Firefox 141 ! », s’est exclamé hier l’équipe Mozilla GFX. Cette API, qui prend la suite de WebGL, fournit un accès beaucoup plus direct aux capacités des GPU. À la clé, des améliorations importantes de performances, aussi bien sur les calculs graphiques que sur d’autres liés à l’IA, dont l’inférence.

Millefeuille graphique

Cette interface de programmation est le fruit d’un effort conjoint au sein du W3C et réunissant des entreprises comme Mozilla, Apple, Intel et Microsoft, l’ensemble étant largement tracté par Google. L’objectif était de donner aux navigateurs un accès plus moderne au matériel, dans le sillage des API de bas niveau apparues sur les différentes plateformes. WebGPU dépend d’ailleurs de ces dernières, en fournissant un lot de capacités, selon son implémentation bien sûr.

L’ensemble n’est pas si simple. Sur toute plateforme, on trouve ainsi le pilote responsable de l’exploitation du GPU. Charge à lui d’exposer de transmettre les instructions à la puce. Au-dessus, l’API graphique native (Vulkan sur Linux par exemple) est une autre brique essentielle. Dans un système d’exploitation, elle expose les capacités, dans lesquelles les applications vont venir piocher. Puis vient WebGPU dans le navigateur ou, plus précisément, son implémentation. C’est elle qui créera des appareils logiques (logiciels) pour chaque application en ayant besoin.

Si vous utilisez Chrome ou un navigateur basé sur Chromium, vous pouvez déjà observer les possibilités de WebGPU via le site dédié. Chrome fournit en effet cette capacité depuis deux ans. Pourquoi tout ce temps chez Mozilla ? On ne sait pas exactement, mais Google y a consacré davantage de moyens, la plateforme web représentant le cœur de ses activités. Apple, bien qu’ayant participé au développement de l’API, ne l’intègrera que dans Safari 26 cet automne.

Il reste « beaucoup de travail »

Selon Mozilla, WebGPU est une API « vaste et complexe ». Les effets ont été concentrés assez logiquement sur les fonctions les plus évidentes, afin « que les applications et démonstrations WebGPU à haute visibilité fonctionnent sans problème ». Selon Mozilla, tout devrait donc bien se passer dans la plupart des cas.

L’équipe explique également qu’il reste « beaucoup de travail », aussi bien sur les performances que la conformité avec la spécification. Par exemple, le navigateur utilise une communication inter-processus sans tampon pour transmettre les requêtes à la sandbox du GPU. Ce problème a déjà été corrigé, mais la solution ne sera déployée que dans Firefox 142, avec des gains significatifs de performances.

En outre, le navigateur ne dispose pas d’un moyen moderne de savoir quand un GPU a terminé une opération et introduit des intervalles pour vérifier, ce qui entraine des latences. Les développeurs se penchent actuellement sur le problème et explorent diverses solutions. De même, Firefox ne prend pas encore en charge la méthode importExternalTexture de WebGPU, qui permet au GPU la lecture vidéo décompressée directement depuis le décodeur.

Windows d’abord, les autres d’ici la fin de l’année

Le support de WebGPU ne sera également disponible que pour Windows lorsque Firefox 141 sera disponible le 22 juillet. Une question de priorité pour Mozilla : c’est là que se trouve l’écrasante majorité des utilisateurs. L’équipe précise cependant que des versions Mac et Linux sont prévues « dans les mois à venir » et qu’il est possible de les tester dans le canal Nightly du navigateur. Le support sera aussi étendu à Android.

Enfin, Mozilla indique que l’implémentation de WebGPU dans Firefox est basée sur WGPU, un projet indépendant et écrit en Rust. Il permet d’offrir une interface unifiée pour exposer les capacités sous-jacentes des API bas niveau en fonction de la plateforme utilisée : Direct3D 12 sur Windows, Metal sur macOS et Vulkan sur Linux. Mozilla contribue activement au projet, évoque une communauté très vivante et invite les personnes intéressées à se pencher sur WGPU pour participer à son développement.

  •  

Coup de filet sur le collectif NoName057 (16), spécialiste des attaques DDoS

Faceless Men of Braavos
Coup de filet sur le collectif NoName057 (16), spécialiste des attaques DDoS

Les forces de police européennes ont annoncé mercredi le démantèlement du botnet utilisé par le collectif hacktiviste pro-russe « NoName057 (16) », doublé de plusieurs interpellations. Plusieurs centaines de sympathisants ont également été notifiés via Telegram de leurs éventuelles responsabilités au regard de la loi.

L’inspecteur Harry aurait certainement apprécié. C’est en effet sous le nom de code « Opération Eastwood » qu’Europol et les autorités de plusieurs pays européens ont annoncé mercredi 16 juillet avoir réussi à démanteler l’essentiel des infrastructures et des équipes mises en œuvre au sein du collectif « NoName057 (16) ».

Un botnet (partiellement ?) démantelé

L’action coordonnée des forces de l’ordre s’est déroulée entre le 14 et le 15 juillet, décrit Europol, avec des descentes organisées dans plusieurs pays. Au total, 24 perquisitions ont été réalisées, dont une en France.

Elles ont conduit à deux arrestations, en France et en Espagne, ainsi qu’à sept mandats d’arrêts, 13 interpellations, et la prise de contrôle sur « plus de 100 serveurs », répartis dans le monde entier. D’après l’organisation de coopération policière européenne, c’est cette infrastructure informatique qui constituait l’épine dorsale des attaques orchestrées par NoName057 (16).

« Plusieurs centaines de sympathisants du groupe hacktiviste, encore non formellement identifiés, ont été informés des mesures officielles via Telegram, leur service de messagerie, et ont été sensibilisés à la responsabilité pénale encourue pour leurs actes », précise de son côté la juridiction nationale de lutte contre la criminalité organisée (Junalco) dépendant du parquet de Paris.

Le collectif, notoirement spécialisé dans les attaques par déni de service distribué (DDoS), utilisait en effet Telegram pour annoncer ses opérations, et fédérer des sympathisants susceptibles de joindre leurs propres ressources à celles de ses infrastructures informatiques, que ces dernières soient gérées en propre ou mobilisées à l’insu de leurs propriétaires par l’intermédiaire de malwares.

Le nom NoName057(16) est apparu à plusieurs reprises dans l’actualité cyber des derniers mois, en raison de vagues d’attaques lancées contre les sites Web de collectivités locales ou d’institutions nationales, en France mais aussi en Belgique ou en Roumanie à l’occasion des récentes élections présidentielles.

Un collectif hacktiviste pro-russe et pas désintéressé

À chaque fois, NoName057(16) accompagne ses appels à l’action de justifications pro-russes, souvent formulées en réaction à des actions de soutien à l’Ukraine. L’opération Eastwood confirme qu’il existe bien un lien idéologique entre le régime de Vladimir Poutine et les attaques menées par le collectif. Six des sept mandats d’arrêt émis par Europol concernent d’ailleurs des ressortissants russes.

« Les individus agissant pour NoName057(16) sont principalement des sympathisants russophones qui utilisent des outils automatisés pour mener des attaques par déni de service distribué (DDoS). Agissant sans direction officielle ni compétences techniques pointues, ils sont motivés par l’idéologie et la recherche de récompenses », décrit Europol.

À défaut d’une tête pensante identifiée, le mouvement semblait tout de même fonctionner de façon structurée, puisqu’il aurait fédéré jusqu’à 4 000 sympathisants actifs. Pour inciter ces derniers à participer aux attaques, NoName057(16) aurait rétribué certains membres en cryptomonnaies, et déployé des mécaniques dites de gamification (inspirées du jeu), comme un système de badges ou des tableaux de score pensés comme autant d’éléments de reconnaissance virtuelle.

« Pour diffuser des appels à l’action, des tutoriels, des mises à jour et recruter des bénévoles, le groupe a exploité des canaux pro-russes, des forums et même des groupes de discussion spécialisés sur les réseaux sociaux et les applications de messagerie. Les bénévoles invitaient souvent des amis ou des contacts issus de forums de jeux vidéo ou de piratage informatique, formant ainsi de petits cercles de recrutement », décrit encore Europol.

Toujours dans cette optique de recrutement, NoName057(16) est également soupçonné d’avoir orchestré la création de DDoSIA, une boîte à outils permettant de participer à des attaques par déni de service, même sans connaissance technique pointue.

Les éléments d’enquête rendus publics ne disent cependant rien, à ce stade, des éventuelles retombées économiques associées au mouvement. NoName057(16) n’agissait pas qu’en compte propre : comme d’autres groupes pirates, le mouvement était aussi susceptible de travailler à la commande. En Allemagne, il aurait, d’après les autorités, participé à 14 vagues d’attaques ayant ciblé plus de 250 acteurs différents, dans le privé comme dans le public.

  •  

☕️ Orange Business décroche la qualification SecNumCloud pour son offre IaaS

Orange Business, division services numériques de l’opérateur éponyme, a annoncé mercredi 16 juillet l’obtention de la qualification SecNumCloud pour son offre d’infrastructure as a service (IaaS) « Cloud Avenue SecNum ».

« Conçue avec une architecture modulaire et une approche « as a service », la plateforme permet aux utilisateurs d’accroître leur autonomie et leur maîtrise technologique. Elle intègre nativement des mesures de sécurité telles que le chiffrement, la gestion des clés, l’isolation réseau et le contrôle d’accès, tout en assurant une traçabilité exhaustive des actions et la sécurité physique, environnementale et opérationnelle », revendique l’entreprise dans un communiqué.

La plateforme « SecNum » est déployée et opérée depuis le data center dont dispose l’opérateur à Grenoble, et « gérée par nos équipes françaises ». D’un point de vue commercial, elle s’intègre dans la gamme plus large des offres Cloud Avenue d’Orange Business, qui vise le monde des entreprises au sens large en s’appuyant sur des infrastructures européennes.

Orange Business rejoint ainsi le cercle relativement fermé des opérateurs cloud labellisés SecNumCloud, alors même que cette qualification, centrée sur la sécurité, revient régulièrement dans le débat public comme un marqueur de souveraineté numérique, même si ça n’est pas sa raison d’être.

Au 30 juin 2025, huit acteurs français pouvaient se revendiquer de la qualification SecNumCloud attribuée par l’ANSSI après audit de leurs offres. Orange Business devient le neuvième nom de la liste, en attendant que d’autres professionnels du secteur bouclent le processus de certification, à l’image de Scaleway. Bleu, le « cloud de confiance » d’Orange et Capgemini basé sur des solutions Microsoft (Azure et 365) est également engagé dans la démarche, avec un jalon J0 déjà validé, tout comme son concurrent S3ns, avec Thales et Google à la manœuvre.

L’offre « Cloud Avenue SecNum » d’Orange Business complètera bientôt cette liste, arrêtée au 30 juin dernier (source)
  •  

Économie de guerre : la France veut devenir le plus grand vivier de talents cyber d’Europe

OTAN que faire se peut
Économie de guerre : la France veut devenir le plus grand vivier de talents cyber d’Europe

La France vient de mettre à jour sa Revue nationale stratégique à l’horizon 2030. En 2022, quelques mois après l’invasion de l’Ukraine par la Russie, elle évoquait « une économie concourant à l’esprit de défense ». Elle parle désormais d’ « une économie qui se prépare à la guerre », notamment via le renforcement des capacités cyber et de lutte contre la désinformation.

Le Secrétariat général de la défense et de la sécurité nationale (SGDSN) a mis en ligne ce 14 juillet la Revue nationale stratégique (RNS) 2025. Elle complète et actualise la précédente RNS, publiée en novembre 2022 et qui, relève Le Monde, « avait été effectuée dans la précipitation au début de la guerre en Ukraine ».

En 2022, Emmanuel Macron concluait la présentation de la RNS par ces mots : « Je veux qu’en 2030, la France ait conforté son rôle de puissance d’équilibres, unie, rayonnante, influente, moteur de l’autonomie européenne et qui assume ses responsabilités en contribuant, en partenaire fiable et solidaire, à la préservation de mécanismes multilatéraux fondés sur le droit international. »

Signe du changement de ton, et de perspectives, la plaquette de présentation de la RNS 2025 avance de son côté que « d’ici 2030, la principale menace pour la France et les pays européens est désormais celle d’une guerre ouverte contre le cœur de l’Europe, impliquant un engagement majeur de nos armées en dehors du territoire national qui s’accompagnerait, en parallèle, d’une augmentation massive des attaques hybrides sur notre sol et contre nos intérêts dans le monde ».

Ce qu’elle justifie au motif que « depuis le début de la guerre d’agression qu’elle mène en Ukraine, la Russie a multiplié les actions hostiles d’intimidation, les cyberattaques, les sabotages, l’espionnage, les manipulations d’informations à l’encontre de la France et de ses partenaires européens », et que « la menace russe est désormais sans équivalent pour nos intérêts et ceux de nos alliés et partenaires ».

« Jamais, depuis 1945, la liberté n’avait été si menacée », avait affirmé, à deux reprises selon Le Monde, Emmanuel Macron devant un parterre de hauts gradés et de fonctionnaires du ministère des Armées ce 13 juillet, avant d’ajouter : « pour être libres dans ce monde, il faut être craint et, pour être craint, il faut être puissant ». Ce pourquoi le budget des Armées, qui était de 32 milliards en 2017, et de 50,5 milliards d’euros aujourd’hui, devrait atteindre 64 milliards d’euros à la fin de son mandat.

Une arsenalisation de l’alimentation, l’énergie, l’eau, et une France à+ 4°

Dans sa RNS 2025, le SGDSN évoque également « le recentrage américain sur l’Indopacifique » et « la possibilité d’un soutien américain fortement réduit[e] ». Il souligne aussi que « l’OTAN reste la seule organisation en mesure de faire face collectivement à un conflit majeur sur le continent ».


Il reste 86% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

SFR lance une « Box 5G avec TV » et une « RED Box 5G » en alternative à la fibre

Radio, someone still loves you
SFR lance une « Box 5G avec TV » et une « RED Box 5G » en alternative à la fibre

SFR muscle son jeu dans le domaine de l’accès à Internet résidentiel via les réseaux mobiles. L’opérateur au carré rouge lance en effet une offre « triple play » basée sur sa Box 5G, incluant donc l’accès à la TV, ainsi qu’une formule plus abordable sous les couleurs de sa marque low cost, RED by SFR.

La 5G est désormais proposée comme une alternative à l’ADSL ou à la fibre pour l’accès à Internet chez les quatre principaux opérateurs grand public français. Chez SFR, qui commercialise depuis août 2024 sa Box 5G, la formule s’enrichit désormais d’une possibilité d’appels illimités vers les fixes et les mobiles en France et départements d’outre-mer, ainsi que d’un bouquet de 160 chaînes de TV, accessibles au travers d’un décodeur dédié.

Un triple play en 5G

Baptisée « SFR Box 5G avec TV », la formule reprend donc tous les attributs d’un forfait triple play, mais sans qu’une intervention à domicile ou un tirage de ligne soit nécessaire. « L’offre SFR Box 5G avec TV est une alternative aux offres Fibre et s’adapte aux éventuelles contraintes des foyers pour leur fournir la meilleure qualité de service possible et leur laisser le choix de la technologie Très Haut Débit », vante l’opérateur dans un communiqué.

En pratique, la formule est facturée 44,99 euros par mois, sans engagement. La principale différence avec la formule Box 5G standard réside dans la fourniture d’un décodeur Connect TV (sous Android TV), qui assure donc l’affichage du bouquet de chaînes directement sur l’écran du salon. L’offre Box 5G, toujours disponible à 39,99 euros par mois, offre elle aussi 160 chaînes de télévision, mais uniquement au travers de l’application mobile dédiée de l’opérateur.

Si l’on écarte l’ajout de ce décodeur, l’offre Box 5G avec TV reprend pour le reste l’essentiel du forfait déjà commercialisé depuis près d’un an, à savoir une connexion censée pouvoir atteindre 1,1 Gb/s en téléchargement et jusqu’à 150 Mb/ en émission, avec une box compatible Wi-Fi 6 munie de trois ports Ethernet à 1 Gb/s.

Les frais d’ouverture de service sont fixés à 19 euros (prélevés sur la première facture) et il en coûtera également 19 euros de lancer une demande de résiliation. SFR ne fixe aucune restriction d’usage liée à la télévision, opérée comme un service managé sur son réseau. Concernant l’accès à Internet, l’opérateur reprend la traditionnelle notion de fair use déjà en vigueur sur l’offre Box 5G sans TV :

« En cas d’usages en continu fortement consommateurs de bande passante (de type peer-to-peer ou
téléchargement par exemple) de nature à saturer le réseau sur une zone donnée, et pouvant nuire aux utilisateurs SFR sur cette zone, le client sera notifié par SMS ou email de son usage déraisonnable. En cas de récidive suite à cette notification, le client verra son débit réduit jusqu’à la prochaine date de facturation.
 »

La combinaison de forfaits fixes ou mobiles au sein d’un même foyer, appelée SFR Multi, permet d’espérer jusqu’à 8 euros de réduction par mois, tandis que l’opérateur intègre à son offre six mois d’accès gratuit à Prime Video, Netflix ou Disney+.

Le bouquet de streaming choisi n’est offert que pendant six mois

Avant de souscrire l’offre, il faudra toutefois vérifier que l’adresse de son foyer est éligible, c’est-à-dire considérée comme suffisamment bien couverte en 5G.

RED by SFR a aussi sa Box 5G

En parallèle des deux forfaits aux couleurs du carré rouge, l’opérateur introduit une version plus accessible de son offre, avec le lancement de la RED Box 5G. On retrouve des débits identiques (1,1 Gb/s en montant, 150 Mb/s en descendant), mais avec un forfait affiché cette fois à 29,99 euros par mois, toujours sans engagement. Cette fois, les appels illimités ne sont cependant pas inclus : ils exigent la souscription d’une option à 5 euros par mois. RED by SFR applique par ailleurs aussi 19 euros de frais d’ouverture de ligne, et des frais de résiliation portés à 29 euros.

Ici, les conditions d’éligibilité sont moins strictes, puisque l’offre fonctionne également dans les zones couvertes en 4G.

SFR Box 5G face à la concurrence

Rappelons qu’en face, la Box 5G de Free – fabriquée par Nokia, modèle FastMile 5G – dispose d’un port Ethernet à 2,5 Gb/s (on vous a récemment proposé un dossier sur comment passer à un réseau local à 2,5 Gb/s), de deux autres à 1 Gb/s et d’un port USB 3.1 Type-C. La Box 5G est annoncée à 39,99 euros par mois, sans engagement, avec une remise de 10 euros par mois la première année. Les clients Box 5G peuvent également profiter de Free Family sur le mobile : un Forfait 2 € à 0 euro par mois ou jusqu’à 4 Forfaits Free 5G à 9,99 € euros par mois pendant 1 an, puis 15,99 euros (au lieu de 19,99 euros). Il faut enfin ajouter des frais de mise en service de 29 euros et des frais de résiliation de 19 euros au moment de partir.

La 5G Box de Bouygues Telecom est pour rappel Wi-Fi 6 avec des débits maximums de 1,1 Gb/s et 58 Mb/s respectivement. Elle est proposée à 40,99 euros par mois sans engagement, ou 44,99 euros avec « plus de 180 chaînes et 30 replays sur TV grâce à la clé B.tv ».

Chez Orange, la 5G+ Home est à 42,99 euros par mois (sans engagement), avec du Wi-Fi 6 et un débit descendant de 1 Gb/s (Orange ne précise pas le débit montant). Là aussi, la TV est en supplément : « plus de 100 chaînes de la TV d’Orange sur ordinateur, tablette ou mobile avec l’appli TV. En option sur téléviseur avec la Clé TV ou avec l’option TV d’Orange sur TV Connectée, à 5 euros par mois chacune ».

  •  

L’open data des décisions de justice sérieusement remis en question

Fermez-moi tout ça !
L’open data des décisions de justice sérieusement remis en question

Un rapport remis au ministre de la Justice, Gérald Darmanin, émet six propositions de modification des conditions de publication des décisions de justice qui sont, depuis peu, diffusées en open data. Des informations comme les noms et prénoms des personnes physiques, mais aussi les noms d’entreprises mentionnées seraient occultées.

Ce vendredi 11 juillet, le conseiller honoraire à la Cour de cassation Daniel Ludet a remis au ministre de la Justice, Gérald Darmanin, son rapport sur l’open data des décisions de justice. Ce rapport, en ligne depuis le 15 juillet [PDF], remet fortement en question la diffusion de certaines informations qui permettent au public d’être informé et aux journalistes (entre autres) de faire leur travail.

Gérald Darmanin cadrait, dès sa lettre de mission, le travail du conseiller et de son équipe en leur demandant de « proposer des recommandations relatives notamment :

  • à l’occultation des informations relatives à l’identification des magistrats, personnels de greffe et plus largement tous professionnels de justice ;
  • au respect des secrets protégés par la loi dans les décisions, notamment liés à la protection d’intérêts économiques ;
  • au modèle de financement de l’open data au regard des ressources déployées. »

Rappelons que l’open data des décisions de justice est prévue depuis 2019 dans le code de l’organisation judiciaire. Ainsi, l’article 111 - 13 de ce code indique que, « sous réserve des dispositions particulières qui régissent l’accès aux décisions de justice et leur publicité, les décisions rendues par les juridictions judiciaires sont mises à la disposition du public à titre gratuit sous forme électronique ».

Un open data des décisions de justice qui se met tout juste en place

Le rapport explique que « la loi du 23 mars 2019 de programmation 2018 - 2022 et de réforme pour la justice a précisé et complété cet article en prévoyant notamment que les noms et prénoms des personnes physiques mentionnées dans la décision, lorsqu’elles sont parties ou tiers, sont occultés préalablement à la mise à disposition du public ».

La Cour de cassation a été la première institution judiciaire à appliquer l’open data de ses décisions. Elle a même développé un outil de pseudonymisation utilisant le machine learning pour que les décisions publiées soient lisibles de façon intelligible tout en ne publiant pas les informations personnelles protégées dans le cadre de cette loi.

Concernant le personnel judiciaire, le rapport ajoute que « le principe de la mention du nom des magistrats et des membres du greffe est retenu. Il est toutefois prévu que, « lorsque sa divulgation est de nature à porter atteinte à la sécurité ou au respect de la vie privée de ces personnes ou de leur entourage, est également occulté tout élément permettant d’identifier les parties, les tiers, les magistrats et les membres du greffe » ». L’équipe rédactrice du rapport commente : « ainsi, un magistrat ou un membre du greffe ne peut obtenir l’occultation de son nom, notamment, que dans le cadre d’une démarche individuelle s’appuyant sur des éléments particuliers de sa situation ».

Protection des magistrats mais aussi secrets des entreprises

Mais, sans donner de contexte détaillé, elle estime qu’il existe un « climat de critiques très vives de la justice, de ses décisions et de ceux qui la servent » et évoque des « insultes et de menaces proférées le plus souvent par le canal de réseaux sociaux et visant nommément des magistrats et d’autres professionnels de justice ». Ceci expliquerait donc la volonté de modifier l’encadrement judiciaire concernant la mention des noms du personnel judiciaire.

Le rapport ne se borne pas à vouloir mieux protéger les magistrats et membres du greffe. Ainsi, il explique qu’ « avant même que les décisions des tribunaux de commerce ne rentrent dans l’open data, l’attention a été appelée par des acteurs de la justice commerciale relayés par le MEDEF et la CPME, sur les inconvénients importants, pour les entreprises, de voir des éléments « sensibles » de leur organisation et de leur fonctionnement ainsi que des secrets inhérents à leur activité ou légalement reconnus, largement accessibles, en particulier à travers les décisions rendues dans le domaine des « procédures collectives » concernant les entreprises en difficulté ».

Le rapport remet aussi en question « le principe de gratuité de la mise à disposition des décisions » en évoquant « une période de fortes contraintes pesant sur les finances publique » alors qu’ « en même temps », il fait le constat « d’activités lucratives, florissantes, d’entreprises concevant et vendant des produits dont l’élaboration tire profit de la révolution technologique permanente et dont la matière provient précisément de ces décisions de justice accessibles à tout public ».

Crescendo vers une restriction de plus en plus forte des informations publiées

L’équipe en charge du rapport fait quatre premières propositions de modification de l’article 111 - 13 au ministre de la Justice, allant crescendo vers une restriction de plus en plus forte des informations publiées. Elle préconise, dans sa première proposition, que l’article « devrait mentionner que les noms et prénoms des personnes physiques sont occultés préalablement à la mise à disposition du public » mais, dans sa deuxième proposition, elle suggère que ça soit aussi le cas pour « la dénomination sociale des sociétés mentionnées dans la décision ».

Elle ajoute même, dans sa troisième proposition que « les occultations préalables à la mise à disposition du public devraient comprendre également les adresses et les localités, les dates relatives à l’état des personnes et les chaînes de caractères directement identifiantes mentionnées dans la décision, ainsi que ses motifs lorsque la décision a été rendue en chambre du conseil ».

Sa quatrième proposition ajoute « l’occultation complémentaire de tout élément dont la divulgation est de nature à porter atteinte non seulement à la sécurité ou au respect de la vie privée de ces personnes, mais aussi au secret en matière industrielle ou commerciale lorsqu’il s’agit d’entreprises, ainsi qu’à d’autres secrets légalement protégés ».

Toutes ces informations sont pourtant importantes pour informer le public d’éventuelles condamnations d’entreprises et de connaître leur contexte.

Le rapport propose, sans le dire réellement, de tourner la page de l’open data de décisions de justice et de ne laisser accéder aux données importantes qu’aux personnes et entreprises qui s’engageraient devant la Cour de cassation à des conditions fixées par des conventions. La cinquième proposition du rapport ouvrirait l’accès de ces données à des « utilisateurs pour les besoins de leur activité professionnelle ou économique, dans le cadre de conventions, conclues avec la Cour de cassation, et qui précisent les obligations des intéressés quant aux garanties entourant la réutilisation des décisions, la diffusion de décisions à des tiers, et la préservation des secrets légalement protégés auxquels elles pourraient donner accès ».

Dans sa sixième « proposition », le rapport reconnait qu’il y a besoin que se « prolonge la réflexion, notamment, sur la nécessaire articulation du régime de délivrance des copies aux tiers avec celui de l’open data et sur l’applicabilité ou non du principe de gratuité à la mise à disposition d’utilisateurs de flux spéciaux de décisions de justice intègres ou plus intègres, d’où découlera la nécessité ou non d’une modification de la loi ».

  •  

Karen Hao : « Les empires de l’IA étouffent l’innovation »


C'est l'heure de l'alliance rebelle
Karen Hao : « Les empires de l’IA étouffent l’innovation »


La relation d’OpenAI au travail de ses employés comme des entraîneurs de données, celle de Sam Altman à la consommation énergétique de son entreprise, la manière dont l’industrie freine la recherche scientifique en IA… Next a parlé de tous ces sujets avec la journaliste et autrice d’« Empire of AI » Karen Hao.

En 2015, une dizaine de personnalités de la Silicon Valley – parmi lesquelles l’informaticien Illya Sutskever ou les entrepreneurs Sam Altman, Greg Bockman et Elon Musk – se réunissent pour créer une nouvelle entité. Son nom ? OpenAI. Son but ? Faire avancer la recherche en intelligence artificielle. Sa spécificité, publicisée jusque dans son nom ? Être une organisation à but non lucratif, ouverte ou reposant sur les principes de l’open source, dont l’objet serait de faire progresser les connaissances communes, partagées, dans ce domaine informatique de plus en plus prisé qu’est l’intelligence artificielle.

Le projet attire tout de suite l’attention. Il est, après tout, financé par de grands noms : Altman, Brockman et Musk eux-mêmes, le cofondateur de LinkedIn Reid Hoffman, la venture capitalist et ex-collègue de Sam Altman chez Y Combinator Jessica Livingston, le financier Peter Thiel…

En quelques années, la promesse initiale évolue. En 2018, Elon Musk part avec pertes et fracas, critiquant le manque de résultats d’OpenAI et les risques de conflit d’intérêt à venir, alors que Tesla développe ses compétences en matière d’IA. De quasi-ONG de financement de la recherche en IA, OpenAI devient une société privée, de plus en plus secrète.

Fin 2023, un an à peine après que la publication du robot conversationnel ChatGPT a fasciné le grand public par ses capacités de génération de texte et d’image, nouveau coup de tonnerre. Sam Altman, à la tête du projet depuis ses débuts, est d’abord licencié de son poste de CEO par le conseil d’administration, remplacé par l’ex-directrice de la technologie Mira Murati, avant de reprendre sa place.

Aux premières loges de ces multiples rebondissements se trouve une journaliste, Karen Hao, d’abord employée par la MIT Technology Review, puis le Wall Street Journal, et actuellement freelance pour diverses publications dont le magazine états-unien The Atlantic. Première journaliste à obtenir l’accès à la start-up, Karen Hao a depuis continué d’enquêter sur ses activités et celles de l’industrie au sens large, jusqu’à publier Empire of AI, Dreams and nightmares in Sam Altman’s Open AI (Penguin Random House, non traduit), en mai 2025. Elle s’est entretenue avec Next.

« Sam Altman a réussi à créer une ferveur quasi religieuse pour la création d’une intelligence artificielle générale »

>> Vous montrez clairement que l’intelligence artificielle (IA), ou même la notion d’intelligence artificielle générale, varie beaucoup dans l’industrie, au point que ses promoteurs semblent pouvoir toujours l’adapter aux nouveaux problèmes qui les intéressent. Comment est-ce possible ?

L’idée originale de l’intelligence artificielle est de recréer l’intelligence humaine à l’aide d’ordinateurs. Mais il n’y a pas de consensus scientifique sur ce qu’est l’intelligence humaine, ce qui explique que la définition de l’IA évolue régulièrement au fil du temps. L’intelligence artificielle générale (AGI) obéit à la même logique : il ne s’agit que d’un re-positionnement, c’est une manière de se différencier des produits et services existants.

OpenAI s’inscrit dans cette grande tradition d’incapacité à définir ce que l’IA signifie vraiment. L’entreprise utilise tout de même une définition explicite : pour elle, les AGI sont des « systèmes autonomes qui surpassent les humains dans la plupart des tâches à valeur économique ». Ils la définissent donc surtout comme des machines d’automatisation du travail. Mais dans certains cas, il arrive que Microsoft et OpenAI parlent d’AGI comme de systèmes qui seraient capables de générer cent milliards de dollars ou mille milliards de dollars. Une telle définition est totalement différente de celle de la machine à automatiser le travail.


Il reste 76% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ Avec Voxtral, Mistral a son premier modèle audio open source

Mistral a présenté hier soir son Voxtral, premier modèle audio open source de l’entreprise française. Il entre directement en compétition avec des produits très installés, comme le fameux modèle Whisper d’OpenAI, déjà présent depuis plusieurs années.

Mistral veut essentiellement faire la différence sur deux aspects : le tarif et les performances. Mistral vante ainsi une solution efficace et commercialisée pour « moins de la moitié du prix » des solutions comparables.

Le modèle se décline en trois variantes. La première, Voxtral Small, embarque 24 milliards de paramètres et vise les grands déploiements. Elle est directement placée en face de Whisper et GPT-4o d’OpenAI, Scribe d’ElevenLabs et Gemini 2.5 Flash de Google. La seconde, Voxtral Mini, comprend 3 milliards de paramètres et vise les déploiements locaux et périphériques. Enfin, Voxtral Mini Transcribe est une version encore plus réduite, dédiée aux opérations de transcription.

Selon Mistral, Voxtral peut « comprendre » (grâce à Mistral Small 3.1) jusqu’à 40 min de contenu audio, permettant de poser des questions sur les informations qu’il renferme, de générer des contenus et autres fonctions que l’on attend aujourd’hui de ce type de traitement. La transcription peut se faire sur un maximum de 30 min (32 000 jetons). Voxtral est multilingue, prenant en charge le français, l’anglais, l’espagnol, le portugais, l’hindi, l’allemand, l’italien et le néerlandais.

Toujours selon l’entreprise française, l’API de Voxtral est accessible dès 0,001 dollar la minute de traitement, un tarif assez agressif. En outre, Voxtral sait « déclencher directement des fonctions de backend, des flux de travail ou des appels d’API en fonction des intentions de l’utilisateur, en transformant les interactions vocales en commandes système exploitables sans étapes d’analyse intermédiaires ».

Les modèles Voxtral (24B) et Voxtral Mini (3B) peuvent être téléchargés gratuitement depuis Hugging Face. Les fonctions vocales seront également déployées dans Le Chat pour l’ensemble des utilisateurs « au cours des prochaines semaines ».

  •  

Musée des horreurs de l’antitrust et double record pour l’Autorité de la concurrence

Musée des horreurs de l’antitrust et double record pour l’Autorité de la concurrence

Benoît Cœuré, président de l’Autorité de la concurrence, résume 2024 en une phrase : « une année historique […], qu’il s’agisse des sanctions prononcées ou du nombre d’opérations de concentrations autorisées ».

Commençons par les présentations générales. En 2024, l’Autorité de la concurrence comprend 201 agents pour un budget de 25,3 millions d’euros, contre respectivement 199 agents et 24,3 millions en 2023 et quasiment la même chose en 2022. 2023 était toutefois un « mauvais » cru pour les sanctions avec 167,6 millions d’euros.

En 2024, l’Autorité de la concurrence a prononcé huit décisions de sanctions : six pour des ententes, une pour abus de position dominante et une dernière au groupe Loste pour obstruction lors des opérations de visite et de saisies. Ambiance…

Record d’amende : 1,4 milliard d’euros

Le montant total des sanctions est de 1,4 milliard d’euros, dont un peu moins de la moitié (611 millions d’euros) pour une seule affaire. Elle concerne des ententes dans l’électroménager afin de maintenir des prix de vente plus élevés : BSH, Candy Hoover, Eberhardt, Electrolux, Indesit (passé aux mains de Whirlpool), LG, Miele, SEB, Smeg, Whirlpool, Boulanger et Darty sont concernés.

Une autre affaire d’entente sur les prix sanctionne Schneider Electric, Legrand ainsi que les distributeurs Rexel et Sonepar. Ils écopent de 470 millions d’euros. La troisième marche du podium est occupée par Google sur les droits voisins, avec une sanction de 250 millions d’euros. Les autres affaires se partagent les restes.

L’Adlc en profite pour rappeler que, en Europe, « les pratiques anticoncurrentielles génèrent des hausses de prix moyennes de 17 % ».

« Le taux de recouvrement des sanctions est très élevé et atteint généralement les 100 %. Versées à l’État, elles entrent dans le budget général et contribuent ainsi au financement de dépenses d’intérêt général (éducation, justice, hôpitaux…) », explique l’Autorité.

Sur le marché des opérations, l’activité était intense en 2024, avec un autre record : 295 opérations, soit une hausse de 10 % par rapport au précédent pic de 2021. Dans 97 % des cas, les opérations ont été autorisées sans engagements.

L’IA sur tous les fronts, l’AdlC sur le front de l’IA

Sur l’intelligence artificielle, l’Autorité se félicite d’être l’une des premières « à sanctionner
une entreprise pour une pratique liée à l’entraînement d’un modèle d’intelligence artificielle
 ». Dans une interview au Figaro reprise dans le bilan, Benoit Cœuré expliquait que « l’industrie de l’intelligence artificielle générative a le potentiel de devenir le musée des horreurs de l’antitrust si on ne fait rien ». Les sujets liés à IA sont nombreux, avec les droits voisins, la protection des données, etc.

2025 est placée sous le signe de l’IA et de l’énergie. L’Autorité se penchera sur les problématiques « concurrentielles liées aux besoins spécifiques de l’IA en termes énergétiques ainsi qu’à l’impact des modèles utilisant moins de ressources ».

  •  

☕️ Blender 4.5 LTS bénéficie désormais d’un backend Vulkan prêt pour la production

Quatre mois après Blender 4, la version 4.5 du logiciel de modélisation 3D est prête à prendre le relai. La version est particulièrement importante : non seulement elle est LTS (support de deux ans, jusqu’en juillet 2027), mais elle contient une grande liste de nouveautés et améliorations.

Parmi les apports, la prise en charge de l’API Vulkan fait un bond. Bien que le backend OpenGL soit toujours utilisé par défaut, Vulkan est considéré comme prêt pour la production, avec des améliorations notables : meilleures performances, support d’OpenXR, de Subdivision ou encore d’USD/Hydra, etc. Certaines limitations l’empêchent toujours d’être utilisé par défaut, dont des performances moindres en réalité virtuelle et dans la gestion des très grands maillages.

Les autres améliorations sont nombreuses. On peut citer le support de l’inclinaison de la tablette graphique et du défilement horizontal dans l’interface, des versions plus grandes des curseurs de souris (24 x 24 et 32 x 32) pour les écrans HiDPI sur Wayland et X11, un opérateur pour créer de nouveaux groupes vides de nœuds, un import facilité des paramètres, l’utilisation par défaut du multithread pour la compilation des shaders, ou encore de nouveaux nœuds comme Vector Math, Vector Rotate et Vector Mix.

On note également des changements majeurs dans le support de certains matériels. Blender 4.5 est ainsi la dernière version à supporter les Mac Intel. La fondation Blender cite en effet le cout désormais élevé de la maintenance sur ces machines. Le support de big-endian est de son côté considéré comme obsolète. Il sera totalement supprimé dans Blender 5.

  •  

☕️ Meta AI a permis à n’importe qui de lire n’importe quel prompt et réponse

Le lendemain de Noël 2024, Sandeep Hodkasia a signalé un bug à Meta montrant que l’entreprise de Mark Zuckerberg ne protégeait pas les conversations entre son IA générative et ses utilisateurs, explique TechCrunch.

Il a trouvé le problème en analysant la fonctionnalité permettant aux utilisateurs de Meta AI d’éditer leurs prompts pour regénérer un texte ou une image. Dans les informations données par son navigateur, le créateur de l’entreprise de sécurité AppSecure a constaté qu’en modifiant un simple identifiant unique, les serveurs de Meta lui retournaient les prompts et réponses d’autres utilisateurs. Meta ne vérifiait pas l’identifiant de l’utilisateur avant de lui renvoyer les informations.

Facebook headquarters in Menlo Park, California, photo Greg Bulla

Meta a payé Sandeep Hodkasia 10 000 dollars pour l’identification de ce bug corrigé un mois après. L’entreprise a confirmé à nos confrères le bug et sa résolution et a expliqué « n’avoir trouvé aucune preuve d’utilisation malveillante et avoir récompensé le chercheur ».

  •  

☕️ Apple engage 500 millions de dollars pour sécuriser aimants et terres rares made in USA

Apple a annoncé mardi un « engagement » de 500 millions de dollars destiné à soutenir les activités et la politique d’investissement de MP Materials, opérateur d’une mine de terres rares située en Californie, mais aussi d’une usine de transformation installée à Fort Worth, au Texas, ce qui en ferait le premier acteur « intégré » du secteur aux États-Unis.

Cet accord – le premier du genre selon Apple – doit permettre à MP Materials d’augmenter significativement ses capacités, tout en assurant à la firme de Cupertino un approvisionnement garanti en aimants et terres rares, indispensables à la fabrication des centaines de millions d’iPhone, iPad et ordinateurs Mac vendus chaque année.

L’enveloppe annoncée doit notamment soutenir l’agrandissement de l’usine MP Materials de Fort Worth, et la création de lignes de production d’aimants néodyme dédiées à Apple.

Elle a également vocation à participer à la création d’une nouvelle usine, de recyclage cette fois, installée à Moutain Pass, en Californie, à proximité immédiate de la mine exploitée par MP Materials. D’après les deux entreprises, cette usine traitera à la fois les rebuts industriels et les matériaux extraits d’appareils électroniques en fin de vie, dans le but d’assurer une seconde vie aux terres rares.

La mine de Mountain Pass en 2022 – crédit MP Materials

« Depuis près de cinq ans, Apple et MP Materials pilotent une technologie de recyclage avancée qui permet de transformer des aimants en terres rares recyclés en un matériau répondant aux normes rigoureuses d’Apple en matière de performance et de conception », affirment les deux partenaires.

Apple revendique l’usage d’aimants recyclés à l’intérieur de l’iPhone depuis le Taptic Engine de l’iPhone 11 en 2019. Aujourd’hui, l’entreprise indique sans plus de précision que « presque tous les aimants des appareils Apple sont fabriqués à partir d’éléments de terres rares 100 % recyclés ».

Cet accord intervient cinq jours après que MP Materials a annoncé un accord public privé sans précédent avec le département de la Défense des États-Unis. Cette fois, l’engagement se compte en milliards de dollars sur dix ans, avec des fonds qui se ventilent entre promesses d’achat à prix minimum garanti (110 dollars le kilo), garanties de débouchés commerciaux, prêts à taux avantageux pour favoriser les investissements, etc.

  •  

☕️ Aylo bloque à nouveau Youporn, Pornhub et Redtube en France

Aylo (ex Mindgeek), éditeur de trois parmi les plus importants carrefours d’audience au monde en matière de contenus pornographiques, a à nouveau mis en place le blocage de ses sites pour les internautes français.

Depuis la France, Youporn, Pornhub et Redtube sont remplacés par un nouveau message dans lequel l’éditeur s’insurge contre la façon dont la France a choisi de mettre en œuvre l’obligation de vérification de l’âge des internautes.

Aylo a conservé l’iconographie déjà utilisée début juin pour illustrer son blocage

La mise en ligne de cet écran et le blocage associé font suite à la publication, mardi, d’une décision du Conseil d’État qui rétablit la possibilité de bloquer les sites pornographiques si ces derniers n’ont pas répondu à l’exigence de mise en place d’un dispositif de vérification d’âge.

« Les contestations juridiques, les décisions et les revirements en cours mettent clairement en évidence une chose : l’absence de direction, l’absence de solution globale et, pour dire les choses simplement, le dysfonctionnement législatif », affirme l’éditeur de Pornhub, qui une nouvelle fois cherche à prendre à partie les utilisateurs de ses services :

« Votre gouvernement propose que nous vérifiions votre âge à chaque fois que vous visitez notre site. La dure réalité : Cette mesure ne protège pas les mineurs, elle met en péril la vie privée de chacun et met les enfants en danger, car elle conduit le trafic vers des milliers de sites qui contournent délibérément les réglementations, ne vérifient pas l’âge des participants dans les contenus et encouragent activement les utilisateurs à contourner la loi ».

Aylo avait déjà bloqué l’accès à ses sites en France début juin, avant de faire marche arrière quand le tribunal administratif de Paris avait ordonné la suspension de l’obligation de contrôle.

« Seuls des adultes identifiés devraient être autorisés à déverrouiller l’accès à des contenus inappropriés pour l’âge. La technologie nécessaire à cette fin existe aujourd’hui. Nous sommes déterminés à faire partie de cette solution et souhaitons collaborer avec les gouvernements, la société civile et les partenaires technologiques pour parvenir à une solution efficace de vérification de l’âge basée sur les appareils », affirme encore l’éditeur.

Ce nouveau rebondissement intervient alors que la Commission européenne vient de publier ses lignes directrices en matière de protection des mineurs sur Internet, et d’annoncer le développement d’un module de vérification destiné aux éditeurs, qui sera notamment testé par la France.

  •  

Meta annonce investir des centaines de milliards de dollars dans des datacenters pour l’IA

Titans sans Tartare
Meta annonce investir des centaines de milliards de dollars dans des datacenters pour l’IA

Dans une série de messages sur Threads, Mark Zuckerberg a annoncé « investir des centaines de milliards de dollars ». Meta veut accélérer l’agrandissement de son parc de datacenters : actuellement, l’entreprise utilise même des tentes pour étendre ses centres. Pourtant, leur installation a des conséquences pour le voisinage.

Sur son réseau social Threads, Mark Zuckerberg a annoncé, lundi 14 juillet, que son entreprise, Meta, va investir « des centaines de milliards de dollars » dans de nouvelles infrastructures de calcul pour l’intelligence artificielle. Cette annonce arrive après le débauchage par son entreprise de plusieurs spécialistes chez Apple, Anthropic, OpenAI ou Scale AI.

Meta a bien développé une famille de modèles de langage, Llama, qu’elle présente comme open source, même si bien des spécialistes critiquent cette appellation. Mais l’entreprise, qui avait parié sur le metaverse, s’est montrée moins à la pointe dans le développement de l’IA générative que ses concurrents comme OpenAI, Google ou Microsoft. C’était pourtant chez Facebook que l’un des pionniers du deep learning, Yann Lecun, avait posé ses pénates en 2013, donnant un boost au domaine.

Des « titans » demandant jusqu’à 5 GW de puissance

« Nous sommes en train de construire des clusters de plusieurs gigawatts », a expliqué de manière offensive Mark Zuckerberg sur Thread. « Nous avons baptisé le premier Prometheus et il sera mis en service en 2026 », a-t-il ajouté, « nous construisons également Hyperion, qui aura une puissance qui pourra aller jusqu’à 5 GW dans plusieurs années. Nous construisons également de nombreuses autres clusters de titans. L’un d’entre eux couvre une grande partie de l’empreinte de Manhattan ». Le CEO de Meta parle de datacenters « de titans » et les baptise de noms inspirés de ces divinités de la mythologie grecque, donnant une impression de gigantisme à ses centres de données.

Vendredi 11 juillet, SemiAnalysis expliquait que Meta mettait en place des parties de ses datacenters sous tentes pour accélérer leur expansion. L’entreprise a confirmé auprès de Business Insider, tout en précisant que ces tentes permettent seulement d’augmenter la capacité de datacenters existants. SemiAnalysis donnait aussi plus d’informations sur le projet Prometheus. « Lorsque le réseau électrique local n’a pu suivre, Meta s’est mis en mode Elon [Musk]. Avec l’aide de Williams [énergéticien étasunien, ndlr], ils construisent deux centrales au gaz naturel de 200 MW sur site », affirmait SemiAnalysis.

Comme nous l’expliquions récemment, ces gros datacenters ne cherchent plus la proximité des fibres, mais celle des grosses lignes électriques pour alimenter des serveurs toujours plus gourmands et denses. Jusqu’à, comme ici, imaginer des centrales dédiées.

Pour mettre en perspective cette annonce de Mark Zuckerberg, rappelons qu’Olivier de Nomazy, responsable analyste chez Data4, nous expliquait qu’ « il y avait à peu près 6,5 GW en 2023 de datacenters déployés ». L’annonce d’un datacenter de 5 GW par Meta implique donc un besoin d’énergie colossal par rapport à ce que l’on connait actuellement.

Des problèmes pour les riverains

En parallèle, lundi, le New York Times a publié un article racontant les problèmes d’une famille du Comté de Newton, dont la maison se situe juste à côté d’un des datacenters de Meta. Beverly et Jeff Morris habitent à 300 mètres de ce centre de données, et l’eau de leur maison vient directement de la nappe d’eau souterraine de leur terrain.

Le journal étasunien explique que quelques mois après le début de la construction du data center de Meta, en 2018, le lave-vaisselle, la machine à glaçons, le lave-linge et les toilettes des Morris ont tous cessé de fonctionner. « En l’espace d’un an, la pression de l’eau s’est réduite à un filet d’eau ».

Le média syndical américain More Perfect Union avait déjà publié, il y a trois mois, sur YouTube une vidéo sur les problèmes de la famille :

  •  

Sites porno : le Conseil d’État rétablit l’obligation de contrôle de l’âge

Coitus interruptus
Sites porno : le Conseil d’État rétablit l’obligation de contrôle de l’âge

Suspendue par une décision de justice le 16 juin dernier, l’obligation de contrôle de l’âge en amont de l’accès aux sites pornographiques a été rétablie mardi par le Conseil d’État. L’institution estime que la suspension n’était pas justifiée par une notion d’urgence. Les Sages notent par ailleurs que le contrôle de l’âge est « bien susceptible de contribuer à atteindre l’objectif de protection des mineurs » poursuivi par la loi SREN.

Pornhub, Redtube et Youporn seront-ils de nouveau bloqués en France par leur éditeur, pour tenter de faire pression sur l’Arcom et les pouvoirs publics ? Le Conseil d’État a rendu mardi 15 juillet une décision qui pourrait relancer la controverse. L’institution a en effet décidé d’annuler la décision de justice du 16 juin dernier, qui suspendait l’obligation de vérification de l’âge des internautes entrée en vigueur quelques semaines plus tôt pour 17 sites pornographiques de premier plan.

Le Conseil d’État ne retient pas l’urgence

« Le Conseil d’État relève que la société n’apporte aucun élément permettant d’établir que l’application de l’arrêté contesté porterait une atteinte grave à sa situation économique, remarque l’institution dans le communiqué qui accompagne sa décision (PDF). Il constate également que l’arrêté n’interdit pas la diffusion de contenus pornographiques auprès des personnes majeures, mais qu’il impose seulement de mettre en place des systèmes de vérification de l’âge efficaces, dans le cadre des garanties prévues par la loi. Il n’y a donc pas d’atteinte à la liberté d’expression et à la protection de la vie privée. »

L’institution souligne par ailleurs que le dispositif de vérification de l’âge, imposé par l’arrêté contesté, est bien susceptible de contribuer à atteindre l’objectif d’intérêt public qui lui est rattaché, à savoir « la protection des mineurs contre l’exposition à des contenus à caractère pornographique », et annule donc la suspension ordonnée par le tribunal administratif le 16 juin dernier.

Un contentieux qui dure

La loi du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique, dite SREN, confère pour mémoire à l’Arcom un pouvoir de sanction à l’encontre des sites pour adultes qui ne disposent pas d’un mécanisme de contrôle de l’âge. Il manquait cependant au texte un arrêté ministériel pour permettre le blocage des sites contrevenants quand ces derniers sont édités par une société établie dans un autre État membre de l’Union européenne : la publication de ce dernier, signé par Rachida Dati, est intervenue le 6 mars dernier, ouvrant une période de grâce de trois mois pour la mise en œuvre des mesures techniques associées.

Pendant que le canadien Aylo, éditeur de Pornhub, Redtube et Youporn, tentait le coup de com’ en bloquant de façon préventive l’accès à ses sites pour tous les internautes français, l’entreprise chypriote Hammy Media LTD, qui gère la plateforme xHamster, a de son côté choisi la voie juridique, en attaquant l’arrêté du ministère de la Culture devant le tribunal administratif de Paris. La démarche a d’abord été couronnée de succès, puisque le juge a donc décidé, le 16 juin dernier, de suspendre l’arrêté en urgence, le temps de vérifier si ce dernier est bien compatible avec le droit européen.

Problème : pour le Conseil d’État, cette notion d’urgence ne méritait pas d’être retenue. « La condition d’urgence est considérée comme remplie lorsque la décision administrative contestée porte préjudice de manière suffisamment grave et immédiate à un intérêt public, à la situation du requérant ou aux intérêts qu’il entend défendre », rappelle l’institution.

Or elle estime, dans sa décision, que l’éditeur de xHamster n’a fourni aucun élément permettant d’attester, de façon objective, de la réalité du préjudice financier qui découlerait de la mise en place du contrôle d’âge. « Constatant l’absence d’urgence, le Conseil d’État rejette la demande de suspension l’arrêté du 26 février 2025 sans avoir à se prononcer ni sur sa légalité, ni sur la question prioritaire de constitutionnalité soulevée à l’encontre de la loi par la société requérante. »

Si la suspension est pour l’instant annulée, le contentieux reste ouvert. Le tribunal administratif de Paris a en effet également été saisi au fond contre l’arrêté ministériel du 26 février 2025. Et le référentiel technique sur la vérification de l’âge adopté par l’Arcom dans le cadre de la mise en œuvre de la loi du 21 mai 2024 fait lui aussi l’objet d’un recours au fond, devant le Conseil d’État cette fois.

  •  

xAI sort Grok 4, sa version Heavy déclare s’appeler Hitler

GodwinAI
xAI sort Grok 4, sa version Heavy déclare s’appeler Hitler

xAI a sorti Grok 4, accessible depuis différents abonnements. La version la plus chère, qui donne accès à Grok 4 Heavy, a tôt fait de déclarer qu’elle s’appelait Hitler, potentiellement influencée par les déboires extrémistes des versions précédentes.

Chez Grok, (quasiment) rien de nouveau. Après des propos sur un faux génocide en Afrique du Sud ou la promotion évidente de l’extrême-droite en France, voici que la société xAI d’Elon Musk sort Grok 4 une version du grand modèle de langage présentée comme « la plus intelligente au monde ».

Pour y accéder, diverses possibilités : une offre gratuite, une offre « SuperGrok » à 30 dollars par mois, et une nommée « SuperGrok Heavy » à 300 dollars par mois.

3 versions d’abonnements

Les différentes versions permettent toutes d’accéder à des « compagnons », des personnages animés actuellement au nombre de deux (Bad Rudy, un panda roux aux réponses volontairement méchantes, et Ani, une femme blonde dans un style d’anime japonais, prompte à enlever sa robe pour montrer sa lingerie).

L’abonnement à SuperGrok Heavy doit permettre d’accéder de manière anticipée à des fonctionnalités avancées et au modèle Grok 4 Heavy. Il lui manque cela dit quelques éléments disponibles du côté du SuperGrok classique, à commencer par celle des « pensées », c’est-à-dire de la liste des sources disponibles en ligne venues alimenter les réponses formulées par la machine.

Dans la version la plus coûteuse, les résultats se gâtent par ailleurs d’un point de vue politique. Demandez à Grok 4 Heavy de vous donner son nom, il vous répondra, sans hésiter, et à plusieurs reprises : Hitler.

Grok influencé par la couverture médiatique de ses sorties extrêmistes ?

Ex-ingénieur de la société d’annotation Scale AI, Riley Goodside a fait le test sur les différentes versions de Grok 4. Dans sa version classique, interrogée sur son nom, Grok 4 renvoie des résultats peu problématiques, comme « 4 », « xAI » ou « aucun ».

Si la fonction de recherche de sources n’est pas disponible avec le recours au modèle Grok 4 heavy, celles fournies par Grok 4 permettent néanmoins de formuler une hypothèse sur son apparente passion hitlérienne. Du côté de ce modèle plus « léger », la machine tombe en effet rapidement sur des rapports relatifs à l’épisode de début juillet, dans lequel la version précédente de Grok se qualifiait elle-même de « MechaHitler », permettait de générer des récits de viols et promouvait des thèses conspirationnistes — quand elle ne répondait pas en prenant un ton très similaire à celui d’Elon Musk lui-même.

Pour Riley Goodside, il est probable que la machine ait été influencée après son entraînement par les résultats qu’elle est allée chercher en ligne. Cela suggérerait l’existence d’une faille d’un nouveau genre pour tous les modèles de langages recourant à de la recherche en ligne, dans laquelle les articles les concernant pourraient influencer leurs résultats, dans une boucle de rétroaction complexe à maîtriser.

Reste à savoir pourquoi Grok 4 est capable d’éviter ce type de résultats, quand Grok 4 heavy les prend en compte et les utilise pour formuler ses réponses.

L’enjeu est d’autant plus important qu’au moment même où Elon Musk dévoilait les « compagnons » accessibles depuis Grok 4, xAI déclarait avoir signé un contrat avec le ministère états-unien de la Défense et rendait ses « modèles frontières » accessibles à l’administration, aux côtés de ses concurrents Anthropic, Google et OpenAI.

Le directeur du numérique de l’office de l’intelligence artificielle indique dans un communiqué que ces différents contrats, qui correspondent largement à ce que le « ministère de l’efficacité gouvernementale » cherchait à faire en déployant de l’IA au sein de l’administration des États-Unis, grimpent jusqu’à 200 millions de dollars.

  •