Vue normale

Deezer démonétise 85 % des écoutes de morceaux générés par IA

4 février 2026 à 15:42
♬ Slop ♬
Deezer démonétise 85 % des écoutes de morceaux générés par IA

Deezer a détecté que 39 % de toute la musique diffusée quotidiennement était générée par IA, et que les écoutes de ces morceaux pouvaient être boostées artificiellement jusqu’à 85 %. L’entreprise de streaming a donc décidé de démonétiser ces musiques à cette hauteur.

Deezer veut réguler l’utilisation de l’IA pour la génération de morceaux diffusés sur les plateformes de streaming. En juin dernier, l’entreprise expliquait avoir mis au point outil de détection et d’étiquetage automatique des contenus musicaux produits à 100 % par des modèles d’intelligence artificielle générative. Elle veut maintenant s’en servir pour décider de démonétiser une partie des vues des musiques que cet outil détecte.

Six mois après, l’entreprise revient avec des chiffres. Son outil lui a permis de détecter et d’étiqueter plus de 13,4 millions de titres IA. Et, « en janvier 2026, environ 60 000 titres générés par l’IA ont été diffusés chaque jour, soit environ 39 % de toute la musique diffusée quotidiennement », explique-t-elle.

« On ne pense pas que cela soit une très bonne chose pour l’industrie, car cela va entraîner une perte de confiance dans la valeur de la musique », affirme le directeur général de Deezer, Alexis Lanternier, au Figaro.

De la musique générée par IA pour créer de fausses écoutes

Mais surtout, pour l’entreprise, « la génération de faux streams reste la principale raison pour laquelle de la musique générée par l’IA est mise en ligne ». C’est-à-dire que pour Deezer, la plupart de la musique générée par IA n’est pas produite pour être vraiment écoutée mais pour engendrer des « écoutes » sur les plateformes de stream et les monétiser. Ainsi, elle explique que sur sa plateforme ce genre de fraude au stream ne représenterait que 8 % des écoutes en 2025, mais que sur les morceaux générés 100 % par IA, ce taux atteindrait jusqu’à 85 % la même année.

« La nouvelle technique des fraudeurs est de créer plein de chansons avec de l’IA, et de les faire écouter par des comptes utilisateurs qu’ils auront créés », explique toujours au Figaro Alexis Lanternier : « leur but est de comprendre comment les algorithmes de recommandation de musique fonctionnent. Ils cherchent à fabriquer un buzz artificiel afin que l’algorithme décide de mettre ces musiques dans ses playlists et dans ses recommandations d’écoute ».

Deezer se lance dans la vente de son outil de détection auprès des autres acteurs

« Bien sûr, chaque stream frauduleux que nous détectons est démonétisé afin que les redevances des artistes, auteurs-compositeurs et autres titulaires de droits humains ne soient pas affectées », explique-t-il dans le communiqué de l’entreprise. Ainsi, ces fameux 85 % de fausses écoutes de musiques générées par IA sont retirés de la monétisation par l’entreprise.

En juin, elle expliquait déjà qu’elle avait enlevé toutes ces musiques entièrement générées par IA de ses recommandations algorithmiques.

L’entreprise espère convaincre les autres acteurs de la musique en ligne de s’aligner sur ses pratiques. Si, dans son communiqué, elle dit « ouvrir » « sa technologie de détection à l’industrie musicale », le terme n’est pas utilisé comme dans le monde du libre.

Ici Deezer se lance « dans la vente de sa technologie de détection de l’IA, offrant ainsi à l’ensemble du secteur musical une option pour favoriser la transparence dans le streaming musical et réduire les incitations à la fraude musicale par l’IA ». Elle espère convaincre des acteurs de la distribution comme CD Baby ou DistroKid, glisse-t-elle à nos consœurs du Figaro en ajoutant que la Sacem a déjà signé un contrat avec la plateforme.

☕️ Texas Instruments rachète Silicon Labs pour 7,5 milliards de dollars

4 février 2026 à 15:15

Poids lourd des semiconducteurs analogiques (17,68 milliards de dollars de chiffre d’affaires en 2025), Texas Instruments ajoute une corde à son arc en formalisant, mercredi 4 février, un projet d’acquisition de son concurrent et compatriote Silicon Labs.

L’opération, réalisée intégralement en cash, est annoncée à 231 dollars par titre Silicon Labs, soit une valorisation globale d’environ 7,5 milliards de dollars pour cette entreprise de semiconducteurs dédiés aux problématiques de connectivité sans fil, notamment dans l’univers de l’Internet des objets (IoT).

« Le portefeuille de solutions de connectivité sans fil embarquées de pointe de Silicon Labs renforce notre technologie et notre propriété intellectuelle, nous permettant d’accroître notre capacité de production et de mieux servir nos clients », commente l’acquéreur.

Les produits sans fil de Silicon Labs trouvent des débouchés dans le grand public et au sein de produits industriels – capture d’écran

Texas Instruments précise par ailleurs que ses capacités industrielles sont tout à fait adaptées à la production des puces brevetées par Silicon Labs. L’entreprise (784,8 millions de dollars de chiffre d’affaires), cotée au Nasdaq et détenue principalement par de grands fonds institutionnels américains, opère en effet principalement sur un mode fabless : elle conçoit et commercialise des puces, mais en sous-traite la fabrication à des fondeurs spécialisés.

La synergie a d’autant plus de sens que Texas Instruments a, en partie pour répondre aux souhaits de l’administration Trump et conserver le bénéfice de certaines aides financières, engagé un plan d’investissement dans ses usines aux États-Unis à l’été 2025.

Microsoft envisagerait d’arrêter le forcing de Copilot et Recall dans Windows 11

4 février 2026 à 13:37
Total Recall
Microsoft envisagerait d’arrêter le forcing de Copilot et Recall dans Windows 11

D’après Windows Central, Microsoft aurait enfin accepté de tenir compte des nombreuses réactions négatives visant à démultiplier des agents IA Copilot dans son « système d’exploitation agentique » Windows 11.

En déclarant, en novembre dernier, que « Windows évolue vers un système d’exploitation agentique, connectant appareils, cloud et IA pour une productivité accrue et un travail sécurisé où que vous soyez », Pavan Davuluri, responsable de la division Windows chez Microsoft, ne s’attendait apparemment pas à recevoir l’accueil glacial que nous avions déjà chroniqué.

L’entreprise avait, dans la foulée, cherché à se justifier en expliquant comment on pourrait lancer et manipuler des agents depuis la barre des tâches, demander des résumés depuis un survol de la souris dans l’Explorateur, trouver plus efficacement ce que l’on cherche avec la nouvelle recherche sémantique, ou encore profiter de nombreux connecteurs pour presque tous les scénarios. Un Windows 365 for Agents était même prévu pour que des agents puissent créer des sessions distantes complètes pour réaliser leurs tâches… sans vraiment convaincre.

« Vous avez gagné : Microsoft revient sur la surcharge d’IA de Windows 11 »

« Au cours de l’année dernière, Microsoft a saisi toutes les occasions pour détériorer Windows 11 en plaçant des boutons Copilot partout où cela était possible dans les applications intégrées telles que l’Explorateur de fichiers et le Bloc-notes, même si leur implémentation était médiocre ou inutile », résume Zac Bowden de Windows Central dans un article intitulé « Vous avez gagné : Microsoft revient sur la surcharge d’IA de Windows 11, en réduisant Copilot et en repensant Recall dans le cadre d’un changement majeur ».

D’après notre confrère, cette vague de réactions négatives a été, au moins en partie, entendue : « selon des personnes proches des projets de Microsoft, la société est en train de réévaluer sa stratégie en matière d’IA sur Windows 11 et prévoit des changements visant à rationaliser, voire à supprimer certaines fonctionnalités d’IA qui ne sont pas pertinentes ».

Microsoft aurait ainsi suspendu, « du moins pour l’instant », le développement de boutons Copilot supplémentaires pour les applications intégrées, et aurait l’intention d’adopter une « approche plus prudente et réfléchie » quant à l’emplacement de ces boutons Copilot et à leur intégration à l’avenir, avance Windows Central.

Recall, « dans sa forme actuelle, a échoué »

Windows Recall serait lui aussi « en cours d’examen ». Des sources ont indiqué à notre confrère que Microsoft estime que Recall, « dans sa forme actuelle, a échoué », et que la société explorerait des moyens de faire évoluer le concept plutôt que de l’abandonner complètement, « en supprimant peut-être le nom Recall dans le processus, bien que cela ne soit pas confirmé ».

« La bonne nouvelle, c’est qu’il est clair que Microsoft a pris en compte les commentaires concernant son approche trop autoritaire en matière de boutons Copilot dans les applications Windows », conclut Windows Central :

« L’entreprise prend du recul pour réajuster la meilleure façon d’implémenter ces intégrations d’IA dans le système d’exploitation, dans l’espoir d’offrir une expérience d’IA plus significative et utile sur la plateforme, plutôt que d’ajouter de manière aléatoire l’icône Copilot à toutes les interfaces utilisateur possibles. »

Soutenir les utilisateurs finaux, ou les agents IA effectuant des travaux ?

Une évolution qui tranche avec le discours tenu par le CEO de Microsoft, Satya Nadella qui, en novembre, avait déclaré :  « Notre activité, qui aujourd’hui est une activité d’outils pour les utilisateurs finaux, deviendra essentiellement une activité d’infrastructure pour soutenir les agents effectuant des travaux ».

Début janvier, il avançait que le débat sur le « slop » (bouillie) n’aurait plus lieu d’être et comparait l’IA à « un échafaudage pour l’esprit humain ». Il reconnaissait cela dit que  « nous sommes encore dans les premiers kilomètres d’un marathon. Beaucoup de choses restent imprévisibles ». 

Et ce, d’autant plus que, fin décembre, l’entreprise décidait de forcer de plus en plus l’intégration de Copilot à sa suite bureautique Microsoft 365, tout en augmentant les prix, afin de rentabiliser les milliards investis dans OpenAI en particulier et l’IA en général.

Le vibe coding met en danger l’open-source selon des économistes

4 février 2026 à 12:58
Aux sources de la vibe
Le vibe coding met en danger l’open-source selon des économistes

En générant du code à partir de multiples sources des logiciels libres, le vibe coding détourne en même temps nombre d’utilisateurs des personnes qui ont créé ces logiciels. Les financements, les rapports de bugs et les discussions s’amenuisent en parallèle à la destruction des communautés d’utilisateurs, constatent des chercheurs en économie.

« Dans le modèle commercial traditionnel [de l’open source], où les revenus des développeurs dépendent entièrement de l’engagement direct des utilisateurs, l’écosystème open source ne peut survivre à l’adoption généralisée de l’IA », affirment quatre chercheurs en économie.

Dans une étude mise en ligne sur la plateforme de preprint arXiv et non relue par leurs pairs, Miklós Koren, Gábor Békés, Julian Hinz et Aaron Lohmann, constatent que l’arrivée du vibe coding sur le marché du logiciel a eu des conséquences importantes sur les logiciels libres.

Les deux premiers sont chercheurs en économie à l’Université de Centre Europe (située à Budapest, cofondée et financée par George Soros). Julian Hinz est pour sa part à l’université allemande de Bielefeld et comme Aaron Lohmann, il travaille aussi pour le think tank allemand Kiel Institute.

En suivant le déclin de Stack Overflow ?

Les plateformes de discussions autour du code sur lesquelles les IA génératives ont aussi été entrainées, ont été touchées avant, à l’image de Stack Overflow. Si les volte-face de Stack Overflow à propos de l’IA ont sans doute eu des effets, en 2024, des chercheurs montraient les liens entre l’arrivée massive des LLM dans les outils de développement et la baisse de partage de connaissance sur la plateforme.

Pour illustrer un effet similaire sur les projets open-source, ces quatre chercheurs citent un message récent d’Adam Wathan, responsable de l’entreprise Tailwind Labs qui édite le projet Tailwindcss. Ce dernier explique que son entreprise a licencié 75 % de son équipe en raison de « l’impact brutal » de l’IA.

« Le trafic vers notre documentation a baissé d’environ 40 % depuis début 2023, malgré la popularité croissante de Tailwind », explique-t-il suite à une pull request qui demandait l’ajout d’une fonctionnalité permettant l’optimisation de l’utilisation de cette documentation par les modèles de langage. « Cette documentation est le seul moyen pour les gens de découvrir nos produits commerciaux, et sans clients, nous ne pouvons pas nous permettre de maintenir le framework ».

La monétisation sur la découverte du projet menacée

Les économistes expliquent dans leur étude que tous les projets open-source qui veulent monétiser leur logiciel ne s’appuient pas sur la même stratégie : « Une grande partie des activités monétisées liées aux logiciels libres concerne les services aux entreprises : le segment des grandes entreprises représentait plus de 69,0 % du marché des services open source en 2022 ».

Mais ils ajoutent qu’ « en revanche, une grande partie de l’utilisation des logiciels libres concerne la production en petites équipes et individuelle, où l’adoption peut être élevée, mais où la monétisation repose sur la découverte par le biais des canaux communautaires plutôt que sur des achats formels ». Et ce sont notamment ces projets, comme Tailwind, qui selon eux se trouvent menacés par le vibe coding.

Un détournement des utilisateurs par l’IA

Dans cet article, les économistes modélisent mathématiquement cet écosystème de l’open source reliant l’adoption des logiciels par les utilisateurs aux gains des développeurs. Puis ils ajoutent à leur modélisation l’arrivée du vibe coding. Ils regardent ensuite comment le marché évolue au sein de cette modélisation, et si les développeurs ne monétisent leur travail que via l’engagement direct et non via des alternatives s’appuyant sur l’IA (par exemple en faisant payer l’accès à des API), des dons ou autres.

De cette modélisation, les quatre chercheurs concluent qu’ avec le vibe coding, « les utilisateurs peuvent adopter plus facilement les paquets, et les développeurs peuvent s’appuyer plus efficacement sur le code existant » et la productivité augmente.

Mais « le canal de détournement de la demande fait passer les utilisateurs d’une interaction directe (lecture de la documentation, dépôt de rapports de bogues, collaboration avec les responsables de la maintenance) à une utilisation médiatisée par l’IA ». Dans les modèles commerciaux open source traditionnels basés sur la visibilité et l’engagement, ce détournement érode la base de revenus qui soutient la contribution.

Un changement de modèle économique plutôt qu’un ralentissement de l’adoption de l’IA ?

Dans leurs remarques, ces quatre chercheurs se positionnent contre un ralentissement de l’adoption de l’IA, car « les avantages sont trop importants et la technologie trop utile », mais ils plaident plutôt pour une adaptation des modèles économiques des petites entreprises d’open-source qui ne s’appuient actuellement que sur les interactions directes. Transferts directs, modes de monétisation alternatifs mais aussi et surtout « la redistribution au niveau des plateformes » sous forme de « Spotify de l’open source », seraient, selon eux, des solutions viables.

Encore faut-il, pour cette dernière solution évoquée, que la communauté de l’open-source accepte de lier directement une grande partie de ses revenus à un ou des acteurs centraux qui dirigeraient ces plateformes.

☕️ L’interopérabilité entre matériels Google Meet et Microsoft Teams se met en place

4 février 2026 à 12:06

L’idée faisait partie des engagements formulés en mai dernier par Microsoft pour éviter des sanctions européennes. Elle a depuis fait son chemin, au moins pour les clients entreprises : il sera en effet bientôt possible, sous conditions, de faire communiquer directement les solutions matérielles de visioconférence Google Meet avec leurs équivalents dédiés à Microsoft Teams.

C’est Google qui a annoncé le premier la mise en œuvre de cette interopérabilité native, réservée pour l’instant aux clients professionnels souscripteurs de l’offre Workspace. À ce stade, la passerelle n’est fonctionnelle qu’entre un appareil Google Meet fonctionnant sous Chrome OS et une Salle Teams, opérée depuis un matériel certifié Teams. L’administrateur du compte Workspace garde la possibilité de la désactiver.

Jusqu’ici, l’établissement d’une connexion entre une salle visio Teams et son équivalent Meet supposait le recours à un composant externe tel que Pexip Connect.

La connexion entre Meet et Teams est réservée aux appareils certifiés. Ici, un aperçu de la gamme Google Meet – capture d’écran Next

Dans la majorité des cas, la connexion entre une salle Meet et un outil tiers (Webex, Zoom, Teams via Pexip et maintenant Teams en natif) n’autorise que les fonctions visio de base : la présentation, la prise en charge du double écran, ou le chat interne à la visio ne sont par exemple pas pris en charge, comme le souligne la documentation de Google.

Reste à voir maintenant si et comment cette interopérabilité pourrait être étendue aux solutions exclusivement Web ou logicielles des deux rivaux.

La Wayback Machine victime indirecte des crawlers des IA génératives ?

4 février 2026 à 10:17
Imprimer Internet avant que ça ne s'arrête ?
La Wayback Machine victime indirecte des crawlers des IA génératives ?

De plus en plus de sites web, dont ceux de média importants, font tout pour bloquer l’outil d’archivage du web d’Internet Archive, la Wayback Machine. Ils soupçonnent les entreprises d’IA génératives de récupérer leurs contenus de manière indirecte via cet outil pour entrainer leurs modèles. D’autres outils d’archivage moins conventionnels comme Common Crawl ou Anna’s Archive sont aussi visés par les éditeurs de sites.

Plusieurs médias commencent à activement prendre des mesures pour bloquer l’archivage de leurs articles par la Wayback Machine. Ce site géré par I’organisation à but non lucratif Internet Archive permet d’accéder à 1 000 milliards de pages qu’elle a sauvegardées en presque 30 ans.

Mais depuis l’arrivée de l’IA générative, leurs crawlers parcourent le web à l’affût de toutes les pages qui pourraient renforcer l’entraînement des modèles de langage et de leur système de RAG (Retrieval-augmented generation) qui leur permettent de citer des documents récents. Et ils posent de sérieux problèmes aux sites web en augmentant de façon disproportionnée le nombre de visites des robots, mettant en péril les infrastructures. Ainsi, l’année dernière des responsables de sites scientifiques mais aussi la Fondation Wikimédia avaient alerté sur le problème.

Les sites de média ne font pas exception, d’autant que leurs contenus sont particulièrement prisés des entreprises d’IA générative qui basent leur connaissance de l’actualité essentiellement sur le travail des journalistes qui travaillent pour ces médias. Une bonne partie d’entre eux utilisent bien le fichier robots.txt pour les bloquer. Ainsi, selon un relevé du journaliste Ben Welsh, la moitié des 1 157 sites de presse qu’il a recensés bloque maintenant le robot d’OpenAI et 44 % celui qu’utilise Google pour Gemini.

Comme le faisait remarquer Cloudflare en août dernier, certaines entreprises d’IA générative masquent leurs crawlers web en modifiant leur agent utilisateur pour se faire passer pour ce qu’ils ne sont pas.

Mais, selon Robert Hahn, directeur des affaires commerciales et des licences du journal britannique The Guardian, certains passeraient aussi par des voies indirectes comme Internet Archive pour récupérer les contenus des médias. « Beaucoup de ces entreprises spécialisées dans l’IA recherchent des bases de données structurées et facilement accessibles », affirme-t-il au blog du Nieman Lab, « l’API d’Internet Archive serait un endroit évident où brancher leurs machines et extraire la propriété intellectuelle », tout en admettant que la Wayback Machine en elle-même serait « moins risquée ». Le responsable du média britannique confirme donc avoir pris des mesures, en collaboration avec Internet Archive, pour retirer les articles du Guardian de cette API et de l’outil de l’organisation.

En France, le Monde bloque, Le Figaro et Libération laissent passer


Il reste 63% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Mozilla promet que son kill switch dédié aux fonctions IA arrivera avec Firefox 148

4 février 2026 à 09:37

Firefox 148, dont la sortie est prévue le 24 février, permettra-t-il d’éteindre la polémique ? Mozilla a annoncé lundi que la prochaine version mensuelle de son navigateur intègrerait un réglage permettant de désactiver, en une seule fois, l’ensemble des fonctionnalités du logiciel, actuelles ou futures, faisant appel à des outils d’IA générative.

« Vous pouvez également consulter et gérer des fonctionnalités d’IA individuelles si vous choisissez de les utiliser. Cela vous permet d’utiliser Firefox sans IA pendant que nous continuons à créer des fonctionnalités d’IA pour ceux qui le souhaitent », décrit Mozilla, qui ménage les susceptibilités mais ne change donc pas son fusil d’épaule.

La fonction permettra de bloquer les « améliorations IA » – crédit Mozilla

Anthony Enzor-DeMeo, CEO de Mozilla, a pour mémoire identifié l’IA comme l’un des axes stratégiques de travail autour de Firefox lors de sa prise de fonction, en décembre 2025. « Nous agirons avec urgence. L’IA change les logiciels. Les navigateurs deviennent le point de contrôle de la vie numérique. La réglementation modifie les défauts. Ces changements jouent en faveur des forces de Mozilla », déclarait-il à cette occasion.

Si les acteurs comme OpenAI et Perplexity incarnent une concurrence nouvelle pour Mozilla, via leurs projets de navigateurs Web, cette inflexion stratégique a fait polémique dans la communauté Firefox, ce qui a conduit la Fondation à rapidement promettre que le logiciel ne perdrait pas son âme… et surtout qu’il y aurait bien un « kill switch » pour désactiver les fonctions IA en un clic.

Près d’un tiers des professionnels du jeu vidéo ont été licenciés en deux ans

4 février 2026 à 09:17
Shall we play a game ?
Près d’un tiers des professionnels du jeu vidéo ont été licenciés en deux ans

Le secteur des jeux vidéo est lui aussi touché par les salves de licenciements qui, suite au Covid puis à l’emballement autour de l’IA générative, touchent les entreprises de la tech’ : la moitié des entreprises de jeux vidéo auraient procédé à des licenciements ces 12 derniers mois. Plus de la moitié des professionnels du jeu vidéo estiment par ailleurs que l’IA générative a un impact négatif sur leur métier, contre 18 % en 2024. Dans le même temps, ceux qui estiment qu’elle a un impact positif sont passés de 21 à 7 % seulement.

28 % des employés de l’industrie des jeux vidéo, et 33 % de ceux travaillant aux États-Unis, ont été licenciés au cours de ces deux dernières années. La moitié précise que leur employeur actuel a procédé à des licenciements ces 12 derniers mois. Ce qui est aussi le cas des deux tiers des employés de studios AAA (du nom donné aux jeux les plus budgétés ou vendus), et du tiers des salariés de studios indépendants.

Les chiffres émanent d’un sondage de la Game Developers Conference (GDC, l’un des plus grands évènements de l’industrie du jeu vidéo, réservé aux professionnels) effectué auprès de 2 300 professionnels, dont 64 % d’hommes et 24 % de femmes. 54 % vivent aux USA, 8 % au Canada, 6 % au Royaume-Uni, 3 % en Suède ou en Australie et 2 % en France, en Inde, en Espagne ou en Allemagne.

Un sondage mené auprès de 50 étudiants et de 105 professeurs indique en outre que les trois quarts (74 %) des étudiants, mais aussi et surtout 87 % des enseignants se disent préoccupés par les perspectives d’emploi dans l’industrie du jeu vidéo, signe d’un « pessimisme généralisé », souligne la GDC :

« Au cours des dernières années marquées par des licenciements, on nous a promis une éventuelle “correction de cap”. On nous a dit que la vague de licenciements post-pandémique, qui a suivi les investissements et les embauches de l’ère COVID, finirait par se résorber. Certains espéraient que ce serait le cas cette année. Ce n’est pas le cas. Non seulement les licenciements ont continué à frapper l’industrie du jeu vidéo, mais ils ont même empiré. »

Ils soulignent le manque d’emplois pour les débutants, la concurrence accrue des travailleurs licenciés plus expérimentés et le remplacement par l’intelligence artificielle. Davantage d’étudiants se tournent d’ailleurs vers le développement indépendant, lancent leurs propres studios ou poursuivent leurs études supérieures.

82 % soutiennent les syndicats, mais seuls 12 % sont syndiqués


Il reste 80% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ L’Espagne s’apprête à interdire les réseaux sociaux aux moins de 16 ans

4 février 2026 à 07:59

Le premier ministre espagnol Pedro Sánchez a indiqué ce 3 février que son gouvernement interdirait l’accès réseaux sociaux aux mineurs de moins de 16 ans. Les plateformes devront « déployer des systèmes de vérification d’âge efficace pas de simples onglets à cocher, mais de vraies barrières qui fonctionnent » a-t-il déclaré à l’occasion du Sommet mondial des gouvernements, à Dubaï.

Une telle interdiction prendrait la forme d’un amendement à la loi actuellement au Parlement espagnol. Si le texte cherche pour le moment à restreindre l’accès de tous les mineurs aux réseaux sociaux, explique Politico, la nouvelle version interdirait clairement aux moins de 16 ans de s’y inscrire. L’interdiction devrait être approuvée en Conseil des Ministres dès la semaine prochaine.

Avec la France, le Danemark, la Grèce et l’Italie, l’Espagne fait d’ailleurs partie des cinq pays qui testent le dispositif européen de vérification de l’âge. L’annonce de son Premier ministre rejoint d’ailleurs les projets français (porté par Emmanuel Macron) et danois de limitation de l’accès aux moins de 15 ans. Le Parti Social Démocrate portugais (centre-droit) a par ailleurs déposé le 2 février une proposition de loi selon laquelle les mineurs de 16 ans devraient obtenir le consentement parental pour pouvoir accéder à des réseaux sociaux.

☕️ Premier lancement Ariane 64, « la fusée la plus puissante d’Europe », la semaine prochaine

4 février 2026 à 07:17

Ariane 6 existe en deux versions : 62 et 64. La différence ? Deux boosters pour la première, quatre pour la seconde, qui a donc bien plus de puissance au décollage pour emporter des charges plus lourdes. Le premier lancement d’Ariane 64 est programmé pour la semaine prochaine, le 12 février entre 17h45 et 18h13.

« Ariane 6 peut emporter environ 21,6 tonnes en orbite basse, soit plus du double des 10,3 tonnes qu’elle pouvait mettre en orbite avec seulement deux propulseurs », détaille l’Agence spatiale européenne (ESA).

« Le vol VA267 verra Ariane 6 emporter 32 satellites pour la constellation Leo d’Amazon en orbite basse ». Ce sera le sixième vol d’Ariane 6, mais surtout le « premier avec quatre propulseurs », explique l’ESA. La mission est prévue pour durer un peu moins de 2 h entre le décollage et la séparation des derniers satellites.

Les satellites sont disposés dans le haut de la fusée, qui est équipée d’une longue coiffe de 20 m de haut et 5.4 m de diamètre. Les satellites LEO sont assemblés sur « quatre girafes debout les unes sur les épaules des autres ».

« Comme il s’agit du premier vol avec une longue coiffe, ce lancement est le plus haut jamais réalisé par Ariane 6. Une fois assemblée sur la rampe de lancement du port spatial européen en Guyane française, elle atteindra 62 mètres de haut, soit à peu près la hauteur d’un immeuble de 20 étages ».

Ariane 6 enchaine pour le moment les succès, malgré quelques couacs lors des missions secondaires du vol inaugural.

[Tuto] Comment certifier gratuitement une adresse IP avec Let’s Encrypt

3 février 2026 à 16:41
IP IP IP Houra !
[Tuto] Comment certifier gratuitement une adresse IP avec Let’s Encrypt

Après une phase de test, Let’s Encrypt permet désormais à tout le monde de certifier une adresse IP, permettant ainsi d’y accéder de manière sécurisée en HTTPS, comme c’est possible depuis des années avec un nom de domaine. Il reste quelques bugs, mais ça marche avec le serveur web caddy. On vous explique comment faire.

En juillet dernier, Let’s Encrypt émettait son premier certificat pour une adresse IP, comme cela existe depuis très longtemps sur les noms de domaine. La disponibilité générale de cette fonctionnalité était attendue pour courant 2025, elle est finalement arrivée début 2026.

caddy et profile ACME shortlived

Ni une ni deux, nous réinitialisons un VPS pour tenter l’expérience (avec Ubuntu 25.10), puis on installe caddy. Attention, comme nous allons le voir, cette méthode ne permet pas d’avoir la dernière version, passez donc au paragraphe suivant sans exécuter les deux lignes ci-dessous pour éviter des manipulations inutiles.


Il reste 82% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

IA : Deux plateformes mises en demeure de supprimer le clonage de voix de doubleurs français

3 février 2026 à 15:38
« Tu es un sorcier Harry. » «Je... je suis un quoi ? »
IA : Deux plateformes mises en demeure de supprimer le clonage de voix de doubleurs français

Deux plateformes américaines ont été mises en demeure par huit comédiens français de supprimer sous huit jours les clonages par intelligence artificielle de leurs voix.

Huit comédiennes et comédiens de doublage français ont mis en demeure deux sociétés américaines, VoiceDub et Fish Audio, de retirer de leurs plateformes tous les « modèles de clonage exploitant [leur] voix » sous huit jours, et réclament 20 000 euros de dommages et intérêts.

Dans un courrier du 30 janvier, les membres de cette action collective inédite indiquent vouloir mettre fin à ces « actes parasitaires », rapporte l’Agence France-Presse (AFP). Parmi eux, Françoise Cadol, qui double notamment les actrices Angelina Jolie et Sandra Bullock, ou encore Richard Darbois, voix française de Richard Gere, Patrick Swayze, ainsi que du personnage de la franchise Toy’s Story, Buzz l’Éclair.

« Alerter les pouvoirs publics »

En septembre 2025, Françoise Cadol a déjà obtenu le retrait du clonage de sa voix des versions remasterisées de Tomb Raider IV, V et VI publiées par Aspire Media. La comédienne a vu sa carrière de doublage au cinéma prendre une nouvelle ampleur après avoir prêté sa voix à Lara Croft, le personnage de la franchise de jeu vidéo.

Auprès de l’AFP, la comédienne regrette cette fois-ci que l’usage des voix de doubleurs et doubleuses se fasse « sans notre autorisation (…) on est néantisé, piraté. C’est notre métier, on vit de notre voix. » De même que les opportunités de travailler s’amoindrissent dans le domaine de la traduction, à mesure que des éditeurs se tournent vers l’intelligence artificielle, comédiennes et comédiens voient les possibilités de doubler des acteurs internationaux s’amenuiser.

Avec cette mise en demeure collective, Françoise Cadol et ses collègues espèrent alerter « les pouvoirs publics pour faire émerger une solution pratique qui permette de [se] défendre ».

Problématique transverse dans l’audiovisuel

Plusieurs professionnels du domaine ont créé l’initiative Touche Pas à ma VF, qui promeut un « doublage créé par des humains pour des humains » et pousse le public à se mobiliser pour les aider à protéger leur métier. D’abord mobilisés en ligne, ils ont aussi manifesté ces derniers mois pour tenter d’obtenir une réponse de la ministre de la Culture, Rachida Dati. Lancée en 2024, leur pétition comptabilise désormais plus de 247 000 signatures.

Hors de l’hexagone, les problèmes d’utilisation de l’image et de la voix des professionnels de l’audiovisuel créent aussi des remous depuis l’explosion des outils d’IA générative. Officiellement présentée lors du festival du film de Zurich à l’automne 2025, l’ « actrice » créée par IA Tilly Norwood avait fait scandale, alors que sa créatrice la présentait comme à même de remplacer Natalie Portman ou Scarlett Johansson.

Cette dernière, par ailleurs interprète de l’intelligence artificielle représentée dans le film Her de Spike Jonze, a dû recourir à son avocat pour obliger OpenAI à cesser d’utiliser une version de sa voix générée par IA.

Plus récemment, l’acteur Matthew McConaughey a fait breveter des extraits vidéos de son image et des enregistrements de sa voix auprès de l’Institut américain de la propriété intellectuelle pour tenter de les protéger de tout usage non consenti de ces éléments par des sociétés développant des systèmes d’intelligence artificielle.

Renater va « proposer aux établissements une solution pour s’armer au niveau cyber »

3 février 2026 à 14:51
Interview
Renater va « proposer aux établissements une solution pour s’armer au niveau cyber »

Centre des opérations de cybersécurité pour les établissements du supérieur et de la recherche, services numériques collaboratifs, backbone à 1 Tb/s d’ici 2030 ou encore passage d’IPv4 à IPv6 Next aborde toutes ces questions avec le directeur du réseau Renater, Boris Dintrans.

Le réseau Renater de l’enseignement supérieur et de la recherche français existe sous ce nom depuis 1993. Il va passer tout son backbone à 1 Tb/s d’ici 2030 (comme nous l’expliquions schématiquement, un backbone est une grosse liaison au « cœur » des réseaux). La structure qui le gère, le GIP Renater, prévoit aussi de mettre en place un « Security Operations Center » (SOC) pour que les universités et autres établissements puissent faire face à l’augmentation de la menace cyber. Next a interrogé son directeur, Boris Dintrans, pour mieux comprendre comment ces questions étaient prises en main au sein de l’enseignement supérieur et de la recherche en France.

>> Next : Pouvez-vous nous rafraîchir la mémoire sur l’état actuel du réseau Renater ?

Boris Dintrans : Le backbone Renater de métropole a actuellement une cinquantaine de nœuds de raccordement [voir la carte de la météo du réseau]. La très grande majorité du réseau est à 100 Gb/s natif, notamment sa boucle ouest qui remonte à Marseille et arrive sur Paris.

Les sorties vers l’internet mondial sont de deux fois 400 Gb/s sur GÉANT [ndlr : un consortium de réseaux de l’enseignement et de la recherche en Europe dont le rôle est d’interconnecter entre eux les NREN européens ] à Paris et GÉANT à Lyon (localisé en réalité à Genève, au CERN) ainsi que des sorties internet via des transitaires internationaux (les deux principaux transitaires au niveau mondial) à deux fois 100 Gb/s sur Paris et deux fois 100Gb sur Marseille.

Renater a aussi des dessertes à 100 Gb/s sur certains sites, comme à Paris au TGCC (très gros centre de calcul du CEA) ou entre ses data centres parisiens Paris 1 et Paris 2 200G entre Paris 1 et Orsay 200G, entre Orsay et Paris 2 100G et des connexions à 200G entre les deux data centres de Renater de Marseille.

En fonction des points de raccordement, on peut dépasser les 100G pour des besoins importants bien spécifiques (par exemple pour de grosses infrastructures comme celles de gestion des données du grand collisionneur de hadrons au CERN).

« Le plan stratégique de Renater prévoit que le backbone passera de 100 Gb/s à 1 Tb/s d’ici 2030 »

>> Quelles sont les évolutions prévues pour le réseau Renater ?

Dans le cadre d’EuroHPC (interconnexion des supercalculateurs européens), Renater va évoluer, grâce notamment à un projet mené avec GÉANT remporté fin 2025. L’idée est de créer un backbone à 1,6 Tb/s entre tous les centres de calculs qui auront été financés par EuroHPC.


Il reste 88% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Sauvegarder ses données : les stratégies à appliquer, les types de stockage à utiliser

3 février 2026 à 13:13
Peur sur les données
Sauvegarder ses données : les stratégies à appliquer, les types de stockage à utiliser

Sauvegarder ses données ne se résume pas à les copier sur une clé USB, loin de là. Pour le faire efficacement, il faut respecter certains principes, notamment une copie des fichiers hors site, sans oublier de vérifier ses sauvegardes régulièrement. Voici un tour d’horizon des bonnes pratiques.

Dans un monde où le numérique occupe une place toujours plus importante, sauvegarder efficacement ses données est primordial. Entre les photos et vidéos de famille, les documents de travail, les fiches de paye, les comptes rendus médicaux et que sais-je encore, ce ne sont pas les données qui manquent.

Pour les stocker, certains utilisent des services dédiés pour chaque type de données, en faisant confiance à des sociétés externes. Prenons l’exemple d’Apple Photos sur les iPhone ou de Google Photos sur Android, OneDrive chez Microsoft, Dropbox, etc. D’autres préfèrent gérer eux-mêmes leurs données, notamment pour des questions de souveraineté.

Next vous propose un dossier sur le vaste sujet de la sauvegarde des données. Nous commençons par rappeler les bonnes pratiques. Puis, Jean nous expliquera comment chiffrer ses données avant de les envoyer sur des serveurs tiers en dehors de chez vous (indispensable pour des sauvegardes dans les règles de l’art). Nous reviendrons ensuite sur le fonctionnement d’une architecture largement utilisée pour l’archivage des données : S3. Ce n’est pas totalement désintéressé puisque les abonnés de Next ont eu droit à un cadeau pour Noël : 1 To de stockage. Après la bêta, l’offre va s’ouvrir à tous dans la journée.

Les règles pour bien sauvegarder ses données

Lorsqu’il s’agit de sauvegarder ses données, il y a quelques règles à respecter pour le faire dans de bonnes conditions. Reprenons les principales recommandations de la stratégie de sauvegarde 3-2-1 : « 3 » copies d’un même fichier, sur « 2 » supports différents (la définition même de ne pas mettre ses œufs dans le même panier) et enfin « 1 » sauvegarde « hors-site ».

Certains parlent aussi de 3-2-1-1-0, avec une deuxième « 1 » pour une « copie isolée du réseau ou air gapped » et « 0 donnée inexploitable après vos tests ». Cela vient d’un rapport de Veeam de 2022, comme le rappelle OVHcloud.

Un des ajouts concerne les procédures de tests (trop souvent laissées de côté) afin de vérifier que la récupération marche bien. Sauvegarder ses données, c’est bien, mais si les sauvegardes ne sont pas utilisables pour une raison ou une autre, c’est dommage. Si vous copiez vos données sur le S3 de Next, pensez donc à essayer de les récupérer de temps en temps et vérifiez que tout est bon (vous avez la clé pour les déchiffrer, elles sont lisibles et correspondent à ce que vous vouliez sauvegarder).

Vous avez un NAS à la maison, cela vous permet d’avoir deux supports, mais pas de sauvegarde hors site. En cas d’incendie ou de vol, par exemple, vous perdez tout. La sauvegarde hors site peut se faire avec un NAS que vous installez chez une personne de confiance (pas dans le même immeuble de préférence), ou via un service en ligne (qui se charge à son tour de dupliquer vos données pour les sauvegarder).

Il est aussi bon de rappeler qu’une synchronisation n’est pas une sauvegarde, pour une raison simple : si vous supprimez un fichier localement, il sera automatiquement supprimé à cause de la synchronisation. Cela ne protège pas non plus des rançongiciels qui chiffrent vos données. C’est aussi pour se protéger de ce genre d’attaque que des sauvegardes immuables ou déconnectées des réseaux sont intéressantes.

C’est la théorie. Maintenant, comment mettre en place des sauvegardes dans la pratique.

Stockage externe sur l’ordinateur, en USB

Pour une des copies de vos données, vous pouvez utiliser un stockage externe, comme un disque dur ou un SSD, ou bien encore une clé USB. Quel que soit le support, sachez que la durée de vie n’est pas illimitée. Pire, selon une entreprise spécialisée dans la récupération de données (via Tom’s Hardware), la qualité des clés USB diminuerait. Elles sont aussi fragiles (notamment le port USB), ce n’est donc pas forcément la solution idéale. Attention aussi aux fausses promesses de capacités farfelues pour quelques euros.

Pour de grosses capacités, utilisez plutôt un disque dur ou un SSD. Vous n’êtes pas obligé d’en acheter un tout fait, vous pouvez facilement en assembler un vous-même avec le HDD/SSD d’un côté et le boîtier USB de l’autre.

Cela revient généralement moins cher et vous permet de la liberté sur le format, les débits, la capacité… Par rapport aux HDD, les SSD ont l’avantage de ne pas avoir de partie mécanique et donc de mieux résister aux chocs. Ils sont également plus petits et avec des débits plus importants.

On vous conseille de ne pas laisser le périphérique USB branché en permanence à l’ordinateur, cela évite de perdre les données en cas de problème ou de compromission à un virus de votre machine. Cela nécessite donc une petite gymnastique pour brancher et débrancher le périphérique de stockage, mais aussi penser à faire régulièrement des sauvegardes.

Que ce soit un disque dur, un SSD ou une clé USB, ce genre de périphérique de stockage ne peut garantir une sauvegarde à lui tout seul. C’est une des trois copies dont nous parlions précédemment, il en faut d’autres !

Stockage sur le réseau local avec un NAS

Un NAS permet d’automatiser ces étapes et de sauvegarder des données de plusieurs ordinateurs à la fois sur une seule machine. Il est aussi possible de gérer des droits d’accès par utilisateurs et les NAS prennent nativement en charge plusieurs versions d’un même fichier pour « remonter le temps » si besoin.

Les deux principaux fabricants présents en France pour le grand public – Synology et QNAP – proposent des applications dédiées à la sauvegarde, parfois avec des fonctionnalités de sauvegarde « immuables » ou WORM (Write One Read Many, écrire une fois lire plusieurs fois en français). Cela permet de vous protéger des rançongiciels. Si l’ensemble de vos données sont chiffrées, les sauvegardes seront toujours accessibles en théorie.

Dans le cadre d’une stratégie 3-2-1 avec une sauvegarde qui doit être hors site, vous pouvez aussi utiliser deux NAS : un chez vous, un autre chez une personne de confiance. Il est même possible de procéder à un échange de bons procédés : chacun utilise son NAS pour ses propres usages, mais votre NAS sert aussi de sauvegarde pour le NAS de votre connaissance, et vice-versa (cela nécessite d’avoir suffisamment de place sur le stockage). Pensez évidemment à chiffrer vos données avant de les envoyer chez votre partenaire de sauvegarde.

Si vous n’avez pas la place ni l’envie d’installer un NAS chez vous, il est aussi possible d’en louer un (iKoula et Infomaniak proposent des Synology à partir d’une dizaine d’euros par mois par exemple). Vous pouvez également louer des serveurs virtuels (VPS) ou dédiés et y installer l’interface d’administration QuTScloud de QNAP moyennant des frais, à partir de 50 dollars par an.

Stockage en ligne (chiffrez vos données !)

Une autre solution est de passer par une solution de stockage en ligne. Vous pouvez souscrire à des services en ligne à partir de quelques euros par mois pour quelques dizaines/centaines de Go. Le palier qu’on retrouve le plus souvent est 2 To pour une dizaine d’euros par mois. C’est le cas de Google, Dropbox et iCloud pour ne citer que ces trois-là.

Il s’agit là de données accessibles tout le temps, avec des clients pour les ordinateurs fixes, les portables et les smartphones, sans oublier une interface web. Le service en ligne se charge de dupliquer les données pour assurer une très haute disponibilité.

Pour ceux qui ont de gros besoins ou qui veulent payer moins cher une sauvegarde de leurs données, il existe du stockage froid ou cloud archive. Le tarif est ras des pâquerettes, mais la disponibilité peut prendre plusieurs heures suivant les cas. Si vous avez perdu toutes vos autres sauvegardes, attendre avant de récupérer vos données ne sera généralement pas un souci, d’autant plus si c’est la seule copie disponible.

Pour du stockage « froid » chez OVHcloud par exemple, le Go est à 0,002 euro par mois ou encore 2 euros par To par mois. Amazon est à 2,2 euros pour 1 To en S3 Glacier Deep Archive, Scaleway est un peu plus cher, avec 3,1 euros pour 1 To. C’est dans tous les cas moins cher que les solutions précédentes et la facturation au Go permet de ne payer que pour ce que vous utilisez. Attention, avec ce genre de sauvegarde, vous pouvez aussi devoir payer des frais lors de la récupération des données, pensez à vérifier les tarifs. Nous en reparlerons dans la suite de notre dossier.

Next vous propose, pour rappel, gratuitement 1 To avec votre compte, avec 100 Go de plus par année d’ancienneté, certains ont donc plus de 3 To avec leur abonnement. Il ne s’agit pas de « cold storage » mais de S3 classique (nous aurons l’occasion de revenir sur l’aspect technique du stockage S3 Next), sans aucun frais de récupération de données.

Dans tous ces cas de figure, vos données sont chez des tiers, il est donc important de les chiffrer avant de les envoyer. Dans la prochaine partie de notre dossier, nous vous proposerons un tour d’horizon des solutions disponibles pour chiffrer vos données avant de les envoyer en ligne.

Sauvegarder automatiquement tout son ordinateur

Il existe aussi des entreprises qui se proposent de sauvegarder l’ensemble de votre ordinateur pour un tarif fixe. C’est le cas de Backblaze avec son Personal Backup à 99 dollars par an. Le tarif est fixé par ordinateur, il ne dépend pas de la quantité de stockage demandée. Carbonite aussi propose ce genre de service, à partir de 72 dollars par an.

Dernier point et pas des moindres : vérifiez périodiquement que vos sauvegardes se réalisent correctement, qu’elles contiennent bien vos données, que vous pouvez y accéder et les récupérer. Si vous ne testez qu’après un drame, il sera trop tard en cas de problème. C’est un point souvent négligé, mais il doit être fait périodiquement.

1 To (et plus) de stockage S3 dans votre abonnement Next : c’est parti !

3 février 2026 à 10:10
Ce midi, c'est fromage ET dessert
1 To (et plus) de stockage S3 dans votre abonnement Next :  c’est parti !

Annoncé le 24 décembre dernier en guise de cadeau de Noël à nos fidèles lecteurs, notre service de stockage dédié à la sauvegarde sort de la phase bêta. Tous les souscripteurs d’un abonnement Next Premium au tarif standard disposent désormais de 1 To de stockage, auquel s’ajoutent 100 Go par année d’ancienneté du compte.

S’abonner à Next, c’est toujours profiter d’une actualité quotidienne de qualité, sans publicités et sans promotions tapageuses. Maintenant, c’est aussi accéder sans surcoût à un espace de stockage. Il offre 1 To à tous les abonnés Premium, avec une capacité augmentée de 100 Go par année d’ancienneté du compte Next.

Lancé le 24 décembre dernier en bêta fermée, et étendu mi-janvier à quelques centaines de nouveaux accès supplémentaires, le service est désormais ouvert sans restrictions d’accès. Pour en profiter, rendez-vous sur l’onglet Stockage S3 de votre profil.

Ou suivez simplement la petite jauge intégrée en haut de page, qui vous indique directement à quelle capacité vous pouvez prétendre. Si vous voyez 3 To ou plus, félicitations, vous avez déjà fait un sacré bout de chemin avec nous, merci pour votre fidélité !

Stockage Next : comment ça marche ?

Comme l’avait expliqué Ferd dans son billet d’annonce, ce service de stockage a d’abord été pensé comme un cadeau de Noël, un avantage offert aux lecteurs de Next pour les remercier de leur fidélité et les encourager à s’abonner pour soutenir notre démarche de redressement.

En pratique, Next met à votre disposition un espace de stockage, basé sur une infrastructure hébergée en France et opérée par moji, l’opérateur qui a repris Next fin 2023. L’accès à cet espace se fait au travers du protocole S3, le standard du marché en matière de stockage objet (il n’y a donc aucun lien avec le service Amazon S3).

L’accès à votre espace et la programmation de vos sauvegardes se font au travers de clients logiciels ou de scripts compatibles avec le protocole S3 (certains sont déjà partagés sur le forum). Si vous n’êtes pas très familiers avec ces termes, ne craignez rien, il existe des outils très simples à prendre en main, et plusieurs articles, guides et tutos sont prévus pour vous accompagner.

Le premier vous explique par exemple déjà comment sauvegarder votre ordinateur ou votre NAS en quelques clics.

Au-delà de la prise en main, il y a quelques principes clés à respecter :

  • Vous devez chiffrer vos données, précisément parce que ce sont VOS données.
  • Vous devez considérer cet espace de stockage comme un service best-effort, c’est-à-dire associé à un niveau de disponibilité limité (un seul site géographique) et fourni sans garantie. Si vous tenez à vos données, vous devez en conserver une autre copie. De façon générale, nous vous invitons à respecter les fameux principes 3,2,1.
  • L’accès à vos données est protégé par une clé privée, que vous serez amenés à télécharger lors de la création de votre espace. Conservez précieusement cette clé : si vous la perdez, vous n’aurez pas d’autre solution que de réinitialiser votre espace (et donc de supprimer les données déjà stockées).

D’un point de vue plus pratique, quelques autres informations à avoir en tête :

  • L’accès au stockage est offert aux abonnés Premium (8 euros par mois ou 80 euros par an) et aux abonnements souscrits par l’intermédiaire d’un compte entreprise.
  • Vous avez accès à votre espace (on parle aussi de bucket) pendant toute la durée de votre abonnement.
  • En cas de résiliation ou de non-renouvellement de votre abonnement, votre espace de stockage reste accessible pendant trente jours. Il passe ensuite en lecture seule, avant suppression définitive trente jours plus tard. Le renouvellement de votre abonnement au cours de cette période de grâce rétablit l’accès immédiat.
  • L’accès à votre espace est susceptible d’être coupé en cas d’activité inappropriée.

« Quand je rentre je lis Next. Avec toi ?  »

Au détour de votre navigation, vous verrez que nous avons profité de nos développements autour du stockage pour retravailler certains des composants du profil, et du parcours d’abonnement.

Pour l’occasion, nous inaugurons une fonctionnalité qui nous a souvent été demandée : la possibilité d’offrir en quelques clics un abonnement à un tiers, soit depuis votre profil, soit depuis notre page Abonnez-vous à Next. Faites-en bon usage !

« La rétention de l’information est une forme de constipation du savoir », disait Renaudot

Il faudrait un Poing Dev dédié, mais sachez qu’il y a aussi eu beaucoup de travail invisible sous le capot pour fiabiliser le code du site, faciliter sa maintenance, et améliorer la qualité de service au niveau de certains composants comme la génération de factures, ou la gestion des comptes entreprise.

Ready to rumble

En attendant que vous fassiez grincer l’infra sous le poids de vos sauvegardes, un grand merci aux équipes moji, tant les développeurs que les ingés système et réseau, qui ont rendu ce service possible.

Ce stockage vient enrichir la proposition de valeur de Next. Son succès nous permettra de creuser toujours plus profond notre sillon : une info indépendante, honnête, qui privilégie l’analyse au buzz et refuse les logiques de course à l’audience, de suivi comportemental ou de publicité plus ou moins déguisée.

Next est encore et toujours un média à part dans le paysage Web francophone. On compte sur vous pour que ça dure.

Elon Musk fusionne SpaceX et xAI

3 février 2026 à 09:19
Grok en orbite
Elon Musk fusionne SpaceX et xAI

Le milliardaire a finalement décidé que SpaceX et xAI ne seraient plus qu’une entité en prévision d’une entrée en bourse d’ici juin. L’ensemble serait valorisé 1 250 milliards de dollars (1 059 milliards d’euros).

Elon Musk a annoncé sur le site web de SpaceX la fusion de son entreprise de vols spatiaux et satellites avec son entreprise d’IA générative et de réseau social xAI, « pour accélérer le futur de l’humanité ».

Rappelons qu’en mars dernier, l’homme le plus riche du monde avait déjà fusionné son réseau social X et son entreprise d’intelligence artificielle responsable de Grok, xAI, officiellement pour « accélérer activement le progrès humain ». Depuis, l’association des deux entreprises a notamment généré des messages antisémites, du négationnisme, de la désinformation, et des deepfakes dénudant des femmes et pédopornographiques.

« SpaceX a acquis xAI afin de créer le moteur d’innovation verticalement intégré le plus ambitieux sur Terre (et au-delà) », y affirme maintenant le milliardaire.

Une valorisation à 1 250 milliards de dollars

Selon Bloomberg, l’ensemble serait valorisé en interne 1 250 milliards de dollars (1 059 milliards d’euros). Les sources de nos confrères états-uniens expliquent que l’accord valorise SpaceX à 1 000 milliards de dollars et xAI à 250 milliards de dollars.

Comme nous l’évoquions vendredi dernier, SpaceX a mis en place des plans pour entrer en bourse au cours de la première moitié de l’année 2026. Elle chercherait à lever 50 milliards de dollars. Cela resterait inchangé.

Citant le directeur financier de SpaceX, Bret Johnsen, le Financial Times explique que les actions de xAI seront converties à un taux de change d’environ sept pour un en actions de SpaceX.

Une nouvelle promesse : le lancement de data centers en orbite

Cette fusion est présentée par Elon Musk avec une nouvelle promesse : le « lancement de satellites IA depuis la Terre ». « À long terme, l’IA spatiale est évidemment la seule solution viable », affirme le milliardaire, en alternative à l’installation de data centers sur terre.

« Avec des lancements toutes les heures transportant 200 tonnes par vol, Starship livrera chaque année des millions de tonnes en orbite et au-delà, ouvrant la voie à un avenir passionnant où l’humanité partira explorer les étoiles », se lâche-t-il.

« Le lancement d’un million de tonnes par an de satellites générant 100 kW de puissance de calcul par tonne ajouterait 100 gigawatts de capacité de calcul IA par an, sans besoins opérationnels ou de maintenance continus », ajoute Elon Musk dans son annonce effaçant rapidement tout besoin de maintenance de data centers envoyés dans l’espace.

Pourtant, HPE a déjà montré que, dans l’espace, les composants pouvaient rencontrer des phénomènes non anticipés, comme le limage de fils se baladant en apesanteur. « À terme, il est possible de lancer 1 TW/an depuis la Terre », affirme le milliardaire.

Rappelons qu’Elon Musk a multiplié ces dernières années les promesses non tenues, de l’arrivée de l’AGI à une mission habitée vers Mars par SpaceX pour la même année, en passant par des taxis réellement autonomes par Tesla, tout ça pour 2025. Ce qui n’est pas arrivé.

Une fusion qui peut fragiliser

Concernant cette fusion, certains émettent des doutes. « Sans porter de jugement sur la valorisation proposée par SpaceX, il existe au moins une voie claire vers la rentabilité », déclare à Bloomberg Craig Moffett, analyste chez MoffettNathanson. « En revanche, xAI est un acteur à la traîne sur un marché extrêmement concentré qui brûle ses liquidités sans perspective d’avenir », ajoute-t-il.

Pour l’analyste de l’entreprise TD Cowen, Gregory William, si SpaceX a des « synergies naturelles » avec les réseaux de TV par satellites, « l’introduction de l’incertitude liée aux LLM augmente le niveau de risque pour les investisseurs dans ce qui était autrement une entreprise relativement simple dans le domaine des communications par satellite et de l’aérospatiale ».

☕️ Coder avec l’IA : OpenAI sort une application macOS dédiée à Codex

3 février 2026 à 07:25

OpenAI muscle son jeu à destination des développeurs avec la publication, lundi, d’une application macOS dédiée à Codex, son agent IA spécialisé dans le travail du code. Accessible gratuitement et à tous les utilisateurs de ChatGPT, l’application se veut une alternative aux environnements de développement courants ou à Codex CLI, la version console de l’agent.

Outre l’accès direct à Codex (une fois l’utilisateur connecté à son compte ChatGPT), elle offre la possibilité de gérer des tâches parallèles au travers de threads. « Elle intègre également la prise en charge des répertoires de travail, permettant ainsi à plusieurs agents de collaborer sur le même dépôt sans conflit », indique l’entreprise.

L’application dispose également d’un accès direct à une longue liste d’automatisations pour faciliter la gestion des projets (documentation, gestion des commits, gestion CI/CD, etc.). De la même façon, elle permet d’accéder aux Skills (compétences), le nom qu’OpenAI donne aux instructions, scripts et ressources censés permettre d’implémenter de façon simplifiée certaines tâches complexes, à commencer par la connexion à des services tiers via MCP (Model Context Protocol).

« L’application Codex comprend une interface dédiée à la création et à la gestion des Skills. Vous pouvez demander explicitement à Codex d’utiliser des Skills spécifiques, ou la laisser les utiliser automatiquement en fonction de la tâche à accomplir », décrit OpenAI.

L’application permet de basculer entre les différentes versions des modèles ChatGPT 5.2 Codex. Son interface intègre une visualisation de la branche en cours de modification et un compteur lié à l’utilisation des ressources. Dans ce dernier, la proportion disponible restante pour la fenêtre de contexte (avant compression automatique), ainsi que le solde de jetons (tokens) encore disponibles pour l’utilisateur dans le cadre de son abonnement.

Au-delà de l’analyse comparée des performances et fonctionnalités de ChatGPT 5.2 Codex et de Claude Code, c’est peut-être cette question du volume de tokens alloué à l’utilisateur qui constituera le nerf de la guerre dans l’offensive de séduction qui oppose aujourd’hui Anthropic à OpenAI auprès des développeurs.

Pour le lancement, OpenAI rend Codex disponible aux utilisateurs des forfaits ChatGPT Free (compte gratuit sans abonnement) et Go (la récente formule à 8 euros par mois) jusqu’au 2 mars prochain. L’entreprise annonce, sur la même période, le doublement des quotas d’utilisation prévus par ses forfaits payants ChatGPT Plus, Pro, Business, Enterprise et Edu.

☕️ Pénurie de mémoire : nouvelle hausse de prix chez Raspberry Pi

3 février 2026 à 06:57

Le micro-ordinateur abordable par excellence l’est un peu moins depuis lundi : la fondation Raspberry PI vient en effet d’annoncer la mise en oeuvre d’une nouvelle hausse de prix justifiée par la difficulté d’approvisionnement en modules de mémoire vive : « La hausse des prix s’est accélérée alors que nous entamons 2026, et le coût de certains composants a plus que doublé au cours du dernier trimestre », affirme Eben Upton, PDG et cofondateur de Raspberry Pi.

Il en résulte une hausse de prix généralisée, dont le montant dépend de la quantité de mémoire vive intégrée au modèle. La seule version du Raspberry Pi 5 épargnée est la déclinaison 1 Go. Celle-ci avait été lancée en décembre dernier, précisément pour maintenir au catalogue une référence accessible.

Raspberry Pi 5 – crédit SG pour Next

Pour le reste, la hausse est fixée à 10 dollars pour les modèles 2 Go, 15 dollars pour les 4 Go, 30 dollars pour les 8 Go et 60 dollars pour les 16 Go.

« Les Raspberry Pi 500 et 500 + sont concernés, contrairement au Raspberry Pi 400, qui reste notre PC tout-en-un le plus abordable à 60 dollars. Nous avons également pu maintenir les prix des produits 1 Go, notamment la version Raspberry Pi 4 1 Go à 35 dollars et la version Raspberry Pi 5 1 Go à 45 dollars, lancée en décembre », précise Eben Upton, qui s’engage à faire marche arrière dès que la situation générale le permettra.

NVIDIA prévoit toujours d’investir dans OpenAI, mais ne parle plus de 100 milliards

2 février 2026 à 16:53
Walk, don't run
NVIDIA prévoit toujours d’investir dans OpenAI, mais ne parle plus de 100 milliards

Jensen Huang, patron de NVIDIA, a dû intervenir dans les médias ce week-end pour confirmer que son entreprise avait bien toujours l’intention d’investir de façon significative dans OpenAI. Il n’a toutefois pas renouvelé le chiffre précédemment annoncé d’une enveloppe susceptible d’atteindre 100 milliards de dollars.

Investira, investira pas ? Les médias et milieux financiers se sont agités tout le week-end autour de la question de savoir si NVIDIA n’aurait pas fait marche arrière au sujet de ses investissements programmés dans OpenAI.

NVIDIA inquiet de la concurrence ?

C’est le Wall Street Journal qui a mis le feu aux poudres en affirmant, vendredi soir, avoir découvert que les négociations entre les deux entreprises avaient atteint un point de blocage. Le quotidien ne dit pas que les discussions sont interrompues, mais plutôt qu’elles ont évolué dans une discussion différente de l’accord présenté en septembre 2025.

NVIDIA et OpenAI avaient en effet annoncé, le 22 septembre dernier, un partenariat d’envergure. Celui-ci prévoyait qu’OpenAI s’engage à déployer, dans un délai non précisé, « au moins 10 GW de systèmes NVIDIA ». En échange, le leader du GPU « prévoit d’investir au fil du déploiement jusqu’à 100 milliards de dollars dans OpenAI », selon les termes exacts du communiqué publié lors de l’annonce.

D’après le Wall Street Journal, qui cite des personnes « proches du dossier », Jensen Huang aurait notamment exprimé, en interne, des inquiétudes quant à la concurrence dont fait l’objet OpenAI, incarnée notamment par Google (Gemini) ou Anthropic (Claude), et souligné que l’accord annoncé en septembre n’était pas contraignant.

Dans un contexte de forte volatilité des marchés financiers, marqués notamment par les inquiétudes relatives à une potentielle bulle des investissements autour de l’IA, ces propos rapportés ont rapidement été interprétés comme le signe d’une marque de défiance, susceptible d’avoir un impact sur toutes les sociétés impliquées dans la nouvelle économie de promesses d’investissements croisés qui s’est développée autour d’OpenAI.

Jensen Huang promet un investissement considérable

De passage à Taipei, Jensen Huang a répondu à la polémique naissante à la sortie d’un restaurant. Assailli de micros, il a affirmé qu’aucun engagement n’avait été pris sur le montant de l’investissement programmé, et a dans le même temps assuré OpenAI de son soutien.

« Nous allons investir des sommes considérables. Je crois en OpenAI. Leur travail est incroyable. C’est l’une des entreprises les plus influentes de notre époque. », a-t-il notamment déclaré. Il a par ailleurs assuré que cet investissement pourrait être le plus important jamais réalisé par NVIDIA, sans toutefois préciser le moindre montant.

Rappelons que NVIDIA a annoncé le 26 janvier dernier un investissement de 2 milliards de dollars dans CoreWeave.

OpenAI en passe de boucler son tour de table

S’il est probable que la bourse fasse toujours partie des ambitions à moyen terme de Sam Altman, OpenAI semble pour l’instant engagée dans un processus plus conventionnel de levée de fonds. D’après le New York Times, l’entreprise chercherait à réunir quelque 100 milliards de dollars, en mobilisant notamment ses partenaires historiques tels que Softbank ou Microsoft, et c’est donc dans ce contexte que pourrait s’inscrire l’investissement évoqué par Jensen Huang.

La dernière levée de fonds réalisée par OpenAI remonte au printemps 2025 : l’entreprise avait alors réuni 40 milliards de dollars, principalement auprès de Softbank, sur la base d’une valorisation de 300 milliards de dollars.

Vidéosurveillance algorithmique : interdite à Nice, mais bientôt légalisée en magasins ?

2 février 2026 à 16:28
« On vous voit »
Vidéosurveillance algorithmique : interdite à Nice, mais bientôt légalisée en magasins ?

Alors que le Conseil d’État a confirmé l’interdiction « en l’état actuel de la législation » de la vidéosurveillance algorithmique (VSA) qu’avait mise en place le maire de Nice Christian Estrosi (Horizons), l’Assemblée nationale examine le projet de loi proposé par le député Ensemble Paul Midy, qui veut l’autoriser pour les commerces « lorsqu’un mouvement suspect est repéré ».

« Si la vidéosurveillance sur la voie publique est possible, le Code de la sécurité intérieure n’autorise toutefois pas l’utilisation d’algorithmes pour analyser de manière systématique et automatisée les images collectées », résume le Conseil d’État concernant le droit actuel sur la vidéosurveillance.

Confirmation de la position de la CNIL

Ainsi, l’institution confirme la position de la CNIL sur le sujet alors que l’autorité avait, en mai 2025, rappelé au maire de Nice « la nécessité de réduire l’analyse des personnes sur la voie publique au strict minimum ». Elle avait donc demandé à Christian Estrosi de désactiver l’algorithme permettant d’identifier tout véhicule stationnant plus de 5 minutes devant les écoles, ce qui avait mis le maire de Nice en colère.

Celui-ci, en campagne pour sa réélection face à Éric Ciotti, a affirmé sur X qu’ « en suivant l’avis de la CNIL, le Conseil d’État bloque l’usage d’outils technologiques pour sécuriser les abords de nos écoles et empêche les maires d’agir pour mieux protéger nos concitoyens. […] La loi doit changer ». Confirmant ainsi qu’ « en l’état actuel de la législation », comme le rappelle le Conseil d’État, la mise en place de vidéosurveillance algorithmique par la mairie de Nice était illégale.

Christian Estrosi s’appuyait sur les dispositions de mise en place de la vidéosurveillance par les autorités publiques compétentes prévues par l’article L. 251 - 2 du Code de la sécurité intérieure.

Mais, selon le Conseil d’État, celles-ci, « si elles permettent la mise en œuvre de systèmes de vidéosurveillance des voies publiques, ne sauraient, dans leur silence, être interprétées comme autorisant la mise en œuvre de traitements algorithmiques permettant une analyse systématique et automatisée des images collectées dans des espaces publics au moyen de tels systèmes ».

« Aucune autre disposition n’autorise, par ailleurs, la mise en œuvre de tels traitements », ajoute par ailleurs l’institution.

Le groupe présidentiel veut légaliser la vidéosurveillance algorithmique dans les magasins


Il reste 64% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

❌