Dans son bilan prévisionnel annuel, RTE se fait l’avocat de l’accélération de l’électrification des usages pour assurer un meilleur équilibre entre consommation et production d’électricité.
Il faut accélérer l’électrification de la société française. C’est le constat principal que dresse RTE, le réseau public de transport d’électricité, dans son bilan prévisionnel 2025 – 2035.
Parmi ses missions, le gestionnaire doit anticiper l’équilibre entre l’offre et la demande d’électricité. Dans cet exercice annuel, RTE s’était penché en 2023 sur les stratégies permettant d’atteindre la neutralité carbone en 2050, scénarios qui permettraient d’obtenir des « bénéfices stratégiques et climatiques considérables », à commencer par une moindre dépendance aux sources d’énergie fossile et la réduction des pollutions associées à leur usage.
En cette fin 2025, RTE constate que la consommation électrique est « demeurée atone » depuis la pandémie de Covid-19 (elle reste inférieure de 6 % à son niveau de 2019), quand la production d’énergies renouvelables (hydraulique comprise) et nucléaire ont progressé. Le gestionnaire actualise donc ses prévisions, tout en détaillant les enjeux posés par l’actuelle surcapacité électrique de la France.
Si cette dernière n’est pas neuve – « dès la seconde partie des années 1980, la production d’électricité française est devenue structurellement excédentaire par rapport à la consommation » –, l’épisode de surcapacité actuel pourrait devenir préoccupant, notamment pour le poids qu’il créerait sur les dépenses publiques. Étudiant divers scénarios de décarbonation, RTE plaide pour une accélération de l’électrification des usages et pour la concrétisation de la majorité des projets industriels prévus, notamment dans l’industrie des centres de données.
La stratégie de décarbonation de la France est autant un enjeu climatique que géostratégique, rappelle le document. À l’heure actuelle, l’import d’énergies fossiles (pétrole, gaz et charbon) constitue toujours près de 60 % de l’énergie finale consommée en France. Elles pèsent pour 50 à 70 milliards d’euros dans les factures nationales annuelles. Du côté de l’électricité, la France a battu son record historique d’exportations avec 89 TWh en 2024.
Pour répondre à ces enjeux, RTE a développé ses capacités de production électrique en rétablissant les capacités nucléaires à la suite de la pandémie, mais aussi en accélérant celles de production d’énergies renouvelables. Et de souligner : vu l’état du réseau comme de la production, « les risques de conflits d’usage entre filières à électrifier sont écartés ». À court terme, le problème réside plutôt dans la relative stabilité de la consommation électrique.
RTE se penche donc sur deux scénarios : un de décarbonation rapide, qui conduirait à une augmentation toute aussi rapide de la consommation électrique, pour parvenir à 510 térawattheures (TWh) en 2030 et 580 TWh en 2035. Un autre, de « décarbonation lente », prévoit tout de même une augmentation de la consommation électrique, mais de 25 TWh seulement par rapport à la consommation actuelle, pour n’atteindre que 470 TWh en 2030 et 505 TWh en 2035. En 2024, la consommation française (corrigée des aléas météorologiques) était de 449 TWh, en hausse de 3 TWh (+ 0,7 %) sur un an.
En pratique, RTE appelle à la concrétisation, d’ici 2030, de 60 % des projets prévus en termes de production d’hydrogène, de développement de centres de données et d’autres projets industriels, ce qui permettrait d’augmenter leur consommation à 15 TWh par an pour le premier secteur, 15 TWh par an pour le deuxième (contre 5 TWh aujourd’hui) et 113 TWh par an pour les derniers.
Comme les deux derniers consomment de l’électricité mais ne réduisent pas pour autant les émissions de CO₂ (tandis que l’hydrogène produit électriquement remplacerait, lui, l’hydrogène produit par extraction chimique de combustibles fossiles), cette évolution ne peut se faire sans une évolution des usages d’énergie fossile, notamment du côté des transports. En la matière, RTE appelle à une augmentation de 17 TWh de la consommation électrique associée aux voitures électriques (contre 15 TWh en 2024), ce qui reviendrait à atteindre 8 millions de véhicules d’ici 2030 (contre 2 millions l’an dernier).
Un tel scénario permettrait de résorber la surcapacité tout en mettant la France sur la voie de ses objectifs de décarbonation. Autrement dit, répète le gestionnaire public au fil de son rapport, la situation actuelle est « très avantageuse pour décarboner rapidement ».
Les coûts de la décarbonation lente
Le gestionnaire constate néanmoins que « la consommation d’électricité n’est pas, pour le moment, alignée sur les objectifs de décarbonation et de réindustrialisation de la France ». Il l’explique de deux manières : par la sous-estimation des progrès effectivement réalisés, le seul passage à des éclairages LED ayant par exemple permis de réduire la consommation électrique de 10 TWh entre 2010 et 2020, et par les effets non anticipés des crises sanitaires et énergétiques, depuis lesquelles la consommation électrique stagne.
Or, « si la hausse de la consommation ne peut être considérée comme un but en soi », seule une « augmentation nette de la consommation d’électricité nationale » permettra la décarbonation du pays, insiste RTE. Dans un scénario de décarbonation lente (dans lequel seulement 15 % des projets liés à l’hydrogène, 10 % des projets industriels et 30 % des projets de datacenters seraient concrétisés), comme nous ne savons pas stocker massivement l’électricité excédentaire, il faudrait limiter la production.
Côté nucléaire, RTE esquisse la possibilité de réduire la production du parc nucléaire de l’ordre de 50 TWh, « pour absence de débouché économique ». L’export vers d’autres nations européennes ne représente qu’une faible possibilité, puisque nos voisins subissent des trop-pleins similaires, en particulier du côté des énergies solaires et éoliennes. En la matière, RTE préconise de limiter la production de renouvelable, en particulier en milieu de journée, dans les moments les plus ensoleillés. Elle prévoit pouvoir économiser 30 gigawatts (GW) de cette manière.
Le gestionnaire public alerte néanmoins sur le fait qu’une telle réduction aurait un coût. Elle entraînerait « une forte érosion des revenus des producteurs sur les marchés, de l’ordre de - 20 Md€/an », réduction qui serait « partiellement compensée par les dispositifs de soutien public », mais qui créerait donc une « hausse des charges budgétaires associées ».
Elle s’inquiète aussi des effets de logiques de « stop and go » sur les filières industrielles, susceptibles de « brider les efforts des filières renouvelables pour relocaliser une partie de leur industrie manufacturière en France et en Europe ». À moyen terme, une telle logique pourrait par ailleurs mettre en péril la possibilité de maintenir ou d’accélérer l’électrification en 2035.
1,06 milliard d’euros en 2009, puis 376 millions en 2023 et maintenant 237 millions d’euros. Intel multiplie les pourvois depuis près de 20 ans. L’entreprise reste condamnée pour abus de position dominante, mais elle parvient à diviser son amende par 4,4. L’affaire n’est pas forcément encore terminée car un nouveau pourvoi est possible.
Vous connaissez la série à rallonge Santa Barbara ? En Europe, nous en avons une version maison avec la condamnation par Intel à une amende de la Commission européenne pour abus de position dominante. Entre 2009 et 2025, les allers-retours sont nombreux avec la Cour de justice de l’Union européenne.
2009 : amende de 1,06 milliard d’euros de la Commission
Marty, prépare la DeLorean, nous allons en avoir vraiment besoin. L’affaire du jour remonte aux années 2000 avec des plaintes de son concurrent AMD (2000, 2003 et 2006) contre Intel pour des faits qui se sont déroulés entre 2002 et 2007.
Il reste 87% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
McDonald’s Pays-Bas a récemment diffusé une publicité de Noël aux séquences générées par IA. La vidéo a rapidement suscité des sarcasmes sur les réseaux sociaux, conduisant à son retrait. Les justifications de l’agence en charge de la création n’ont pas arrangé la situation, illustrant les tensions que l’IA générative pourrait faire peser un jour sur l’industrie de la publicité.
Baptisée It’s the Most Terrible Time of The Year, la vidéo de Noël de McDonald’s Pays-Bas, se voulait l’incarnation du nouveau champ des possibles ouverts par l’IA. Produite par l’agence hollandaise TBWA/Neboko, la mise en ligne de cette campagne s’est en effet accompagnée d’une communication visant à souligner le caractère novateur de cette création publicitaire, fruit d’une collaboration « avec un réseau international de partenaires spécialisés en IA ».
De l’IA assumée, mais un peu trop visible
Le concept ? Une référence inversée à la célèbre chanson d’Andy Williams, pour souligner la façon dont les festivités de fin d’année peuvent se changer en autant de déconvenues, entre chutes sur un trottoir verglacé, cookies brûlés, guirlandes aux courts-circuits explosifs et paquets-cadeaux renversés… alors qu’il suffit bien sûr de passer les portes d’un restaurant McDonald’s pour être touché par la douce féérie de Noël.
Si votre jambe présente un tel angle, oubliez le réveillon de Noël, vous avez des soucis plus urgents – capture d’écran
Bref, le message est relativement classique, et la pub en question aurait sans doute fait l’objet d’une diffusion sans histoire si quelques détails n’étaient pas venus souligner de façon un peu trop flagrante le recours à des modèles d’IA générative, entre visages dignes de mannequins de cire, bras qui semble se désintégrer, ou chat qui saute selon une drôle de ligne droite avant de percuter puis de faire s’effondrer un sapin…
Le rythme haché, avec des scènes qui ne durent pas plus de trois ou quatre secondes, constituait si nécessaire un indice supplémentaire : les modèles spécialisés dans la vidéo peinent en effet à maintenir plus longtemps la cohérence visuelle sans artefacts visibles. Ici, il n’y avait cependant pas vraiment besoin de jouer les Sherlock, puisque le recours à l’IA a été publiquement assumé par l’agence en charge de la création.
De l’IA, oui, mais beaucoup de travail
L’annonce de la vidéo, puis son relais par des comptes spécialisés dans le suivi des campagnes de création publicitaire, a rapidement suscité quelques critiques sur les réseaux sociaux, avec des messages s’étonnant par exemple de la « créativité » revendiquée par l’agence. La vidéo initialement publiée sur YouTube a quant à elle reçu un ratio J’aime / Je n’aime pas très largement défavorable, ainsi que des commentaires peu amènes établissant des parallèles entre cette pub et les qualités gustatives des sandwichs de l’enseigne. Résultat des courses, la vidéo en question a été rapidement dépubliée, même s’il en subsiste de nombreux miroirs.
McDonald's has released an AI-generated Christmas ad
The studio behind it says they 'hardly slept' for several weeks while writing AI prompts and refining the shots — 'AI didn't make this film. We did'
L’affaire aurait sans doute pu en rester là si les prestataires en charge de la réalisation n’avaient pas vigoureusement défendu leur travail. Le studio The Sweetshop, responsable de la production via sa branche spécialisée dans l’IA, The Gardening.club, s’est d’abord exprimé dans un message, supprimé depuis, dont la teneur véhémente, reproduite par d’autres médias spécialisés, a certainement contribué à la formation d’un effet Streisand.
« Pendant sept semaines, nous n’avons quasiment pas dormi, avec jusqu’à dix de nos spécialistes internes en IA et post-production chez The Gardening Club travaillant en étroite collaboration avec les réalisateurs », défend le studio, avant de décrire un long processus de production, puis de post-production, avec des « retouches à l’échelle du pixel », des « milliers d’itérations », la correction d’effets physiques, la suppression d’artefacts, etc. Et de conclure, avec un joli sens de la formule :
« Je ne vois pas ce spot comme une simple curiosité ou une expérience saisonnière amusante. Pour moi, c’est la preuve de quelque chose de bien plus important : lorsque le savoir-faire et la technologie se conjuguent à une intention précise, ils peuvent créer une œuvre d’une véritable dimension cinématographique. Alors non, ce n’est pas l’IA qui a fait ce film. C’est nous. »
« L’avenir est là, et il ne s’annonce pas bien », réagit de façon ironique un utilisateur d’Instagram. Quoi que l’on pense de ce spot aux couleurs de McDonald’s, la position du studio souligne en effet un état de fait : l’IA générative s’est officiellement frayé un chemin dans le processus de production des agences de publicité, qui revendiquent d’ailleurs des moyens humains significatifs.
De l’IA et beaucoup de travail, mais des coûts en baisse
Ainsi, Coca-Cola aurait, via agences, fait plancher 100 personnes autour de l’assemblage de 70 000 segments vidéo pour parvenir à la réalisation de son propre spot de Noël « full IA », vilipendé par la presse comme par les internautes. « La publicité la plus fructueuse de l’histoire de Pepsi », ironise l’un d’entre eux sur YouTube, liké plus de 20 000 fois.
Interrogé début novembre, lors de la publication de cette vidéo, Coca-Cola a refusé de révéler quel budget avait été consacré à la production de cette campagne, dont la diffusion était prévue dans 140 pays. Son directeur marketing a cependant admis que la production avait été à la fois plus rapide et plus économique que si le spot avait été réalisé sans recours à l’IA.
Quels seront les effets sur les métiers de la création publicitaire ? « Il est raisonnable de conclure que la créativité IA est désormais la norme et non plus l’exception, laissait déjà entendre cet été le cabinet d’analyse Forrester. « Une agence a accéléré sa mise sur le marché de 80 % ou plus par rapport à ses projets sans IA. D’autres agences ont réduit leurs coûts de production de 40 à 50 %. Et les marques internationales qui intègrent l’IA à l’ensemble de leur stratégie marketing ont vu leurs performances publicitaires augmenter jusqu’à 70 % ».
En attendant de voir si les publicitaires des Pays-Bas ont toujours les moyens de venir manger chez McDo, l’enseigne pourra régler avec son agence un autre litige potentiel. Sur LinkedIn, où la boîte de production a reproduit son message de défense dans une version édulcorée, un directeur artistique français souligne, lien à l’appui, que le concept même de la publicité est une reprise éhontée d’un spot de Noël élaboré en 2018 par Publicis pour Orange.
Les États-Unis restreignent de plus en plus le passage de leur frontière en obligeant le partage avec les autorités d’informations personnelles comme l’historique des réseaux sociaux. Les services des douanes américains envisagent de conditionner l’entrée de ressortissants de pays qui n’ont pas besoin de visa pour des séjours de tourisme ou pour affaires de moins de 90 jours au partage, entre autres, de 5 ans d’historique de réseaux sociaux.
La restriction des conditions d’accès au sol états-unien s’amplifie depuis le retour de Donald Trump au pouvoir. Dès avril, on apprenait que les autorités traquaient les propos des étudiants étrangers pour révoquer leurs visas.
Le Service des douanes et de la protection des frontières des États-Unis (U.S. Customs and Border Protection, CBP) envisage maintenant de demander systématiquement 5 ans d’historique de réseaux sociaux aux visiteurs touristiques ou pour affaires de ressortissants de pays comme le Royaume-Uni, la France ou la Norvège qui n’ont pas besoin de visa.
Un ajout envisagé dans un formulaire pour éviter la demande de visa
Le New York Times a en effet repéré cette proposition [PDF] faite par le service états-unien des douanes. Elle est ouverte pour 60 jours à des commentaires publics et doit ensuite être approuvée par le Bureau de la gestion et du budget de la Maison-Blanche.
Cela concerne de fait toutes les personnes visitant les États-Unis éligibles au programme d’exemption de visa (« Visa waiver »). Celui-ci, mis en place en 1986, permet à des ressortissants de 42 pays (dont la France) de « voyager aux États-Unis pour affaires ou pour le tourisme pour des séjours d’une durée maximale de 90 jours sans visa ».
Ici, la CBP propose d’inclure dans le formulaire du portail de Visa waiver l’obligation de fournir les identifiants utilisés sur leurs réseaux sociaux au cours des cinq dernières années, comme c’est déjà le cas pour les demandeurs de visa depuis 2016. L’objectif serait notamment de « distinguer les personnes qui suscitent des inquiétudes supplémentaires de celles dont les informations confirment leur admissibilité au voyage », précise la FAQ de l’Electronic System for Travel Authorization (ESTA).
D’autres données à « forte valeur ajoutée » pourront être collectées ensuite « lorsque c’est possible », comme les numéros de téléphones (personnels, professionnels ainsi que ceux des membres de sa famille : parents, conjoint, frères et sœurs, enfants) des cinq dernières années, les adresses emails (personnelles et professionnelles) des dix dernières années, les adresses IP et métadonnées des photos soumises par voie électronique, les données biométriques (visage, empreinte digitale, ADN et iris), ainsi que les noms, adresses, dates et lieux de naissance des membres de la famille.
Aggravation des atteintes aux libertés civiles
Selon le cabinet d’avocats Fragomen, si les modifications sont approuvées par le Bureau de la gestion et du budget, la CBP « peut mettre en œuvre les changements par étapes au cours des semaines et des mois à venir ».
Citée par le New York Times, l’avocate de l’Electronic Frontier Foundation, Sophia Cope, estime que ce changement « aggraverait les atteintes aux libertés civiles ». Elle ajoute que « cette mesure ne s’est pas avérée efficace pour trouver des terroristes et autres malfaiteurs mais elle a restreint la liberté d’expression et porté atteinte à la vie privée de voyageurs innocents, ainsi qu’à celle de leur famille, de leurs amis et de leurs collègues américains ».
Nous avons acheté 24 chargeurs USB à moins de 20 euros chez AliExpress, Amazon et Cdiscount. Nous avons ensuite vérifié si les caractéristiques techniques annoncées étaient réelles. Résultats des courses : les mensonges sont nombreux et moins de 50 % des chargeurs tiennent leurs promesses. Un chargeur a atteint 127 °C, un autre a pris feu.
Tous les chargeurs ne se valent pas, loin de là ! Fin octobre, l’UFC-Que Choisir tirait la sonnette d’alarme sur la qualité des matériaux et la résistance mécanique. Chez Next, nous testons depuis plusieurs semaines des chargeurs vendus via la plateforme chinoise AliExpress, mais aussi via deux géants en France : Amazon (société américaine) et le français Cdiscount (Groupe Casino). Ils le sont en quasi-totalité via les marketplaces (donc des vendeurs tiers).
[Dossier] Dans l’enfer des chargeurs USB pas chers chez AliExpress, Amazon et Cdiscount
Quand on a perdu son chargeur initial ou que l’on souhaite en avoir un de plus dans sa chambre, son salon ou sa cuisine, en acheter un en ligne peut paraître pratique. Mais que valent-ils vraiment d’un point de vue technique ? Nous en avons testé plus d’une vingtaine. Entre fausses promesses et vrais risques, vous ne regarderez plus jamais votre chargeur comme avant !
Commençons par un tour d’horizon global de la situation, peu reluisante. Dans de prochaines actualités, nous publierons le détail de chaque chargeur, avec les différents protocoles de charge rapide supportés, la puissance qu’il est capable de tenir en fonction des tensions et nous mesurerons enfin la montée en température avec 30 minutes de charge à la puissance maximale. Mais déclarons-le d’emblée : le tableau est peu reluisant.
La température à laquelle peut monter un chargeur est un élément important, mais impossible à deviner avant de l’acheter et de le tester. Elle dépend des composants de l’appareil, de sa conception, de sa qualité de fabrication, des plastiques, etc. Dans tous les cas, ayez conscience que cela peut chauffer fort et rapidement. Soyez donc toujours prudents !
120 watts selon le fabricant, 10 watts selon nos mesures
Il reste 61% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
La fondation Linux a cessé depuis longtemps d’être centrée sur Linux. Elle est aujourd’hui un vaste parapluie regroupant un nombre croissant de fondations « filles ». La Linux Foundation gère aujourd’hui plus de 900 projets, dont des briques très utilisées comme PyTorch, le noyau Linux, Xen ou encore l’architecture RISC-V.
Une nouvelle fondation fille a rejoint le clan : l’Agentic AI Foundation (AAIF). Objectif : façonner la manière dont les agents interagissent en s’assurant que tout le monde respecte un ensemble commun de règles.
La fondation accueille des « contributions fondatrices de projets techniques de premier plan », dont bien sûr le protocole MCP, créé par Anthropic et qui s’est rapidement imposé comme un standard. Il permet pour rappel aux agents d’exposer leurs capacités afin qu’ils puissent se reconnaitre et communiquer entre eux. Sont également présents le framework Goose de Block (Square, Cash App, Afterpay, TIDAL…) et la norme de facto AGENTS.md créée par OpenAI (l’équivalent d’un README pour les agents).
Yasmine Boudiaf & LOTI / Better Images of AI / CC-BY 4.0
Sans trop de surprise, les membres Platinum (ceux apportant la plus grosse contribution financière) sont surtout les ténors du domaine : Amazon Web Services, Anthropic, Google, Microsoft et OpenAI. Mais on note aussi la présence de Bloomberg et de Cloudflare. Ce dernier y voit peut-être une manière de « réguler » ce domaine de l’intérieur, après avoir pesté plusieurs fois contre le comportement de certains acteurs, en particulier Perplexity. Parmi les membres Gold, on trouve nombre d’acteurs majeurs de la tech comme IBM, Oracle, Ericsson, Cisco, JetBrains ou encore SAP.
« L’avènement de l’IA agentique représente une nouvelle ère de prise de décision autonome et de coordination entre les systèmes d’IA qui transformera et révolutionnera des industries entières. L’AAIF offre une base neutre et ouverte pour garantir que cette capacité critique évolue de manière transparente, collaborative et de manière à favoriser l’adoption des principaux projets d’IA open source. Ses projets inauguraux, AGENTS.md, Goose et MCP, posent les bases d’un écosystème partagé d’outils, de standards et d’innovations communautaires », déclare la fondation dans son communiqué.
L’AAIF ajoute que dans le cadre de cette annonce, Obot.ai (membre Silver) a transmis à la fondation le patronage de ses évènements MCP Dev Summit et son podcast. Le prochain sommet aura lieu les 2 et 3 avril 2026 à New York. La fondation en profite pour ouvrir l’appel à interventions, l’inscription et les parrainages pour l’évènement.
Plusieurs recherches incluant l’entrainement de réseaux de neurones font l’objet d’une attention particulière, parfois plusieurs années après leur publication. En cause l’utilisation d’une base de données de photos posant des problèmes éthiques concernant le consentement des enfants ayant des troubles autistiques concernés. L’éditeur Springer Nature est en train de rétracter des dizaines d’articles scientifiques.
Des dizaines d’articles scientifiques sont actuellement scrutés, notamment par l’éditeur scientifique Springer Nature, pour une éventuelle rétractation. Certains, comme cette meta analyse sur les approches utilisant le deep learning pour prédire l’autisme publiée en 2024, ont déjà fait l’objet d’une rétractation récemment.
Des travaux scientifiques qui soulèvent des questions éthiques
Les chercheurs et éditeurs auraient pu commencer par interroger le bien-fondé de mettre en place une reconnaissance de traits autistiques sur le visage d’enfants en utilisant le deep learning. La littérature scientifique montre que ces questions n’ont pas arrêté nombre de chercheurs.
Mais une nouvelle question éthique apparait, mise au grand jour par The Transmitter. Ce média spécialisé en neurosciences vient de découvrir que plusieurs dizaines d’articles scientifiques sur le sujet s’appuient, en fait, sur une base de données de visages d’enfants créée en 2019 par Gerald Piosenka, un ingénieur à la retraite. Celui-ci l’avait mise en ligne sur la plateforme Kaggle rachetée en 2017 par Google, qui permet à la communauté des machine learning et deep learning de partager des données, codes, modèles, etc.
L’utilisation d’une base de données créée sans le consentement des enfants
Cette base de données contient plus de 2 900 photos d’enfants, dont la moitié est étiquetée en tant qu’autistes. Comme l’a repéré The Transmitter, Gerald Piosenka explique dans un commentaire posté en 2022 que Kaggle a supprimé la base de données parce qu’elle ne respectait pas ses conditions d’utilisation. Mais l’ingénieur l’a remis rapidement en ligne via Google Drive.
Dans la description de la base, Gerald Piosenka explique la manière dont il a procédé pour la créer : « J’ai cherché partout une base de données contenant des images faciales d’enfants autistes. À ma connaissance, il n’en existe aucune. J’ai donc dû développer cette base de données à partir de recherches sur Internet. J’ai principalement trouvé ces images sur des sites web consacrés à l’autisme. En général, j’ai dû télécharger une image particulière, qui était souvent une photo de groupe, puis recadrer manuellement l’image pour ne garder que le visage de l’enfant ».
Questionné par un utilisateur de Kaggle sur l’exclusion de certaines photos pour des questions de vie privée et sur l’obtention du consentement, Gerald Piosenka a répondu que « toutes les images ont été recueillies à partir de sites Web accessibles au public et de recherches Google. Aucune restriction en matière de confidentialité n’a été violée » et a justifié sa démarche en affirmant que sa motivation était « altruiste » et qu’ « en matière d’éthique, comment peut-on être plus éthique que d’essayer de favoriser le dépistage précoce et le traitement de l’autisme chez les enfants » sans prendre en compte le signalement sur le besoin de consentement.
Près de 40 articles scientifiques sont étudiés par Springer Nature pour une éventuelle rétractation selon un des conseillers en intégrité de la recherche de l’éditeur interrogé par The Transmitter. Le média a, de son côté, recensé au moins 90 articles (publiés aussi par d’autres éditeurs comme Wiley, IEEE, Elsevier, MDPI ou encore Cell Press) qui citent une version de la base de données.
Google diffuse depuis hier soir aux testeurs intéressés une nouvelle version Canary d’Android. Cette mouture, estampillée 2512 et potentiellement (très) instable, intègre plusieurs améliorations d’interface et nouvelles fonctions. Par exemple, des modifications liées à la cohérence graphique de l’interface, quelques nouvelles icônes, des animations plus rapides, etc.
La mise à jour inclut cependant une nouveauté faisant le tour des médias : une nouvelle fonction permettant de passer plus facilement d’un iPhone vers Android, dès l’assistant de configuration initial. Et il ne s’agit pas d’un « hack » comme la récente compatibilité avec AirDrop diffusée par Google, mais du résultat d’un travail commun des deux entreprises.
On manque encore de détails sur la fonction, mais elle comprend a priori les données et réglages d’applications, les réglages des notifications ainsi que les paramètres clés dans les réglages du système. Cette passation d’informations se fait au niveau du système et n’a pas besoin d’une application dédiée.
Cette fonction n’est disponible pour l’instant que pour les smartphones Pixel de Google et devrait être diffusée en version stable au cours d’une prochaine mise à jour trimestrielle. 9to5Google, à l’origine de l’information, indique cependant que l’accord se fait dans les deux sens : Apple va également proposer un processus équivalent dans iOS, pour reprendre les mêmes informations depuis un Pixel. La fonction serait ajoutée lors d’une prochaine bêta du cycle d’iOS 26, dans la version 26.3 ou 26.4 probablement.
L’ajout signale une détente progressive chez Apple, contrainte et forcée de s’ouvrir, que ce soit par la régulation (notamment en Europe) ou par pression populaire. Après avoir remporté la bataille sur le support du RCS dans iOS, Google a habilement lancé son support d’AirDrop, Apple se retrouvant « coincée » par une annonce en grande pompe, sous l’œil des régulateurs, dont une Commission européenne assumant le bras de fer.
Le satellite SVOM a détecté le 5ᵉ sursaut gamma le plus lointain jamais enregistré. Il est vieux de 13 milliards d’années et a donc été émis quand l’Univers n’avait que 730 millions d’années environ. Il permet d’en apprendre davantage sur le fonctionnement de notre Univers.
L’observatoire spatial SVOM (acronyme de Space-based multi-band astronomical Variable Objects Monitor) a été lancé en juin 2024 à bord d’une fusée Longue Marche 2C (il est en orbite à 625 km). C’est une mission franco-chinoise dont le but est de détecter des sursauts gamma.
Détection en mars, une alerte envoyée dans la demi-heure
Quelques mois après le début des opérations scientifiques, l’Observatoire de Paris annonce la « détection d’un sursaut gamma causé par une supernova qui a explosé il y a 13 milliards d’années […] Ce sursaut gamma a donc explosé au cœur de l’ère de la réionisation, alors que l’Univers n’avait que 730 millions d’années ». Les photons ont ainsi voyagé pendant 13 milliards d’années avant de nous arriver. Cet évènement est identifié sous la référence GRB 250314A : GRB pour Gamma-Ray Bursts et 250314 pour la date de détection, le 14 mars 2025. Parfois les scientifiques savent être efficaces.
L’observatoire de Paris ajoute que « GRB 250314A est le 3ᵉ sursaut gamma le plus lointain dont la distance a été déterminée par spectroscopie». Le CEA précise pour sa part que, toutes méthodes confondues, c’est le « 5ᵉ GRB le plus lointain identifié. Le précédent GRB à très haut redshift (z > 7) avait été identifié il y a de cela environ 12 ans ! ».
Alerte générale ! Des télescopes du monde entier regardent, y compris le JWST
Il retrace aussi la diffusion d’une alerte par les scientifiques en mars dernier. Moins de 30 minutes après la détection de l’événement (et sa confirmation), « une circulaire pour alerter l’ensemble de la communauté » est envoyée. Ce type d’alerte permet aux observatoires et satellites d’observer la même région du ciel s’ils le peuvent. 19 circulaires ont ainsi été émises.
Dans les heures qui suivent, « l’observatoire spatial Neil Gehrels Swift et le satellite Einstein Probe, pointent leurs instruments vers la source. Une contrepartie X est localisée par le détecteur X a bord du Swift. Le Nordic Optical Telescope (NOT) découvre la contrepartie proche infrarouge dans la boîte d’erreur donnée par Swift. Les observations d’Einstein Probe confirment même la nature transitoire de la contrepartie X, un indice clé en faveur d’une rémanence du sursaut gamma ».
C’est le sursaut « le plus précis en termes de la lumière qu’on a récoltée et des mesures qu’on a faites », explique à l’AFP Bertrand Cordier (via Radio Canada), responsable scientifique du projet SVOM au Commissariat à l’énergie atomique et aux énergies alternatives (CEA).
Le CEA ajoute (via son institut de recherche sur les lois fondamentales de l’Univers, Irfu) que, « 110 jours après la découverte par SVOM, JWST [James Webb Space Telescope, ndlr] est allé chercher la galaxie hébergeant ce sursaut. Les premières analyses photométriques suggèrent qu’il pourrait être associé à une supernova issue de l’effondrement gravitationnel violent d’une étoile massive en fin de vie ressemblant fortement aux supernovas locales du même type. Ce résultat pourrait indiquer une étonnante continuité dans les processus d’explosion d’étoiles massives (> 20 masses solaires), depuis les débuts de l’Univers jusqu’à aujourd’hui ».
Le CEA ajoute qu’une nouvelle observation du JWST est « déjà programmée dans 9 mois [et] devrait confirmer la disparition de la supernova ».
« Illuminer tous les plans entre nous et le sursaut gamma »
Selon Radio Canada, Bertrand Cordier voudrait accélérer les collaborations internationales pour les prochaines détections (il en espère une ou deux par an avec SVOM). En mars, « il s’est écoulé 17 heures avant que le Très Grand Télescope (VLT), au Chili, ne se détourne. Pendant ce temps, l’intensité a décru. L’objectif, c’est d’être encore plus efficace. Si on arrive plus tôt, alors on aura des meilleures données ».
Vous vous demandez peut-être à quoi tout cela peut servir ? Nous l’expliquions dans cet article : une approche est d’utiliser « ces événements comme des sondes. Quand elles explosent, elles vont illuminer tous les plans entre nous et le sursaut gamma. C’est du coup une information considérable pour avoir les paramètres physiques de l’univers quand il était très jeune. C’est le seul moyen quasiment d’avoir l’information sur l’univers à ces moments-là et de voir peut-être ces premières générations étoiles ».
Le site officiel de SVOM y va aussi de sa comparaison : les sursauts gamma sont la « manifestation d’une explosion gigantesque, ces flashs de lumière sont considérés comme les éléments les plus brillants et les plus riches en énergie depuis le Big Bang. Ce sont des événements rares à l’échelle d’une galaxie et pourtant il serait possible d’en observer en moyenne une dizaine par jour ».
Créateur de l’emblématique montre connectée Pebble, Eric Migicovsky a présenté mardi sa dernière création : une bague connectée faisant office de dictaphone.
Baptisée Pebble Index 01, disponible en trois coloris (argent, noir, or) et en plusieurs tailles, l’accessoire se veut une réponse simple à une problématique simple : enregistrer des notes au moment où l’idée survient, sans se soucier d’avoir à chercher son smartphone ou son bloc-notes. La bague présente un unique bouton, situé sur sa face supérieure, qui permet de déclencher un enregistrement audio, avec un clic sensible pour éviter les activations involontaires.
Les séquences enregistrées (jusqu’à cinq minutes peuvent être stockées sur la bague) sont ensuite transmises de façon chiffrée au smartphone de l’utilisateur via l’application Pebble, disponible en open source, sur Android ou iOS. C’est cette dernière qui se charge de les convertir en texte grâce à des modèles, eux aussi open source, exécutés en local.
Un bouton, une pile, un micro, un transmetteur Bluetooth
Si les performances ne sont pas suffisantes, une option payante permet d’accéder à un modèle text-to-speech exécuté dans le cloud. À ce niveau, Eric Migicovsky a pour l’instant fait le choix de Whisper en local, et de Wispr Flow pour les traitements à distance.
Le fondateur de Pebble, qui a relancé ses célèbres montres connectées en début d’année, promet une approche très ouverte de son hardware. La Pebble Index 01 doit notamment permettre de paramétrer ses propres actions sur le bouton (par exemple, le déclenchement à distance de l’appareil photo de son smartphone), ou même de programmer des interactions vocales grâce à MCP (Model Context Protocol).
« L’Index 01 est avant tout conçue pour vous aider à mémoriser des informations. Nous souhaitons qu’elle soit parfaitement fiable dans sa fonction principale. Cependant, nous laissons la possibilité de la personnaliser et de créer de nouvelles interactions et actions », résume Eric Migicovsky.
Sur le plan physique, la conception de la bague présente toutefois une contrainte de taille : elle ne dispose pas d’une batterie rechargeable mais d’une pile à l’oxyde d’argent non remplaçable. « L’ajout d’un circuit de charge et l’intégration d’un chargeur rendraient le produit plus volumineux et plus cher », justifie Migicovsky. Il affirme que son entreprise assurera le recyclage des produits renvoyés par les clients, sans préciser les modalités de retour ou de traitement.
La bague exploite l’application compagnon des nouvelles montres connectées Pebble
La durée de vie ne serait cependant pas un problème selon lui. La pile embarquée autorise en effet 12 à 15 heures d’enregistrement, ce qui offrirait une autonomie de plus de deux ans, dans un scénario dans lequel l’utilisateur procéderait à dix ou vingt enregistrements de trois à six secondes par jour.
La Pebble Index 01 est dès à présent proposée à la précommande pour 75 dollars, avec des livraisons prévues aux alentours de mars 2026. Son prix public s’établira ensuite à 99 dollars.