Vue lecture

Budget 2026 : de nouvelles taxes sur les géants du numérique en perspective ?

Money !
Budget 2026 : de nouvelles taxes sur les géants du numérique en perspective ?

Lors des discussions sur le budget 2026 de l’État, les députés vont devoir se positionner sur plusieurs taxes ciblant les grandes entreprises du numérique. La taxe GAFAM, qui existe déjà et les vise particulièrement, pourrait passer de 3 à 15 %. Ils devront aussi discuter d’une contribution sur l’utilisation des réseaux de communication par les fournisseurs de contenus.

Venant de plusieurs horizons, des propositions pour taxer les grandes entreprises du numérique (surtout états-uniennes) vont être discutées dans l’hémicycle ces prochains jours.

Les débats s’ouvrent ce vendredi 24 octobre en séance plénière à l’Assemblée nationale pour discuter puis voter le budget de 2026. Si son examen n’est pas fini au bout de 70 jours, le gouvernement peut recourir à une adoption par ordonnances (article 47 de la Constitution).

Dans la nuit de mercredi 22 à jeudi 23 octobre, la commission des finances de l’Assemblée nationale a rejeté globalement la première partie du budget de l’État qui avait été amendée au cours de la semaine. C’est donc sur la base du projet de loi initial que les députés vont devoir s’exprimer cette fois-ci en séance plénière.

Proposition de relever la taxe GAFAM à 15 %

Mais une mesure qui ne figure pas dans cette version initiale pourrait trouver une majorité dans l’hémicycle. En effet, le taux de la taxe GAFAM, aujourd’hui à 3 %, pourrait allègrement augmenter. Elle consiste notamment à taxer les recettes générées par le ciblage publicitaire.

L’année dernière déjà, le député Corentin Le Fur (droite républicaine) avait proposé de le porter à 5 %. Dans son contre-projet qu’il a publié en septembre dernier, le PS indiquait vouloir le doubler et donc le passer de 3 à 6 %.

Mais, dans un amendement déposé par le député Renaissance, Jean-René Cazeneuve, il est proposé « de porter de 3 % à 15 % » le taux de cette taxe. Ce texte, qui a été voté lors de l’examen en commission, propose aussi d’augmenter le seuil de taxation au niveau mondial à 2 milliards d’euros au lieu des 700 millions actuellement dans la loi.

Dans son exposé, le député affirme que « la France a instauré cette taxe en 2019 pour remédier à l’inégalité fiscale entre les entreprises du numérique, souvent étrangères, et les acteurs économiques soumis à l’impôt sur le territoire. Son rendement, d’environ 700 millions d’euros en 2024, demeure sans rapport avec les profits réalisés en France par les grands groupes du secteur ».

Si le texte revient donc aujourd’hui à l’Assemblée sans les amendements votés en commission et donc sans intégrer cet amendement de Jean-René Cazeneuve, celui-ci a des chances d’être de nouveau voté dans l’hémicycle via un nouvel amendement.

Une taxe sur les fournisseurs de contenus comme Netflix ?

Un autre sujet de financement du numérique revient via les discussions sur le budget 2026 : le financement des réseaux télécoms par les plus importants fournisseurs de contenus. Selon le dernier bilan de l’état de l’Internet en France de l’Arcep, « cinq acteurs – Netflix, Akamai, Google, Meta et Amazon – génèrent 47 % de ce trafic », qui était de 50,8 Tb/s fin 2024 (+ 9,2 % en un an).

Le député RN Jean-Philippe Tanguy a déposé, en commission, un amendement [PDF] qui proposait la création d’une « contribution annuelle forfaitaire » de « 12 000 euros par Gb/s d’utilisation annuelle moyenne ». Cela ne concerne que « les personnes désignées contrôleurs d’accès par la Commission européenne », et « utilisant une bande passante moyenne annuelle supérieure à 1 Gb/s ». « Idée délirante, tarif délirant », rétorque Pierre Beyssac, porte-parole du Parti Pirate.

Ceci pour participer aux investissements « [des] pouvoirs publics et [des] fournisseurs d’accès à internet » pour développer et maintenir les infrastructures. Comme nous l’expliquions déjà en 2022, c’est encore le retour d’une idée récurrente. Cet amendement du député RN a été rejeté en commission, mais Jean-Philippe Tanguy l’a de nouveau présenté pendant la séance plénière. Il a peu de chance d’être intégré au texte final. Le député RN semble attaché à cette mesure, puisqu’il l’avait déjà proposé l’année dernière.

La Fédération Française des Télécoms (FFTélécoms), important lobby du secteur qui rassemble les principaux FAI mais aussi l’opérateur d’infrastructures Axione ou Verizon France par exemple, a publié récemment une tribune sur le sujet dans Les Echos. Elle y accuse les « big tech » (sont visés ici Netflix, Meta, Google et Amazon) d’être des « passagers clandestins » (terme utilisé aussi par le député RN dans l’exposé de son amendement) profitant d’« une asymétrie délétère pour l’Europe ».

Si la FFTélécoms réclame une contribution financière de leur part, elle souhaite « des accords commerciaux entre les opérateurs et les grands fournisseurs de trafic, pas une nouvelle taxe », explique-t-elle à nos confrères de Contexte. Elle souhaiterait, par contre, que l’Europe impose un cadre à ces négociations via le Digital Networks Act. Ce texte doit être présenté dans moins de deux mois à la Commission européenne. Mais il est difficile de savoir ce qu’il va contenir. Et, toujours selon Contexte, la CCIA Europe, lobby de la tech étatsunienne, veut éviter « toute tentative d’introduire des « network fees » » et y met tout son poids en organisant diverses réunions de lobbying.

  •  

Le directeur d’un prestataire US de failles « 0-day » accusé d’en avoir vendu à la Russie

Aïe OS
Le directeur d’un prestataire US de failles « 0-day » accusé d’en avoir vendu à la Russie

Mardi, on apprenait qu’un employé de Trenchant, qui développe et revend des failles de sécurité informatique à la communauté du renseignement des « Five Eyes », aurait lui-même été ciblé par un logiciel espion. Ce jeudi, on apprenait que le dirigeant de Trenchant qui l’avait licencié, en l’accusant d’avoir volé des vulnérabilités développées en interne, était lui-même accusé d’avoir vendu des « secrets commerciaux » à un acheteur russe.

Ce mardi 21 octobre, TechCrunch révélait qu’un développeur d’exploits « zero-day » avait reçu, plus tôt cette année, un message sur son téléphone personnel l’informant qu’ « Apple a détecté une attaque ciblée par un logiciel espion mercenaire contre [son] iPhone. »

Il s’agirait du premier cas documenté de personne payée par un prestataire de logiciels espions étant elle-même la cible d’un logiciel espion, relevait TechCrunch. Le développeur, qui a requis l’anonymat, travaillait en effet jusqu’à il y a peu pour Trenchant, filiale du marchand d’armes états-unien L3Harris Technologies, spécialisée dans la recherche de vulnérabilités et les « computer network operations », du nom donné par les « Five Eyes » aux capacités cyberoffensives.

Le développeur expliquait à TechCrunch qu’il soupçonnait que cette notification pouvait être liée aux circonstances de son départ de Trenchant, qui l’avait désigné comme « bouc émissaire » d’une fuite d’outils internes dont son employeur avait été victime.

Soupçonné d’avoir fait fuiter des failles Chrome, alors qu’il travaillait sur iOS

Un mois avant de recevoir la notification de menace d’Apple, il avait en effet été invité au siège londonien de l’entreprise pour participer à un événement de « team building ». Or, une fois sur place, explique-t-il à TechCrunch, il avait « immédiatement été convoqué » dans une salle de réunion pour s’entretenir par vidéoconférence avec Peter Williams, alors directeur général de Trenchant, connu au sein de l’entreprise sous le nom de « Doogie ».

Williams lui avait alors expliqué qu’il était soupçonné d’avoir un second emploi, qu’il était suspendu, et que tous ses appareils professionnels seraient confisqués afin d’être analysés dans le cadre d’une enquête interne. Deux semaines plus tard, Williams l’appelait pour lui annoncer qu’il était licencié et qu’il n’avait d’autre choix que d’accepter l’accord à l’amiable ainsi que l’indemnité que lui proposait l’entreprise.

Le développeur a depuis appris par d’anciens collègues qu’il était soupçonné d’avoir divulgué plusieurs vulnérabilités inconnues du navigateur Chrome et identifiées par les équipes de Trenchant. Or, le développeur faisait partie d’une équipe chargée exclusivement de l’identification de failles zero-day dans iOS et du développement de logiciels espions pour les terminaux Apple.

Une version confirmée à TechCrunch par trois de ses anciens collègues, qui précisent que les employés de Trenchant n’ont qu’un accès strictement compartimenté aux outils liés aux plateformes sur lesquelles ils travaillent, et que le développeur congédié ne pouvait pas accéder aux failles, exploits et outils ciblant Chrome.

Soupçonné d’avoir vendu pour 1,3M$ de « secrets commerciaux » à la Russie

Ce jeudi 23 octobre, soit deux jours seulement après le premier article, coup de théâtre : TechCrunch révèle que le département de la Justice états-unien a accusé ce même Peter Williams, le 14 octobre dernier, d’avoir volé huit secrets commerciaux à deux entreprises (non identifiées) entre avril 2022 et août 2025, et de les avoir vendus à un acheteur en Russie.

Williams, un Australien de 39 ans résidant à Washington, avait été recruté comme directeur général de Trenchant en octobre 2024, poste qu’il a occupé jusqu’à fin août 2025, d’après les informations déposées par l’entreprise au registre britannique des entreprises.

Quatre anciens employés de Trenchant ont confirmé à TechCrunch que Williams avait bien été arrêté, mais sans préciser quand, et un porte-parole du département de la Justice a précisé qu’il n’était actuellement pas détenu.

D’après l’acte d’accusation, Williams aurait obtenu 1,3 million de dollars en échange de ces secrets commerciaux. L’intégralité des fonds (y compris en cryptos) déposés dans sept comptes bancaires ont été saisis, ainsi qu’une liste d’objets de valeur « sujets de confiscation » à son domicile, dont plusieurs bagues de diamant Tiffany, un sac à main Louis Vuitton, des vestes Moncler, et 24 montres de luxe (dont huit « replicas », copies plutôt haut de gamme, difficiles à distinguer des originales) de Rolex Submariner et Oyster.

L’affaire est traitée par la section du contre-espionnage et du contrôle des exportations de la division de la sécurité nationale du ministère américain de la Justice, précise TechCrunch. Nos confrères ont par ailleurs appris qu’une audience préliminaire et une audience relative à l’accord de plaidoyer sont prévues le 29 octobre à Washington, D.C.

  •  

Du neuf pour Copilot chez Microsoft, dont Mico qui retente l’aventure Clippy

Hey ! Listen !
Du neuf pour Copilot chez Microsoft, dont Mico qui retente l’aventure Clippy

Dans un billet publié ce 23 octobre, Microsoft a annoncé une série d’apports pour son assistant Copilot. Bien que plusieurs des fonctionnalités soient intéressantes, l’une en particulier a attiré l’attention : Mico. Ce petit assistant, présenté comme un « blob » pouvant changer de forme, accompagne Copilot en mode vocal. Il rappelle inévitablement Clippy… en lequel il peut justement se transformer.

Mico fait d’autant plus parler de lui que les tentatives de Microsoft pour « humaniser » certaines tâches ou pour les rendre plus « sympas » ont rapidement tourné à la catastrophe, de Bob à Clippy. Le plus souvent, si l’on met de côté une efficacité limitée et – dans le cas de Clippy – le peu de répondant face à de nombreuses situations dans Office, beaucoup détestaient cette expérience où ils se sentaient comme des enfants.

Rendre le mode vocal plus sympathique

Mico procède donc autrement. Le petit blob coloré et polymorphe (qui pourrait presque sortir de La Planète au Trésor, de Disney) apparait uniquement quand on passe en mode vocal sur Copilot pour les échanges de questions-réponses. Il est configuré par défaut pour surgir automatiquement, mais on peut le désactiver dans les options. Surtout, Mico n’est pas là pour fournir davantage de fonctions, mais seulement pour donner un visage « plaisant » aux interactions. Dans son billet, l’éditeur explique que Mico est une simple contraction de « Microsoft Copilot ».

« Cette présence visuelle facultative écoute, réagit et change même de couleur pour refléter vos interactions, ce qui rend les conversations vocales plus naturelles. Mico montre son soutien par le biais d’animations et d’expressions, créant ainsi une expérience conviviale et engageante », indique Microsoft.

La société fournit une vidéo de démonstration. Publiée sur YouTube, elle a l’originalité d’être sans son. Un choix curieux pour un assistant vocal. Elle a le mérite cependant de montrer Mico en mouvement. Microsoft assume également la comparaison avec Clippy. Comme l’ont montré certains utilisateurs sur les réseaux sociaux, cliquer plusieurs fois sur le blob le transforme momentanément en Clippy.

Des souvenirs et des connecteurs

Le billet de Microsoft contient des annonces autrement plus sérieuses, rassemblées sous l’étiquette « une IA centrée sur l’humain ». Comme Mico, elles sont (presque) toutes centrées sur Copilot dans sa version standard, intégrée dans Windows.

Comme OpenAI depuis plusieurs mois et Anthropic depuis septembre (et surtout cette semaine), Microsoft annonce ainsi que son Copilot dispose maintenant d’une mémoire. Elle fonctionne comme on l’a déjà vu ailleurs : elle permet de retenir les informations importantes pour créer une sorte de contexte permanent. Il suffit de les signaler comme telles pour Copilot s’en souvienne dans les interactions suivantes. Comme dans ChatGPT et Claude, ces « souvenirs » peuvent être modifiés ou supprimés.

Copilot s’accompagne également de nouveaux connecteurs. La version Microsoft 365 en avait déjà, mais la mouture grand public gagne la capacité de se connecter à d’autres services. L’éditeur cite OneDrive, Outlook, Gmail, Google Drive et Google Agenda. Il est aussi possible de mixer plusieurs comptes, de traduire des documents, de créer des flux de travail avec intégration d’évènements dans les agendas d’Outlook ou Gmail, etc. Microsoft précise que le tout premier accès aux données réclamera une autorisation et que les accès peuvent être révoqués à n’importe quel moment. Ces connecteurs sont en cours de déploiement et ne sont pas encore disponibles partout.

Copilot se dote également « d’actions proactives ». Intégrées dans Deep Research, elles peuvent apparaitre sous forme de suggestions si l’IA estime que ces informations sont utiles, par exemple pour orienter les prochaines étapes en fonction de l’activité passée. Cette fonction est pour l’instant en préversion et réclame un abonnement Microsoft 365.

Microsoft veut frapper fort sur la santé et l’éducation

L’entreprise a de grandes ambitions sur la santé et l’éducation. Elle renforce donc ces domaines sur Copilot avec deux annonces spécifiques, mais limitées aux États-Unis pour l’instant.

D’abord, « Copilot for Health », qui doit répondre à tout ce qui concerne la santé. Sujet particulièrement sensible et sur lequel l’entreprise dit avoir amélioré la façon dont l’IA fonde ses réponses sur des sources crédibles, comme Harvard Health.

« Copilot vous aide également à trouver les bons médecins rapidement et en toute confiance, en les associant en fonction de la spécialité, de l’emplacement, de la langue et d’autres préférences. L’objectif est simple : vous aider à prendre le contrôle de votre santé en vous fournissant des informations de haute qualité et en vous connectant rapidement aux bons soins », vante Microsoft, qui accompagne le propos d’une nouvelle vidéo sans le moindre son.

Sur l’éducation, les annonces sont intéressantes. Microsoft propose Learn Live, qui se propose de devenir un « tuteur socratique doté d’une voix qui vous guide à travers des concepts au lieu de simplement donner des réponses ». Plutôt que d’afficher des informations, la fonction pose des questions, donne des repères visuels et des tableaux blancs interactifs pour jauger les réponses. On peut indiquer le contexte d’apprentissage, par exemple la révision d’un examen.

Intégration dans Edge et Windows

Il fallait s’y attendre, Microsoft ne compte pas laisser passer l’opportunité de mettre à contribution son gigantesque parc informatique. L’intégration dans Edge et Windows est donc renforcée, sans surprise.

Pour Edge, il s’agit simplement de faire jeu égal avec toutes les annonces que l’on a déjà pu voir : Gemini dans Chrome, The Browser Company avec Dia, Opera avec Neon, Perplexity avec Comet, ou encore très récemment OpenAI avec Atlas. Il est là encore question de raisonner sur des onglets ouverts, de demander des synthèses d’informations, de lancer des actions comme la réservation d’un hôtel, etc. Microsoft ajoute cependant une petite nouveauté, les Journeys : « Copilot se souvient de votre parcours de navigation pour que vous puissiez retrouver vos recherches, reprendre vos tâches ou explorer plus en profondeur ». la fonction, qui ressemble à s’y méprendre à Recall dans Windows, n’est pour l’instant disponible qu’aux États-Unis en préversion.

Pour Windows, Microsoft redit surtout ce qu’elle déjà dit dans un billet du 16 octobre : « Copilot sur Windows transforme chaque PC Windows 11 en PC IA ». L’occasion d’annoncer la disponibilité mondiale de Copilot Vision, sans doute l’une des fonctions les plus intéressantes chez Microsoft. Elle permet l’interaction avec d’autres applications, d’agir sur ce que l’on voit à l’écran, en pilotant le tout à la voix avec les mots d’activation « Hey Copilot ». Les demandes textuelles doivent arriver « bientôt ».

D’autres nouveautés sont présentées. Par exemple, Copilot Search mélange maintenant les réponses générées par IA et les résultats classiques dans une seule vue, dans une approche finalement identique à Google. Pages, le canevas de collaboration, accepte maintenant jusqu’à 20 fichiers en entrée.

L’ensemble de ces nouveautés est rassemblé sous l’étiquette « Fall Update », qui n’est pas sans rappeler la nomenclature (peu claire) de Windows 10 à ses débuts. Pour l’instant, beaucoup de ces fonctions sont limitées aux États-Unis, Microsoft évoquant surtout les autres pays anglo-saxons pour les prochains déploiements (Royaume-Uni, Canada, Nouvelle-Zélande…). L’Europe n’est pas mentionnée, mais on imagine que les fonctions y arriveront tôt ou tard.

  •  

☕️ TikTok et Meta ont enfreint le DSA, selon la Commission européenne

Bruxelles vient de publier les conclusions préliminaires de ses enquêtes sur les infractions potentielles du DSA (règlement sur les services numériques) par Meta et TikTok.

La Commission européenne estime que les deux entreprises n’accordent pas aux chercheurs « un accès adéquat aux données publiques » sur leurs plateformes, que ce soit Facebook, Instagram ou TikTok. Le texte européen prévoit que les chercheurs puissent accéder aux données des très grandes plateformes en ligne (VLOP) et très grands moteurs de recherche (VLOSE) sans même l’intermédiaire des coordinateurs de services numériques.

Drapeaux de l’Union européenne

« Permettre aux chercheurs d’accéder aux données des plateformes est une obligation de transparence essentielle en vertu de la législation sur les services numériques, car elle permet au public d’examiner l’incidence potentielle des plateformes sur notre santé physique et mentale », explique la Commission.

Elle ajoute que les deux entreprises ont « peut-être mis en place des procédures et des outils contraignants pour permettre aux chercheurs de demander l’accès aux données publiques ».

Si c’est la seule critique de la Commission contre TikTok dans ses conclusions préliminaires, elle en ajoute une autre à l’intention de l’entreprise de Mark Zuckerberg : « en ce qui concerne Meta, ni Facebook ni Instagram ne semblent fournir un mécanisme de « notification et d’action » convivial et facilement accessible permettant aux utilisateurs de signaler les contenus illicites, tels que les contenus pédopornographiques et les contenus à caractère terroriste ».

La Commission explique qu’il faut passer plusieurs étapes inutiles et que les réseaux de Meta imposent des exigences supplémentaires aux utilisateurs pour faire ces signalements. Elle accuse aussi l’entreprise d’utiliser des « dark patterns » et des designs « d’interface trompeuses »  dans ses mécanismes de « notification et d’action ».

« Nos démocraties dépendent de la confiance. Cela signifie que les plateformes doivent responsabiliser les utilisateurs, respecter leurs droits et ouvrir leurs systèmes à un examen minutieux. Le règlement sur les services numériques en fait un devoir, pas un choix », rappelle Henna Virkkunen, vice-présidente exécutive chargée de la souveraineté technologique, de la sécurité et de la démocratie.

« TikTok s’engage en faveur de la transparence et valorise la contribution des chercheurs à notre plateforme et à l’ensemble du secteur. Nous examinons actuellement les conclusions de la Commission européenne », mais les exigences en matière d’accès des chercheurs aux données « mettent en conflit direct le DSA et le RGPD », affirme TikTok à l’AFP.

« Nous contestons toute allégation de violation du DSA et poursuivons nos négociations avec la Commission européenne sur ces questions », commente de son côté Meta toujours auprès de l’AFP.

  •  

Pour ses IA, Anthropic va utiliser jusqu’à un million de TPU Google

T’es là ? TPU là !
Pour ses IA, Anthropic va utiliser jusqu’à un million de TPU Google

Anthropic et Google viennent d’annoncer une intensification de leur partenariat. Le premier va ainsi utiliser jusqu’à un million de TPU du second, illustrant une nouvelle fois le besoin constant de nouvelles capacités de calcul pour les IA. Parallèlement, Anthropic élargit la fonction « mémoire » de Claude à d’autres abonnements.

Il est devenu crucial pour les entreprises de l’IA de diversifier les ressources matérielles sur lesquelles tournent leurs opérations, qu’il s’agisse de l’entrainement ou de l’inférence, pour citer les deux plus importantes. Des entreprises comme Amazon, Google et Microsoft développent ainsi leurs propres puces. Elles permettent de réduire la dépendance à NVIDIA – qui garde l’avantage de la puissance brute – en confiant à des puces moins onéreuses et plus économes certaines opérations, dont l’inférence.

Partenariat majeur avec Google

C’est dans ce contexte qu’Anthropic et Google viennent d’annoncer une extension de leur partenariat. Il vise à intensifier l’utilisation de Google Cloud par Anthropic, afin de « répondre à la demande croissante des clients », indique l’éditeur de Claude. Google y voit une validation du « bon rapport qualité-prix et de l’efficacité » de ses puces.

Cette extension doit permettre d’utiliser jusqu’à un million de TPU (Tensor Core Unit) de Google, y compris la 7ᵉ génération de ces puces (Ironwood, lancée en avril), comme le précise Google dans son communiqué. Les TPU de 7ᵉ génération ne sont pas encore disponibles, il faut pour le moment faire une demande d’accès anticipé.

Anthropic, comme OpenAI, diversifie ses sources d’approvisionnement

Dans son communiqué, Anthropic explique que cet investissement représente « des dizaines de milliards de dollars », sans que l’on sache qui investit quoi. Cette approche permettrait à Anthropic de « faire progresser les capacités de Claude tout en maintenant des partenariats solides dans l’ensemble de l’industrie ». Pour la société, cet accord illustre dans tous les cas une « approche diversifiée qui utilise efficacement trois plateformes de puces : les TPU de Google, Trainium d’Amazon et les GPU de NVIDIA ».

AMD est pour le moment le grand absent de cette liste. OpenAI, qui multiplie aussi les partenariats, en a annoncé un avec le Texan, mais presque de seconde zone car il n’était pas question de superintelligence ou d’IA générale, contrairement aux annonces avec NVIDIA et Broadcom.

La lecture des communiqués d’Anthropic, Google ou même des précédents chez OpenAI et autres affiche un optimisme toujours rayonnant au sein de la tech américaine. Comme nous le relevions début octobre, on constate cependant un haut niveau de « consanguinité » dans les investissements : c’est toujours le même petit groupe d’entreprises, au sein duquel elles investissent les unes dans les autres, OpenAI et NVIDIA drainant des centaines de milliards de dollars. Certains analystes y voient le signe supplémentaire d’une bulle spéculative.

Le retour de la mesure en « GW de puissance »

Google indique qu’« Anthropic aura accès à plus d’un gigawatt de capacité qui sera mise en service en 2026 », une information qui réclame de grosses pincettes car elle ne veut pas dire grand-chose seule. Et même si on la combine avec 1 million de TPU, cela donnerait 1 000 watts par TPU. Un chiffre très élevé pour un seul TPU, dans l’ordre de grandeur des derniers GPU de NVIDIA.

Anthropic ajoute que cette capacité accrue lui permettra de répondre à « une demande de croissance exponentielle » tout en maintenant ses « modèles à la pointe de l’industrie ». « Ces ressources de calcul plus importantes permettront également d’effectuer des tests plus approfondis, des recherches d’alignement et un déploiement responsable à grande échelle », précise Anthropic.

Selon Google, ses TPU seront utilisés aussi bien pour l’entrainement des IA d’Anthropic que pour l’inférence. Dans son communiqué, Google ajoute qu’Anthropic aura aussi accès à « des services Google Cloud supplémentaires », mais sans dire lesquels.

La mémoire de Claude sort des entreprises

Dans sa guerre féroce contre OpenAI et son ChatGPT, Claude manquait d’une fonctionnalité ajoutée dans son concurrent en avril puis étendue en juin à l’ensemble des utilisateurs : la mémoire. Elle permet de retenir un nombre croissant d’informations jugées cruciales. L’exemple fourni par OpenAI était alors parlant : mentionner une allergie alimentaire afin que l’aliment concerné soit écarté des recettes. Sur Claude, la mémoire a fini par arriver en septembre, mais elle était réservée aux entreprises, via les abonnements Teams et Enterprise.

Dans un tweet, Anthropic annonce que la fonction est désormais disponible pour des abonnements plus « classiques » : d’abord pour les personnes ayant un abonnement Max (100 à 200 dollars par mois), puis ce sera au tour des abonnements Pro d’ici deux semaines.

La fonction elle-même n’a pas changé et se veut toujours tournée vers le travail d’équipe. Facultative, la fonction est censée retenir des paramètres importants et apprendre du contexte professionnel, particulièrement dans la gestion de projets. Claude crée des « souvenirs » spécifiques à chaque projet et doit permettre des gains de temps, les personnes concernées n’ayant a priori plus besoin de repréciser le contexte de leurs demandes.

  •  

☕️ Liquid Glass : Apple ralentit sur la transparence dans ses dernières bêtas

La sortie de Liquid Glass n’est pas passée inaperçue. La nouvelle interface d’Apple, unifiée et mettant largement l’accent sur l’effet verre et sa transparence, a provoqué bien des remous, de nombreuses discussions opposant ses fans à ses détracteurs.

Parmi les critiques, la plus courante est la baisse de lisibilité, qui entraine chez une partie de la clientèle des soucis d’accessibilité. C’est particulièrement vrai quand les systèmes affichent des textes blancs sur un panneau de verre et que l’arrière-plan est à dominante claire.

Ces retours étaient déjà nombreux pendant la phase bêta d’iOS 26 et macOS Tahoe. Apple a avancé par tâtonnement, mais a finalement laissé la transparence opérer à quasi plein régime dans les versions finales. Pourtant, dans les dernières bêtas 26.1 des systèmes, une option a fait son apparition. « Un rétropédalage annoncé », pour nos confrères d’iGen.

Ainsi, dans iOS 26.1, la section « Luminosité et affichage » gagne une nouvelle rubrique : Liquid Glass. Dans macOS 26.1, elle réside dans « Apparence », au sein des Réglages. Elle permet d’influer sur un seul paramètre : l’apparence des contrôles. On peut désormais choisir entre « Transparent » et « Teinté », le second réduisant fortement la transparence, que l’on soit en thème clair ou sombre.

Comme on peut le constater rapidement, la différence est marquée et les informations sont beaucoup plus lisibles. Le réglage rejaillit sur tous les contrôles ayant un « fond » : notifications, onglets, barres de contrôle et ainsi de suite. En revanche, le réglage ne change pas (encore ?) l’affichage du centre de contrôle.

  •  

☕️ La Fédération française de tir victime d’un incident de cybersécurité

La Fédération française de tir a alerté jeudi soir une partie de ses licenciés au sujet d’un incident de sécurité, constaté au niveau d’ITAC, l’application distribuée sous forme d’intranet qui permet aux clubs de gérer leurs adhérents, leurs licences, leurs pièces médicales et leur inscription aux championnats.

« Le 20 octobre 2025, la Fédération Française de Tir a détecté une intrusion non-autorisée sur son système d’information ITAC. Cette intrusion a eu lieu entre le 18 octobre et le 20 octobre 2025 », indique la FFTir dans un message également adressé par mail aux membres concernés des clubs.

La fédération indique avoir déconnecté le service ITAC ainsi que son pendant EDEN, dédié à la gestion des licences FFTir par les tireurs, dès que l’incident a été porté à sa connaissance.

« Nous avons également prévenu l’ensemble des autorités compétentes, notamment l’ANSSI et la CNIL, et avons déposé plainte. Accompagnés d’experts, nous avons enquêté au cours des derniers jours afin d’identifier l’origine de l’incident. Les investigations ont permis de corriger la situation ».

Capture d’écran de la page de connexion ITAC, qui mentionne l’incident

L’intrusion a cependant exposé des données personnelles. Il s’agit du numéro de licence, de l’état civil, de l’adresse postale, de l’adresse mail et du numéro de téléphone renseignés, précise la FFTir, qui invite ses adhérents à la vigilance face aux éventuelles prises de contact suspectes.

« Aucune donnée médicale ni aucune coordonnée bancaire n’est concernée », rassure-t-elle, soulignant par ailleurs ne détenir aucune information relative à la détention d’armes chez les pratiquants de la discipline.

Coupé pendant plusieurs heures, l’accès au service ITAC a été rétabli, et les licenciés sont invités à réinitialiser leur mot de passe pour s’y connecter.

En juin 2025, la FFTir expliquait avoir décidé de changer de prestataire pour le développement et la maintenance de ses outils ITAC et EDEN, et confié le projet de réécriture des applications à la société AxioCode.

Début 2025, de nombreuses fédérations sportives françaises avaient été victimes de fuites de données suite à la compromission d’un outil développé par un tiers et dédié à la gestion des licenciés.

  •  

☕️ Airbus, Leonardo et Thales s’unissent pour créer un géant européen des satellites

Dans un communiqué publié ce jeudi 23 octobre, Airbus, Leonardo et Thales expliquent qu’elles vont regrouper « leurs activités de production de satellites et les services associés ». Pour l’instant sans appellation officielle, ce projet a pour nom de code « Bromo », explique Le Figaro.

Les trois entreprises annoncent que cette nouvelle entité « regroupera environ 25 000 personnes à travers l’Europe » et qu’elle concentrera des activités dont le chiffre d’affaires annuel a atteint 6,5 milliards d’euros en 2024.

Guerre satellite espace

Dans leur communiqué, les trois entreprises énoncent les activités qu’elles veulent, au terme de l’opération, rassembler :

  • « Airbus apportera sa contribution à travers ses activités Space Systems and Space Digital, issues d’Airbus Defence and Space.
  • Leonardo apportera sa Division Spatial, incluant ses participations dans Telespazio et Thales Alenia Space.
  • Thales contribuera principalement en apportant ses participations dans Thales Alenia Space, Telespazio et Thales SESO ».

Les actions de la nouvelle entité devraient se répartir presque équitablement entre les trois acteurs : 35 % pour Airbus, 32,5 % pour Leonardo et 32,5 % pour Thales.

Rappelons qu’Airbus est aussi issu d’un rapprochement effectué en 2000 entre plusieurs entreprises européennes, nommée EADS à l’époque et rebaptisée en 2013.

Le ministre français de l’Économie, Roland Lescure, salue une « excellente nouvelle » sur son compte Bluesky.

Les trois entreprises espèrent voir le projet se concrétiser en 2027, après avoir passé les autorisations réglementaires et avoir consulté leurs représentants du personnel, conformément aux législations en vigueur. Selon Le Monde, la nouvelle entreprise devrait avoir son siège à Toulouse.

Pour le syndicat FO-Métaux, « ce rapprochement entre Thales, Airbus et Leonardo ouvre la voie à un nouvel équilibre industriel, à condition qu’il reste guidé par deux impératifs : la souveraineté européenne et la préservation des savoir-faire français ». Mais la CGT Métallurgie affirme que « la vraie raison du projet Bromo est de créer un monopole permettant d’imposer ses prix et d’affaiblir le pouvoir des agences (CNES, ESA), d’augmenter les marges et les bénéfices pour les actionnaires, au détriment de l’intérêt des citoyens, de la gouvernance publique du secteur et de l’emploi » [PDF].

  •  

50G-PON : la fibre à 50 Gb/s sort (encore) des laboratoires d’Orange

C’est le PON PON
50G-PON : la fibre à 50 Gb/s sort (encore) des laboratoires d’Orange

Il y a deux ans, lors de ses Open Tech Days, Orange proposait une démonstration de la fibre optique (FTTH) avec un débit maximum théorique de 50 Gb/s. Cette technologie est sortie des laboratoires pour une démonstration dans des conditions réelles. C’était déjà le cas l’année dernière, avec un client résidentiel flashé à plus de 41 Gb/s.

Nous avons déjà longuement expliqué ce qu’étaient le PON (Passive Optical Network) et surtout la version déployée pour la première génération de fibre optique en France : le G-PON. Le G signifie simplement Gigabyte (jusqu’à 2,5 Gb/s en débit descendant).

Orange passe de 10 à 50 Gb/s, le 25 Gb/s laissé de côté

Le passage au 10 Gb/s est arrivé avec le 10G-EPON chez Free et le XGS-PON chez les autres fournisseurs d’accès à Internet (X pour 10 et S pour Symétrique). Orange nous avait déjà prévenu qu’il comptait sauter le 25 Gb/s : « c’est quelque chose qui est développé par Nokia, mais on ne le fera pas ». Le FAI nous confirmait ainsi qu’il passerait directement au 50G-PON, qui serait alors « la troisième génération de PON d’Orange ».

« Après deux gigabits par seconde (G-PON), puis 8 gigabits par seconde (XGS-PON), 40 Gigabits par seconde (50G-PON) sera le standard de demain des systèmes de transmission des réseaux d’accès fibre (FTTH) », affirme Orange dans un communiqué.

Un changement de carte réseau et de box suffit

Afin de démontrer le fonctionnement de sa technologie, le FAI avait organisé cette semaine « un test de performance réalisé par deux joueurs, Crimson à Lyon et Kayane à Marseille ». En quoi consistait-il ? Une partie de 2XKO… pas sûr que ce soit la meilleure manière de tester un débit.

La fibre utilisée pour connecter les deux joueurs n’avait rien de particulier, c’était celle déjà déployée par les opérateurs, quels qu’ils soient ; pas besoin de la changer. Orange précise qu’un « simple changement de carte réseau dans l’équipement situé dans les centraux optiques permettra à Orange de connecter un client fibre au 50G-PON ».

Comme prévu, les trois technologies co-existent sur une même fibre : selon le client (et sa carte réseau), la box peut recevoir du G-PON, du XGS-PON et/ou du 50G-PON. Techniquement, rien n’empêcherait en effet d’avoir les trois technologies à la fois.

G-PON, XGS-PON et 50G-PON passent dans la même fibre

Orange propose une explication du fonctionnement des trois technologies en parallèle : « Au central, la carte réseau intégrera un module optique Multi-PON-Module (MPM) qui inclut les trois technologies photoniques PON. Chez le client, la box sera équipée de la technologie PON adéquate en relation avec l’offre de service souscrite ».

Ce fonctionnement est rendu possible par l’utilisation, pour chaque technologie, de fréquences différentes qui ne se chevauchent pas. « Particulièrement soutenue par Orange, la triple coexistence de trois technologies PON sur la même infrastructure fibre a été rendue possible au standard ITU-T par la spécification d’un spectre optique (longueur d’onde) pour permettre cette triple coexistence. C’est l’option « US3 » du spectre », se vantait l’opérateur l’année dernière.

L’enjeu de la température

Comme on peut le voir, les bandes pour le 50G-PON sont relativement étroites comparées à celles des deux autres technologies, ce qui implique que le laser passant dans la fibre ne bouge pas de sa longueur d’onde, pour ne pas déborder sur G-PON ni sur XGS-PON.

Le laser doit donc rester à une température stable car « un laser qui varie en température est un laser dont la longueur d’onde varie », nous expliquait Orange.

Pour la société, la solution n’était pas bien compliquée : « on va devoir réguler [la température] dans la box […] On peut le faire. Ça coûte un peu plus cher, mais c’est quelque chose qu’on saura faire ». La consommation électrique augmentera fatalement, « mais pas extrêmement plus » affirmait Orange, sans donner de chiffres précis.

Répartition des technologies PON suivant les fréquences (US correspond à up-stream et DS à down-stream).

Une première en France ? Pas si vite…

Il est amusant de voir Orange affirmer qu’il « s’agit d’une première en France, qui fait suite aux expérimentations menées en laboratoire »… occultant complètement une expérimentation menée l’année dernière sur son propre réseau opérationnel en France métropolitaine :

« En février 2024 en Bretagne, lors d’un essai terrain, Orange a connecté un client résidentiel fibre à un équipement dédié 50G-PON sur une infrastructure FTTH opérationnelle à laquelle d’autres clients commerciaux sont aussi connectés en G-PON et XGS-PON. Un trafic Ethernet de plus de 41 Gbit/s [soit plus de 5 Go/s, ndlr] a été mesuré sur le lien du client connecté au 50G-PON, tout en maintenant la qualité des connexions des autres clients ».

Le déploiement n’est pas pour tout de suite : « Dans le futur, [les systèmes 50G-PON] permettront d’augmenter la capacité des réseaux pour des usages avancés des entreprises, notamment celles qui ont des sites de grande taille, puis pour des usages résidentiels, quand les besoins seront avérés ».

L’année dernière, le discours était déjà le même : « La triple coexistence du G-PON, XGS-PON et 50G-PON sera possible dès que les premiers besoins de déploiement à 50 Gbit/s seront nécessaires ». Orange avait, pour rappel, trainé des pieds avant de proposer du 10 Gb/s à ses clients, faute d’un réel besoin, se justifiait l’opérateur.

  •  

☕️ En Irlande, un deepfake politique sème la zizanie dans la campagne présidentielle 


La campagne présidentielle irlandaise est perturbée par la diffusion d’une fausse vidéo de la candidate Catherine Connolly.


Générée par IA, le deepfake laisse croire que la candidate a déclaré le « retrait de sa candidature ».

Outre l’image de la politicienne, le deepfake manipule aussi celle de deux journalistes : la vidéo complète montre un faux extrait de journal télévisé de la chaine publique RTÉ, où la présentatrice Sharon Ní Bheoláin et le correspondant politique Paul Cunningham annonceraient puis commenteraient le faux abandon de candidature. 


La vidéo aurait circulé pendant une douzaine d’heures avant d’être modérée sur les plateformes de Meta et sur YouTube, selon The Irish Times. D’autres deepfakes politiques circuleraient en ligne, attaquant Connolly ou suggérant que les votes sont truqués. 


Catherine Connolly a, de son côté, nié tout arrêt de sa campagne.

Les Irlandais sont appelés aux urnes ce vendredi. Ils devront choisir entre Catherine Connolly, sans étiquette mais soutenue par plusieurs partis de gauche, et Heather Humphreys, membre du Fine Gael et de l’actuel gouvernement de centre-droit.

  •  

Municipales : une dizaine d’associations proposent 10 mesures de « désescalade numérique »

Gâchis partout, sobriété nulle part
Municipales : une dizaine d’associations proposent 10 mesures de « désescalade numérique »

Aux côtés de l’ingénieur Philippe Bihouix, de la journaliste Célia Izoard ou du neuropsychiatre Boris Cyrulnik, des associations, des coopératives et divers spécialistes des enjeux de sobriété numérique appellent les candidats aux municipales 2026 à se positionner en faveur d’une « désescalade numérique ».

« Depuis 20 ans, à rebours de toutes les promesses qui accompagnent la numérisation, le recours massif à internet, au smartphone et aux réseaux sociaux accélère l’effondrement du lien social (…). Et si les municipalités devenaient les premiers lieux de résistance à l’escalade numérique ?» 

Alors que des centaines (désormais des milliers) de personnalités signent un nouvel appel international à « interdire le développement de la superintelligence », sans développer les manières de s’y prendre, une trentaine d’autres appellent, en France, à la « désescalade numérique ».

Ciblant explicitement les élections municipales qui doivent se tenir en mars 2026, le projet propose dix jeux de mesures concrètes, décrites comme « de prudence, d’économie et de santé publique pour limiter l’emprise numérique (…) dans un esprit d’urgence écologique et de justice sociale ».

Collectif de défenseurs de la sobriété numérique

Parmi les signataires, de nombreux promoteurs d’une approche sobre du numérique. Ainsi de l’ingénieur Philippe Bihouix, auteur de L’âge des Low tech (Seuil, 2014) ou du Bonheur était pour demain (Seuil, 2019), qui détaillait en juin dans notre podcast comment l’industrie numérique alimentait la consommation globale de ressources, ou de la journaliste Célia Izoard, autrice du remarqué La Ruée minière au XXIe siècle (Seuil, Coup de cœur du jury du Prix du livre d’écologie politique 2024).

À leurs côtés, le neuropsychiatre Boris Cyrulnik, le chercheur Fabien Lebrun, auteur de Barbarie Numérique (L’Échappée, 2024), divers spécialistes de la sobriété numérique, et une dizaine de structures. L’appel est ainsi signé de coopératives comme Telecoop, Noesya ou Commown, et d’associations comme Point de M.I.R, qui milite pour une décroissance numérique, du réseau Changer de Cap, qui travaille à la défense des services publics et l’accès aux droits sociaux, ou encore de Génération Lumière, qui sensibilise sur les effets concrets de l’extraction de ressources nécessaires aux équipements numériques en République démocratique du Congo.

Sortir des GAFAM, de la vidéosurveillance, et limiter l’IA

Parmi les dix propositions détaillées et sourcées sur le site Désescalade numérique, celle de sécuriser les services essentiels « hors réseau », de manière à rester autonome en cas de coupure de courant similaire à celle qui a frappé la péninsule ibérique en avril 2025, le bannissement des écrans publicitaires de l’espace public et des transports en commun, ou encore la lutte contre « l’airbnbisation de l’habitat ».

Le projet de désescalade numérique appelle par ailleurs les municipalités à se défaire de leur dépendance aux GAFAM, en passant au logiciel libre, sur le modèle de ce qui est en cours à Lyon ou déjà réalisé à Échirolles ; en cessant la distribution de smartphones ou de tablettes aux élu·es, sauf besoin spécifiques ; ou encore en modifiant leurs canaux de diffusion pour informer le public, en se tournant vers le journal municipal, des newsletters, ou des réseaux sociaux décentralisés comme Mastodon ou Mobilizon.

L’appel dédie un point complet à la sécurité, soulignant que le budget des municipalités consacré à la vidéosurveillance croit depuis vingt ans, pour une contribution très limitée à l’élucidation d’enquêtes. Et d’enjoindre les candidats à préférer recourir à des médiateurs de quartier, à créer des Maisons de jeunes et de la culture, ou encore à mettre à disposition des espaces favorisant l’entraide, plutôt qu’à des solutions technologiques à l’efficacité contestée.

L’intelligence artificielle est aussi abordée, en opposition à l’emploi. « Pour contribuer à la création de métiers pérennes et utiles sur leurs territoires, les municipalités peuvent favoriser la création de filières techniques dans les métiers qui manquent cruellement aujourd’hui : la réparation, le réemploi, la conception d’objets simples et réparables ou encore la restauration du bâti ancien », écrivent les signataires.

Outre proposer une alternative à la dynamique selon laquelle « de plus en plus d’emplois sont vidés de leur sens ou supprimés par le recours des entreprises à l’intelligence artificielle et aux objets connectés », ce type de décision est présenté comme une manière de lutter contre la « croissance préoccupante des flux de déchets électroniques ».

  •  

☕️ AlmaLinux 10.1 réintroduit le support de Btrfs

AlmaLinux est une distribution basée sur le code source de CentOS Stream, le même dont est issue la Red Hat Enterprise Linux, dont AlmaLinux se réclame compatible. La distribution est donc suivie de près pour des installations sur des serveurs. Elle est développée et gouvernée par la communauté, Red Hat n’intervenant pas.

Dans la bêta de la version 10.1 lancée ce 21 octobre, AlmaLinux réintroduit le support du système de fichiers Btrfs. Ce n’est pas rien, car Red Hat en avait supprimé le support il y a presque dix ans dans son RHEL 6.8. or, ce système de fichiers apporte de nombreuses fonctions qui ont les préférences d’une partie des utilisateurs.

Comme nous l’avions indiqué dans notre dossier à l’époque, Btrfs propose nombre de capacités considérées comme avancées : copie sur écriture (copy-on-write), compression transparente, gestion des volumes intégrée, création et restauration de snapshots (instantanés), les sommes de contrôle (checksums) pour les données et métadonnées, etc.

Crédits : AlmaLinux

Le support de Btrfs dans AlmaLinux peut être activé à l’installation en passant par le mode personnalisé lors du partitionnement, choisissant cette option plutôt que XFS-LVM. Dans le billet de blog de l’annonce, le développeur Davide Cavalca prévient cependant que cette prise en charge n’est pas encore complète :

« La prise en charge de Btrfs englobe à la fois l’activation du noyau et de l’espace utilisateur, et il est maintenant possible d’installer le système d’exploitation AlmaLinux avec un système de fichiers Btrfs dès le début. L’activation initiale a été limitée à l’installateur et à la pile de gestion du stockage, et une prise en charge plus large des fonctionnalités Btrfs au sein de la collection de logiciels AlmaLinux est à venir »

Pour le reste, AlmaLinux 10.1 fournit des améliorations de performances, de nouvelles versions de nombreux paquets (surtout ceux liés au développement) ou encore une sécurité accrue, grâce notamment à des règles mises à jour pour SELinux.

  •  

DMA : Apple intensifie son offensive en déposant plainte contre l’Union européenne

DMA : Apple intensifie son offensive en déposant plainte contre l’Union européenne

La détestation profonde d’Apple pour le Digital Markets Act s’est changée en plainte officielle. L’entreprise américaine attaque l’Union européenne pour un texte qui ne peut aboutir, selon elle, qu’à une réduction de la sécurité pour la clientèle du Vieux Continent, entre autres.

Apple a déposé plainte contre l’Union européenne devant sa propre Cour de justice (CJUE) au Luxembourg.

Une plainte sur trois piliers

Dans sa plainte, Apple mentionne les trois points sur lesquels elle attaque l’Union.

Son grief principal concerne l’ouverture forcée de certaines technologies au seul bénéfice de sociétés tierces, rapporte Bloomberg, notamment tout ce qui touche aux écouteurs et montres connectées, comme la bascule automatique des appareils en fonction de ce qui est utilisé. Si les demandes de la Commission européenne peuvent paraître raisonnables, il n’en serait rien pour Apple, pour qui ces exigences n’aboutiront qu’à une baisse générale de la sécurité et de la protection de la vie privée.

L’entreprise est vent debout contre ces demandes, comme elle le faisait savoir en juin dernier. En décembre 2024, Apple accusait déjà Meta d’abuser du DMA avec de multiples demandes d’interopérabilité, dont la finalité n’était (selon Cupertino) que la collecte d’un plus grand nombre de données personnelles.

Meta aurait ainsi instrumentalisé le DMA pour obtenir autant d’informations que possible. Si Apple avait accepté, la société de Mark Zuckerberg aurait été en capacité « de lire sur l’appareil d’un utilisateur tous ses messages et courriels, de voir tous les appels téléphoniques qu’il passe ou reçoit, de suivre toutes les applications qu’il utilise, de scanner toutes ses photos, de regarder ses fichiers et les événements de son calendrier, d’enregistrer tous ses mots de passe, et bien plus encore », fustigeait Apple.

Sans surprise, le deuxième pilier de la plainte concerne l’App Store. Pour Apple, il ne devrait pas être considéré comme un service unique et donc ne pas être concerné par le DMA. Dans le viseur d’Apple bien sûr, son obligation de permettre aux boutiques tierces de s’installer, ainsi que d’autres exigences comme la liberté de choisir son prestataire de paiement. Une fêlure dans le juteux modèle commercial de l’entreprise, qui touche une commission allant de 30 % sur tous les achats, pouvant tomber à 15 % pour les abonnements quand ils entrent dans leur deuxième année.

Enfin, Apple conteste la tentative de la Commission d’enquêter sur son service iMessage, puisque ce dernier ne génère aucun revenu pour l’entreprise.

Visions contraires

Daniel Beard, l’un des avocats d’Apple, a indiqué devant le tribunal que le DMA « impose des charges extrêmement lourdes et intrusives » aux entreprises, tout particulièrement Apple qui semble plus visée que les autres. Ces obligations « ignorent la protection des droits de propriété et les questions de confidentialité et de sécurité, qui sont vitales pour les citoyens de l’Union européenne », a ajouté l’avocat.

Paul-John Loewenthal, l’un des avocats de la Commission européenne, estime au contraire qu’Apple a un « contrôle absolu » sur l’iPhone, lui ayant permis de générer « des bénéfices anormalement élevés sur des marchés complémentaires où ses concurrents sont handicapés et ne peuvent pas rivaliser avec lui sur un pied d’égalité ».

« Seul Apple a les clés de ce jardin clos. Elle décide qui les obtient et qui peut offrir ses produits et services aux utilisateurs d’iPhone. Et grâce à ce contrôle, Apple a verrouillé plus d’un tiers des utilisateurs européens de smartphones », a ajouté l’avocat européen.

Le point d’orgue d’une longue détestation

La plainte d’Apple est peu surprenante. La firme américaine a déjà eu de nombreuses occasions de dire tout le mal qu’elle pensait de la réglementation européenne.

Fin septembre, elle torpillait ainsi le DMA pour ses complexités, son manque d’homogénéité dans son application au sein des États membres ou encore les lourdeurs que le règlement entrainait. Le pamphlet d’Apple était autant dirigé contre les politiques de Bruxelles que pour les utilisateurs, avec un message simple : si des fonctions ont du retard en Europe, c’est à cause du DMA, et les citoyens européens vont pâtir d’un retard technologique, notamment tout ce qui touche à l’IA.

En clair, le DMA n’est pas bon pour les affaires et complique tout. Quelques jours plus tard, la Commission répondait par la voix de son porte-parole Thomas Regnier, qui n’avait alors pas masqué son agacement : « Apple a toujours contesté la moindre phrase du DMA depuis son entrée en vigueur. […] Nous nous inquiétons grandement de la conformité d’Apple aux dispositions de cette législation. […] Nous avons facilité la conformité avec la législation pour Apple et nous l’avons aidée à faciliter l’interopérabilité. Au bout de deux mois, Apple nous demande de revenir sur toutes les dispositions prises. Nous comprenons bien les choses : les entreprises veulent défendre à tout prix leurs profits ».

On se souvient également de la grande charge portée contre le DMA en mars 2024. Dans un livre blanc, l’entreprise tentait de prouver par A + B que le DMA allait entrainer une baisse de la sécurité sur les iPhone européens. Les boutiques tierces allaient notamment provoquer une apocalypse en laissant entrer des malwares de tous les côtés. Apple était allée jusqu’à déclarer que ses smartphones seraient moins sécurisés en Europe, mais que même en tenant compte de cet impact, ils resteraient les téléphones les plus sécurisés du marché.

  •  

☕️ Apple enlève l’application controversée Tea de l’App Store

Apple indique avoir enlevé deux applications controversées, Tea et TeaOnHer, de son App Store, après plusieurs mois de controverses.

Le projet affiché : permettre aux femmes hétérosexuelles de faire des rencontres « en toute sécurité », en s’échangeant des informations sur les hommes qu’elles ont rencontrés ou s’apprêtent à rencontrer.

Outre l’irritation qu’elle a pu provoquer chez des hommes peu enclins à se voir accolés des « red flags » (drapeaux rouges, signe de danger) ou des « green flags » (drapeaux verts), l’application a été victime en juillet dernier d’un double piratage, dans lequel 72 000 images d’utilisatrices et des messages privés ont fuité.

L’application et son projet rival, TeaOnHer, créé a posteriori pour permettre aux hommes d’avoir le même type de service, ont finalement été bannis de l’App Store ce 21 octobre.

À TechCrunch, Apple indique que les deux services ne respectent pas ses conditions de protection de la vie privée ni celles de modération. Les deux applications sont toujours disponibles sur le Play Store de Google.

Tea a été téléchargée 6,1 millions de fois depuis sa création en 2023, et aurait généré 5 millions de dollars de chiffre d’affaires sur la période. TeaOnHer a été téléchargée 2,2 millions de fois.

  •  

☕️ Elon Musk défend sa rémunération à 1 000 milliards de dollars sur dix ans

Elon Musk compte bien défendre son statut d’homme le plus riche du monde.

Alors que les ventes de Tesla ont tout juste repris cet été, après des mois de descentes concomitantes à l’engagement politique de leur patron, les résultats opérationnels ont chuté de 40 %, impactés aussi par l’augmentation des investissements dans l’intelligence artificielle et des dépenses de fonctionnement.

Dans ce contexte, deux agences en vue, le cabinet ISS et l’agence Glass Lewis, critiquent le plan de rémunération d’Elon Musk. Le premier pointe l’absence de clauses contraignantes, ce qui laisserait au milliardaire le loisir de se tourner vers ses autres projets (xAI, SpaceX, Neuralink, etc.) si ses objectifs devenaient réellement inatteignables. La seconde juge que le projet de rémunération diluerait à l’excès les parts des autres actionnaires.

En effet, le projet qui doit être voté le 6 novembre prochain permettrait à l’homme d’affaires d’atteindre 25 % des parts du capital en récupérant 1 % supplémentaire chaque année.

Pour ce faire, il devrait atteindre des objectifs invraisemblablement élevés, en faisant passer la valorisation de Tesla de 1 400 milliards de dollars aujourd’hui à 8 500 milliards de dollars en 2035.

L’entreprise caracole déjà parmi les dix plus grosses capitalisations mondiales, rappelle Les Échos.

En pleine présentation des résultats du troisième trimestre de Tesla, Elon Musk a donc défendu sa rémunération de 1 000 milliards de dollars sur dix ans, se déclarant « pas à l’aise de construire une armée de robots et d’être mis dehors à cause de recommandations stupides ».

Elon Musk aura en effet pour mission de multiplier par dix les ventes de véhicules Tesla, pour passer de 1,6 million en 2024 à 12 millions en 2034, et déployer un million de robotaxis et un autre million de robots humanoïdes pour diversifier les sources de revenus.

  •  

Free Mobile abandonne officiellement sa 3G

Elle va rejoindre sa 2G au cimetière
Free Mobile abandonne officiellement sa 3G

C’est la fin de la 3G chez Free Mobile. Les clients qui sont encore sur cette technologie en voie d’extinction passeront uniquement par de l’itinérance sur le réseau d’Orange, avec donc un débit de 384 kb/s maximum. L’annonce intervient alors que l’Arcep vient tout juste de valider la prolongation de l’itinérance, au grand dam de Bouygues Telecom.

Free a le sens du timing. La semaine dernière, l’Arcep validait la prolongation jusqu’à fin 2028 de son contrat d’itinérance avec Orange sur la 2G et la 3G. Comme nous l’expliquions alors (en analysant les retours), Bouygues Telecom dénonçait un « avantage concurrentiel » pour Free Mobile. L’itinérance ne devrait « pas avoir pour objet de permettre à un opérateur d’éteindre son réseau en propre au moins trois ans avant ses concurrents », expliquait Bouygues Telecom.

Fin de la 3G en propre chez Free Mobile

La crainte de Bouygues Telecom vient de se réaliser : Free Mobile a mis à jour sa fiche d’information standardisée.

Jusqu’à présent il était indiqué : « service accessible sur le réseau Free Mobile en 3G/3G+ dans les bandes de fréquences 900 MHz et 2100 MHz, en itinérance 2G/3G sur tout ou une partie du réseau d’un opérateur historique partenaire ».

Désormais, il est précisé : « Service accessible en itinérance 2G/3G sur le réseau de l’opérateur historique partenaire ». Plus aucune mention d’un réseau Free Mobile en propre.

Autre changement : les débits. Auparavant le débit maximum en réception en 3G était de 21 Mb/s ou 384 kbit/s en itinérance sur le réseau Orange, désormais les 21 Mb/s ont disparu pour laisser place uniquement aux 384 kb/s en itinérance, sur le réseau d’Orange donc.

Réutiliser les fréquences de la 3G pour améliorer débits et couverture de la 4G

Dans un email envoyé à ses clients, Free Mobile annonce une « amélioration du réseau 4G et [une] évolution du réseau 3G ». L’évolution dont il est question est funeste, comme nous venons de le voir. Mais cette « évolution » permet de récupérer des fréquences dans les 900 et 2100 MHz, deux bandes utilisées par Free Mobile pour la 4G. Les fréquences sont pour rappel neutres technologiquement, les opérateurs peuvent donc y déployer les technologies qu’ils veulent.

« À compter du 15 décembre 2025, une partie des fréquences utilisées pour la 3G de Free Mobile sera affectée au réseau 4G pour permettre d’améliorer les débits et d’élargir la couverture en 4G », ajoute Free Mobile.

Dans ses retours à l’Arcep, Bouygues Telecom tirait à boulet rouge sur cette prolongation, la quatrième du genre depuis la signature du contrat en 2011 (Bouygues était opposé à toutes les prolongations). Dans sa dernière missive, l’opérateur parlait d’« un avantage que ses concurrents, dont Bouygues Telecom, ne seront pas en mesure de répliquer car tenus de maintenir l’exploitation d’un réseau 3G en propre ». Bouygues Telecom prévoit d’éteindre sa 3G fin 2029.

Free avait déjà fait le coup avec la 2G

Ce n’est pas la première fois que Free Mobile modifie en profondeur son réseau quelques jours après une décision de l’Arcep validant un avenant à son contrat d’itinérance avec Orange. La fois précédente, c’était fin 2022, une année pendant laquelle l’opérateur a obtenu ses premières autorisations de déploiement de sites en 2G, puis a mis en service ses premières antennes… avant de fermer l’ensemble quelques mois plus tard.

Les mises en service de Free Mobile s’étaient déroulées en juin, soit quelques semaines seulement avant que Free et Orange transmettent un avenant (en juillet) pour prolonger leur contrat d’itinérance jusqu’au 31 décembre 2025. L’accord était validé par le régulateur des télécoms début décembre 2022 et, au 1ᵉʳ janvier 2023, plus aucun site 2G Free Mobile n’était en service.

Pour résumer, Free active des sites 2G avant de transmettre un avenant à son contrat, puis les ferme cinq mois plus tard dès que c’est validé. En 3G, rebelote : Free décide de fermer totalement son réseau juste après la validation par l’Arcep de la prolongation de l’accord d’itinérance jusqu’à l’extinction de la 3G.

Au dernier décompte, 5,9 millions de terminaux étaient encore sur les réseaux 2G et 3G. Chez Orange, la 2G va fermer progressivement à partir de mars 2026 (jusqu’à fin 2026), tandis que ce sera fin 2028 pour la 3G. Free n’avait pas communiqué sur la fin de la 3G, nous savons désormais que, comme pour la 2G, ça sera calé sur l’extinction d’Orange.

  •  

☕️ Meta supprime 600 postes dans sa division FAIR (Fundamental AI Research)

La nouvelle a été diffusée par Axios, qui dit avoir consulté une note interne. Dans cette dernière, Alexandr Wang, responsable de l’IA chez Meta, indique que la mesure vise avant tout à « réduire la bureaucratie ». Dans ses arguments, il assure ainsi que « moins de conversations seront nécessaires pour prendre une décision » et que « chaque personne sera plus porteuse et aura plus de portée et d’impact ».

Victimes de cette coupe, les 600 personnes concernées sont invitées à trouver d’autres postes au sein de Meta. « Il s’agit d’un groupe d’individus talentueux, et nous avons besoin de leurs compétences dans d’autres parties de l’entreprise », ajoute ainsi Alexandr Wang.

Comme le rappellent nos confrères, Mark Zuckerberg aurait estimé il y a plusieurs mois que les investissements dans l’IA ne conduisaient pas aux percées attendues. Ce qui aurait directement mené à la création des Superintelligence Labs et à une campagne d’embauches particulièrement coûteuse, Meta déboursant des milliards de dollars pour doter sa nouvelle structure. Alexandr Wang a justement été embauché pendant cette phase, en juillet au moment du rachat de 49 % des parts de Scale AI, que Wang avait fondée. Depuis cependant, l’entreprise semble avoir du mal à garder une partie de cette équipe constituée à grands frais.

La journaliste Ina Friend, de chez Axios, s’est fait le relai de nombreuses déclarations sur X autour de ces 600 suppressions de postes. Des entreprises comme Adobe, Arcee et Ai2 ont immédiatement réagi pour indiquer qu’elles embauchaient et étaient donc prêtes à accueillir les spécialistes intéressés. Mariya I. Vasileva, chercheuse aux Superintelligence Labs de Meta, indique être concernée et se déclare disponible. Même chose pour une autre chercheuse, Mimansa Jaiswai.

  •  

Amazon US estime que les robots lui éviteront 600 000 embauches d’ici 2033

I, Cobot
Amazon US estime que les robots lui éviteront 600 000 embauches d’ici 2033

Plus de robots, moins d’employés. D’après une enquête du New York Times, le géant du e-commerce estime que le déploiement de solutions d’automatisation robotisée au sein de ses infrastructures logistiques va lui permettre de doubler ses capacités d’ici 2033, tout en évitant l’embauche de quelque 600 000 employés humains.

S’il est encore difficile d’établir un consensus quant à l’impact réel qu’aura l’intelligence artificielle générative sur le monde du travail et les besoins en recrutement des entreprises, Amazon semble avoir des idées bien arrêtées sur le potentiel que revêt la robotique appliquée aux opérations logistiques. Le géant du e-commerce, qui comptait pour mémoire près de 1,2 million d’employés aux États-Unis fin 2024 (pdf), travaille en effet déjà au déploiement de solutions automatisées dans certains de ses entrepôts. Sur la base des résultats déjà mesurés, il prévoit d’accélérer la cadence pour accompagner le doublement programmé de ses activités (en volume de colis traités) d’ici 2033.

La robotique automatisée lui permettrait dans ce contexte d’éviter 600 000 nouvelles embauches. C’est le New York Times qui a révélé cette information mardi, dans une longue enquête basée sur des documents internes à l’entreprise. Les feuilles de route en question montreraient qu’Amazon a comme objectif ultime d’automatiser 75 % des opérations réalisées dans ses entrepôts. Une vision cible qui contraste avec le discours actuel de l’entreprise, centré sur les bénéfices économiques et sociaux que sont censés apporter ses implantations d’entrepôts aux territoires qui les accueillent, notamment les plus ruraux…

Une vision qui s’incarne déjà dans certains entrepôts pilotes

Amazon dispose déjà, dans son immense parc logistique, d’un centre de distribution particulièrement avancé en matière d’automatisation. Situé à Shreveport, en Louisiane, il a été officiellement présenté par Amazon fin 2024, qui promettait d’y employer à terme 2 500 personnes, pour opérer une flotte de milliers de robots capables de traiter un stock de 30 millions d’articles, répartis sur cinq étages et 280 000 m². Dans le discours d’Amazon, l’avènement du système d’orchestration dédié au ballet de ces milliers de chariots, bras et mécanismes d’emballage automatisés devait se traduire par une augmentation du nombre d’emplois humains.

« Alors que nous déployons cette nouvelle génération de robotique à travers notre réseau, nous nous attendons à ce que nos effectifs continuent de croître et nous sommes ravis de voir comment cette technologie contribue également à créer davantage d’opportunités d’emplois qualifiés. En effet, nos centres de distribution et sites de prochaine génération avec une robotique avancée nécessiteront 30 % de plus de salariés occupant des postes liés à la sûreté, à la maintenance et à l’ingénierie. »

Le déploiement à grande échelle des technologies mises en œuvre à Shreveport semble toutefois donner lieu à des prévisions différentes en interne, si l’on en croit le New York Times. L’équipe en charge de la robotique chez Amazon (environ 3 000 personnes) aurait ainsi écrit dans une note interne que ces avancées allaient permettre de lisser la courbe des recrutements d’Amazon sur les dix prochaines années. Autrement dit, le doublement programmé de l’activité pourrait se faire avec une réduction progressive de nouveaux postes créés.

Corollaire : la robotique permettrait de réduire la force de travail humaine dans les centres de distribution existants. Une note interne estimerait ainsi que le centre de Stone Mountain, situé près d’Atlanta, pourrait ainsi traiter jusqu’à 10 % d’articles en plus de son rythme de distribution actuel, en passant de 4 000 à 1 200 collaborateurs, soit une augmentation de l’ordre de 75 % du niveau d’automatisation du site.

Attrition et acceptation

Pour ce faire, Amazon n’aurait pas forcément besoin d’engager un plan social : il suffirait de laisser l’attrition naturelle rogner ses effectifs au fur et à mesure que l’entrepôt engage son rétrofit. À Stone Mountain, les embauches seraient déjà ralenties, si ce n’est gelées, remarque le New York Times. Un constat corroboré par le témoignage d’un demandeur d’emploi local dont la candidature a finalement été abandonnée par l’entreprise avant que le processus de recrutement ne soit bouclé.

À plus grande échelle, l’entreprise plancherait de ce fait sur les aspects collatéraux de cette automatisation au long cours. Parmi les pistes de réflexion figurent, toujours d’après les documents consultés par le New York Times, un travail sur l’image de l’entreprise auprès des communautés géographiques concernées par les possibles réductions d’effectifs, mais aussi une démarche visant à favoriser l’acceptation de l’automatisation, en choisissant par exemple de parler de « cobot » plutôt que de « robot », pour renforcer l’idée selon laquelle l’humain fait toujours partie du processus.

Amazon a de son côté répondu que les documents mentionnés par le NYT ne présentaient qu’une vision tronquée de la stratégie de l’entreprise et n’exprimaient que le point de vue d’une de ses divisions internes. De façon plus générale, le groupe défend publiquement l’idée selon laquelle les marges supplémentaires permises par l’automatisation sont mises au service de l’expansion de son réseau de distribution, avec la promesse d’un maillage plus fin du territoire des États-Unis et donc d’emplois locaux.

« Comment les centres de distribution d’Amazon transforment l’économie locale »

Hasard du calendrier (ou pas), Amazon a communiqué mardi 21 octobre les résultats d’une étude d’impact menée par le cabinet de conseil Oxford Economics. Basée sur l’examen de 55 comtés dans lesquels Amazon a créé au moins 1 000 emplois en un an, l’étude conclut que ces embauches se traduisent, cinq ans plus tard, par de réels bénéfices pour le territoire.

La présence et les recrutements d’Amazon conduiraient ainsi à une augmentation de 5 % du volume de créations d’entreprises, mais aussi une réduction de 0,37 % du chômage, une baisse de 0,48 % du recours à l’assistance Medicaid et une augmentation du salaire hebdomadaire moyen de 2,6 %.

  •  

☕️ Samsung dégaine son casque Galaxy XR à 1 799 euros, concurrent direct du Vision Pro

Les rumeurs filaient depuis le début de l’année et sont concrétisées : Samsung a un concurrent direct du Vision Pro d’Apple. Nommé Galaxy XR et vendu 1 799 dollars, soit environ la moitié du casque d’Apple dans sa dernière révision, il présente des caractéristiques semblables et veut récupérer la couronne de la réalité mixte.

La puce principale est ainsi un Snapdragon XR2+ Gen 2, épaulé par 16 Go de mémoire, tandis que le stockage est de 256 Go (sans options). Côté capteurs, on en trouve une tripotée, comme on pouvait s’y attendre : deux caméras haute résolution, six caméras de suivi vers l’extérieur, quatre caméras de suivi des yeux, un capteur de profondeur, un capteur de scintillement et cinq unités dédiées à la mesure inertielle. La reconnaissance de l’iris est présente, de même que deux haut-parleurs et le Wi-Fi 7 (le dernier Vision Pro reste au Wi-Fi 6). L’affichage est confié à deux écrans mini-OLED 4K de 90 Hz (120 Hz sur le dernier Vision Pro).

Côté autonomie, on est dans la même fourchette que le casque d’Apple : 2h30 environ, via une batterie externe reliée par un câble. On peut brancher le casque au secteur pour s’affranchir de cette limite. Le Galaxy XR est en revanche plus léger : 545 grammes, contre 600 à 650 pour le Vision Pro selon le modèle. Sur ce point, plusieurs médias l’ayant testé, dont The Verge, témoignent d’un confort supérieur au produit d’Apple, notamment grâce à un poids mieux réparti.

La partie logicielle est confiée à Android XR, une version dédiée du système de Google. Cette dernière s’était retenue de lancer des applications dédiées au Vision Pro : elles sont bien entendu présentes dans le Galaxy XR, dans une expérience générale qui rappelle beaucoup celle de visionOS. Même Netflix a dégainé une application pour Android XR, alors que la plateforme n’en a jamais publié pour le Vision Pro. Gemini est fortement intégré, avec la possibilité de poser des questions sur ce que l’on voit.

La question demeure : même à moitié-prix, le Galaxy XR sera-t-il un succès ? The Verge note qu’à ce tarif, le casque est moins cher qu’un Z Fold 7 (2 000 dollars dans sa version 256 Go), mais que le marché semble se tourner plus rapidement vers les lunettes connectées. En attendant, le Galaxy XR est disponible en Corée du Sud et aux États-Unis. Rien n’a été annoncé pour les autres marchés. Sur la page de commande, on note qu’à l’instar du Vision Pro, Samsung permet de commander des verres adaptés à sa vue.

  •  

☕️ Des centaines de personnalités appellent de nouveau à stopper la course à l’IA

Plus de 900 chercheurs, experts et représentants de la société civile, essentiellement états-unienne, signent un nouvel appel à moratoire sur l’IA.

Titré « Déclaration sur la superintelligence », ce dernier appelle à « l’interdiction du développement de la superintelligence, qui ne sera levée qu’après l’obtention d’un :
1/ large consensus scientifique sur la sécurité et le contrôle de cette technologie, ainsi que d’une
2/ forte adhésion du public. »

Parmi les signataires : le prix Turing Yoshua Bengio, le prix Nobel (de physique pour ses travaux en informatique) Geoffrey Hinton, l’informaticien Stuart Russell, le cofondateur d’Apple Steve Wozniak, l’entrepreneur Richard Branson, le rappeur Will.I.am ou encore l’ancien conseiller de Donald Trump Steve Bannon.

Il ne précise pas la manière dont l’adhésion du public serait évaluée, ni à qui il reviendrait d’interdire le développement de la recherche scientifique comme le développement commercial de l’IA.

Cet appel fait suite à une série d’autres, dont un signé en 2015 par plus de 700 personnes, une lettre ouverte sur une pause dans l’IA en 2023, peu de temps après l’arrivée des modèles génératifs dans l’espace public, suivie d’une troisième, en 2024, exhortant les dirigeants mondiaux à prendre des mesures urgentes face aux menaces existentielles.
 Un entrepreneur comme Elon Musk en a signé plusieurs avant de lancer sa propre société xAI.

Trois de ces quatre exemples ont été publiés par le Future of Life Institute (FLI), tandis que l’appel de 2024 a directement été proposé par l’informaticien Max Tegmark. Le FLI est une organisation non gouvernementale cofondée par les chercheurs Max Tegmark, Anthony Aguirre, et le cofondateur de Skype Jaan Tallin, et spécialisée dans l’étude des risques existentiels, notamment posés par l’intelligence artificielle. À son lancement, le FLI a largement été financé par Elon Musk.

En 2023, la publication de la précédente lettre ouverte avait suscité le débat, une chercheuse comme Margaret Mitchell déclarant au Guardian qu’ « en traitant comme acquises de nombreuses idées discutables, la lettre affirme un ensemble de priorités et un discours sur l’IA qui profite aux partisans de la FLI. Ignorer les dommages actuels est un privilège que certains d’entre nous n’ont pas. »

  •