Vue normale

Hier — 31 octobre 2024Next - Articles gratuits

Déploiement de la fibre : le Conseil d’État valide la sanction de 26 millions d’euros contre Orange

31 octobre 2024 à 15:57
Carton plein pour l’Arcep !
Déploiement de la fibre : le Conseil d’État valide la sanction de 26 millions d’euros contre Orange

En novembre dernier, Orange annonçait fièrement le lancement d’« une nouvelle dynamique dans la généralisation de la fibre optique à horizon 2025 ». Le régulateur lui répondait du tac au tac le lendemain avec une prune de 26 millions d’euros pour des engagements non tenus sur le déploiement de la fibre.

Des manquements d’une « particulière gravité »

En cause, « le non-respect de la première échéance de ses engagements de déploiement en fibre optique en zone AMII ». Pour l’Arcep, ce manquement « revêt une particulière gravité, en ce qu’il porte notamment atteinte à l’intérêt et à l’aménagement numérique des territoires, et l’intérêt des utilisateurs finals dans leur accès aux réseaux ».

Nous avons déjà longuement détaillé les griefs, rappelons seulement qu’Orange n’avait alors toujours pas atteint ses objectifs de 2020. Et la situation n’avait rien de nouveau, c’était presque devenu un running gag durant les conférences/présentations de l’Arcep auxquelles nous assistons. L’ambiance avant la sanction était du genre : « Oui, Orange est en retard, mais non il ne se passe rien ». Début novembre 2023, le couperet était enfin tombé.

Orange a en effet été condamné et, dans la foulée, l’opérateur annonçait saisir le Conseil d’État. Il estimait que l’amende « pourrait réduire d’autant le montant des investissements opérés dans le déploiement de la fibre, au détriment des foyers en attente de raccordement ». Mais il trouvait surtout que cette sanction était « totalement disproportionnée ».

Orange demande au Conseil d’État l’annulation

Orange demandait l’annulation de la décision de l’Arcep et, « à titre subsidiaire, de réformer le montant de cette sanction et le ramener à un montant d’au plus 15 millions d’euros », à la place des 26 millions prononcés. Orange souhaite aussi « mettre à la charge de l’État une somme de 5 000 euros au titre de l’article L. 761 - 1 du code de justice administrative ».

Passons directement à la décision finale, avant de revenir sur les motivations du Conseil d’état : « La requête de la société Orange est rejetée », sur l’ensemble des recours de l’opérateur. Dans sa décision, le Conseil d’État s’explique en détail.

Il rappelle tout d’abord que, « contrairement à ce qui est soutenu » par l’opérateur, ses engagements ne portaient pas « sur un nombre de logements et locaux professionnels estimé sur la base d’évaluations ou de prévisions mais sur la couverture de l’ensemble des logements et locaux professionnels existants dans des communes déterminées, dont elle a donné la liste ».

Pour le Conseil d’État, les informations étaient suffisamment claires, « de sorte qu’il apparaisse, de façon raisonnablement prévisible, que leur méconnaissance était susceptible d’être sanctionnée ». Il rappelle aussi que 543 000 logements et locaux professionnels – partie des 12,868 millions sur lesquels Orange s’était engagé – « n’étaient pas, à l’échéance fixée par la mise en demeure, répertoriés comme raccordables ou raccordables à la demande ». En conséquence, cela faisait donc « obstacle à ce qu’ils puissent être identifiés comme tels et commercialisés par un opérateur ».

Le Conseil d’État valide la sanction, qui « n’apparait pas disproportionnée »

Enfin, concernant le montant de la sanction de 26 millions d’euros, il « n’apparait pas disproportionné ». Notamment « eu égard à la gravité du manquement commis alors que […] les engagements souscrits étaient suffisamment clairs ».

Dans sa décision, le Conseil d’État ajoute que « des opérateurs fournissant des services de communication électronique ne pouvaient commercialiser leurs services via ces raccordements » pour justifier la sanction. Et tient aussi compte « du ralentissement du rythme de réalisation des engagements avant et pendant le délai accordé par la mise en demeure ».

Le Conseil d’État estime enfin « sans incidence » l’argument selon lequel « la sanction serait plus sévère que celles qui ont été infligées par le passé par l’ARCEP en matière de communications électroniques ». Bref, la décision de l’Arcep est validée.

De possibles « actions indemnitaires » pour les opérateurs commerciaux

Sur LinkedIn, l’avocat Alexandre Archambault (spécialiste du numérique) résume la situation : « Au terme d’un arrêt solidement motivé, le Conseil d’État valide l’analyse souveraine effectuée par l’Arcep, rappelant en particulier que les engagements, qui ne sont pas de nature contractuelle, ont été souscrits en connaissance de cause, qu’il n’existe aucune disposition législative ou réglementaire imposant à l’Arcep de détailler sa méthode de calcul du montant de la sanction, et, ce qui intéressera les opérateurs tiers dans le cadre d’éventuelles actions indemnitaires, que ce manquement a porté préjudice à la situation des opérateurs commerciaux qui « ne pouvaient commercialiser leurs services via ces raccordements » ».

Orange et le Conseil d’État, une « histoire d’amour » ?

Rappelons enfin que, dans cette histoire, c’est la seconde fois qu’Orange en appelle au Conseil d’État et se fait débouter. En effet, le 17 mars 2022, le régulateur avait déjà mis en demeure Orange de respecter ses engagements, au plus tard le 30 septembre 2022.

Orange avait alors contesté cette décision devant le Conseil d’État en mai 2022. Mais, là aussi, la société avait été déboutée :

« Par sa décision du 21 avril 2023, le Conseil d’État décide de ne pas transmettre la question prioritaire de constitutionnalité au Conseil constitutionnel. Il rejette également le recours de la société Orange contre la décision de l’Arcep, mettant en demeure Orange de respecter ses engagements de déploiement de la fibre dans des zones moyennement denses ».

Et ce n’était déjà pas la première fois qu’Orange déposait une question prioritaire de constitutionnalité (QPC) devant le Conseil d’État, concernant le pouvoir de sanction de l’Arcep. Patrick Chaize, sénateur de l’Ain et vice-président de la commission de l’aménagement du territoire, comparait alors cette action d’Orange à une déclaration de guerre : « Ce dépôt de QPC aura de toute façon un effet, même si Orange la retire aujourd’hui. Ça donne à Orange le poids de dire : j’ai l’arme nucléaire »

☕️ AMD annonce son Ryzen 7 9800X3D, avec un 3D V-Cache de 2ᵉ génération

31 octobre 2024 à 15:23

AMD vient d’annoncer un nouveau processeur exploitant son architecture Zen 5 : le Ryzen 7 9800X3D, avec un 3D V-Cache de 2ᵉ génération. Principal changement par rapport aux précédents X3D : les 64 Mo de mémoire cache ont été déplacés « sous le processeur ».

Conséquence, cette nouvelle organisation « rapproche le complexe de cœurs (Core Complex Die ou CCD) de la solution de refroidissement pour aider à maintenir les cœurs « Zen 5 » plus frais, à fournir des fréquences d’horloge élevées et à améliorer les performances en jeu de 8 % en moyenne par rapport à la dernière génération ».

Le cache total est de 104 Mo. Le processeur dispose en effet de 8 Mo de cache L2 et de 96 Mo de cache L3, dont 64 Mo via la technologie 3D V-Cache. Le TDP est de 120 watts.

Le Ryzen 7 9800X3D « delidded » montre son 3D V-Cache

La mèche avait déjà été vendue sur les réseaux sociaux, avec un Ryzen 7 9800X3D « delidded », c’est-à-dire avec le capot enlevé, comme le rapportait il y a peu WCCFTech.

Ce changement permet aussi un overclocking poussé du processeur. Il s’agit d’ailleurs du « premier processeur X3D à être entièrement débloqué », précise AMD. Mais le fabricant rappelle dans ses notes de bas de page que tout overclocking « en dehors des caractéristiques publiées par AMD annulera toute garantie de produit, même lorsqu’il est activé via le matériel et/ou le logiciel AMD ».

Jusqu’à 5,2 GHz en mode boost

Le processeur dispose de 8 cœurs et 16 threads, avec une fréquence de base de 4,7 GHz et jusqu’à 5,2 GHz en mode boost (sur un seul cœur). Le 7800X3D (Zen 4) grimpait pour rappel jusqu’à 5 GHz « seulement », avec une fréquence de base de 4,2 GHz. Le 9800X3D est donc au-dessus.

La fiche technique est disponible par ici, tandis qu’une vidéo de présentation a été mise en ligne sur YouTube. Le processeur sera disponible à partir du 7 novembre, pour 479 dollars. C’est quasiment le tarif affiché par un revendeur américain il y a une dizaine de jours.

IA générative et open source : les services du gouvernement proposent leur grille de lecture

31 octobre 2024 à 13:42
IA ouvre toi... mais pas trop
IA générative et open source : les services du gouvernement proposent leur grille de lecture

Alors que l’Open Source Initiative (OSI) a publié sa définition de l’IA open source, les services du gouvernement français publient un comparateur d’ouverture de ce genre de modèles pour aider à s’y retrouver et à choisir son modèle en fonction des différents critères d’ouverture.

L’Open Source Initiative (OSI) a récemment proposé sa version 1.0 de ce qu’est une IA open source. Elle reprend notamment quatre « libertés » inspirées de celles définies par la Free Software Foundation concernant le logiciel libre :

  • Utiliser le système à n’importe quelle fin et sans avoir à demander la permission ;
  • Étudier le fonctionnement du système et inspecter ses composants ;
  • Modifier le système dans n’importe quel but, y compris pour en changer les résultats ;
  • Partager le système pour que d’autres puissent l’utiliser, avec ou sans modifications, dans n’importe quel but.

Si cette définition permet une utilisation très large du modèle, elles ne sont pas toutes nécessaires à chaque projet. Certains peuvent même vouloir par eux-mêmes des restrictions. Les discussions politiques autour de ce terme sont actuellement assez vives en coulisse, alors que les textes juridiques comme l’AI Act s’y intéressent.

Le Pôle d’Expertise de la Régulation Numérique (PEReN) du gouvernement français explique, par exemple, que « [sa] philosophie [le] conduit en général à privilégier les modèles les plus ouverts, mais dont les conditions d’utilisation ne permettent pas les usages non éthiques ».

Un tableau comparatif, évolutif et coopératif

Ce service du gouvernement propose depuis mardi un comparateur de différents modèles selon les critères d’ouverture (14 modèles de générateurs de textes, 6 modèles de générateurs d’images). Quatre grandes catégories sont disponibles et on peut choisir, par exemple, si on veut (oui, non ou sans préférence) que la licence du modèle permette la redistribution, les usages commerciaux, tous les usages ou limite explicitement certains usages non-éthiques.

Le même tableau propose de filtrer selon l’accessibilité des poids, des données ou de la documentation. Le PEReN a aussi introduit dans son tableau les critères de disponibilité du code d’entrainement sous licence compatible OSI, la transparence sur l’infrastructure et le coût de l’entrainement, les articles scientifiques et ou les rapports techniques associés au modèle.

Cet outil permet à un potentiel utilisateur de choisir son modèle, mais aussi de voir que les critères d’ouverture sont multiples.

Par exemple, en un clin d’œil, il peut voir que la licence d’utilisation d’un modèle comme BLOOM, le seul du tableau dont les données sont accessibles publiquement, n’autorise pas tous les usages. À l’inverse, Mistral, pour l’utilisation de son modèle NeMo, permet de faire tout et n’importe quoi avec, mais ne fournit pas de documentation complète sur l’origine de ses données d’entrainement.

Un modèle comme Claire-7B, créé par Linagora, utilise la licence Creative Commons By-NC-SA et ne peut être utilisé à des fins commerciaux.

Le service du gouvernement français permet à tout un chacun de réutiliser « librement » cette page comme source et encourage à le contacter pour ajouter des références ou des corrections. Le tableau « se veut collaboratif et dynamique et sera amené à évoluer ».

Une attention à avoir sur la gouvernance

Le PEReN diffuse aussi un document d’éclairage sur l’Open source et l’IA [PDF]. Daté d’avril 2024 (donc avant la publication de la version 1.0 de la définition de l’OSI), il aborde les synergies possibles, du point de vue de ce service, entre open source et IA.

Il aborde notamment la diversité des gouvernances possibles dans cet écosystème et pointe les difficultés. Il prend appui sur l’exemple du système d’exploitation open source Android (via AOSP), « emblématique selon Google de l’open source » mais qui « est de facto sous le contrôle de cette entreprise, qui a pu s’assurer la maîtrise complète de l’écosystème, au point d’avoir été sanctionnée pour pratiques anticoncurrentielles par la Commission Européenne ».

« La qualité d’open source n’apparaissant pas suffisante pour prémunir de dérives, il semble nécessaire de rester particulièrement vigilant à la forme de gouvernance qui peut sous-tendre les projets open source dans le domaine de l’IAG », ajoute le PEReN.

☕️ Chrome se dote de plusieurs outils dédiés aux performances

31 octobre 2024 à 13:34

La dernière version de Chrome s’est équipée de plusieurs ajouts liés aux performances et à leur surveillance. La principale nouveauté peut se trouver dans la section Performances des paramètres du navigateur.

La ligne « Alertes concernant les problèmes de performances » est active par défaut et va prévenir l’utilisateur quand le comportement de certains onglets devient erratique. La grande consommation de ressources est alors signalée quand elle peut avoir un impact sur l’utilisation de l’onglet en cours.

La fonction pointe alors les onglets fautifs et propose de les désactiver. Pour rappel, cette fonction – désormais commune à tous les principaux navigateurs – décharge les ressources consommées par les onglets. Elles ne sont rechargées que si l’on revient dessus. Ce mécanisme est utilisé pour l’endormissement des onglets après un certain temps d’inactivité. Les onglets désactivés sont affichés avec un cercle en pointillés autour de leur icône.

Parallèlement, l’économiseur de mémoire peut désormais être paramétré selon trois crans :

  • Modéré :  désactive les onglets en fonction des besoins du système
  • Équilibré : tient compte des habitudes de navigation et des besoins du système
  • Maximal : désactive les onglets lorsque vous cessez de les utiliser, plus rapidement que les deux autres modes

La fonction est désactivée par défaut. Lorsqu’elle est activée, elle est réglée sur Équilibré, qui s’affiche avec une mention « Recommandé ».

Enfin, il est possible d’établir des paramètres plus personnalisés. Par exemple, on peut indiquer les sites devant toujours rester actifs. Les cercles en pointillés peuvent être désactivés, de même que la quantité de mémoire consommée dans le panneau qui s’affiche au survol d’un onglet par la souris.

☕️ Produits illégaux, addiction : l’Europe ouvre une procédure formelle contre Temu

31 octobre 2024 à 12:32
Produits illégaux, addiction : l’Europe ouvre une procédure formelle contre Temu

Nous en parlions pas plus tard que ce matin, c’est désormais officiel. La Commission européenne vient d’annoncer l’ouverture d’une « procédure formelle à l’encontre de Temu au titre de la législation sur les services numériques » (DSA). Pour rappel, Temu a été désignée comme une très grande plateforme en ligne (VLOP) le 31 mai 2024 et une demande d’information formelle (RFI) avait été envoyée par la Commission mi-octobre.

Dans son communiqué, la Commission explique que suite à des analyses préliminaires, elle lance une enquête sur des domaines « liés à la vente de produits illicites, à la conception potentiellement addictive du service, aux systèmes utilisés pour recommander des achats aux utilisateurs, ainsi qu’à l’accès aux données pour les chercheurs ».

L’enquête de la Commission se concentre sur « les systèmes mis en place par Temu pour limiter la vente de produits non conformes dans l’Union européenne », et notamment empêcher le retour de commerçants malhonnêtes sur sa plateforme.

Il est aussi question des risques liés à une addiction, notamment via des programmes de récompenses. En avril, la plateforme proposait, par exemple, d’acheter des données personnelles de ses clients pour 100 euros. La Commission veut ainsi vérifier « les systèmes mis en place par Temu pour atténuer les risques », car ces pratiques « pourraient avoir des conséquences négatives sur le bien-être physique et mental d’une personne ».

L’enquête veut aussi vérifier le respect des obligations sur la manière dont Temu a mis en place des recommandations de contenus et de produits aux utilisateurs. « Cela inclut l’obligation de divulguer les principaux paramètres utilisés dans les systèmes de recommandation de Temu et de fournir aux utilisateurs au moins une option facilement accessible qui ne repose pas sur le profilage ».

Enfin, dernier point, le respect de l’obligation de « donner aux chercheurs l’accès aux données accessibles au public de Temu ».

La Commission procède maintenant « en priorité à une enquête approfondie », sans présager de la conclusion qui sera donnée. Cette nouvelle étape permet à la Commission de prendre de nouvelles mesures, notamment l’adoption d’une décision de non-conformité si besoin. Elle rappelle qu’il n’existe aucun délai pour mettre fin à cette procédure formelle.

« Nous voulons nous assurer que Temu respecte la législation sur les services numériques. En particulier en veillant à ce que les produits vendus sur leur plateforme respectent les normes de l’UE et ne nuisent pas aux consommateurs », résume Margrethe Vestager (vice-présidente exécutive de la Commission).

Microsoft se bat encore contre Midnight Blizzard, cette fois pour du harponnage

31 octobre 2024 à 10:56
Clique, on va te dépanner
Microsoft se bat encore contre Midnight Blizzard, cette fois pour du harponnage

Dans une communication du 29 octobre, Microsoft a averti d’une importante campagne de spear phishing – une forme de phishing très ciblé – contre des milliers de personnes aux États-Unis. Le groupe malveillant russe Midnight Blizzard serait derrière l’attaque. Signe particulier : des fichiers RDP ont été utilisés pour la première fois.

Microsoft est en guerre contre le groupe Midnight Blizzard (aussi appelé Nobelium, APT29 ou Cozy Bear) depuis plusieurs années maintenant. En aout 2023, par exemple, la société prévenait que le groupe, décrit par plusieurs sociétés de sécurité comme proche du gouvernement russe, s’était lancé dans une vaste campagne de phishing sur Teams.

Mais c’est surtout Midnight Blizzard que l’on a retrouvé derrière l’opération qui a mené au piratage de plusieurs boites mails de dirigeants de l’entreprise. Les pirates ont ensuite tenté de récupérer des informations internes et du code source. Google les a même épinglés pour leurs techniques très proches de sociétés comme Intellexa et NSO (auteur du fameux Pegasus).

Dans un billet de sécurité publié le 29 octobre, Microsoft prévient cette fois que Midnight Blizzard est à l’origine d’une nouvelle campagne. Cette fois cependant, il s’agit de spear phishing (ou harponnage), une forme très personnalisée de phishing, dans le but de récupérer des informations sensibles. L’entreprise dit communiquer sur le sujet « pour informer le public et perturber l’activité de cet acteur malveillant ».

Une campagne très ciblée

L’opération aurait débuté le 22 octobre. Des emails ont été envoyés à plusieurs milliers de personnes réparties dans une centaine d’organisations diverses. Des membres du gouvernement américain, du personnel d’universités, de la défense, d’ONG et d’autres secteurs ont ainsi été visés. « Nous estimons que l’objectif de cette opération est probablement la collecte de renseignements », indique Microsoft.

Selon l’entreprise, l’opération – toujours en cours – est dans la lignée des précédentes de Midnight Blizzard, que ce soit au travers des cibles ou de la finalité. « Ses opérations impliquent souvent la compromission de comptes valides et, dans certains cas très ciblés, des techniques avancées pour compromettre les mécanismes d’authentification au sein d’une organisation afin d’élargir l’accès et d’échapper à la détection », explique ainsi l’éditeur.

Les emails envoyés utilisent des techniques d’ingénierie sociale en lien avec Microsoft, Amazon Web Services et même le concept de confiance zéro. On apprécie bien sûr l’ironie de la situation, devant un texte fait pour inspirer la confiance. Le contenu de ces courriels semblerait à s’y méprendre comme envoyé par des employés de Microsoft.

Comment les pirates ont-ils pu cibler ces personnes spécifiques ? Grâce à de précédentes compromissions, qui ont permis aux pirates de collecter les adresses emails.

La technique employée, en revanche, est nouvelle

Microsoft a observé dans la campagne une technique qu’elle n’avait encore jamais vue. La société explique ainsi que les emails contiennent un fichier .rdp. RDP, pour Remote Desktop Protocol, pointe vers l’outil d’accès à distance, qui peut également servir à faire de la prise de contrôle. Ce type d’outil est très courant et simplifie beaucoup la gestion d’un parc ou même le dépannage à distance d’un proche.

Dans le cas présent, le fichier est signé avec un certificat obtenu auprès de Let’s Encrypt. Il contient plusieurs paramètres décrits comme « sensibles », pouvant entrainer une exposition des informations chez le client. S’il est ouvert, le fichier connecte ce dernier à un serveur contrôlé par Midnight Blizzard. Un mapping bidirectionnel entre le client et le serveur est également mis en place. Tout le contenu des disques et du presse-papiers, l’ensemble des périphériques connectés, l’audio, les équipements comme les lecteurs de cartes ainsi que les fonctions d’authentification deviennent alors accessibles par les pirates.

La session n’a pas d’autre but que de dérober des informations et/ou d’installer des malwares. Ces derniers se chargeront alors d’entretenir le lien entre la machine contaminée et le serveur. En dépit des soins pris par les pirates pour personnaliser l’attaque, on peut voir dans les images fournies par Microsoft que l’ouverture du fichier .rdp provoque l’apparition d’une fenêtre indiquant qu’un test va avoir lieu. Celui-ci est censé mesurer la stabilité d’une connexion à AWS Secure Storage. Ce pourrait être effectivement le cas, mais le fait de mettre en avant Amazon Web Services dans un email prétendument envoyé par un employé de Microsoft peut interroger des personnes prudentes.

De nombreuses mesures pour atténuer les risques

Microsoft dresse une longue liste de mesures que les structures peuvent mettre en place pour ne pas tomber dans ce genre de piège. Bien que l’ingénierie sociale ne puisse jamais complètement être éliminée, des règles peuvent être mises en place pour casser certains scénarios ou en atténuer les effets.

L’utilisation d’un pare-feu pour empêcher ou limiter les connexions RDP sortantes vers des réseaux externes ou publics est ainsi en première place des suggestions. Suit rapidement l’authentification multifactorielle (MFA), quand un autre appareil est utilisé pour confirmer une demande d’authentification. Même si Microsoft décrit la mesure comme un « pilier essentiel de la sécurité », la même entreprise avait montré en aout 2022 qu’elle n’était pas non plus l’alpha et l’oméga de la protection. Mais les moyens à mettre en œuvre pour la contourner sont aussi plus importants. Microsoft recommande à ce titre d’éviter si possible les téléphones pour éviter les risques liés à la carte SIM.

Si l’entreprise en profite pour mettre en avant certains de ses produits et services, tel que Defender SmartScreen dans Edge, les conseils donnés restent assez généraux. Elle recommande par exemple la mise en œuvre de l’accès conditionnel avec authentification forte. L’accès conditionnel permet de n’autoriser un appareil à se connecter au réseau que s’il répond à des critères spécifiques, comme sa géolocalisation, l’installation d’une certaine mise à jour ou encore l’application de règles précises. L’authentification forte permettra de confirmer une identité avant l’accès à une application critique.

Suivent une série de conseils pour configurer certains produits courants, comme Office 365. Pour ce dernier, Microsoft conseille ainsi d’activer les liens et pièces jointes sécurisés, ainsi que la Zero-hour auto purge (ZAP). Cette dernière permet la récupération d’informations sur les nouvelles campagnes malveillantes. Elle peut alors proactivement mettre en quarantaine les emails considérés comme suspicieux et rétroactivement isoler ceux déjà présents dans les boites de réception.

Les « liaisons dangereuses » de la Poste : Amazon, Temu et Shein

31 octobre 2024 à 10:01
La Poste pivote : après les avis de passage, des colis ?
Les « liaisons dangereuses » de la Poste : Amazon, Temu et Shein

Confrontée à la baisse inexorable du courrier papier, la Poste mise sur son activité colis, sur laquelle elle constate une « reprise très lente du e-commerce ». Un volet d’autant plus critique que le groupe public dépend fortement de l’activité des plateformes, et notamment des deux acteurs chinois que sont Temu et Shein. Interrogé par le Sénat, Philippe Wahl (PDG de la Poste) donne des chiffres et en profite pour réclamer des compensations à l’État.

Philippe Wahl, PDG de la Poste depuis 2013, était hier auditionné par la Commission des affaires économiques, présidée par la sénatrice Dominique Estrosi Sassone.

Amazon, Temu et Shein : 43 % des colis de La Poste en Europe

Dans son introduction, elle questionne le PDG sur « les perspectives de développement des activités d’ecommerce de La Poste dans un contexte où la concurrence ne cesse d’accélérer vis-à-vis de plateformes étrangères américaine et surtout chinoises comme Temu et Shein de plus en plus présentes au sein de l’Union européenne »

Dans son discours liminaire, Philippe Wahl lui répond et rappelle les grandes lignes du marché : « le courrier continue à décliner […] Sur le colis, c’est plus compliqué parce qu’il y a une reprise très lente du ecommerce, donc pas une très forte croissance ». À cause de la baisse du courrier d’ailleurs, le PDG annonce que, depuis son arrivée à la présidence de la Poste (sans lien de causalité), la société « aura perdu 7 milliards d’euros de chiffre d’affaires ».

Philippe Wahl profite de son audition pour faire (re)passer un message : celui de « la sous compensation » qui « prend une acuité considérable parce que la somme des sous compensations des missions de service public que l’État a laissé à nos charges depuis six ans, c’est quatre milliards. l’État aurait dû nous verser quatre milliards […] Nous recevons un milliard […] Simplement, d’après les calculs de l’ARCEP, les missions qui sont mises à notre charge en coûtent 2,2 milliards. Et donc chaque année, il manque plus d’un milliard à la Poste ».

Il entre ensuite dans le détail avec quelques chiffres, notamment la « montée des plateformes chinoises Temu et Shein, qui représentent 22 % de nos colis en Europe. C’était moins de 5 % il y a cinq ans, 1 % de plus qu’Amazon qui est […] le premier client mais aussi le premier concurrent de la Poste ».

Amazon est donc à 21 %, ce qui veut donc dire que les trois géants que sont Amazon, Temu et Shein représentent 43 % des colis acheminés par la Poste en Europe. Ces trois enseignes représentent donc une part très importante des colis et par conséquent du chiffre d’affaires associé du groupe.

Le PDG revendique le « leadership de [La Poste], avec DHL et Amazon, mais avec une très forte pression sur les marges ». Il affirme que le colis est toujours « un secteur d’avenir »… mais La Poste n’a pas trop le choix puisque ce marché pèse pour 52 % dans son chiffre d’affaires, reconnait le patron. Dans ses derniers résultats financiers, le groupe public indiquait avoir acheminé 1,3 milliard de colis via ses différentes filiales européennes sur les six premiers mois de l’année 2024 (+ 1,3% sur un an).

Temu et Shein sous pression des régulateurs

Mais le marché pourrait changer. En mai, le BEUC (bureau européen des unions de consommateurs) affirmait que la plateforme Temu « ne protège pas les consommateurs en enfreignant le Digital Services Act ». Temu (comme Shein) est pour rappel une Very Large Online Platform (VLOP) selon les critères du Digital Services Act (DSA).

Temu est aussi ausculté de près par la Commission européenne, qui a envoyé il y a deux semaines une demande d’information formelle (RFI). Elle demande des précisions sur les mesures mises en place pour limiter la présence, ou la réapparition, de vendeurs distribuant des produits illégaux. Selon Bloomberg, la Commission s’apprêterait à ouvrir une enquête contre la plateforme chinoise. Shein aussi est surveillé. En juillet 2023, Bruno Le Maire annonçait saisir la DGCCRF sur les risques de la fast fashion, avec Shein dans le viseur.

En Europe (et donc aussi en France), La Poste s’est aussi fortement rapprochée de Vinted. « Depuis janvier, en complément des relations entre Geopost et Vinted en France et dans onze pays européens, franchissement d’une nouvelle étape dans le partenariat entre La Poste et Vinted, avec un nouveau service de livraison Colissimo permettant de faciliter et d’accélérer les envois et réceptions d’achats de seconde main », explique le groupe dans son bilan financier.

Une « compétition terrible »

À la fin de son audition, dans les dernières séries de questions/réponses, Philippe Wahl revient sur le sujet des colis, précisant que la « confiance » affichée au début de son discours « a pu être pris pour une arrogance, ce n’est pas ça du tout ».

Il décrit ce marché comme « une compétition terrible, mais on a l’habitude […] Le marché est partagé. Évidemment, parce que c’est un marché immense, avec des gens extrêmement puissants en France tout de même. Pour les colis aux personnes (aux particuliers), nous représentons plus de 60 % de parts de marché. C’est considérable. Alors en face de ça, il y a évidemment Amazon et les plateformes chinoises. Mais nous sommes sans doute la poste domestique qui, en Europe, résiste le mieux. Mais sinon, évidemment, la compétition est terrible, mais on en a l’habitude ».

Quid des avis de passage (sans sonner) ?

Philippe Wahl revient enfin sur une problématique à laquelle tout le monde peut être un jour confronté : « c’est le facteur qui ne sonne pas vraiment et qui laisse une preuve de son passage sans avoir sonné. Pour vous donner le colis ou la lettre, ça peut arriver. On essaye de lutter contre ça ». Il ne rentre pas plus dans les détails.

Le timbre augmente de 127 % en 10 ans : « Je l’assume »

Sur le courrier, le patron de La Poste affirme que la France « est exactement dans la moyenne européenne de la baisse des volumes. Nous avons perdu à peu près 68 % du volume du courrier depuis 2013. Catastrophe! Mais le Danemark fait mieux, c’est 97 % et la Suisse (qui n’est pas dans l’Union européenne) est un peu en retard sur la baisse : ils sont à 55 %, mais partout ça baisse ».

Il en profite pour revenir sur la hausse du prix du timbre. Selon lui, elle « est généralisée dans tous les pays. On est pile au milieu. Donc, j’ai tendance à vous dire qu’on ne fait pas mieux que les autres, mais qu’on ne fait pas pire non plus ; on est dans la moyenne ».

La sénatrice Marianne Margaté interroge le PDG sur l’augmentation du prix du timbre, avec une pique au passage : « il a pris 127 % en dix ans. Comme ce n’est plus écrit dessus, le prix du timbre, on a tendance à l’oublier ». Philippe Wahl répond du tac-o-tac : « Alors vous avez raison, c’est plus 127 %. Je l’assume et je l’explique : c’est la seule façon de tenir l’équilibre économique du groupe ».

Fermeture des boites aux lettres

Il en profite pour tordre le cou à une rumeur qui revient régulièrement sur le tapis : « il n’y a pas de plan général de fermeture des boîtes aux lettres », mais des suppressions ponctuelles sont bien au programme : « Comme il y a de moins en moins de lettres, il y a des boîtes aux lettres dans lesquelles il n’y a plus jamais de lettres. Alors comment on fait pour les supprimer ? On sonne chez le maire ou la maire et on commence un dialogue constructif avec le maire ».

☕️ Un paquet malveillant Python ciblait les portefeuilles de cryptomonnaies

31 octobre 2024 à 09:30

Dans un billet publié mardi par GitHub, on a appris que l’usage du Python avait désormais dépassé celui de JavaScript. « Python est fortement utilisé dans les domaines de l’apprentissage automatique, de la science des données, de l’informatique scientifique, des loisirs et de la domotique, entre autres », explique l’entreprise. Dès lors, il n’est pas étonnant de voir le Python grimper en flèche, au vu de l’explosion des développements autour de l’IA.

La société note quand même que les « langages de programmation de systèmes, comme Rust, sont également en hausse, même si Python, JavaScript, TypeScript et Java restent les langages les plus utilisés sur GitHub ».

C’est probablement cette popularité que des pirates ont voulu exploiter. Dans un billet publié hier, la société de sécurité Checkmark explique qu’un paquet nommé CryptoAITools a été publié sur le Python Package Index (PyPI) et de faux dépôts GitHub. Il a été téléchargé 1 300 fois avant d’être supprimé de l’Index. Il a donc pu accomplir un certain nombre de méfaits avant d’être détecté.

Il est conçu pour Windows et macOS et s’active dès l’installation ; grâce à un code présent dans son fichier __init__.py. Il présente une interface trompeuse, conçue pour duper les utilisateurs pendant qu’il active ses fonctions malveillantes.

Le code peut être utilisé pour récupérer d’autres charges utiles depuis le site coinsw[.]app, qui avait toutes les apparences d’un vrai site, pour tromper la vigilance des personnes qui seraient allées voir. Le site faisait la promotion d’un bot d’échange de cryptomonnaies.

Le malware est conçu pour voler des données personnelles et puiser dans les actifs des portefeuilles de cryptomonnaies. Les informations ainsi récupérées sont nombreuses : portefeuilles de crypto-monnaies (Bitcoin, Ethereum, Exodus, Atomic, Electrum, etc.), mots de passe enregistrés, cookies, historique de navigation, extensions de cryptomonnaies, clés SSH, fichiers stockés dans les répertoires Téléchargements, Documents, Bureau qui référencent des cryptomonnaies, informations financières…

« La campagne de logiciels malveillants CryptoAITools a de graves conséquences pour les victimes et la communauté des crypto-monnaies au sens large. Les utilisateurs qui ont mis en vedette ou forké le dépôt malveillant ‘Meme-Token-Hunter-Bot’ sont des victimes potentielles, ce qui élargit considérablement la portée de l’attaque », indique Checkmark.

La société a également découvert un dépôt GitHub, nommé Meme Token Hunter Bot, qui distribue le même malware. Le dépôt est toujours en ligne, et on peut voir qu’il a été forké une fois et mis en favori dix fois.

Élections US : pourquoi Lina Khan occupe-t-elle les discussions de dirigeants de la tech ?

31 octobre 2024 à 08:35
Khan contre les monopoles
Élections US : pourquoi Lina Khan occupe-t-elle les discussions de dirigeants de la tech ?

À quelques jours du scrutin présidentiel des États-Unis, une femme est au cœur des conversations entretenues par plusieurs figures de l’industrie de la tech : Lina Khan. À la tête de la Federal Trade Commission (FTC), elle agace les républicains autant qu’elle divise les démocrates par ses travaux contre les grands monopoles.

Fin septembre, le mandat de Lina Khan à la tête de la Federal Trade Commission (FTC) des États-Unis s’est terminé. Plus jeune directrice de la FTC, la juriste de 35 ans peut y rester indéfiniment tant qu’elle n’est pas remplacée, rappelle le Seattle Times.

Nommée en 2021 par Joe Biden, juste après que ce dernier a embauché Tim Wu, un autre grand critique du pouvoir des géants numériques, au National Economic Council de la Maison-Blanche, la spécialiste du droit de la concurrence occupe une vraie part des tractations entre les candidats à la présidentielle des États-Unis et leurs soutiens, notamment ceux issus de la Silicon Valley.

De fait, au fil de son mandat, Khan s’est placée en grande opposante aux pratiques anticoncurrentielles des grands noms californiens – Google, Apple, Amazon, Meta – comme de géants de l’industrie pharmaceutique, de l’alimentation ou de l’aviation.

Les géants numériques peu convaincus par le bilan de Joe Biden

On l’a dit au fil des articles, le bilan du mandat de Joe Biden place le camp démocrate dans le viseur de plusieurs dirigeants du numérique. C’est le président sortant qui a annoncé un plan de taxation de 25 % des profits non réalisés pour les multimillionnaires (les 0,01 % de la population des États-Unis dont la richesse dépasse les 100 millions de dollars). C’est aussi lui qui a pris un décret pour cadrer le développement de l’intelligence artificielle, plutôt mal pris par les géants de la Silicon Valley.

Au cœur de ce bilan se trouve aussi Lina Khan, née en 1989 au Royaume-Uni, arrivée à 11 ans aux États-Unis. Passée par l’Open Markets Institute, elle y a étudié la structure des marchés à partir de l’exemple de l’élevage industriel de volaille. En 2017, elle s’était fait connaître par son article Amazon’s Antitrust Paradox publié en 2017 dans le Yale Law Journal.

Quatre ans plus tard, sa nomination à la tête de la FTC avait été confirmée par le Sénat avec 69 votes en sa faveur, dont 21 républicains. Sous son mandat, la fusion verticale entre les biotechnologies Illumina et Grail (un fournisseur et son client) a été annulée, NVIDIA a renoncé à racheter ARM, Sanofi et Lockheed ont renoncé à des opérations… Une série d’actions qui n’a pas manqué de revers, comme dans les cas de la fusion entre Microsoft et Activision ou du rachat de Within par Meta.

Déchirement démocrate

La combativité de la directrice de la FTC ne passe pas sans heurts. Certains républicains l’accusent de gaspiller l’argent public en justice, pour des résultats aléatoires, rapporte Le Monde. Pour autant, le colistier de Donald Trump J.D. Vance a déclaré qu’elle était « l’une des rares dans l’administration Biden » à « faire du bon boulot ». Ses offensives contre certaines plateformes sociales sont vues d’un bon œil par les républicains qui considèrent ces dernières hostiles à la liberté d’expression.

Côté démocrate, c’est le déchirement : l’investisseur milliardaire Mark Cuban et le cofondateur de LinkedIn Reid Hoffman ont tous deux bruyamment pris position pour que Kamala Harris, dont ils soutiennent la candidature, se sépare de la juriste. Cela enverrait selon eux un signal de réchauffement possible des relations avec les entreprises. De même, l’investisseur Vinod Khosla a qualifié Lina Khan d’« être humain non rationnel ».

Un large groupe du même camp considère cela dit les actions de Lina Khan contre le pouvoir des entreprises comme un argument de poids. Ils alertent les équipes de la candidate que son manque de soutien à Lina Khan pourrait lui coûter des votes. Ainsi, Bernie Sanders a publiquement déclaré son soutien à la directrice de l’agence, tandis qu’Alexandria Ocasio-Cortez alertait contre le risque une « bagarre générale » si Kamala Harris se risquait à remplacer Lina Khan à la suite d’une potentielle élection à la tête des États-Unis.

Lutte contre les faux avis et « click-to-cancel »

En mars, la directrice de la FTC a elle-même détaillé dans Foreign Policy sa vision d’un marché états-unien ouvert à la concurrence. Par extension, elle critiquait la position de certains représentants de l’industrie numérique en faveur de la consolidation du secteur : « Nous devrions être extraordinairement sceptiques à l’égard de cet argument et plutôt reconnaître que le pouvoir monopolistique actuel aux États-Unis est une menace majeure pour les intérêts nationaux et le leadership mondial » du pays, écrivait-elle alors.

Dans les années 1990, 9 000 entreprises étaient cotées en bourse, rappelle Le Monde. En 2024, elles ne sont plus que 3 400. Et Lina Kahn de souligner que pour préserver l’innovation, il est nécessaire de limiter les potentiels monopoles.

De plus en plus présente dans les médias, jusque sur des plateaux d’humoristes comme Hasan Minhaj, Lina Khan fait preuve d’une grande pédagogie sur le rôle et les actions de l’institution qu’elle dirige. De fait, elle est en campagne. Pour le camp démocrate : on l’a vue dans l’Illinois, dans l’Arizona ou dans le Wisconsin aux côtés de candidats progressistes. Mais aussi pour elle-même.

Son positionnement sur des sujets très proches des consommateurs, comme la lutte contre les faux avis et témoignages en ligne, ou sa récente adoption du « click to cancel » (cliquer pour annuler, une réglementation qui oblige les fournisseurs à faciliter la désinscription d’un abonnement ou d’une souscription en ligne), pourrait l’aider. Par ailleurs, d’après un sondage publié par l’institut Lake Research Partners, 65 % des électeurs des États pivots se sont déclarés en faveur d’un gouvernement qui s’attaquerait aux monopoles. Ils se disent prêts à voter pour un ou une candidate qui soutiendrait la lutte contre les pratiques anticoncurrentielles.

Pour autant, à l’heure actuelle, ni Trump ni Harris n’ont donné de détails précis sur la politique qu’ils comptent adopter en matière de concurrence.

☕️ Automattic est à court d’employés

31 octobre 2024 à 08:07
Automattic est à court d’employés

En octobre, Matt Mullenweg a proposé deux offres de départ aux salariés de son entreprise Automattic, dans le cadre du conflit juridique et commercial qu’il a engendré contre son concurrent WP Engine, qualifiant celui-ci de « cancer de WordPress ». Lors d’une conférence organisée par TechCrunch ce mercredi, le co-créateur du logiciel WordPress a avoué que son entreprise était maintenant « très en manque de personnel ».

Matt Mullenweg n’a pas révélé le nombre de départs lors de la seconde offre. Néanmoins, il avait annoncé que 159 salariés avaient sauté sur l’occasion de la première. Il a confirmé lors de cette conférence que son entreprise était passée d’environ 1 900 salariés à environ 1 700 depuis le début de ce conflit ouvert, tout en embauchant 26 personnes.

Cette déclaration d’un manque de personnel vient confirmer que les deux offres visaient à trouver les sources internes des informations sur ce qu’il se passait au sein d’Automattic pendant le conflit. Lors de l’annonce de la seconde offre, Matt Mullenweg avait affirmé avoir « les moyens d’identifier les sources des fuites » et que la proposition était une « opportunité de se retirer de façon élégante ».

Au cours de cette conférence, en réponse à une question sur la création d’un éventuel fork de WordPress suite à l’ouverture de ce conflit, le co-créateur du logiciel a encouragé l’idée : « je pense que ce serait fantastique pour que les gens puissent avoir une autre gouvernance ou une autre approche ». Matt Mullenweg a affirmé que le logiciel avait déjà été « forké » plusieurs fois et a ajouté que « c’est l’une des grandes qualités de l’open source : un fork peut être créé ».

☕️ Visa va supprimer 1 400 emplois

31 octobre 2024 à 07:36

Selon le Wall Street Journal, l’entreprise de gestion de paiement planifie de restructurer ses activités internationales et de supprimer 1 400 postes (employés ou sous-traitants) avant la fin de l’année.

Licenciement

Les salariés ont appris la nouvelle la semaine dernière via une annonce interne. Plus d’un tiers des postes (environ 1 000) devraient concerner des emplois du secteur technologique, le reste devrait être réparti sur le service commercial et celui des partenariats numériques internationaux. Les licenciements ont déjà commencé la semaine dernière.

Le journal américain rappelle que Visa a plus de 30 000 employés dans le monde.

Interrogé par le Wall Street Journal, Visa a déclaré qu’elle évoluait en permanence pour servir au mieux ses clients et soutenir sa croissance, « ce qui peut entraîner la suppression de certaines fonctions ». Elle affirme s’attendre à embaucher davantage les prochaines années.

☕️ Infostealers : Redline et META mis hors d’état de nuire

31 octobre 2024 à 07:16
Infostealers : Redline et META mis hors d’état de nuire

Les autorités des Pays-Bas, des États-Unis, de la Belgique, du Portugal, du Royaume-Uni et de l’Australie ont démantelé les serveurs de deux acteurs majeurs de la cybercriminalité, les infostealers Redline et META.

Un infostealer est un logiciel conçu pour dérober le maximum d’informations susceptibles d’être réutilisées dans d’autres activités criminelles sur un ordinateur infecté (identifiants et mots de passe, données bancaires, etc).

En 2024, les deux stealers en question ont permis de voler plus de 227 millions de mots de passe, rapporte Le Monde.

Coordonnées par Eurojust, les autorités impliquées dans cette vaste opération internationale, nommée « Magnus », indiquent avoir saisi trois serveurs aux Pays-Bas, deux noms de domaine et plusieurs chaînes Telegram utilisées par les cybercriminels pour échanger avec leur clientèle. Deux individus ont été arrêtés en Belgique.

Les autorités indiquent par ailleurs avoir récupéré des informations sur les clients de Redline et META.

À partir d’avant-hierNext - Articles gratuits

Comparatif des SoC Apple : des M1 aux M4, M4 Pro et M4 Max

30 octobre 2024 à 16:55
Attention, M6 est déjà pris !
Comparatif des SoC Apple : des M1 aux M4, M4 Pro et M4 Max

Comment se positionne la nouvelle puce M4 Pro d’Apple face à la M4 ? Et qu’en est-il de la M4 Max face à la M4 Pro et la M4 ? Nous avons regroupé les principales caractéristiques techniques dans un tableau pour vous aider à y voir plus clair.

Cette semaine, Apple a présenté deux nouvelles puces : la M4 Pro inaugurée avec les Mac mini hier, et la M4 Max lancée aujourd’hui avec les nouveaux MacBook Pro. Voilà de quoi compléter la famille des M4 présentée pour la première fois en mai de cette année dans l’iPad Pro.

Notre comparatif de 12 SoC « M »

Nous avons regroupé l’ensemble des caractéristiques techniques des nouveaux SoC dans un tableau comparatif, avec les différentes déclinaisons des M1, M2 et M3 à titre de comparaison :

Nombre de cœurs (CPU et GPU) et mémoire unifiée variables

Comme toujours chez Apple, une même puce peut avoir plusieurs variantes. En M4 par exemple, la partie CPU intègre 8 à 10 cœurs, contre 12 ou 14 pour la version Pro et 14 ou 16 pour le M4 Max. Attention donc au moment de choisir le SoC de votre machine.

La puce M4 reste assez proche de la M3 avec trois ou quatre cœurs performances. Par contre la version Pro s’approche davantage du M4 Max avec 8 à 10 cœurs performances, là où le M3 Pro en avait cinq ou six.

Même chose sur la partie GPU, avec là encore des écarts sur les performances. Le nombre de cœurs du NPU pour les calculs liés à l’intelligence artificielle ainsi que les performances semblent être les mêmes sur l’ensemble des SoC M4, comme c’était le cas avec les générations précédentes.

« Intégrant un Neural Engine jusqu’à deux fois plus rapide que celui de la génération précédente et des accélérateurs d’apprentissage automatique améliorés dans les CPU, les puces de la famille M4 livrent des performances incroyables pour l’exécution de projets professionnels exigeants et de tâches exploitant l’IA », affirme Apple… sans s’étendre davantage sur les chiffres, comme lors du lancement du M4.

Si Apple est passé à 16 Go de mémoire minimum sur ses nouveaux produits (enfin…), la quantité maximale dépend aussi du SoC : 32 Go en M4, 64 Go en M4 Pro et enfin 128 Go en M4 Pro Max. La mémoire n’est pour rappel pas évolutive une fois la machine achetée.

Et encore, c’est la théorie. En pratique, c’est plus compliqué. Sur la fiche produit des nouveaux MacBook Pro, Apple annonce les limitations suivantes : 36 Go de mémoire unifiée sur les M4 Max avec CPU 14 cœurs, 24 ou 48 Go sur les M4 Pro avec CPU 16 cœurs, et enfin jusqu’à 128 Go uniquement avec les M4 Max à 16 cœurs. Une limite qui dépend donc à la fois de la variante du SoC, mais également de son nombre de cœurs. Un découpage beaucoup plus commercial que technique.

Thunderbolt 5, nombre de moteurs de codage et décodage

Toutes les puces M4 disposent d’une accélération matérielle pour H.264, HEVC, ProRes et ProRes RAW, ainsi que d’un moteur de décodage vidéo. La puce M4 Max juxtaposant deux GPU M4 Pro, elle hérite du double de ces moteurs : deux pour le codage, deux pour le codage/décodage ProRes. Le décodage AV1 est aussi supportée par l’ensemble des puces M4.

Signalons aussi que les puces M4 Pro et Max proposent du Thunderbolt 5 jusqu’à 120 Gb/s, là où la M4 classique se contente de Thunderbolt 4.

On vous épargne le discours sur les performances par rapport aux puces des générations précédentes. Il se trouve dans ce billet de blog.

☕️ Apple présente ses nouveaux MacBook Pro et sa puce M4 Max

30 octobre 2024 à 16:35

Après les iMac et le Mac mini, c’est au tour des MacBook Pro de passer à la moulinette de la puce M4. Cette fois, les portables ont accès aux trois variantes de la puce : M4, M4 Pro et M4 Max. Comme pour les générations précédentes, c’est bien sûr la version Max qui offre les meilleures performances.

La puce M4 Max comporte jusqu’à 16 cœurs : 12 performants (2 de plus que sur la version Pro) et 4 efficaces. Si le M4 Pro voyait ses cœurs GPU doubler pour passer de 10 à 20, c’est encore le cas sur la version Max, avec jusqu’à 40 cœurs GPU, soit le même nombre que dans les versions précédentes. En revanche, GPU doublé oblige, la puce intègre deux codeurs/décodeurs vidéo.

La bande passante de la mémoire reste sur 512 bits, mais passe de 410 Go/s à un maximum 546 Go/s. La puce M4 Max peut supporter jusqu’à 128 Go de RAM. On retrouve la compatibilité Thunderbolt 5. Le Neural Engine garde ses 16 cœurs. Nous reviendrons prochainement plus en détail sur les caractéristiques de cette puce.

Quant aux MacBook Pro, la présentation de la gamme n’a pas changé. On retrouve toujours six configurations de base proposées : trois en M4, deux en M4 Pro et une M4 Max. La version 14 pouces du portable peut être configurée en M4 classique ou Pro. En revanche, la version 16 pouces ne peut avoir que du Pro au minimum.

La mémoire et la taille du SSD dépendent de la machine visée. On trouve au minimum 16 Go de RAM et 512 Go de SSD sur le MacBook Pro M4 en 14 pouces. En M4 Pro, la quantité minimale de RAM passe à 24 Go, toujours en 512 Go. Quant aux versions M4 Max, il y en a deux. La première intègre une puce à 14 cœurs CPU et 32 cœurs GPU, 36 Go de RAM et 1 To de SSD, et existe en modèles 14 et 16 pouces. La seconde possède le M4 Max « complet » avec ses 16 cœurs CPU et 40 cœurs GPU, épaulés par 48 Go de RAM et 1 To de SSD, et n’existe qu’en 16 pouces.

Tous les MacBook Pro présentent de nombreuses caractéristiques communes : trois ports Thunderbolt 4 (sur les modèles M4) ou 5 (sur les modèles Pro et Max), un port HDMI, un lecteur de carte SDXC, une prise casque, un port MagSafe 3, TouchID intégré au clavier, une luminosité de 1 000 nits, une autonomie pouvant grimper jusqu’à 24 heures (contre 22 sur la génération précédente) en lecture vidéo, du Wi-Fi 6E (dommage) et du Bluetooth 5.3. Tout ce petit monde est bien sûr taillé pour Apple Intelligence.

En ce qui concerne les prix, nous ne sommes plus sur le tarif d’appel du Mac mini et ses 700 euros (qui certes n’avait ni écran ni périphériques). Le plus petit modèle de MacBook Pro M4 est vendu au prix de 1 899 euros. Quand on passe au M4 Pro, le tarif minimal devient 2 399 euros pour du 14 pouces et 2 899 euros pour du 16 pouces (mais dans une version avec plus de cœurs). Quant au M4 Max, il vous en coutera au moins 3 799 euros en 14 pouces 4 099 euros en 16 pouces.

Les précommandes sont ouvertes, pour des livraisons débutant le 8 novembre.

À noter que même si Apple ne le proclame pas, tous les MacBook Air (actuellement équipés d’une puce M3) viennent de voir leur mémoire doubler et passer à 16 Go, sans modification du tarif.

Dénonçant un manque d’investissement de Google, un développeur forke Flutter

30 octobre 2024 à 15:59
Sans dessin acide
Dénonçant un manque d’investissement de Google, un développeur forke Flutter

La gestion de Flutter, un framework multiplateforme chez Google, semble poser problème à un nombre croissant de développeurs. Au point que Matt Carroll, anciennement employé chez Google et ayant travaillé sur le cadriciel, en a annoncé un fork.

Flutter est un kit de développement multiplateforme open source (sous licence BSD). Créé par Google, il a d’abord été conçu pour les applications mobiles, mais a pris du galon avec les années. On se souvient notamment que c’est Canonical qui s’était chargé de son portage sur Linux. La société l’a ensuite utilisé pour réécrire complètement l’installeur de la distribution Ubuntu.

Mais l’un des anciens développeurs du SDK, Matt Carroll, resté sous forme de contributeur externe, a annoncé récemment la création d’un fork. Pour rappel, le terme peut être traduit par « bifurcation » ou « embranchement ». Il est utilisé dans le cas où le code source d’un projet est copié pour servir de base à un nouveau projet. L’opération est extrêmement courante dans le monde du libre et alimente l’émulation autour du développement logiciel. Firefox a par exemple plusieurs forks : LibreWolf, Waterfox, Iceweasel…

Dans le cas présent, Matt Carroll a annoncé un fork de Flutter le 27 octobre, citant de vastes problèmes chez Google et une réduction continuelle de l’équipe. Le nom du nouveau projet ? Flock (sans rapport avec notre dessinateur).

Un trop grand nombre de problèmes

Matt Carroll fait une longue liste des problèmes observés sur ces dernières années. Son principal grief est une équipe de développement manquant singulièrement de personnel. Il l’estime à une cinquantaine de personnes (chiffre gelé en 2023), alors que le nombre de développeurs utilisant Flutter serait d’un million, une estimation basse et conservatrice selon lui. Le ratio serait alors d’un membre de l’équipe pour 20 000 développeurs, ce qui ne peut pas fonctionner, d’après Matt Carroll.

Il cite plusieurs exemples, dont le temps de traitement des tickets de support. Il affirme qu’il peut s’écouler parfois plusieurs années entre la création d’un ticket et le moment où l’équipe s’en empare pour l’examiner. Or, avec le temps, les informations qui avaient servi à le créer ont peut-être été perdues. Le développeur a pu passer à autre chose et oublier le contexte du problème signalé.

« D’après mon expérience, lorsque cela m’arrive, j’ai cessé depuis longtemps de travailler avec le client à l’origine du problème initial. J’ai écrit des centaines de milliers de lignes de code depuis lors et, souvent, je ne me souviens même pas d’avoir déposé le problème, sans parler des détails obscurs liés au problème initial. L’équipe ne peut pas corriger le bug sans mes informations, et cela fait trop longtemps que je ne lui en ai pas fournies. Le bug est donc enterré et sera redécouvert par un futur développeur », explique Matt Carroll.

L’ancien employé de Google cite également les changements de priorités dans l’entreprise, avec des yeux largement tournés vers l’intelligence artificielle. Google vient d’ailleurs de mettre en avant que plus d’un quart du nouveau code écrit par ses développeurs l’a été par une IA générative. Les plateformes desktop ne sont ainsi plus considérées comme des priorités et trois des six plateformes sont en mode maintenance. Le desktop est selon Carroll le plus grand gâchis de Flutter. Certains des bugs non corrigés étaient suffisamment importants pour que les clients changent de crèmerie.

Il est vrai que les questions autour de Flutter commençaient à s’accumuler. La dernière Google I/O en mai a renforcé les inquiétudes. De nouvelles versions avaient bien été proposées pour Flutter (3.22) et Dart (3.4), mais l’arrivée de Kotlin Multiplatform les a éclipsés. Plusieurs médias avaient noté ce changement, dont DevClass. En outre, l’ancien directeur de l’équipe Flutter, Tim Sneath (ancien transfuge de Microsoft), est parti chez Apple en juin 2023.

Le choix du fork

Matt Carroll indique que la question d’une coopération massive avec des développeurs externes aurait pu être envisagée. Le problème est cependant le même, car l’afflux des participations aurait été géré par la même équipe qui manque actuellement de main d’œuvre pour s’occuper des tickets du support. Or, la révision du code prend du temps. En outre, de nombreux développeurs auraient trouvé la communication avec l’équipe Flutter « frustrante, voire impossible ».

Que propose-t-il ? Flock, un fork de Flutter imaginé comme un catalyseur. Il décrit en effet le projet comme un « Flutter+ », non comme un remplaçant. Il espère attirer les contributions pour faire de Flock un outil dont les bugs seront corrigés rapidement, tout comme l’ajout de nouvelles fonctions.

« En d’autres termes, nous ne voulons pas, ou avons l’intention, de forker la communauté Flutter. Flock restera constamment à jour avec Flutter. Flock ajoutera d’importantes corrections de bugs et des fonctionnalités populaires de la communauté, que l’équipe de Flutter ne peut pas ou ne veut pas implémenter », indique Matt Carroll.

Dans les grandes lignes, chaque nouvelle version de Flutter verra ses nouveautés portées vers Flock. Ce dernier ira dans le sens que sa communauté de développeurs estimera la plus logique, s’occupant d’abord de tous les bugs en attente, tout en partageant le code correcteur avec l’équipe de Flutter, qui sera alors libre de l’intégrer ou non.

Sa priorité pour l’instant est de créer un miroir de Flutter pour refléter automatiquement les branches master, beta et stable. Il faudra ensuite que Flock puisse construire le moteur d’exécution. Matt Carroll invite les développeurs à participer et à tester leurs applications sur Flock. Pour l’instant, puisqu’il s’agira d’une copie miroir, elles devraient fonctionner sans modification.

Des réactions mitigées

Que ce soit sur Hacker News ou Reddit, les réactions sont en majorité négatives. Beaucoup estiment que les problèmes avancés par Matt Carroll sont réels et sérieux. Cependant, la plupart pensent que dans ce cas précis, la création d’un fork va diviser les ressources et ne servira pas.

« Mais je suis sceptique quant à sa suggestion d’accueillir de nouveaux changements dans un fork de Flutter et ainsi gagner en vitesse de développement. Cela nécessiterait des personnes qui souhaitent réellement travailler sur de nouvelles fonctionnalités. Je doute que ces personnes existent. Du moins, qu’elles existent en nombre suffisant pour qu’un fork soit plus rapide – en termes de fonctionnalités – que Google lui-même », estime par exemple l’un d’entre eux sur Reddit.

En revanche, sur X, l’annonce a créé plus d’engouement, Matt Carroll ayant répondu à de nombreuses questions, certaines très concrètes. Par exemple, Remi Rousselet se demandait hier comment gérer les paquets si Flock devient aussi populaire que Flutter : faudra-t-il que leurs auteurs supportent systématiquement les deux ? Matt Carroll lui a répondu que la conduite serait de recommander Flock pour les applications et Flutter pour les paquets. À un autre, il a répondu qu’en cas de conflit d’approche sur une fonction, la version Flock serait supprimée.

☕️ Dropbox se sépare de 20 % de ses effectifs

30 octobre 2024 à 15:17

Drew Houston, cofondateur et CEO de Dropbox, a annoncé dans un courrier interne le départ de 528 personnes, soit environ 20 % de l’effectif de la société. « Comme nous l’avions indiqué l’année dernière, nous traversons une période de transition en tant qu’entreprise », écrit Drew Houston dans ce courrier mis en ligne mercredi sur le site de la société.

Il y explique que Dropbox a atteint une forme de « maturité » sur son activité historique de partage et de synchronisation de fichiers (FSS, pour File Sync and Storage), et que la société travaille actuellement à une future phase de croissance portée par ses diversifications récentes, à l’image de Dash for Business.

S’il invoque des éléments extérieurs, à commencer par une concurrence exacerbée, pour expliquer cette « période de transition », Drew Houston affirme aussi que Dropbox souffre de sa structure interne, devenue trop complexe : « traverser cette transition en maintenant notre structure et nos niveaux d’investissement actuels n’est plus viable », écrit-il encore, avant d’ajouter que cette coupe dans les effectifs doit permettre à l’entreprise d’aborder mieux armée ses prochains défis stratégiques. Il précise enfin les modalités financières de ce départ contraint, basées sur un minimum de 16 semaines de salaire par personne.

Lancée en 2023 et mise à jour mi-octobre dans une nouvelle version dopée à l’IA générative, Dash for Business se présente comme une solution de recherche pour entreprise, qui propose des fonctionnalités d’organisation, de travail collaboratif, de partage de documents et de contrôle d’accès. Conçue pour s’intégrer aux environnements de travail les plus courants, Dash est aujourd’hui distribuée en anglais, en version Web et client desktop, avant un lancement à plus grande échelle programmé pour début 2025.

Dropbox, société cotée à New-York, a publié début août ses derniers résultats financiers, portant sur le deuxième trimestre de l’année, clos au 30 juin dernier. La société faisait état d’un chiffre d’affaires de 634,5 millions de dollars, en hausse de 1,9 % sur un an, assorti d’une progression du revenu annuel récurrent (ARR), estimé alors à 2,573 milliards de dollars, soit une progression de 2,9 points par rapport à l’année précédente.

« Alors que nous naviguons parmi les pressions naturelles d’un marché FSS devenu mature, nous nous concentrons sur la résolution des principaux problèmes de nos clients en matière de sécurisation, d’organisation et de partage de leur contenu, et nous investissons dans nos paris futurs sur la recherche universelle basée sur l’IA avec Dropbox Dash. En parallèle, nous restons déterminés à fonctionner de façon efficace et à améliorer le retour à nos actionnaires », déclarait à cette occasion Drew Houston.

SynthID, le système de Google pour marquer au fer rouge les contenus générés par des IA

30 octobre 2024 à 14:44
Synthetic quality certified
SynthID, le système de Google pour marquer au fer rouge les contenus générés par des IA

Depuis un an, les entreprises d’IA générative promettent d’ajouter des filigranes à leurs contenus. Google propose désormais son système nommé SynthID. Les chercheurs de Google DeepMind ont notamment décrit dans un article dans la revue Nature et publié sous licence libre la partie concernant les textes générés automatiquement.

Dans les divers problèmes liés aux contenus générés par l’IA, le fait de pouvoir les différencier de ceux créés autrement a été rapidement repéré comme le nez au milieu d’un visage. Les détecteurs d’IA générative sont pointés du doigt pour leurs faux positifs, ce qui engendre des tensions entre étudiants et enseignants.

Depuis l’avènement dans l’espace public de ces systèmes, l’ajout à ces contenus de filigranes est régulièrement évoqué pour qu’une sorte de tampon « made by AI » leur soit clairement assigné. OpenAI, Alphabet, Meta, Anthropic, Inflection, Amazon et Microsoft ont d’ailleurs promis à la Maison-Blanche l’an dernier de mettre en place ce système. En Europe, l’AI Act exige que cette disposition soit mise en place à partir du 2 aout 2026.

En aout, on apprenait qu’OpenAI avait mis en place un système permettant de tatouer les textes générés par ses IA. Mais l’entreprise hésitait à le mettre en place. En effet, cette technologie serait « efficace à 99,9 % », mais elle serait aussi relativement simple à supprimer.

Google vient, elle, de sauter le pas avec son système nommé « SynthID » développé par sa filiale DeepMind. L’entreprise indique que cet outil embarque « des filigranes numériques directement dans les images, le son, le texte ou la vidéo générés par l’IA ».

Bien sûr, le système de tatouage des divers contenus est différent selon le média. Il n’est pas possible, par exemple, d’utiliser un système de tatouage graphique pour identifier un texte. Et, à moins de trouver un très bon filigrane universel, le risque est d’harmoniser vers le bas l’utilisation de ces marques pour tous les types de médias.

Google a donc mis au point différents systèmes de filigranes dont elle présente des exemples.

Un outil libre de filigranes pour la génération de textes

Pour son système dédié aux filigranes de textes générés par IA, Google DeepMind a publié le travail de ses 24 chercheurs dans la revue scientifique Nature la semaine dernière. L’idée est de créer une « signature statistique » dans le texte généré en modifiant légèrement la procédure de génération de chaque « prochain jeton ». Cette modification ne dépend pas d’une simple variable statique, mais se fait en fonction du contexte de génération.

« L’un des principaux avantages de cette approche est que le processus de détection ne nécessite pas la réalisation d’opérations coûteuses en termes de calcul, ni même l’accès au LLM sous-jacent (qui est souvent propriétaire) », expliquent-ils.

La détection se fait avec un outil probabiliste qui prend en entrée le texte à vérifier et une clé de filigrane spécifique.

L’entreprise a publié sur GitHub sous licence libre (Apache 2.0) cet outil et propose une documentation détaillée pour les développeurs d’IA génératives qui voudraient l’utiliser. Dans celle-ci , elle explique que SynthID Text propose plusieurs options pour la vérification : full-private qui « ne libère ni n’expose le détecteur d’aucune manière », semi-private qui « ne libère pas le détecteur, mais expose via une API » et public qui « permet de libérer le détecteur pour que d’autres utilisateurs puissent le télécharger et l’utiliser ».

Elle assure que « les filigranes de texte SynthID résistent à certaines transformations, c’est-à-dire les recadrages de texte, en modifiant quelques mots ou en paraphrasant légèrement ». Mais Google admet que sa méthode, comme celle d’OpenAI, a des limites qui permettent de facilement contourner son système :

  • « L’application de filigranes est moins efficace sur les réponses factuelles, car il y a moins de possibilités d’augmenter la génération sans réduire la précision.
  • Les scores de confiance du détecteur peuvent être considérablement réduits lorsqu’un texte généré par IA est entièrement réécrit ou traduit dans une autre langue ».

Google se garde l’exclusivité de ses outils de filigrane d’audio et d’images

Toutefois, concernant les filigranes d’audio, d’images et de vidéos, l’entreprise se contente de présenter succinctement des exemples d’utilisation qui, bien évidemment, ne montrent aucune différence entre le contenu sans filigrane et avec. Mais l’entreprise ne communique ni sur le fonctionnement des systèmes mis en place ni sur leurs limites.

Elle ajoute que ces filigranes sont disponibles pour les clients de Vertex AI qui utilisent les modèles de conversion de texte en image Imagen (version 2 et 3), pour les utilisateurs de son outil de génération d’images ImageFX et pour les quelques créateurs qui ont accès à son modèle de génération de vidéos Veo.

GitHub : Copilot s’ouvre à d’autres modèles et à Xcode, Spark écrit seul des applications

30 octobre 2024 à 11:18
Tranquille, pépère
GitHub : Copilot s’ouvre à d’autres modèles et à Xcode, Spark écrit seul des applications

À travers sa conférence Universe, GitHub a annoncé plusieurs de nouveautés importantes à destination des développeurs. Le projet Spark, par exemple, ambitionne l’écriture des applications réalisée entièrement par l’IA. Le fameux Copilot s’ouvre également à d’autres modèles et outils de la concurrence, ainsi que de plusieurs améliorations significatives.

GitHub a fait son show hier lors de sa conférence Universe. Comme de nombreuses autres entreprises, elle tient une grand-messe annuelle pour y présenter ses nouveautés. Une manière bien sûr d’attirer l’attention avec un tir groupé. Et on peut dire que GitHub a tiré tous azimuts.

Lorsque GitHub a lancé son Copilot – initiant une vague d’autres Copilot chez Microsoft, qui possède GitHub – les développeurs ont pu commencer à compléter leurs lignes de code par des suggestions. Lors d’une évolution suivante, ce sont des pans de code entiers qui ont pu être ajoutés, toujours sous la supervision des développeurs. C’est à ce moment-là que deux questions sont apparues : le code suggéré n’enfreint-il pas le droit d’auteur (via son entrainement sur les dépôts publics) ? À quand l’intégralité du code d’un projet suggérée par Copilot ?

Si la première question a trouvé réponse dans plusieurs plaintes, la seconde était dans l’attente. Avec Spark, GitHub a fini par y répondre.

Une petite application en langage naturel

Selon GitHub, Spark est né comme un projet de recherche dans son laboratoire GitHub Next. La question était posée : peut-on obtenir une application complète en décrivant simplement ce que l’on souhaite en langage naturel ? La réponse est : oui.

On commence par un premier prompt définissant dans les grandes lignes ce que l’on veut obtenir, sachant que Spark se destine plutôt aux petits projets pour l’instant. Les projets eux-mêmes peuvent viser des applications web, natives ou mobiles. Après cette première demande, Spark affiche un aperçu général de l’application. Le développeur peut alors compléter au fur et à mesure ses requêtes pour préciser un nombre plus ou moins importants de détails du fonctionnement.

Le code reste toujours accessible et peut donc être modifié. Selon GitHub, Spark permet surtout d’explorer des idées au travers de micro-applications. Il peut s’agir de petits outils pour s’aider au quotidien dans des tâches spécifiques, de petits robots ou agents pour traiter certaines informations. À TechCrunch cependant, GitHub a confirmé qu’il n’y avait a priori pas de limites à ce que l’on pouvait demander à Spark. L’outil, fourni pour l’instant en avant-première, accepte a priori toutes les entrées, mais ses capacités seront peut-être resserrées une fois le produit disponible en version finale.

Le potentiel de Spark semble conséquent, puisque l’outil peut utiliser n’importe quelle API web. En outre, il va profiter de l’ouverture de GitHub à d’autres modèles et outils.

GitHub s’ouvre à d’autres modèles

L’interface de « discussion » avec GitHub Copilot est basée depuis le début sur GPT, la version actuelle utilisant GPT4. Ce n’est pas étonnant, puisque l’on se situe toujours dans la galaxie Microsoft. Cependant, cette exclusivité va prendre fin.

GitHub a en effet annoncé hier que Copilot allait pouvoir être utilisé avec d’autres modèles d’IA générative. Claude 3.5 Sonnet aura les honneurs de commencer très prochainement. Gemini 1.5 Pro devrait suivre dans quelque semaines. GPT-4o, o1-preview et o1-mini et d’OpenAI suivront également.

L’entreprise dit croire au choix pour les développeurs, un seul modèle n’étant pas idéal dans tous les cas de figure. Selon les besoins, la politique d’entreprise, les langages de programmation ou encore les préférences personnelles, le choix d’un modèle ou d’un autre peut faire une grande différence. Dans notre cas, nous avons par exemple utilisé Claude pour créer un grand tableau permettant de calculer les abonnements à l’électricité les plus intéressants, en fonction de votre consommation horaire sur un an (chiffres obtenus par le Linky via le site d’Enedis).

Mais attention : ce choix ne va être offert dans un premier temps que sur Copilot Chat et Spark. GitHub compte bien le répercuter sur l’ensemble de ses outils, mais n’a fourni aucune information sur le délai.

GitHub s’ouvre à Xcode, un timing intéressant

Au sein de GitHub, Copilot représente toujours un produit central. À l’occasion de la conférence Universe, il reçoit plusieurs nouveautés, dont une ouverture à Xcode, l’environnement de développement intégré d’Apple.

Même s’il s’agit d’une préversion publique et qu’il reste donc du travail, le mouvement est intéressant à plus d’un titre. D’abord, parce que les développeurs sur Mac seront probablement intéressés par l’arrivée d’un composant entré dans les habitudes de bon nombre d’entre eux sur d’autres plateformes. Même si cette préversion se focalise d’abord et avant tout sur la complétion du code, d’autres fonctions arriveront par la suite.

Ensuite, parce qu’Apple vient de donner le coup d’envoi de son bouquet de services Apple Intelligence. Or, sur macOS Sequoia 15.1, Xcode peut profiter de l’assistant maison pour produire le même type de résultat. Mais là où l’assistant d’Apple est neuf et a encore tout à prouver, Copilot arrive avec une expérience de plusieurs années dans le domaine.

« Il s’agit d’une étape majeure dans notre mission permanente visant à faire de Copilot un outil essentiel pour les développeurs sur une grande variété de plateformes. Désormais, les développeurs Apple peuvent bénéficier de la même assistance intelligente au codage, intégrée de manière transparente dans leur IDE préféré », indique ainsi GitHub dans son communiqué.

Prenant en charge les langages Objective-C et surtout Swift, le Copilot de GitHub pourrait donc couper l’herbe sous le pied d’Apple. À ceci près qu’Apple n’a pour l’instant affiché aucun tarif pour ses fonctions alimentées par l’IA générative. Beaucoup se demandent d’ailleurs si la firme pourra longtemps proposer gratuitement ses services, au vu des investissements colossaux nécessaires, que ce soit pour l’entrainement des modèles, la puissance nécessaire ou l’infrastructure mise en place. Apple en a d’ailleurs récemment détaillé la sécurité, proposant jusqu’à un million de dollars aux chercheurs qui parviendraient à exécuter un code arbitraire dans son Private Cloud Compute.

L’arrivée officielle de Copilot sur Xcode devrait mettre un sérieux frein à certains projets tiers, comme l’extension Copilot for Xcode, disponible sous licence MIT.

D’autres apports pour Copilot

À côté des annonces importantes, on trouve également d’autres nouveautés pour Copilot. Dans VS Code, Copilot Chat permet par exemple désormais de modifier plusieurs fichiers à la fois, dans le cadre de projets plus complexes. Il propose aussi une fonction permettant d’examiner le code pour obtenir des informations complémentaires. À noter la possibilité de personnaliser les instructions à Copilot Chat pour lui pointer les outils préférés par une personne ou une structure (comme une entreprise), ainsi que les connaissances organisationnelles.

GitHub a en outre donné quelques informations sur les fameuses extensions, qui permettent de personnaliser les demandes pour tenir compte d’un contexte particulier. Plusieurs d’entre elles ont été créées par Atlassian, Docker ou encore Stack Overflow, mais sont toujours en préversions.

On sait à présent que les versions finales seront lancées en début d’année prochaine, mais il n’y a pas encore de date précise. Dans la foulée, toute personne, entreprise ou autre structure pourra créer ses propres extensions, la capacité n’étant plus liée à quelques partenaires triés sur le volet.

☕️ OpenAI travaille avec Broadcom et TSMC pour créer sa propre puce d’ici 2026

30 octobre 2024 à 10:13
logo OpenAI dans l'obscurité
Mojahid Mottakin – Unsplash

Selon l’agence de presse Reuters, OpenAI cherche à minimiser le coût des puces dont elle a besoin pour développer ses systèmes d’intelligence artificielle générative.

Après avoir imaginé des plans ambitieux pour devenir son propre fondeur, l’entreprise les aurait abandonnés pour leur coût trop élevé et un temps de développement trop long. Elle se serait alors rapprochée de Broadcom et de TSMC. Elle se rabattrait donc plutôt sur un design maison de ses puces.

OpenAI cherche aussi à diversifier son approvisionnement actuel en GPU et devrait plus se tourner vers les puces MI300X d’AMD.

Comme le rappelle Reuters, l’entrainement des modèles d’IA générative sur ces puces est particulièrement coûteux. OpenAI prévoit pour cette année 5 milliards de dollars de perte pour un chiffre d’affaires de 3,7 milliards de dollars.

❌
❌