Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

☕️ Automattic : Matt Mullenweg a proposé une nouvelle offre de départ aux salariés

Automattic : Matt Mullenweg a proposé une nouvelle offre de départ aux salariés

Selon le média 404, le CEO d’Automattic (propriétaire de la plateforme wordpress.com), Matt Mullenweg, a envoyé mercredi 16 octobre une nouvelle offre de départ aux salariés qui désapprouveraient sa façon de gérer le différent de son entreprise avec son concurrent WP Engine.

Alors qu’il s’est lancé depuis fin septembre dans un conflit juridique et de communication avec WP Engine, le responsable d’Automattic n’a pas l’air de supporter les voix discordantes.

Début octobre, il avait déjà proposé une offre de 30 000 dollars ou six mois de salaire aux employés de son entreprise qui ne seraient pas tout à fait sur sa ligne. Résultat, 159 personnes ont accepté cette offre, soit un peu plus de 8 % de l’entreprise.

La nouvelle offre de Matt Mullenweg serait de neuf mois de salaire. Dans son message sur le Slack de l’entreprise, le CEO d’Automattic écrit : « je suppose que certaines personnes étaient tristes d’avoir manqué la dernière fenêtre. Certains ont divulgué des informations à la presse et à d’anciens employés. De l’eau a coulé sous les ponts. Peut-être que la dernière offre devait être plus élevée ».

Comme lors de la première proposition, le délai de réflexion était très court puisque Matt Mullenweg n’a donné à ses employés que jusqu’au lendemain pour lui envoyer un DM de démission : « Vous avez jusqu’au 17 octobre à 00h00 UTC (- 4 heures) pour me transmettre les mots suivants : « Je démissionne et j’aimerais accepter l’offre de rachat de 9 mois ». Je vous répondrai « Merci ». Automattic acceptera votre démission ».

Le responsable d’Automattic a menacé ses employés en affirmant avoir « les moyens d’identifier les sources des fuites » et que la proposition était une « opportunité de se retirer de façon élégante », selon 404 qui parle d’ « environnement de paranoïa et de peur à l’intérieur d’Automattic ».

☕️ La justice valide le blocage de quatre sites porno non établis en Europe, du répit pour cinq autres

La justice valide le blocage de quatre sites porno non établis en Europe, du répit pour cinq autres

Des associations de protection de l’enfance ont demandé à la justice d’ordonner des blocages de neuf sites pornographiques, indique Le Monde.

L’AFP explique que « la cour d’appel de Paris a ordonné le blocage de plusieurs sites pornographiques extra-européens en raison de l’absence de contrôle de l’âge des utilisateurs, mais a accordé un sursis aux plateformes hébergées dans l’Union européenne ».

Pourquoi une telle différence ? « Pour ceux établis en Europe, le droit européen prime sur toute autre considération », rappelle Alexandre Archambault, avocat spécialiste du numérique. Bref, « la justice enjoint ainsi aux fournisseurs d’accès à Internet de procéder au blocage des sites xHamster, TuKif, Mr Sexe, IciPorno « dans un délai de quinze jours » », explique Le Monde.

Concernant les sites établis au sein de l’Union européenne (Pornhub, Youporn, Redtube, Xvideos et XNXX), la cour d’appel de Paris attend une décision de la cour de justice de l’Union européenne, « qui doit examiner prochainement une série de questions préjudicielles posées par le Conseil d’État dans un dossier proche ».

Aylo (éditeur de Pornhub, établi en Europe), se félicite auprès de nos confrères que ce soit à la CJUE d’examiner « le sujet très complexe des restrictions par l’âge, avec ses questions de protection de la vie privée et d’application à travers différentes plateformes en ligne et dans différents pays ». e-Enfance parle d’une « première grande victoire », mais La Voix de l’enfant se dit « déçue » car « des sites majeurs échappent à un blocage qui devrait s’imposer ».

Il y a quelques jours, on apprenait que l’Arcom allait permettre un test temporaire du contrôle d’âge avec carte bancaire.

Grande carte de l’Univers par Euclid : un premier morceau de 208 gigapixels

Alors, pas trop deg ?
Grande carte de l’Univers par Euclid : un premier morceau de 208 gigapixels

Les premières observations du télescope spatial Euclid donnent satisfaction aux scientifiques, qui peuvent déjà voyager dans une petite partie de l’univers et zoomer jusqu’à 600 fois dans certaines zones. Le travail continue pour la mission, qui doit durer six ans et couvrir plus d’un tiers du ciel.

Euclid est une mission de l’Agence spatiale européenne (ESA) lancée en juillet 2023, direction le point de Lagrange L2. Le but de sa mission : étudier la matière et l’énergie noires. Les observations scientifiques de routine ont débuté le 14 février 2024, mais le télescope a connu quelques déboires avec de la glace sur ses miroirs.

L’ESA annonce que le télescope vient d’écrire « la première page » de son grand atlas cosmique avec « le premier morceau de sa grande carte de l’Univers, qui montre des millions d’étoiles et de galaxies ». Il prend la forme d’une carte de 208 gigapixels basée sur 260 observations réalisées entre le 25 mars et le 8 avril de cette année. La carte existe, mais elle n’est malheureusement pas publique, impossible donc de s’y balader pour le moment.

132 degrés carrés… kesako les degrés carrés ?

« En seulement deux semaines, Euclid a couvert avec une précision parfaite 132 degrés carrés du ciel austral, soit plus de 500 fois la superficie de la pleine lune ». Cela ne représente cela dit qu’un seul pourcent de la surface du ciel qu’Euclid doit analyser pendant six ans. À la fin de sa mission, Euclid devrait en effet avoir cartographié « plus d’un tiers du ciel ».

L’ensemble du ciel est une sphère de 41 000 degrés carrés environ, soit environ 13 600 degrés carrés pour en avoir un tiers. « Un degré carré permet de mesurer une partie de la sphère de la même façon qu’un degré permet de mesurer une partie d’un cercle », explique Wikipédia. On parle de degré carré et on écrit tout simplement deg², comme on utilise cm², de km², etc.

Jusqu’à présent (de février à octobre), Euclid a effectué 12 % des relevés qu’elle doit réaliser. « D’autres données seront révélées en mars 2025 avec la publication de 50 degrés carrés de l’étude Euclid comprenant un aperçu des zones du champ profond Euclid. La première année de données cosmologiques de la mission sera communiquée en 2026 », précise le CEA.

Euclid va s’intéresser uniquement aux zones en orange

Un « petit » miroir de 1,2 m de diamètre

Le télescope se concentre principalement sur les parties du ciel en dehors de la Voie lactée pour éviter d’être « pollué » par les étoiles de notre galaxie, qui font bien trop de lumière pour espérer chasser des indices permettant de remonter à la matière et a l’énergie noire.

Avec seulement 1,2 m de diamètre, le miroir principal d’Euclid pourrait sembler modeste face aux 2,4 m de Hubble et 6,5 m de Webb), mais « cet observatoire qui travaille à 1,5 million de kilomètres de nous au point de Lagrange Terre-Soleil L2 a déjà démontré sa capacité à produire de très belles images », explique la Cité des sciences. Il a des caméras en lumière visible et infrarouge proche.

Une image valant mille mots, voici des présentations faites par le CEA (ci-dessus) et la Cité des sciences (ci-dessous). Elles illustrent la profondeur des images et la capacité de zoom (600x) proposée par les relevés. On se rend également bien compte de la toute petite partie du ciel pour le moment cartographiée (la zone jaune sur la première image).

Vers « la plus grande carte cosmique en 3D jamais réalisée »

L’ambition de l’ESA est grande : il s’agit de créer « la plus grande carte cosmique en 3D jamais réalisée » avec les formes, distances et mouvements de milliards de galaxies, dont certaines sont situées jusqu’à 10 milliards d’années-lumière. Pour rappel, cela signifie que la lumière met 10 milliards d’années à rejoindre la Terre et que nous les observons donc telles qu’elles étaient il y a 10 milliards d’années.

100 millions de sources

Dans le premier morceau de ciel observé se trouvent environ 100 millions de sources, c’est-à-dire des étoiles et des galaxies dans l’Univers. Dans le lot, « 14 millions de galaxies pourraient être utilisées pour étudier l’influence cachée de la matière noire et de l’énergie noire sur l’Univers », ce qui est la mission première d’Euclid.

Les scientifiques estiment que la matière noire et de l’énergie noire « représentent tout de même 95 % du bilan énergétique de l’univers, le 5 % restant étant celui de la matière « ordinaire » (les atomes qui nous constituent, ceux des planètes, des étoiles, etc.) ».

Vous avez peut-être remarqué des régions vides dans la mosaïque d’Euclid. Elles « ont été intentionnellement évitées pendant l’étude en raison de la présence d’étoiles très brillantes qui auraient « aveuglé » les instruments sensibles d’Euclid », explique le CNES.

☕️ OpenAI lance son application Windows en préversion

En mai dernier, OpenAI lançait sa première application. Elle visait les Mac et contenait toutes les fonctions que l’on pouvait en attendre. Elle se destinait aux abonnés payants de ChatGPT, avant d’être utilisable par tous quelques semaines plus tard. L’application avait été épinglée pour son stockage des données en clair, avant d’être corrigée.

On ne sait pas vraiment pourquoi, mais il aura fallu des mois pour qu’une version Windows apparaisse, et il s’agit d’une préversion. Réservée aussi aux abonnés payants, elle prend en charge l’envoi de fichiers et de photos, toutes les fonctions sur les textes (dont les résumés), ainsi que la génération d’images via DALL-E 3. Tous les modèles d’OpenAI sont supportés jusqu’à o1-preview.

S’agissant d’une préversion, plusieurs fonctions manquent cependant à l’appel, dont le support des commandes vocales. Tout ne fonctionne pas encore non plus avec le GPT Store. Sur X, OpenAI indique qu’une version finale et complète arrivera d’ici la fin de l’année. Si l’entreprise garde le même schéma que pour son application Mac, l’utilisation sans abonnement devrait arriver quelques semaines plus tard.

☕️ #LIDD : des trombones à la destruction de l’Univers en passant par des super IA

#LIDD : des trombones à la destruction de l’Univers en passant par des super IA

Hier, Mathilde vous a proposé un bonus après la mise en ligne du deuxième épisode du podcast Algorithmique, avec une transcription de l’interview de Raziye Buse Çetin. On y parle évidemment d’intelligence artificielle. gg40 propose une vidéo qui fait le buzz ces derniers jours : L’horreur existentielle de l’usine à trombones par EGO.

Ne vous arrêtez pas aux trombones, c’est un prétexte pour aller bien plus loin. La vidéo commence par de clics pour produire des trombones, puis s’accélère avec des (sur)optimisation, avant de passer à l’intelligence artificielle et la « super intelligence », entre fantasme et espoirs.

En tout cas, tout le monde est conscient d’avoir conscience qu’il faut être conscient… mais on s’égare et on vous laisse regarder la vidéo. Je ne sais pas pour vous, mais la conclusion me fait un peu penser au Guide du voyageur galactique

☕️ Apple Business Connect se dote d’un outil d’identification pour les marques sur iOS

Apple Business Connect est le service par lequel le constructeur de l’iPhone propose aux marques, commerçants et entreprises de gérer leur présence sur son application Plans. L’outil permet en premier lieu de travailler la visibilité de sa marque, en affichant par exemple son logo ou des photos de son établissement. Il autorise également des interactions plus directes, comme l’intégration d’un bouton d’appel immédiat, l’accès à un chat, l’affichage d’horaires ou la prise de commandes et de réservations à distance.

Ces interactions et cet affichage restaient toutefois jusqu’ici cantonnées à l’application Plans. Mais Apple propose désormais aux entreprises de gérer leur image de marque dans d’autres pans de son environnement mobile, avec des attributs visuels qui se déclineront dans les applications Téléphone, Cartes (Wallet) et Mail.

Annoncée mercredi, cette extension du programme Apple Business Connect est ouverte à toutes les entreprises, y compris celles qui n’opèrent leurs activités qu’en ligne et n’ont donc pas besoin de revendiquer une adresse sur Plans.

Selon Apple, cette visibilité offre une forme de caution ou de réassurance face à d’éventuelles craintes d’usurpation d’identité. « L’an prochain, les entreprises pourront également s’enregistrer pour Business Caller ID. Leur nom, leur logo et le service concerné apparaîtront sur l’écran de réception d’appel quand elles appellent leurs clients, ce qui aidera à distinguer les entreprises vérifiées des émetteurs de spam ou des autres appels non sollicités », décrit Apple.

Gratuite, l’inscription au programme Apple Business Connect passe par la création préalable d’un compte Apple. La marque n’a pour l’instant pas communiqué le rythme précis de déploiement de ces fonctionnalités sur ses différents marchés.

Ce sujet de la vérification des entreprises est également à l’étude chez Google qui, après un déploiement progressif dans Gmail, teste depuis peu l’affichage d’une marque bleue dédiée dans ses résultats de recherche.

Western Digital intègre 11 plateaux dans des disques durs de 3,5″

+1
Western Digital intègre 11 plateaux dans des disques durs de 3,5″

Alors que cela semblait difficile, voire impossible, il y a quelques années, Western Digital vient d’ajouter encore un plateau dans ses disques durs de 3,5″, pour un total de 11. Il propose ainsi une version CMR de 26 To et une SMR de 32 To. Pour y arriver, pas de révolution, mais « quelques microns » par-ci par-là.

Il y a quelques jours, l’Institute of Electrical and Electronics Engineers (IEEE) publiait sa feuille de route pour les années à venir dans le petit monde du stockage, avec des disques durs de 100 To à l’horizon 2037.

Après la théorie, la pratique en 2024 avec Western Digital qui annonce une première mondiale : l’expédition des premiers disques durs avec 11 plateaux, alors que la limite semblait être à 10. Deux gammes en profitent : les Ultrastar DC HC590 et Ultrastar DC HC690.

Jusqu’à 26 To en CMR

Commençons par les Ultrastar DC HC590 avec une capacité de 24 ou 26 To, disponibles avec une interface SAS ou S-ATA. Avec 11 plateaux, cela nous donne une densité de 2,36 To par plateau sur le modèle de 26 To. Ils tournent à 7 200 tpm et le fabricant annonce des taux de transfert jusqu’à 302 Mo/s.

Le disque dur utilise la technologie ePMR (Energy-assisted PMR) du constructeur, avec PMR qui signifie Perpendicular Magnetic Recording. Les pistes de cet HDD sont en CMR (Conventional Magnetic Recording) et fonctionnent donc comme la grande majorité des disques durs actuels. La fiche technique donne plus de détails.

Jusqu’à 32 To en SMR

Ce n’est pas le cas des Ultrastar DC HC690 qui sont pour leur part en SMR (Shingled Magnetic Recording). Nous avons déjà longuement détaillé cette technologie qui permet de superposer en partie les pistes afin d’augmenter la densité des plateaux. Cela peut par contre provoquer une baisse des performances en écriture à cause d’un phénomène d’amplification. En lecture, rien ne change.

La densité est plus élevée avec des disques durs de 30 et 32 To, toujours en SAS ou S-ATA. Là encore, il y a 11 plateaux, soit une densité qui s’approche des 3 To par plateaux (2,9 précisément). La vitesse de rotation est toujours de 7 200 tpm, avec un débit maximum moins important que sur la gamme HC590 : 260 Mo/s « seulement ». La fiche technique se trouve par ici.

11 plateaux dans 26,1 mm de hauteur

Dans les deux cas, la technologie HelioSeal est de la partie. Elle consiste à remplacer l’air entre les plateaux par de l’hélium, pour réduire la consommation et l’échauffement, particulièrement lorsque les plateaux sont serrés comme des sardines, ce qui est d’autant plus le cas avec l’augmentation du nombre de plateaux. Rien de neuf pour autant, cette manière de faire est utilisée depuis des années par les fabricants.

Arriver à placer 11 plateaux dans un disque dur de 3,5″ relève de l’assemblage de précision tant l’espace est contraint. Les mensurations des deux séries de Western Digital sont de 146,7 x 101,6 x 26,1 mm. Il faut donc caser la carcasse du boîtier, les 11 plateaux et les 22 têtes de lecture/écriture dans seulement 26,1 mm de hauteur.

Quand intégrer 10 plateaux semblait déjà difficile

Preuve que les temps changent, placer 11 plateaux dans un HDD semblait inaccessible il y a encore quelques années. En novembre 2019, nous avions en effet discuté avec un technicien de Seagate qui nous expliquait être « au bout » (ou presque) de la technologie telle qu’elle était alors utilisée : « En hélium, on arrive à 9 plateaux, mais à mon avis 10 plateaux, je ne suis pas sûr que ça se fasse […] Il n’y a plus beaucoup de matière en haut et en bas, on est très proches des bords et il faut quand même garder une certaine rigidité » de l’ensemble.

Non seulement les fabricants ont intégré dix plateaux depuis maintenant quelques années, mais Western Digital passe donc à onze. Et pas seulement sur des prototypes puisque les expéditions ont débuté affirme le constructeur.

Économiser « quelques microns » ici et là

Ce dernier explique dans un billet de blog que les travaux sur l’intégration d’un onzième plateau ont débutés en 2022, avec une évaluation des options disponibles. Augmenter l’épaisseur des disques durs n’était pas envisageable, car les racks des datacenters (la principale cible des HDD avec une telle densité) sont standards, impossible donc d’en déroger pour toucher ce marché.

Cela ne laisse que trois options, comme l’indique Takaaki Deguchi (responsable de cette évolution chez WD) : « Vous devez soit réduire l’espacement entre les plateaux, soit l’épaisseur des plateaux, soit celle d’autres pièces comme le bas ou le haut du boîtier ». Jusqu’à présent, ajoute Western Digital, la technique utilisée était un mélange des deux premières options.

Pour son passage à 11 plateaux, la société s’est concentrée sur la réduction de l’espace entre les plateaux, visiblement sans toucher aux plateaux en eux-mêmes. Cela passe donc par des changements au niveau des bras avec les têtes de lecture et écriture afin de les rapprocher davantage des plateaux.

Ce n’était pas suffisant puisqu’il a aussi fallu diminuer l’épaisseur de la partie basse du châssis (une pièce moulée), sans rogner sur la rigidité pour ne pas fragiliser l’ensemble. Le PCB (avec les composants électroniques) a aussi été modifié « pour éviter tout chevauchement avec la pile des plateaux ».

Western Digital résume la situation : « Ce n’est pas un ou deux changements qui ont permis cela, mais plutôt un examen minutieux et une optimisation d’une multitude d’éléments. Il s’agissait littéralement d’économiser quelques microns d’espace dans des zones ciblées qui, collectivement, ont abouti à quelque chose d’assez important » pour installer un onzième plateau. Une manière de dire qu’on arrive au bout du bout des optimisations ? L’avenir nous le dira.

La relève est déjà là avec HAMR, MAMR, HDMR…

Quoi qu’il en soit, il existe bien d’autres moyens d’augmenter la densité sans ajouter de plateaux, notamment avec les technologies BPMR, HAMR, MAMR et autre HDMR. Et tous les fabricants s’y intéressent, avec plus ou moins d’affinités suivant les technologies. Les disques durs MAMR et HAMR sont déjà une réalité avec des versions de plus de 30 To et des modèles de 36 et 40 To à venir.

Ces technologies sont d’une certaine manière une cassure par rapport aux CMR et SMR actuels (dont on arrive à bout des optimisations) afin d’augmenter la densité des plateaux avec des lasers ou des micro-ondes. Elles commencent seulement à montrer leur potentiel, mais c’est grâce à elles (et leurs évolutions) que l’on pourrait atteindre les 100 To annoncés par l’IEEE. Bien sûr, si les fabricants arrivent à passer de 10 à 11 plateaux en HAMR/MAMR, cela permettra aussi de gagner 10 % de capacité à moindre coût.

Des hackers iraniens s’attaquent à de multiples infrastructures critiques

Des hackers iraniens s’attaquent à de multiples infrastructures critiques

Les autorités des États-Unis, du Canada et d’Australie alertent contre les attaques de force brute menées par des acteurs iraniens contre diverses infrastructures critiques.

Dans une note conjointe, les autorités états-uniennes, australiennes et canadiennes alertent contre les cyberactivités d’acteurs iraniens. Ils les soupçonnent d’être les premiers maillons d’une chaîne de cyberdélinquance, attaquant par force brute des infrastructures critiques pour ensuite revendre les accès et les informations obtenus à d’autres acteurs malveillants. 


Le Federal Bureau of Investigation (FBI), la Cybersecurity and Infrastructure Security Agency (CISA), la National Security Agency (NSA), le Communications Security Establishment Canada (CSE), la police fédérale australienne et l’Australian Signals Directorate’s Australien Cyber Security Centre (ASD’s ACSC) signent ensemble ce document détaillant le modus operandi des attaquants et proposent plusieurs pistes d’atténuation du risque.

Activités iraniennes intenses contre les États-Unis

Depuis octobre 2023, rappellent les autorités des États, différentes attaques commises par des acteurs iraniens ont été repérées, notamment contre les réseaux d’entités gouvernementales, du secteur de la santé, de l’information, de l’ingénierie ou de l’énergie.

Aux États-Unis, certains acteurs ont par exemple tenté d’interférer dans la campagne pour la présidentielle 2024 en envoyant aux équipes de Joe Biden, avant qu’il renonce à se présenter, des informations volées à celles de Donald Trump. D’autres se sont attaqués aux systèmes de contrôle industriel (ICS) de plusieurs compagnies des eaux du pays (ainsi qu’en Irlande, où 180 personnes se sont retrouvées privées d’eau pendant deux jours).

Password spraying et bombardement MFA

En pratique, ces acteurs recourent à différentes techniques, dont de la pulvérisation de mots de passe (password spraying, le fait d’utiliser un même mot de passe pour tenter d’accéder à de multiples comptes), et du bombardement d’authentification multi-facteurs (MFA bombing, ou MFA fatigue attack : le fait d’initier une authentification multi-facteurs à de multiples reprises en espérant que l’utilisateur visé, lassé, accepte au moins l’une des requêtes).

Leur but initial, selon les autorités des trois États : obtenir des identifiants Microsoft 365 ou Citrix. Une fois ces accès acquis, les attaquants ont souvent mis en place l’authentification multi-facteurs sur leurs propres appareils pour sécuriser leurs accès via un compte légitime.

À partir de là, les cyberattaquants sont suspectés de réunir autant d’informations que possible sur les systèmes attaqués et/ou de viser à améliorer leurs accès. Certains ont par exemple utilisé l’authentification Kerberos avec le nom du principal du service (SPN) pour obtenir des tickets Kerberos, ce qui peut aboutir à l’exposition d’identifiants en clair. L’un des attaquants a aussi tenté d’usurper l’identité du contrôleur de domaine, qui contrôle les utilisateurs d’un réseau informatique et répond aux demandes d’authentification.

Dans plusieurs occurrences, les attaquants ont récupéré des informations relatives à l’accès à distance à l’entité visée, et à son organisation. Les autorités signataires estiment que ces informations servent soit à être revendues ailleurs, soit à sécuriser la présence des acteurs malveillants dans les réseaux concernés.

Mesures d’atténuation

Pour détecter de potentielles attaques, elles recommandent de vérifier les journaux d’authentification à la recherche d’échecs de connexion au système et de multiples tentatives d’authentification infructueuses ; de chercher l’usage d’une seule adresse IP pour de multiples comptes (hors cas prévus) ; ou encore de chercher les « voyages impossibles », c’est-à-dire les cas où un utilisateur se connecterait depuis plusieurs adresses IP à des distances géographiques trop éloignées pour qu’il soit réaliste de s’y déplacer dans le temps séparant les deux connexions (avec le risque que l’usage de VPN génère de faux positifs).

Elles fournissent aussi une variété de mesures d’atténuation spécifiquement liées aux tactiques, techniques et procédures (TTP) des activités malveillantes concernées, accessible dans leur note.

☕️ Après Microsoft et Google, Amazon annonce aussi des investissements dans le nucléaire

Après Microsoft et Google, Amazon annonce aussi des investissements dans le nucléaire

Microsoft et Google ont déjà affiché leur volonté d’investir dans l’énergie nucléaire, en vue de compléter leur mix énergétique pour leurs centres de données. Les précédentes annonces sur la neutralité carbone sont rendues obsolètes par l’explosion de consommation nécessaire à l’usage de grands modèles de langage, et les grandes entreprises du cloud et de l’IA cherchent à décarboner leurs activités.

L’annonce d’Amazon montre une série d’investissements. Plutôt que de passer par un seul acteur, l’entreprise a négocié trois contrats. Le premier, avec Energy Northwest, prévoit la construction de quatre SMR (réacteurs nucléaires modulaires) près d’une centrale existante aux États-Unis, pour une énergie de 320 MW d’ici au début des années 2030.

L’accord prévoit la construction de huit SMR supplémentaires, pour un total de 960 MW. Amazon aurait accès à une partie de cette énergie, mais le communiqué d’Energy Northwest évoque aussi l’alimentation de foyers.

Un deuxième accord a été noué avec X-energy. Amazon a participé à une levée de fonds de 500 millions de dollars par cette entreprise, qui compte déployer pour 5 000 MW de SMR aux États-Unis d’ici 2039. D’après X-energy, il s’agit du plus gros déploiement prévu de SMR commerciaux. La société ajoute que le projet se fait également en partenariat avec les pouvoirs publics.

Enfin, le dernier accord a été conclu avec Dominion Energy en Virginie, en vue de l’installation d’un SMR à côté d’une centrale existante. Dans le communiqué, Dominion Energy indique que le besoin en électricité augmente de plus de 5 % par an dans l’État. Son gouverneur, Glenn Youngkin, a d’ailleurs déclaré que « les SMR joueront un rôle essentiel dans le positionnement de la Virginie en tant que centre d’innovation nucléaire de premier plan ».

Deepfakes, chatbots non consentis : l’IA générative largement utilisée pour harceler

Qui aurait pu prévoir
Deepfakes, chatbots non consentis : l’IA générative largement utilisée pour harceler

Comme s’en sont inquiétés les spécialistes dès la sortie des modèles d’IA générative grand public, les usages de ces technologies à des fins de harcèlement se multiplient.

Après les deepfakes à caractère pornographiques, les chatbots imitant des personnes réelles. Si l’IA générative ouvre des perspectives en matière de création ou de résumés de contenus, elle est aussi facilement détournée à des fins malveillantes, et notamment de harcèlement.

Dans deux enquêtes successives, Wired revient sur le nombre faramineux de robots de « nudification », c’est-à-dire qui propose de dénuder les images de personnes réelles sans leur consentement, disponibles sur Telegram, et sur l’existence de chatbots construits pour imiter des personnes réelles, vivantes ou décédées.

Dans les deux cas, le consentement des personnes concernées est rarement demandé… quand les productions ne servent pas directement à harceler.

Des millions d’utilisateurs de bots de « nudification »

Les deepfakes pornographiques sont un problème mondial, qui vise ultra-majoritairement les femmes, nous l’avons couvert à de multiples reprises. Mais celui-ci en ne se traduit pas de la même manière selon les plateformes étudiées.

En l’occurrence, Wired rapporte avoir dénombré plus de 50 bots construits à l’aide d’intelligence artificielle générative pour permettre aux internautes de dénuder des images de femmes sur Telegram, plateforme réputée être l’une des moins efficaces en termes de modérations.

À eux seuls, cette cinquantaine de robots récoltent plus de quatre millions d’ « utilisateurs mensuels » (à ceci près qu’il est difficile d’établir la mesure dans laquelle un utilisateur est consommateur des contenus de plusieurs bots).

Pour leur fournir le contenu, ces bots sont reliés à plus d’une vingtaine de canaux Telegram dédiés. Plusieurs ont été modérés une fois que Wired les a signalés à la plateforme : à la suite de l’arrestation de son patron Pavel Durov en France en août, cette dernière a commencé à modifier ses pratiques.

Création non consentie d’imitations textuelles et vocales

En parallèle, un autre cas d’usage d’IA générative se retrouve détourné à des fins malveillantes : la création de chatbots textuels et vocaux ressemblant à des personnes réelles. Wired s’arrête en particulier sur le cas de Character.ai, qui permet de créer très simplement des chatbots de personnes imaginaires, issues de la fiction… ou de la pop culture (Next a par exemple croisé des imitations plus ou moins crédibles de Céline Dion, Nicki Minaj et Donald Trump).

En l’occurrence, Wired rapporte aussi l’existence de robots construits pour imiter des personnes moins célèbres, dont certaines décédées, sans que leurs proches n’aient consenti au procédé.

Le média relève par ailleurs la présence d’imitation de plusieurs membres de l’écosystème du jeu vidéo visés par des campagnes de cyberharcèlement à plus ou moins long cours, parmi lesquels Anita Sarkeesian, créatrice de la chaîne Feminist Frequency à la fin des années 2000 et violemment prise à partie lors du Gamergate, ou Kim Belair, créateur du studio Sweet Baby Inc., attaqué début 2024 à cause de son activité de conseil dans l’écriture de jeux vidéos.

Interviewés, ces derniers soulignent les risques que cela peut poser pour leur vie privée comme leurs activités économiques, mais aussi les difficultés de contester la création de ce type de personnage : en droit américain, il peut être difficile de prouver qu’une telle imitation cause un dommage à la personne concernée.

Canaris dans la mine des violences numériques

Ces deux cas viennent directement illustrer les alertes lancées dans un rapport de l’UNESCO quelques semaines à peine après la sortie de modèles grand public de génération d’images ou de textes.

La data scientist Rumman Chowdhury y soulignait le fait que les femmes et les minorités étaient « les « canaris dans la mine » des violences numériques », c’est-à-dire qu’elles étaient régulièrement les premières exposées à des problématiques qui, à terme, touchaient l’intégralité des internautes.

En conséquence, la scientifique exhortait l’écosystème à investir autant dans la protection des utilisateurs que dans le développement de l’intelligence artificielle.

☕️ Amazon lance de nouvelles liseuses Kindle, dont un modèle à écran couleur

Nouvelle série de liseuses chez Amazon, avec pour la première fois un modèle à écran couleur. Nommée Colorsoft, elle propose une dalle de 7 pouces rétro-éclairée avec une définition de 300 ppp en noir et blanc, et 150 ppp pour la couleur. Il est possible de surligner des passages en jaune, orange, bleu ou rose. Pesant 219 g, la Colorsoft affiche une autonomie de 8 semaines.

La liseuse est vendue en précommande à 299,99 euros avec 32 Go de mémoire (modèle unique). La disponibilité est fixée au 30 octobre.

Le modèle phare Paperwhite est légèrement remanié, avec un écran passant de 6,8 à 7 pouces et un contraste supérieur aux autres modèles. La liseuse est plus puissante, Amazon évoque un chargement 25 % rapide des pages par rapport à sa grande sœur, ainsi qu’un défilement plus fluide des contenus. Légèrement plus fine que le modèle précédent, la nouvelle Paperwhite passe à 12 semaines d’autonomie.

Les précommandes sont ouvertes avec un tarif débutant à 169,99 euros pour 16 Go de stockage et avec publicité (10 euros de plus pour les enlever). Les modèles 32 Go sont appelés Signature, voient leur couleur au dos devenir métallisée, gagnent une recharge sans fil ainsi qu’un ajustement automatique de luminosité. Leur tarif est de 199,99 euros. Pour tous les modèles, la disponibilité est annoncée pour le 20 octobre.

Évolution également pour la Kindle Scribe, dédiée à la prise de notes (en plus de la lecture). Ce modèle de 10,2 pouces propose désormais d’écrire des notes directement dans un livre ou un PDF, le contenu se réorganisant autour. On peut sinon créer des notes comme précédemment, dans un espace distinct. Amazon ajoutera plus tard, via une mise à jour, la possibilité d’écrire dans les marges. L’IA déboule également pour créer des résumés sous forme de listes, mais une partie des fonctions n’est disponible qu’en anglais.

La nouvelle Kindle Scribe est en précommande à partir de 429,99 euros pour 16 Go en gris tungstène. Le modèle 32 Go est facturé 449,99 euros, tandis que le 64 Go est vendu 479,99 euros et déverrouille la couleur vert métallisé. La disponibilité est annoncée pour le 4 décembre.

Enfin, la Kindle classique d’entrée de gamme évolue elle aussi. Son écran rétro-éclairé de 6 pouces et 300 ppp est décrit comme 25 % plus lumineux. Là aussi, les pages se tournent plus vite. L’autonomie annoncée est de 6 semaines et le stockage est de 16 Go. Un seul modèle est proposé, mais en deux couleurs : le noir classique et le nouveau vert matcha. Vendue 109,99 euros avec publicité ou 119,99 euros sans, la nouvelle Kindle est immédiatement disponible.

☕️ Meta licencie des employés de WhatsApp, Instagram et Reality Labs

Meta licencie des employés de WhatsApp, Instagram et Reality Labs

Meta a licencié des personnes travaillant dans plusieurs de ses équipes, dont chez WhatsApp, Instagram et Reality Labs, ce 16 octobre.

Auprès de The Verge, l’entreprise explique réorganiser une partie de ses activités pour « s’assurer que les ressources soient alignées avec [ses] objectifs stratégiques de long-terme ».

En ligne, des employés ayant travaillé chez Facebook, dans les équipes de recrutements, des opérations juridiques et du design déclarent avoir été licenciés.

Auprès de TechCrunch, Meta indique pourtant que les équipes de Threads, du recrutement et du juridique n’ont pas été touchées.

Certains employés se sont vus offrir de nouveaux rôles, voire de nouveaux contrats, ou la possibilité de prendre des indemnités de licenciement. 


En 2022, Meta a licencié 11 000 personnes, soit 13 % de ses employés, après avoir embauché de manière agressive pendant la pandémie. En 2023, l’entreprise a licencié 10 000 employés de plus et supprimé 5 000 propositions de postes encore non pourvues. 


Dans ce cas précis, l’entreprise n’a pas souhaité communiquer sur le nombre exact de personnes licenciées.

☕️ Face aux constructeurs d’IA générative, le Royaume-Uni devrait étudier l’option de l’opt-out

Face aux constructeurs d’IA générative, le Royaume-Uni devrait étudier l’option de l’opt-out

Après des mois de lobbying du monde de la tech comme de l’industrie créative, le gouvernement du Royaume-Uni s’apprête à étudier la possibilité de permettre le scraping des données disponibles en ligne, sauf en cas d’ « opt-out » des éditeurs.

Si l’option correspondrait à la position d’Alphabet et de ses concurrents, qui cherchent à amasser le maximum de contenu puis entraîner leurs modèles, elle irait à l’encontre de celle des éditeurs, détaille le Financial Times.

Ces derniers estiment en effet la logique de l’opt-out injuste et complexe à mettre en place, dans la mesure où il est difficile de savoir quelles entreprises tentent de récupérer leur contenu.

Leurs dirigeants restent par ailleurs profondément opposés au projet, estimant qu’il mènera à un vol de droits d’auteur à grande échelle, rapporte le quotidien économique.

La proposition doit être étudiée dans les prochaines semaines.

Intel et AMD s’associent pour piloter l’avenir de l’architecture x86

Meilleurs ennemis
Intel et AMD s’associent pour piloter l’avenir de l’architecture x86

Intel et AMD ont annoncé la création du x86 Ecosystem Advisory Group, qui va présider désormais au développement de l’architecture et à sa cohérence. Une annonce surprise, mais qui rassemble de nombreux grands noms de l’informatique. Bien que l’initiative soit considérée comme particulièrement positive, le nouveau groupe a des airs de comité de défense contre l’architecture Arm.

Intel et AMD ont un problème croissant. On ne parle pas nécessairement des déboires d’Intel, dont les finances se portent mal, au point que d’autres tapent à sa porte avec des propositions de rachat. On parle de l’architecture Arm et de sa présence croissante dans les produits informatiques du marché.

Pendant des décennies, l’architecture x86 a régné en maitre sur les ordinateurs de toutes les tailles, jusqu’aux supercalculateurs. L’architecture Arm, elle, était cantonnée au marché des appareils mobiles et des objets connectés. Mais elle est montée en puissance. Pour ne parler que des années récentes, Apple a franchi le pas avec ses puces M, héritées de la série A présente dans les iPhone et iPad depuis longtemps. Plus récemment, on a vu Microsoft lancer des produits Surface avec le Snapdragon X de Qualcomm et, plus généralement, l’appellation Copilot+.

La hausse continue des performances et une efficacité énergétique supérieure créent progressivement un engouement. Les puces x86 gardent pour elles une énorme compatibilité avec le parc existant. Elles alimentent également les ordinateurs les plus puissants et permettent l’installation de GPU dédiés, au grand bonheur des joueurs.

Pour mieux piloter l’avenir de l’architecture, Intel et AMD s’associent donc pour créer le x86 Ecosystem Advisory Group.

Les grands objectifs du groupe

« x86 est la norme de facto. C’est un écosystème solide, mais un écosystème qu’Intel et AMD ont développé ensemble d’une certaine manière, mais à distance. Cela a causé quelques inefficacités et dérives dans certaines parties de l’architecture au fil du temps », a ainsi déclaré Forrest Norrod, vice-président d’AMD chargé des solutions pour centres de données.

Fort de ce constat, les deux concurrents historiques ont annoncé « la création d’un groupe consultatif sur l’écosystème x86 réunissant des leaders technologiques pour façonner l’avenir de l’architecture informatique la plus utilisée au monde ».

Ce groupe « se concentrera sur l’identification de nouveaux moyens d’étendre l’écosystème x86 en permettant la compatibilité entre les plateformes, en simplifiant le développement de logiciels et en fournissant aux développeurs une plateforme pour identifier les besoins et les caractéristiques architecturales afin de créer des solutions innovantes et évolutives pour l’avenir ».

Les trois grands objectifs affichés sont :

  • Améliorer le choix des clients et la compatibilité du matériel et des logiciels, tout en accélérant leur capacité à bénéficier de nouvelles fonctionnalités de pointe.
  • Simplifier les lignes directrices architecturales afin d’améliorer la cohérence logicielle et les interfaces entre les offres de produits x86 d’Intel et d’AMD.
  • Permettre une intégration plus large et plus efficace des nouvelles capacités dans les systèmes d’exploitation, les cadres et les applications.

Dans le communiqué, tant Pat Gelsinger (CEO d’Intel) que Lisa Su (PDG d’AMD) disent leur enthousiasme, convaincus tous deux que le groupe va désormais définir les orientations et améliorations architecturales à venir. D’autant que l’industrie a répondu présente, avec Broadcom, Dell, Google, Hewlett Packard Enterprise, HP Inc, Lenovo, Meta, Microsoft, Oracle et Red Hat dans les membres fondateurs, auxquels viennent se joindre Tim Sweeney, CEO d’Epic, et Linus Torvalds.

De « concurrents acharnés » à meilleurs ennemis

Le communiqué publié chez Intel n’hésite pas à revenir sur le passé des deux « concurrents acharnés », qui pourtant partagent un long passé de collaboration industrielle, notamment sur des technologies comme PCI, PCIe, Advanced Configuration and Power Interface (ACPI) et USB. L’objectif du groupe est de faire évoluer cette relation au niveau supérieur. Un mariage auquel étaient conviés de nombreux ténors du secteur.

Pourquoi ce besoin de cohérence ? Parce que tout n’est pas rose. Dans le communiqué, on ne trouve aucun exemple de friction, mais on peut au moins citer les instructions AVX (Advanced Vector Extensions). Introduites par Intel et améliorées à plusieurs reprises, leur niveau de compatibilité entre les puces Intel et AMD n’a jamais été garanti.

En outre, le support chez AMD arrivait parfois longtemps après. Les instructions AVX-512 ont par exemple été présentées en 2013 et incluses en 2016 dans les Xeon Phi x200 de la génération Knights Landing. Chez AMD, la prise en charge n’est arrivée qu’en 2022 avec Zen4. Et encore, AMD « trichait » en utilisant deux canaux de 256 bits. L’architecture Zen 5, lancée plus tôt cette année, utilise bien un canal de 512 bits.

On pourrait remonter plus loin dans le passé et aborder le cas du x86_64, ou x64. Cette extension 64 bits du jeu d’instructions x86 a été créée par AMD, en réaction au travail commun d’Intel et HP sur l’architecture IA64 des Itanium. Les instructions étaient d’ailleurs nommées AMD64 initialement. AMD s’était rapproché de Microsoft, dans l’idée de versions adaptées de Windows, qui sont devenues les éditions 64 bits que l’on connait. Le travail avait commencé quand Intel a également approché Microsoft avec sa propre variante. Refus de Microsoft, forçant Intel à suivre AMD, avec un jeu d’abord appelé Intel64T, avec d’être renommé Intel 64. L’architecture IA64 des Itanium n’a jamais trouvé réellement sa clientèle et a été abandonnée.

Abordons aussi le cas beaucoup plus récent de l’architecture x86S, présentée en mai 2023. On ne connait pas encore vraiment les plans d’Intel à son sujet, puisque le travail a été présenté comme une piste de réflexion. Intel a imaginé une architecture x86 débarrassée de ses vieilles briques pour ne garder que ce qui est strictement nécessaire à l’exécution d’un code 64 bits. Les composants 16 et 32 bits disparaissent, la compatibilité 16 bits est abandonnée et celle pour le 32 bits n’est gardée que de manière logicielle.

Le x86S pourrait-il faire partie des discussions à venir au sein du groupe ? On ne sait pas. Mais la question est d’autant plus sur la table que le groupe doit justement réfléchir à l’avenir du x86. Dans les discussions entre Intel et AMD pour créer le nouveau groupe, il est impossible que le sujet n’ait pas été au moins abordé.

Des bénéfices attendus dans l’écosystème logiciel

Le communiqué est largement axé vers les bénéfices attendus pour l’écosystème logiciel. Les processeurs contiennent de très nombreux jeux d’instructions, mais pas toujours les mêmes et avec des implémentations parfois différentes. Le groupe veut ainsi gommer ces incohérences et mieux unifier tout ce qui touche au x86, afin que l’exploitation de ses capacités soit mieux assurée par les logiciels (au sens large).

« x86 est à la base de l’informatique moderne depuis plus de quatre décennies, et nous voulons nous assurer qu’elle continue d’évoluer et de profiter à tout le monde à l’avenir. En réunissant des partenaires de toute l’industrie, le x86 Ecosystem Advisory Board jouera un rôle essentiel dans l’élaboration des futures caractéristiques architecturales de l’architecture x86 et contribuera à assurer la cohérence des logiciels et des interfaces standard », a ainsi déclaré Satya Nadella, CEO de Microsoft.

L’exploitation de la puissance et des instructions devrait donc être simplifiée dans les années à venir. On peut espérer qu’un tel groupe pourra définir des évolutions qui seront rapidement répercutées dans les systèmes et les applications. Par exemple, tout ce qui touche aux instructions AVX. Et l’architecture pourrait déborder de son cadre informatique traditionnel. Chez Forbes, on peut ainsi lire un Pat Gelsinger prêt à conquérir chaque espace où se trouve actuellement un cœur Arm.

Le nouveau statut d’Intel et AMD

Si l’annonce a de quoi enthousiasmer après tant d’années de lutte, elle devra être suivie d’actions concrètes. Par exemple, la multiplication des extensions de type SSE, AVX, AMX et autres représente un défi en soi. Peut-on s’attendre à ce qu’elles soient supportées de manière cohérente dans toutes les prochaines puces ?

À Forbes, Pat Gelsinger a répondu : « Je considère que toutes ces choses – comme AVX et AMX et les extensions de sécurité – sont sur la table, parce que c’est le type de retour d’information que nous voulons maintenant. AMD et Intel prendront, respectivement et individuellement, leurs propres décisions en ce qui concerne ce qu’ils mettent dans leurs produits et la manière dont ils rivalisent sur le marché, mais je considère que tout ce qui concerne l’écosystème [et] les éditeurs de logiciels indépendants, tant au niveau de l’application que du système d’exploitation, est sur la table lors de ces discussions. C’est sur cette base qu’un très grand nombre d’entreprises rejoignent le groupe consultatif ». Même son de cloche pour Lisa Su, sous la houlette de qui AMD s’est tant développé.

Les deux concurrents resteront donc des concurrents, mais ils travailleront également sur le socle commun du x86. Il ne reste plus qu’à attendre les résultats concrets, qui ne se matérialiseront pas tout de suite. Les évolutions dans les jeux d’instructions prennent en effet du temps. On attend également de voir comment va se concrétiser la cohérence voulue pour l’écosystème logiciel.

LDLC généralise une garantie de 5 ans sur les smartphones et ordinateurs de marque

LDLC généralise une garantie de 5 ans sur les smartphones et ordinateurs de marque

LDLC a annoncé cette semaine le passage à une garantie cinq ans, sans frais supplémentaire, sur l’ensemble des smartphones et ordinateurs de marque disponibles à son catalogue, en ligne comme en boutique. La mesure prend la forme d’une garantie commerciale de trois ans qui vient s’ajouter aux deux ans de garantie constructeur.

Après la semaine de quatre jours, place à la garantie cinq ans. Mi-septembre, LDLC s’était offert une vaste campagne d’articles sponsorisés pour annoncer le lancement d’une opération spéciale rentrée : une garantie cinq ans offerte sur les smartphones, les Mac et les PC assemblés de son catalogue. Un mois après cette opération, qui courait initialement du 16 septembre au 13 octobre, le groupe lyonnais annonce que la mesure est pérennisée.

« Cette initiative vise à prolonger la durée de vie des appareils et à offrir une tranquillité d’esprit totale. LDLC se positionne ainsi comme un acteur clé de la durabilité, en mettant tout en œuvre pour garantir des produits toujours opérationnels, sans frais bien au-delà de la date d’achat initial », vante le groupe dans un communiqué. Depuis le 27 avril 2023, LDLC propose déjà à ses clients particuliers une garantie commerciale étendue à trois ans sur l’ensemble de son catalogue neuf vendu en direct, hors consommables.

Un « pack confort » désormais offert

Deux années supplémentaires sont donc désormais offertes sur les produits informatiques préassemblés (PC fixes ou portables, Mac) et les smartphones. En pratique, cet avantage, qui porte donc la garantie totale à cinq ans, existait déjà chez LDLC, mais il prenait la forme d’une option payante, le « pack confort », qui autorisait par ailleurs 28 jours de délai de rétractation, au lieu des 14 légaux.

Les CGV (PDF) du site LDLC décrivent les modalités de mise en œuvre de cette garantie étendue au sein du pack confort, dont les prestations sont calculées sur la base du prix d’achat initial de l’appareil, avec une décote progressive au fil des ans. Durant la troisième année suivant la livraison, l’enveloppe d’intervention est ainsi calculée sur 70 % du prix d’achat initial. Le taux passe ensuite à 50 % pendant la quatrième année, puis 30 % pendant la cinquième année. Dans le cadre de ces limites, LDLC s’engage d’abord à une réparation, « si elle est possible », puis, à défaut, à un remplacement ou un avoir.

« Alors que d’autres choisissent de vendre des extensions de garantie, nous avons décidé de prendre à notre charge les éventuels coûts supplémentaires pour vous permettre de profiter de vos appareils plus longtemps et en toute sérénité. Le monde dans lequel nous souhaitons vivre demain nous impose d’agir dès aujourd’hui », s’exclame Laurent de la Clergerie, PDG du groupe, sur LinkedIn.

Quel impact financier ?

Si le discours est centré sur la volonté de prolonger la durée de vie des ordinateurs et smartphones, cette démarche, toute responsable qu’elle soit, répond aussi à des logiques économiques. Elle représente en premier lieu un joli coup de com’, sur lequel surfent déjà certains gérants de magasins. Ils soulignent qu’à prix équivalent, il vaut mieux acheter un produit Apple chez eux que dans une boutique de la marque, puisqu’on bénéficie ainsi de cinq ans de garantie.

En attendant de voir son éventuel impact sur les ventes, elle représente aussi un coût, à la fois en termes de manque à gagner sur l’option Pack Confort, mais aussi et surtout du fait du traitement des passages en garantie, avec ce qu’ils impliquent de logistique, d’éventuelles réparations et de flux financiers.

Sur ce point, LDLC ne livre sans surprise aucune information. Le dernier rapport annuel du groupe donne toutefois une idée de la façon dont il a préparé, d’un point de vue comptable, le passage généralisé à trois ans de garantie (donc un an supplémentaire offert) sur l’ensemble de son catalogue.

« La hausse des dotations aux provisions pour garantie clients s’explique principalement par la mise en place à compter du 27 avril 2023, d’une garantie complémentaire gratuite pour une durée de 3 ans applicable à tous les produits du catalogue LDLC pour les achats en ligne et en boutique et justifie une dotation aux provisions à hauteur de 258 milliers d’euros », peut-on ainsi lire dans ce document (PDF, voir page 148).

Via son site, ses 100 magasins et ses différentes marques, LDLC a réalisé sur l’exercice 2023 - 2024 un chiffre d’affaires de 571 millions d’euros.

☕️ VirtualBox corrige de nombreux problèmes avec le noyau Linux et Windows 11 24H2

La nouvelle mouture du client de virtualisation embarque à son bord nombre de corrections pour des problèmes touchant Linux et Windows. On retrouve ces modifications dans les versions 7.0.22 et 7.1.4.

La mouture 7.0.22 corrige ainsi le problème des machines virtuelles qui ne voulaient pas se supprimer entièrement quand elles étaient configurées avec un fichier Unattended, des soucis de clignotement d’image, des problèmes multiples avec le déploiement TPM dans les machines Windows 10 et 11, ou encore un problème avec les DLL de Windows 11 en version 24H2. On note également un support initial du noyau Linux 6.12.

La version 7.1.4 reprend en partie ces correctifs et en ajoute d’autres. Le pilote LsiLogic MPT SCSI est ainsi de retour pour les configurations EFI. Celles-ci peuvent à nouveau utiliser aussi le démarrage réseau. Dans une configuration NAT, VirtualBox 7.1.4 peut en outre restaurer l’état d’une sauvegarde 7.0.X. La nouvelle mouture permet également d’activer la mise à jour automatique des composants invités additionnels.

Les deux nouvelles versions peuvent être téléchargées depuis le site officiel.

☕️ DMA : X n’est pas un gatekeeper, selon la Commission européenne

DMA : X n’est pas un gatekeeper, selon la Commission européenne

Après enquête, la commission européenne conclut que X n’est pas un contrôleur d’accès, ou gatekeeper, au sens du Digital Markets Act. 
La décision vient clore le processus d’enquête ouvert le 13 mai 2024 contre le réseau social.

La commission indique notamment avoir conclu que X n’était pas une plateforme importante permettant aux entreprises d’atteindre des utilisateurs finaux. 


La décision de la Commission permet à la plateforme d’Elon Musk d’éviter les régulations les plus lourdes du règlement.

Depuis son rachat par Elon Musk, le réseau social a perdu une large part de ses clients publicitaires, au point que son patron a poursuivi un groupe d’annonceurs en justice en août au motif qu’ils organiseraient le « boycott » de sa plateforme.

Cybersécurité : le projet de loi NIS2 présenté en conseil des ministres… et maintenant ?

On m'disait tu comprendras plus tard
Cybersécurité : le projet de loi NIS2 présenté en conseil des ministres… et maintenant ?

Le projet de loi de transposition de la directive européenne a enfin été présenté en conseil des ministres. Il a été publié dans la foulée sur Legifrance, et va pouvoir entamer sa navette parlementaire.

Hier, le ministre et la secrétaire d’État de l’Enseignement supérieur ainsi que le ministre de l’Économie ont présenté un projet de loi attendu en conseil des ministres. Il s’agit de celui « relatif à la résilience des infrastructures critiques et au renforcement de la cybersécurité », dont la partie le plus visible est sans aucun doute NIS2.

Trois transpositions en un seul projet de loi

Le gouvernement explique qu’avec ce projet, la France transpose trois directives européennes adoptées le 14 décembre 2022 et « visant à renforcer les dispositifs nationaux de sécurisation des activités d’importance vitale et de lutte contre les menaces cyber ».

Nous avons tout d’abord la directive européenne 2022/2557 dont le but est de renforcer la résilience des infrastructures des entités critiques (alias « REC »). Il y a ensuite la directive 2022/2555 (alias « NIS2 », le gros morceau). Comme son nom l‘indique, il s’agit de prolonger NIS1 et de cibler davantage d’entités qualifiées d‘essentielles ou d’importantes. Il y a enfin la directive 2022/2556 (alias « DORA » pour Digital Operational Resilience Act) qui vise le secteur financier.

La porte-parole du gouvernement Maud Bregeon résume ainsi la situation : « c’est une loi qui nous donne de nouveaux outils pour protéger nos infrastructures critiques, énergie, transport, santé, eau potable et notre système financier ». NIS2 aura de fortes répercussions sur des petites et grandes entreprises.

Il reste encore de très nombreuses étapes

Les États membres ont jusqu’au 17 octobre pour transposer la directive au niveau du droit national. Mais Vincent Strubel avait déjà prévenu la semaine dernière que « le 17 octobre, il ne va pas se passer grand-chose de spécial, en tout cas dans le domaine de NIS2 ».

Hasard du calendrier, nous étions hier à une table ronde sur NIS2 avec Ionathan Noblins de l’ANSSI (coordinateur national pour la sécurité des télécommunications et des infrastructures du numérique) au moment de l’annonce du gouvernement. Nous lui avons donc demandé ce que cette présentation en conseil des ministres implique pour la suite des événements. En résumé, pas grand-chose.

« C’était prévu. Ça veut dire que ça avance […] Après, il y a de très nombreuses étapes », ajoute-t-il. Nous demandons également si le projet de loi est disponible : « Il sera rendu public au moment de son examen par le Parlement », mais il est finalement arrivé un peu plus tôt que prévu, nous confirme Ionathan Noblins.

En effet, comme repéré par le fin limier Marc Rees, le Projet de loi relatif à la résilience des infrastructures critiques et au renforcement de la cybersécurité est déjà disponible sur Legifrance, avec l’exposé des motifs. La seconde étape sera donc la présentation du projet de loi et son examen au Parlement, puis la navette parlementaire entre l’Assemblée nationale et le Sénat.

Il y a également l’avis du Conseil d’État, mais celui-ci date du 6 juin 2024 et le projet de loi a ainsi pu évoluer. Pour rappel, ce projet de loi avait été accueilli favorablement par le CSNP, malgré une longue liste de recommandations et de questions.

Le coordinateur de l’ANSSI ne communique aucun délai, mais Vincent Strubel (directeur général de l’ANSSI) avait un peu vendu la mèche la semaine dernière : « On a devant nous des mois encore de travail de consultation et de construction sur le cadre réglementaire, et des mesures techniques qui vont décliner tout ça ». L’analyse du projet de loi permettra de connaitre un peu plus l’articulation de NIS2 en France.

En attendant, « commençons à se préparer »

« Le message principal, c’est : commençons à se préparer pour faire face à la menace cyber. Mais sans précipitation », lâche Ionathan Noblins. « Que le projet soit examiné par le Parlement demain dans un an ou dans six mois, ce n’est pas l’essentiel. L’essentiel, c’est de commencer à se préparer, prendre conscience du risque de la menace cyber pour les plus petites entités et mettre en place des mesures d’hygiène ».

Ionathan Noblins comme Vincent Strubel renvoient vers le site Monespacenis2 pour s’informer et s’informer des dernières annonces sur cette directive européenne et sa transposition. Pour rappel, un règlement Cyber Resilience Act (CRA) est aussi en préparation au niveau européen et sera d’application directe, probablement en 2027.

☕️ Android 15 est disponible en version finale pour les Pixel

Android 15 est disponible en version finale pour les Pixel

Le nouveau système mobile de Google est diffusé depuis hier soir. Il est disponible pour tous les smartphones compatibles : Pixel 6, Pixel 6 Pro, Pixel 6a, Pixel 7, Pixel 7 Pro, Pixel 7a, Pixel Tablet, Pixel Fold, Pixel 8, Pixel 8 Pro, Pixel 8a, Pixel 9, Pixel 9 Pro, Pixel 9 Pro XL, et Pixel 9 Pro Fold. Si vous avez participé à la phase de test, la bêta 4.2 sera mise à jour vers la version finale via un petit téléchargement.

Android 15 ne se démarque pas par une foule de nouveautés. Certaines sont quand même appréciables, dont les mesures anti-vol. L’IA est mobilisée pour détecter les vols à l’arrachée, soit un mouvement brutal suivi d’une accélération. Auquel cas, le smartphone se verrouille. Ce verrouillage peut être déclenché depuis un autre appareil avec le numéro de téléphone. Bon point, Google va répercuter cette fonction sur tous les appareils disposant d’Android 10 au moins. En outre, la réinitialisation de l’appareil aux paramètres d’usine ne peut plus se faire sans le mot de passe du compte Google.

Entre autres nouveautés, signalons également le retour prédictif pour empêcher les fermetures accidentelles d’applications, des retours haptiques quand on règle le volume ou la luminosité depuis les paramètres rapides, l’adaptation des vibrations à l’environnement, la possibilité de rassembler des applications dans un dossier privé et protégé, une séparation des fonds pour les écrans d’accueil et de verrouillage, une réorganisation des paramètres, etc.

On notera également que les applications qui cibleront Android 15 (niveau 35 du SDK) pourront afficher leur interface en mode « bord à bord ».

Enfin, les Pixel ont droit à un lâché de fonctions, dont beaucoup basées sur l’IA, tout particulièrement Gemini. Il est également possible d’isoler des sons pour les supprimer dans des vidéos. Un traitement spécial apparait pour les clichés réalisés sous l’eau, un renforcement du mode nuit pour l’astrophotographie, ou encore un suivi des pollens dans l’application Météo.

☕️ L’inventeur des Bulletin Board System (BBS), Ward Christensen, est mort

L’inventeur des Bulletin Board System (BBS), Ward Christensen, est mort

Co-inventeur du Computer Bulletin Board System (CBBS), Ward Christensen est mort à l’âge de 78 ans le 11 octobre, aux États-Unis.

Aux côtés de Randy Suess, il avait créé le premier BBS à Chicago en 1978, rappelle Ars Technica.
 Le système permettait aux propriétaires d’ordinateurs personnels et d’un modem d’appeler une machine spécifique pour y laisser des messages que d’autres utilisateurs verraient plus tard.

Pensé comme une version numérique du tableau d’affichage d’une mairie, d’une épicerie ou d’une école, il avait donné naissance à une importante activité en ligne dans les années 1980 et 1990. Au fil du temps, les BBS se sont complexifiés jusqu’à permettre d’échanger des documents, voire de jouer.


De fait, avant qu’internet ne devienne largement accessible, les BBS ont permis l’émergence de nombreuses communautés préfigurant le paysage numérique actuel.


Cette sous-culture avait notamment été célébrée dans le documentaire en huit épisodes BBS : the Documentary, désormais accessible sur Youtube. 


Ward Christensen a reçu deux Dvorak Awards, dont un pour « contribution exceptionnelle aux télécommunications PC » en 1992, puis un Pioneer Award de l’Electronic Frontier Foundation l’année suivante.

❌