Vue lecture

☕️ Nintendo lancera la Switch 2 le 5 juin, à partir de 470 euros

Nintendo a dévoilé mercredi, lors d’une conférence diffusée en direct, les grandes lignes et les premiers jeux de sa future console hybride (mi portable, mi console de salon), la Switch 2. Son lancement est désormais officiellement programmé au 5 juin prochain, avec un prix de départ fixé à 469,99 euros et des précommandes ouvertes à partir du 8 avril.

Sur le plan matériel, Nintendo valide ou précise la plupart des éléments déjà évoqués en janvier, lors de la première confirmation officielle de la console. La Switch 2 conserve le même schéma de fonctionnement que celui du modèle originel (un écran central autonome, des manettes amovibles sur le côté, une station d’accueil pour relier l’ensemble à une TV).

Le fabricant japonais livre quelques premiers détails techniques : la Switch 2 s’articule autour d’un écran LCD (et non OLED) de 7,9 pouces, délivrant 1920 x 1080 pixels avec une fréquence d’affichage variable pouvant monter à 120 Hz et prise en charge du HDR10.

Une fois connectée en USB-C à son dock, ce dernier autorise, via HDMI, un affichage 3840 x 2160 (4K) à 60 images par seconde (fps). Pour aller chercher les 120 fps, il faudra basculer sur une résolution inférieure (1920 x 1080 ou 2560 x 1440).

Huit ans après la Switch première du nom, qui utilisait un dérivé de la puce Tegra, Nintendo reste fidèle à NVIDIA. La Switch 2 exploite une nouvelle fois un design personnalisé, dont les caractéristiques n’ont pas encore été dévoilées. La console bascule pour le reste sur 256 Go de stockage (contre 32 Go sur la première Switch et 64 Go sur sa variante OLED), avec Bluetooth et Wi-Fi 6, ou liaison réseau filaire via un port LAN quand elle est rangée sur son dock.

Nintendo évoque deux ports USB type-C (l’un sert à la connexion au dock, l’autre aux accessoires, les deux permettent la recharge) et un emplacement pour cartes microSD Express, format auquel seront distribués les jeux, jusqu’à 2 To. La console, qui pèse 401 grammes sans ses manettes et présente 13,9 mm d’épaisseur, dispose d’une batterie de 5 520 mAh qui autorise une autonomie théorique comprise entre « 2 et 6,5 heures ».

Les manettes Joy-Con, connectées en Bluetooth 3.0 et toujours dotées d’une attache magnétique, prennent un peu d’embonpoint. Elles inaugurent un capteur optique, permettant de les utiliser comme une souris d’ordinateur. Elles gagnent également un bouton C, dédié aux nouvelles fonctionnalités de discussion en jeu implémentées par Nintendo dans son environnement logiciel, baptisées GameChat. Entre autres accessoires, une caméra sera proposée en option, avec la promesse d’interactions au sein de certains jeux.

Du côté des jeux justement, c’est la grande offensive. Nintendo mise en premier lieu sur ses propres licences, à commencer par un nouvel épisode de Mario Kart, qui sera proposé avec la console en bundle au lancement, ou Donkey Kong Bananza, attendu pour mi-juillet. Entre nouveautés et rééditions, la firme convoque sans surprise ses licences les plus iconiques.

Elle y ajoute une forte dimension rétrocompatibilité, avec la prise en charge annoncée de la plupart des jeux Switch et l’ajout de jeux Gamecube au sein de l’abonnement Nintendo Switch Online.

Enfin, Nintendo promet pléthore de titres émanant d’éditeurs tiers, incluant de nombreux titres de premier plan (AAA), même et y compris popularisés par des plateformes concurrentes, PC ou consoles. Dans le lot figurent des jeux tels que Elden Ring, Cyberpunk 2077, Final Fantasy 7 Remake, Star Wars Outlaws, Fortnite, Hogwarts Legacy, EA Sports FC, etc. FromSoftware signera par ailleurs une exclusivité dédiée à la Switch 2, attendue pour 2026 : un RPG en mode ouvert avec dimension multijoueurs baptisé The Duskbloods.

Bref, un programme musclé, pour une console qui aura la lourde tâche de succéder à une Switch, première du nom, vendue à plus de 150 millions d’exemplaires dans le monde depuis son lancement en 2017.

L’histoire de Windows : de Vista à 8.x, de nombreuses erreurs

Mais c'est meilleur
L'histoire de Windows : de Vista à 8.x, de nombreuses erreurs

Mise à jour du 2 avril 2025 : À l’occasion des 50 ans de Microsoft, nous republions petit à petit notre dossier sur l’histoire de Windows. À l’époque, il s’était achevé sur Windows 10. Nous le complèterons vendredi par une nouvelle partie consacrée à Windows 11.

Article original du 18 novembre 2020 :

C’est en novembre 2006 que l’on découvrait Windows Vista, présenté à l’époque comme le grand remplaçant de XP. Mais il n’était qu’une étape de plus dans un cycle d’évolutions assez aléatoires qui devait nous mener progressivement au Windows 10 que l’on connaît aujourd’hui.

Lorsque Windows Vista apparaît en janvier 2007, c’est peu dire qu’il est attendu. Windows XP est en place depuis plus de cinq ans et provoque une stagnation du marché. Pourtant, l’accueil de Vista est très frais. Il se montre gourmand en ressources, exigeant une configuration nettement plus musclée.

Voulant indexer le contenu des partitions, il provoque de nombreux accès disque, tirant vers l’arrière les performances de la machine. L’ensemble donne une impression de développement à la va-vite. C’est en partie le cas, car le projet a connu bien des péripéties. Initialement connu comme le projet Longhorn, il était beaucoup plus ambitieux, mais manquant d’une vision claire. Entre-temps, l’arrivée chez Apple de Mac OS X Tiger avait fait du remous, car le système proposait plusieurs fonctions prévues par Longhorn, mais avec des performances élevées.

Le projet avait donc été redémarré. Partant du code source de Windows Server 2003 SP1, les ingénieurs ont commencé à tracer des lignes dans le système pour catégoriser les composants et réduire les interdépendances. Mais pressée par le temps, la firme a quand même lancé son produit, alors qu’il manquait cruellement d’optimisations. Aucune leçon n’avait été tirée de Windows ME. Microsoft continuera par la suite de confondre vitesse et précipitation à plusieurs reprises.

Vista débarque avec un lot conséquent de nouveautés, parmi lesquelles Aero, sa nouvelle interface. Tirant parti de l’accélération matérielle du GPU, elle présente de multiples effets comme la transparence et les ombrages. L’ensemble s’accompagne d’une collection complète d’icônes remaniées, extensibles jusqu’en 256 x 256 px.

La recherche est omniprésente dans l’Explorateur et joue un grand rôle dans le système. Il suffit par exemple d’appuyer sur la touche Windows et quelques lettres pour trouver un logiciel et l’exécuter avec Entrée. Vista inaugure aussi Internet Explorer 7, fonctionnant pour la première fois en isolation. Il introduit la navigation par onglets, la compatibilité RSS et le filtre anti-phishing qui deviendra plus tard Smart Screen.

Media Player 11 et Windows Defender sont aussi présents, de même que les applications Mail, Calendrier, Galerie de Photos, Windows DVD Maker ou encore les Gadgets, que l’on peut disposer dans une colonne à droite de l’écran. C’est aussi la première version à faire de Windows Update un composant à part. Auparavant accessible depuis une page Web, il a maintenant sa propre fenêtre et cherche des mises à jour pour d’autres produits Microsoft, dont Office. Vista fait un bond dans la sécurité, Microsoft ayant clairement retenu la leçon de Windows XP.

Il instaure l’UAC (User Account Control) qui veille à ce que l’utilisateur ne puisse plus exécuter par défaut n’importe quel processus en mode administrateur. Une autorisation est réclamée dans un espace sécurisé. Hélas, la première version de l’UAC est si paranoïaque qu’elle demande à l’utilisateur de confirmer de nombreuses manipulations, provoquant un agacement général.

Pour la première fois, le système est distribué dès le départ en versions 32 et 64 bits, moult processeurs étant alors déjà compatibles avec les instructions AMD64, généralisées plus tard en x64. Cette mouture réclame le double de mémoire vive (2 Go) et des pilotes signés, développés sur la base du WDDM (Windows Display Driver Model).

Mais Vista aurait laissé un souvenir bien plus amer si ses Service Packs n’étaient pas venus à sa rescousse. Particulièrement le SP1 sorti environ un an plus tard qui calme l’UAC et améliore nettement les performances, notamment pour les jeux DirectX 9 (Vista inclut DirectX 10). Il apporte le support du système de fichier exFAT.

Notre dossier sur l’histoire de Windows :


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Stand up for science, mais avec quel budget ?

Money, money, money
Stand up for science, mais avec quel budget ?

Depuis le retour de Donald Trump au pouvoir le 20 janvier, son administration attaque les institutions scientifiques, leurs informations, bases de données et personnels de recherche. Après une première marche le 7 mars, le mouvement Stand Up for Science reprend le pavé en France le 3 avril pour montrer sa solidarité avec le monde de la recherche étasunien. Mais la science n’est-elle pas aussi menacée dans notre pays ? A-t-on les moyens d’accueillir les chercheurs américains qui voudraient fuir leur pays ?

Des chercheurs français prévoient de se mobiliser une nouvelle fois ce jeudi 3 avril dans la rue en solidarité avec leurs collègues étasuniens. Avec des budgets en berne, un climato-scepticisme en augmentation et une remise en question des connaissances scientifiques, notamment en médecine, les sciences ne sont-elles pas aussi menacées en France qu’aux États-Unis ?

Aux États-Unis, une attaque inouïe dans l’histoire des démocraties occidentales

De fait, la situation est beaucoup plus préoccupante de l’autre côté de l’atlantique. « Il n’y a rien en France de la même échelle », affirme à Next Cédric Brun, maître de conférences en philosophie des sciences à l’Université de Bordeaux-Montaigne.

« Ce qui se passe aux États-Unis est d’une échelle inouïe dans l’histoire des démocraties occidentales. La seule chose qui s’en rapproche récemment est ce qu’il s’est passé en Turquie quand Erdogan a mis à pied un grand nombre d’enseignants et de chercheurs car ils n’étaient pas alignés sur ses positions », ajoute-t-il.

Il égrène : « Le retrait de financements, l’interdiction d’utilisation de certains mots clés dans les programmes, dans les politiques d’accompagnement de l’enseignement supérieur et de la recherche, notamment liés à la diversité, l’inclusion et l’égalité, c’est du jamais vu ».

Et ça ne s’arrête pas, en effet. Après de multiples mesures contre les agences scientifiques, le régime de Donald Trump a encore, ce mardi 1ᵉʳ avril, notifié à des milliers d’employés fédéraux des Centres pour le contrôle et la prévention des maladies (CDC) qu’ils étaient licenciés. Cette dernière attaque touche des divisions des CDC comme celles de la santé publique, de la prévention contre le VIH, de la santé sexuelle ou encore de la médecine du travail, indique Wired.

Du côté des NIH (National Institutes of Health), quatre directeurs ont été démis de leurs fonctions, expliquait aussi mardi 1ᵉʳ avril la revue scientifique Nature. « Ce sera l’un des jours les plus sombres de l’histoire scientifique moderne que j’ai connu dans mes 50 ans de carrière », s’est ému Michael Osterholm, épidémiologiste de l’université du Minnesota à Minneapolis, « ces pertes seront considérables pour la communauté scientifique ».


Il reste 84% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Michael Waltz utiliserait Gmail dans ses activités de conseiller à la sécurité de Trump

Ils avaient dit "don't be evil"
Michael Waltz utiliserait Gmail dans ses activités de conseiller à la sécurité de Trump

Quelques jours après le « SignalGate », une enquête du Washington Post révèle que Michael Waltz, conseiller à la sécurité nationale de la Maison blanche, aurait utilisé son adresse Gmail pour orchestrer certaines de ses activités professionnelles. Il avait déjà été épinglé quelques jours plus tôt pour avoir laissé en accès public la liste de ses contacts sur l’application de paiement Venmo.

La Maison-Blanche n’en a manifestement pas tout à fait fini avec ses problématiques de shadow IT. Une enquête du Washington Post, publiée mardi 1er avril, affirme en effet que Michael Waltz, conseiller à la sécurité nationale du Président, a utilisé une messagerie commerciale, en l’occurrence un compte Gmail, pour échanger avec des membres de son équipe et d’autres représentants de l’administration Trump.

Des échanges liés à la sécurité nationale sur Gmail

Cette fois, il n’est pas question de préparatifs liés à une action militaire imminente, mais les échanges diffusés sur cette adresse personnelle présentent toutefois un réel enjeu de confidentialité, estime le Washington Post. « Un assistant senior de Waltz a utilisé [Gmail] pour des conversations hautement techniques avec des collègues d’autres agences gouvernementales impliquant des positions militaires sensibles et des systèmes d’armes de premier plan liés à un conflit en cours », écrit ainsi le quotidien américain.

Il affirme avoir eu accès à des captures d’écran illustrant cette utilisation de Gmail par ou au nom de Waltz. Le recours à une messagerie personnelle aurait également été confirmé par trois officiels de l’administration Trump, non cités. Le header des courriers envoyés au nom de Waltz révèle que ses destinataires utilisent, eux, des comptes de messagerie fournis par l’administration, note encore le Washington Post.

Négligence ou contournement délibéré ?

Dans le contexte de la Maison blanche, cette utilisation de Gmail soulèverait deux problèmes principaux, à commencer, bien sûr, par la question de la sécurité, puisque la messagerie ne garantit pas, par défaut, un chiffrement de bout en bout des échanges (Google vient d’ailleurs précisément d’annoncer l’introduction prochaine d’un chiffrement bout en bout simplifié à destination de sa clientèle entreprise).

Le second relève d’une exigence réglementaire : les officiels de l’administration états-unienne doivent utiliser les outils internes pour leur correspondance de façon à ce que cette dernière puisse être archivée, en vertu du Freedom of Information Act (FOIA). Brian Hughes, porte-parole de la sécurité nationale à la Maison-Blanche, récuse auprès du Washington Post l’hypothèse d’un contournement intentionnel de cette exigence, formulée par certains commentateurs sur les réseaux sociaux après l’épisode du SignalGate.

L’approche quelque peu laxiste de Waltz quant aux outils de communication commence toutefois à soulever des questions au sein du Bureau ovale, remarque par ailleurs le Wall Street Journal. Le quotidien économique rapporte ainsi, dans un article daté du 30 mars, que l’intéressé n’en serait pas à sa première boucle Signal. Il en aurait ainsi créé et animé plusieurs, autour de sujets aussi explosifs que le règlement du conflit entre l’Ukraine et la Russie, ou d’autres opérations militaires (non précisées).

Le précédent Venmo

Quelques jours plus tôt, Michael Waltz s’était déjà vu épingler par Wired. Le magazine explique comment il a découvert le compte Venmo (un service d’envoi d’argent en ligne appartenant à Paypal) du conseiller de Donald Trump, avec photo et liste de contacts accessibles publiquement. Le compte en question aurait été basculé en privé peu de temps après que les journalistes de Wired ont contacté la Maison blanche pour une demande de réaction.

Que Waltz utilise Venmo pour partager l’addition d’un restaurant avec ses amis n’est pas problématique en soi, mais Wired explique comment l’analyse des contacts directs du conseiller, puis l’étude de leurs propres réseaux, permet d’identifier des profils stratégiques ou d’établir des connexions entre personnalités de premier plan.

La découverte se révèle d’autant plus croustillante qu’il ne s’agit pas d’une première. En août 2024, Wired avait ainsi déjà découvert, et analysé, le réseau de contacts Venmo associé au compte de J. D. Vance, devenu depuis vice-président des États-Unis. L’exercice avait permis de révéler l’identité de certains des architectes du projet stratégique de Donald Trump et des artisans de sa campagne de réélection.

Cette nouvelle charge contre Michael Waltz intervient quelques jours après l’épisode du SignalGate, qui a défrayé la chronique fin mars. Un journaliste de The Atlantic avait alors révélé avoir été invité dans une conversation Signal réunissant la garde rapprochée de Donald Trump et dédiée aux préparatifs d’une attaque militaire au Yémen contre les Houthis. Les officiels concernés, de la Défense à la CIA, avaient ensuite cherché à minimiser la portée de l’incident, en déclarant notamment que les informations diffusées sur ce canal ne relevaient pas du secret défense. En réaction, le magazine américain a pris le parti de publier l’intégralité des échanges.

Gmail : du chiffrement de bout en bout pour les entreprises ? Pas si vite

Simplicité ou sécurité ?
Gmail : du chiffrement de bout en bout pour les entreprises ? Pas si vite

Google vient d’annoncer l’arrivée du chiffrement coté client dans Gmail. Cette fonction va dans un premier temps être proposée aux messageries internes des entreprises. Bien que l’apport de cette technologie soit toujours un pas en avant vers une meilleure sécurité, il ne s’agit pas stricto sensu d’un chiffrement de bout en bout.

Le 1ᵉʳ avril, Gmail a fêté ses 21 ans. Ce qui était apparu initialement comme un poisson est devenu l’un des produits les plus emblématiques de Google. Hier soir, pour marquer l’évènement, la firme a annoncé une amélioration importante : l’arrivée du chiffrement de bout en bout, dans un format présenté comme simple à exploiter, sans nécessiter de gestion des certificats. Explications.

Le chiffrement de bout en bout vu par Google

Depuis hier soir, Gmail propose aux entreprises disposant de comptes professionnels payants une version bêta. À l’intérieur se trouve une nouveauté : la possibilité d’envoyer des e-mails « chiffrés de bout en bout » à d’autres membres de leur organisation via un système simplifié. Rappelons en effet que Gmail pouvait déjà le faire via S/MIME (Secure/Multipurpose Internet Mail Extensions), mais la configuration de ce dernier n’a rien de simple.

Il s’agit d’une première phase dans le plan de déploiement. Cette version bêta, limitée à un périmètre réduit, va permettre de tester le fonctionnement de ce nouveau chiffrement décrit comme E2EE (End-to-End Encryption). Dans le cas où la personne contactée fait partie de la même entreprise, le contenu du message est automatiquement chiffré. Côté destinataire, il est automatiquement déchiffré.

Comme on peut le voir dans la capture fournie par Google, il faut d’abord activer la fonction, via l’icône de cadenas située en haut à droite de la fenêtre de composition. En bas, un message apparait pour indiquer que l’ouverture de l’e-mail sur l’application mobile Gmail ou une autre plateforme de messagerie affichera un lien invitant à se connecter pour voir le contenu du message sur une version restreinte de Gmail. Le système rappelle le fonctionnement des partages de fichiers dans Google Docs et Sheets. Quand ce système de chiffrement est utilisé, il se substitue à S/MIME.

Durant une deuxième phase, qui commencera dans quelques semaines, le système sera étendu à l’ensemble des adresses Gmail, mais toujours pour les entreprises uniquement. Plus tard dans l’année, sans plus de précision pour l’instant, il pourra être appliqué aux envois vers toutes les plateformes. On retrouvera alors la présentation sous forme d’invitation à se connecter pour lire le message. À noter que si le ou la destinataire de l’e-mail a configuré S/MIME et n’est pas sur Gmail, ce dernier se servira de S/MIME pour envoyer le courrier, comme il le faisait déjà.

Google peu satisfaite du système actuel

L’entreprise rappelle les bienfaits du chiffrement, mais note qu’il est trop souvent complexe à mettre en place. « Alors que de plus en plus d’organisations ont des besoins réels en matière de courrier électronique E2EE, peu d’entre elles disposent des ressources nécessaires pour mettre en œuvre S/MIME », affirme Google.

La société indique ainsi que les entreprises intéressées par le chiffrement de bout en bout font alors face à la complexité de gestion des certificats, qu’il faut notamment déployer auprès de chaque personne dans l’entreprise. Côté grand public, il faut avoir activé S/MIME soi-même et vérifier que les destinataires l’ont fait également, « puis se soumettre aux tracas de l’échange de certificats avant de pouvoir échanger des courriels chiffrés ». Google, qui met bien sûr en avant la simplicité de son approche, évoque les nombreuses « frustrations » qui en découlent.

« Cette capacité, qui ne demande qu’un minimum d’efforts de la part des équipes informatiques et des utilisateurs finaux, fait abstraction de la complexité informatique traditionnelle et de l’expérience utilisateur médiocre des solutions existantes, tout en préservant la souveraineté des données, la confidentialité et les contrôles de sécurité », claironne ainsi Google.

Du chiffrement côté client

La solution de Google est effectivement de considérer l’e-mail comme un document stocké dans Google Drive. Les administrateurs peuvent alors appliquer des règles supplémentaires, par exemple en exigeant que l’ensemble des destinataires externes passent par la version restreinte de Gmail pour lire le contenu, même s’ils ne sont pas eux-mêmes utilisateurs de Gmail.

Pour gérer plus simplement le chiffrement de bout en bout, Google a choisi Client Side Encryption (CSE). La technologie n’est pas nouvelle : la firme la fournit déjà depuis quelques années aux éditions Enterprise Plus, Education Standard et Education Plus de son Workspace. Comme indiqué sur la page du CSE, les données sont chiffrées côté client avant leur envoi, supprimant la possibilité de les lire pour les intermédiaires, y compris Google. Les organisations l’utilisant peuvent fournir leurs propres clés. C’est sur ce paramètre que les administrateurs peuvent agir, en forçant CSE pour l’ensemble des membres de l’organisation.

Attention toutefois : bien que l’on parle de chiffrement de bout en bout, ce n’est pas 100 % vrai. CSE chiffre bien les données avant leur envoi, mais les clés sont gérées de manière centralisée par l’équipe d’administration, qu’elles soient générées par le service ou fournies directement par l’organisation. Traduction, les administrateurs seront en mesure de voir le contenu des e-mails.

Peu importe pour Google, qui parle surtout de simplification et d’élimination des frictions. Cette solution de chiffrement ne sera d’ailleurs pas activée par défaut et est présentée comme un moyen supplémentaire d’augmenter la sécurité des échanges.

Une question de confiance

Au-delà de la confiance qu’une entreprise peut accorder à ce type de système, la solution retenue par Google interroge : les destinataires utilisant d’autres plateformes vont-ils faire confiance à ces e-mails ?

La question est loin d’être anodine, car le message ne sera pas directement affiché. Si vous recevez un tel courrier, vous verrez simplement quelques lignes d’explications sur le contexte et un bouton vous invitant à cliquer pour aller lire le contenu. Or, ce fonctionnement en rappelle un autre : les tentatives d’hameçonnage.

Google a conscience que sa solution peut ne pas inspirer confiance. Si vous utilisez par exemple Outlook.com sans avoir mis en place S/MIME, vous verrez ce type de message, avec l’invitation à cliquer. Google a « prévu le coup » : dans le texte, un passage explique qu’il est conseillé de ne cliquer que si vous avez une entière confiance en l’expéditeur. Mais même ainsi, il est possible qu’une partie des destinataires suppriment le courriel sans vraiment lire l’avertissement, tant le contenu pourrait ressembler à une tentative de phishing.

Et si ce déploiement semble familier, c’est que Microsoft a déployé exactement la même capacité en janvier, nommée Purview Message Encryption. Le fonctionnement, réservé aux entreprises abonnées à la formule E5, est identique, avec une lecture directe des courriels tant que l’on reste dans Outlook, mais affiche un lien sur les autres plateformes. Et même si Google applique la même stratégie que Microsoft dans ce domaine, les deux systèmes sont bien sûrs incompatibles.

Michael Waltz, le conseiller à la sécurité de Donald Trump, n’a en tout cas pas attendu l’arrivée du CSE pour se servir de Gmail dans des échanges gouvernementaux, comme l’a révélé hier le Washington Post. Nous reviendrons plus en détail sur ce sujet plus tard dans la journée.

Tout ce qu’il faut savoir sur les noms de domaine en .fr

Demain, interro surprise !
Tout ce qu’il faut savoir sur les noms de domaine en .fr

Le .fr vous l’utilisez régulièrement, sans forcément vous en rendre compte. Cela fait maintenant 20 ans que les particuliers peuvent en acheter (avez-vous le vôtre ?) et l’utiliser pour un site et/ou une adresse email. Mais connaissez-vous son histoire et ses règles ? Car oui, il y a de nombreuses subtilités.

On rembobine Internet et on remonte en presque 40 ans en arrière, une éternité à l’échelle de l’informatique et Net.

Les moins de 40 ont toujours connu le .fr

C’est, en effet, le 2 septembre 1986 que le .fr est né. Il était alors géré par INRIA, l’Institut National de Recherche en Informatique et en Automatique, « par délégation du Stanford Research Institute Network Information Centre puis de l’Internic », précise Inria. Internic était alors une « marque de service déposée par le département américain du Commerce », explique Wikipédia.

Pour rappel, toutes les extensions avec deux caractères sont rattachés à un pays : le .me au Monténégro, le .co à la Colombie, le .cv au Cap Vert, le .dj à Djibouti, etc. Il y a également le .tv qui appartient aux iles Tuvalu, qui ont ainsi « touché le jackpot », expliquait le youtubeur Ludovic B.

D’Inria à l’Afnic

Inria assurait alors le rôle de NIC-France (Network Information Centre) « pour les besoins propres de ses chercheurs puis pour l’ensemble de la communauté R&D française ainsi que l’administration du réseau Fnet/Inria ». En 1992, Nic-France/Inria s’ouvre « au groupement d’intérêt public Renater […] puis progressivement à tous ceux qui souhaitaient se raccorder à Internet ».

On parle d’une autre époque, où l’enregistrement de nom de domaines était alors gratuit. Comme le rappelle l’informaticien Fabien Gandon d’Inria, c’est en 1995 que « l’enregistrement des noms de domaines devient payant ». Le but était alors de faire face à l’augmentation des demandes, « d’améliorer le traitement des enregistrements et de financer les améliorations de l’infrastructure Internet », selon cette archive de l’IETF.

« Au début des années 1990, on comptait trois cents noms de domaines en .fr et quatre personnes suffisaient à gérer la zone .fr qui s’enrichissait de un à deux noms de domaines par jour », explique Jean-Yves Babonneau, ancien directeur de l’Afnic. Afnic ? C’est l’Association française pour le nommage Internet en coopération (Afnic) qui a repris la gestion du .fr à partir du 1er janvier 1998.


Il reste 77% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Quand une antenne 5G cessait de fonctionner car elle ne savait plus quelle heure il était

Quand une antenne 5G cessait de fonctionner car elle ne savait plus quelle heure il était

Lorsque des brouillages et/ou des perturbations sont rencontrés par des opérateurs, ils peuvent demander l’ouverture d’une enquête auprès de l’ANFR. Des agents se déplacent alors sur place, et l’Agence nationale des fréquences en profite parfois pour raconter ces histoires (qui se terminent bien). Il y a quelques mois, l’ANFR expliquait par exemple comment des étiquettes RFID (passives) arrivaient à perturber des antennes 3G/4G.

Aujourd’hui, il est de nouveau question de téléphonie mobile, mais en 5G, avec une antenne dysfonctionnelle à Alençon (61) à cause d’un brouillage. Pourquoi seulement la 5G ? À cause du TDD (time division duplexing) bien évidemment.

TDD vs FDD : de la 2G à la 5G les technologies ont évolué

Pour rappel, de la 2G à la 4G en France, la séparation entre l’envoi et la réception des données reposait sur un découpage en fréquences appelé FDD, pour frequency domain duplexing. Sur la bande allouée à l’opérateur, une partie est utilisée pour le téléchargement, une autre pour l’upload, avec une « bande centrale » pour assurer la séparation et éviter les perturbations.

Pour des appels audio, c’est très efficace comme partage puisque les échanges sont à peu prés les mêmes dans les deux sens. Par contre pour accéder à Internet, c’est différent : le gros du trafic est généralement dans le sens descendant. « Or, il est impossible de modifier le sens affecté à chaque voie sans réallouer les fréquences attribuées aux opérateurs ; d’où un usage moins efficace du spectre disponible à mesure que l’usage descendant s’intensifie », explique l’ANFR.

En 5G, le découpage change : on passe du FDD au TDD. Cette fois-ci la fréquence est la même dans les deux sens, la séparation se fait avec une division temporelle : « À intervalles réguliers, après une pause très brève, le sens s’inverse », entre download et upload.

Un besoin de précision de l’ordre de la microseconde

L’utilisation du spectre est donc améliorée avec la possibilité de « jouer » sur les intervalles temporels, mais il y a une contrepartie : « le fonctionnement du TDD nécessite néanmoins une gestion du temps très rigoureuse ». Le temps de trajet d’une trame (c’est elle qui contient les données) est de « quelques microsecondes, mais il faut pouvoir les décompter avec précision ».

Maintenant, imaginez que plusieurs antennes fonctionnent dans la même zone : « étant donné le volume de trafic intense dans les sens montant puis descendant qui circule constamment sur des bandes de fréquences proches, il est important que les antennes soient synchronisées ». Si une antenne envoie des signaux vers les smartphones pendant qu’une voisine est en mode upload, « elle ne pourrait plus entendre ses terminaux, car rendue sourde par la puissance rayonnée par la première antenne ».

La synchronisation est donc primordiale, y compris quand les antennes « sont exploitées par des opérateurs concurrents ». Pour donner quelques chiffres, l’ANFR explique que le mode TDD nécessite une synchronisation précise de tous les réseaux mobiles, « avec une tolérance inférieure à 1,5 µs (microseconde) ».

Les horloges atomiques des satellites « GPS » à la rescousse

Les antennes relais disposent évidemment d’une horloge interne, mais la précision n’est pas suffisante et elle dépasse rapidement les 1,5 µs. Il faut donc trouver une source capable de proposer une excellente précision, partout sur le territoire. Il n’y a pas à chercher bien loin : levez les yeux au ciel et la solution apparait : les satellites Global Navigation Satellite System (GNSS). Deux exemples : le GPS américain et Galileo européen.

Vous ne le saviez peut-être pas, mais tous les satellites GNSS embarquent des horloges atomiques de très haute précision… qui ont d’ailleurs donné quelques sueurs froides à l’Agence spatiale européenne sur Galileo) On parle de données PNT pour « position, navigation et temps ». Pour fonctionner correctement avec ses petits camarades, chaque station de base 5G en TDD est équipée d’un récepteur GNSS.

Un brouillage de 8 h à 00 h

Revenons au brouillage du jour sur une antenne 5G : « entre 8 heures et minuit, presque tous les jours, le nombre de satellites vus par ce récepteur passait brusquement d’une dizaine à zéro, provoquant ainsi la perte de la synchronisation ». Un comble pour une antenne immobile.

L’enquête commence. Avant de se rendre sur place, les agents vérifient qu’il n’y a pas de brouillage de grande envergure (même si on peut se douter qu’en pareille situation les alertes auraient été plus nombreuses). Sur une station à 18 kilomètres de l’antenne, rien à signaler sur la réception des signaux GNSS.

Sur place, au pied du site de l’opérateur, les agents de l’ANFR font de nouveau chou blanc : aucun brouillage n’est détecté. Alors qu’ils sont au pied du pylône, ils demandent confirmation : au même instant, il y a sans aucun doute possible une perturbation en cours sur le récepteur.

Le récepteur était saturé par les antennes relais

La solution est finalement trouvée : le récepteur GPS de l’opérateur n’est pas brouillé, mais saturé. L’antenne du récepteur se trouve « dans une zone de champs forts dûs aux multiples opérateurs colocalisés sur le même pylône. Or, un récepteur GPS n’apprécie guère ce type d’environnement, car il se doit d’être très sensible. Et pour cause : il doit extraire du bruit ambiant des signaux GPS qui arrivent de l’espace avec un niveau très faible, environ un million de fois plus faible que le signal qui sort d’un téléphone mobile ».

Cela colle aux observations : le signal est coupé aux heures d’utilisation maximales de la téléphonie mobile (du matin au soir), il s’atténuait certains jours fériés et le brouillage ne cessait finalement que la nuit.

ANFR - Antennes installées sur pylône à Alençon
ANFR – Antennes installées sur pylône à Alençon

La densification des sites radioélectriques

Une observation rapide confirme : le récepteur GNSS est « au faîte de l’antenne, dangereusement entouré de plusieurs émetteurs ». La résolution du problème était des plus simples : le récepteur a été repositionné plus bas sur le pylône. Tout est alors rentré dans l’ordre.

« Cette enquête montre que la densification des sites radioélectriques peut provoquer des interactions entre les différents équipements radio qui y sont installés », explique l’Agence nationale des fréquences en guise de conclusion.

☕️ Un guide de l’ANSSI sur l’homologation de sécurité des systèmes d’information

Le guide, coécrit par l’ANSSI et la DINUM permet « de comprendre et de détailler la démarche permettant aux organisations d’homologuer leurs systèmes d’information ». Mais de quoi parle-t-on exactement ? Une homologation de sécurité est « un acte formel qui engage l’autorité qui la prononce ».

L’Agence rappelle que ce passage est « rendu obligatoire par un grand nombre de textes officiels est appelée « décision d’homologation » ». Et pour bien comprendre les enjeux, elle ajoute que « dans certains pays, le principe d’homologation existe et peut-être appelé « accréditation » ou « autorisation » ».

Ce guide s’adresse donc « à toutes les personnes devant réaliser, porter ou accompagner une démarche d’homologation ». L’ANSSI ajoute qu’une homologation n’est pas permanente et « doit être reconduite au maximum tous les trois ans ».

Quatre documents sont mis en ligne. Le gros morceau est le guide de 88 pages, accompagné de trois fiches méthodes, notamment une pour les décideurs, afin de leur rappeler les enjeux et les bénéfices… mais aussi certainement donner des billes aux responsables informatiques qui chercheraient à convaincre leur patron.

☕️ US : les réseaux sociaux utilisés pour tenter de déjouer les expulsions de Trump

« Ice cream truck in NYC » (« camion de glace à New-york ») : par ce jeu de mot relevant de l’algospeak (langage inventé pour contourner la modération des plateformes), une internaute états-unienne signale à ses followers avoir repéré des agents de l’Immigration and Customs Enforcement (ICE).

Comme de nombreux autres usagers de TikTok, Reddit, YouTube ou X, elle participe à l’effort collectif renforcé ces dernières semaines pour éviter à toute personne immigrée, légalement ou non, les déportations ordonnées par Donald Trump et quelquefois menées en dehors des cadres légaux.

Si le phénomène n’est pas neuf, le Washington Post relève une multiplication par cinq des discussions relatives à l’ICE sur X, Reddit et YouTube depuis début mars.

De nombreuses fausses informations se glissent parmi les alertes. Des soutiens de la démarche de déportation promue par Trump ont aussi mis à mal certains réseaux d’alertes – le compte Instagram Libs of Reddit a par exemple publié le nom, le visage et l’adresse du modérateur de r/LaMigra, un subreddit dédié au partage d’informations sur la localisation des agents de l’ICE.

Cela n’a pas empêché les efforts de suivi des agents de se multiplier en ligne, prenant quelquefois la forme de cartographies collectives, comme dans le cas de People over Papers. Si le projet est devenu viral sur TikTok, explique sa créatrice au quotidien états-unien, « c’est parce qu’il répond à un réel besoin ».

Elle aussi a été visée par des violences numériques : le 14 février, le compte très suivi Libs of TikTok a partagé son nom et son handle à son public, déclarant qu’elle aidait des criminels à échapper aux forces de l’ordre.

Oracle s’empêtre dans des soupçons de fuites de données liées à son cloud et à son offre santé

Circulez y'a rien à voir
Oracle s’empêtre dans des soupçons de fuites de données liées à son cloud et à son offre santé

Depuis dix jours, un pirate affirme détenir un jeu de données de 6 millions de lignes relatives à des clients Oracle, suite à une intrusion sur les serveurs d’authentification de l’éditeur. En dépit des allégations concordantes de plusieurs experts en cybersécurité, la société nie avoir été victime d’un piratage. Pendant que des clients inquiets déclenchent un recours collectif visant Oracle en justice, un second incident de cybersécurité, lié cette fois à Oracle Health, déclenche une enquête du FBI…

Un internaute de Floride a lancé lundi un recours collectif contre Oracle, au motif que l’éditeur n’aurait pas correctement réagi suite à une intrusion dans ses systèmes informatiques. La procédure, enregistrée le 31 mars auprès d’un tribunal du Texas (PDF), accuse Oracle d’avoir fait preuve de négligence, mais aussi d’avoir manqué à son devoir fiduciaire. De quoi motiver, d’après le plaignant, le versement de copieux dommages et intérêts, comme souvent en pareille affaire.

Une brèche de sécurité à 6 millions de lignes

Derrière cette procédure, qui pourrait paraître anecdotique au pays de la class action, réside un incident de sécurité dont l’ampleur exacte reste à déterminer. L’affaire démarre le 20 mars dernier, avec la publication, sur un forum spécialisé, d’une annonce proposant à la vente un fichier soi-disant composé des données de 6 millions d’utilisateurs des services d’authentification (SSO) et d’annuaires (LDAP) du cloud public d’Oracle.

Le pirate, qui affirme par ailleurs avoir mis la main sur des clés privées, des certificats et des mots de passe, publie la liste des sociétés clientes dont il détiendrait des données, et met en ligne un échantillon supposé de son larcin.

Dès le lendemain, Oracle nie toute brèche de sécurité, en des termes catégoriques. « Les informations d’identification publiées ne concernent pas Oracle Cloud. Aucun client Oracle Cloud n’a subi de violation ni perdu de données », affirme un porte-parole de l’éditeur au site The Register. En réponse, le pirate se vante d’avoir réussi à placer un fichier texte contenant son adresse e-mail sur un serveur de connexion Oracle Cloud. Il présente, en guise de preuve, un enregistrement du fichier réalisé par l’intermédiaire de la Wayback Machine, daté du 1ᵉʳ mars.


Il reste 67% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

L’histoire de Windows : l’attente fut longue avant Windows XP

25 ans déjà
L'histoire de Windows : l'attente fut longue avant Windows XP

Mise à jour du 1ᵉʳ avril 2025 : À l’occasion des 50 ans de Microsoft, nous republions petit à petit notre dossier sur l’histoire de Windows. À l’époque, il s’était achevé sur Windows 10. Nous le complèterons vendredi par une nouvelle partie consacrée à Windows 11.

Article original du 25 août 2020 :

Hier, Windows 95 fêtait ses 25 ans. Marquant le début d’une nouvelle ère, ce système d’exploitation a en effet changé le rapport du grand public à l’informatique, avec son fameux menu Démarrer. Ce, dans une période où le PC entrait peu à peu dans tous les foyers.

Windows 95, apparu en août 1995, est pour beaucoup le début de l’aventure Windows. Pensé comme plus accessible, il présente des éléments que l’on retrouve toujours aujourd’hui : le menu Démarrer, la barre des tâches, le bureau et l’Explorateur de fichiers. Ce n’est pas encore tout à fait un système d’exploitation à part entière, MS-DOS 7.0 étant encore intégré, mais il peut quand même accéder directement au matériel.

Le DOS est cependant caché, Microsoft jouant sur les mots à cette époque pour suggérer que Windows s’en est débarrassé. C’est le premier système grand public de Microsoft à proposer les API (Application Programming Interface) Win32. Une partie du système est d’ailleurs réécrite en 32 bits, débutant ce que l’on appellera la série des « 9x », signalée par un code hybride 16/32 bits qui deviendra synonyme d’instabilité.

Le système est également connu pour ses évolutions dans les années suivantes (uniquement proposées aux OEM). En février 1996, paraît ainsi la mise à jour OSR1, modernisant la base de pilotes et apportant des correctifs. La suivante est davantage connue : OSR2, sortie en août de la même année. Internet Explorer 3.0 est intégré et le support du FAT32 fait son apparition. La taille des partitions peut alors grimper jusqu’à 2 To, loin des 4 Go du FAT16.

Deux autres mises à jour vont être proposées. OSR2.1 ajoute un premier support de l’USB, tandis qu’OSR2.5 ne fait qu’apporter Internet Explorer 4.

Notre dossier sur l’histoire de Windows :


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Firefox 137 sait enfin grouper les onglets

Garanti sans poisson
Firefox 137 sait enfin grouper les onglets

Mozilla vient de publier la version 137 de son navigateur. Firefox se dote pour l’occasion d’une capacité présente chez les concurrents depuis longtemps : la possibilité de grouper les onglets. Avec d’autres améliorations, la mouture est à ranger parmi les versions marquantes.

La nouveauté la plus visible de Firefox 137 est donc le regroupement d’onglets. C’est aussi celle que tout le monde ne verra pas tout de suite, car elle est en déploiement, Mozilla l’activant petit à petit. Il existe cependant des méthodes pour l’obtenir tout de suite (nous y reviendrons).

Enfin des groupes d’onglets

Comment fonctionne le regroupement d’onglets dans Firefox 137 ? Exactement comme partout ailleurs. Il y a deux façons principales de créer des groupes : soit en déplaçant un onglet par-dessus un autre, soit en faisant une sélection de plusieurs onglets et en choisissant « Ajouter les onglets à un nouveau groupe ».

Dans les deux cas, un liseré coloré apparait sous les onglets pour les lier. La couleur du groupe peut être personnalisée, de même que le nom. Depuis l’étiquette colorée du groupe, un clic droit permet d’autres actions, autrement accessibles par des mouvements de souris. Par exemple, on peut saisir une étiquette pour faire sortir tout le groupe d’onglets vers une autre fenêtre ou pour en créer une nouvelle.

Si vous ne voyez pas encore la fonction et que vous ne souhaitez pas attendre, il y a une solution. Rendez-vous dans la barre d’adresse et entrez about:config. Cherchez l’entrée « browser.tabs.groups.enabled » en passant par le champ de recherche. Double-cliquez sur le résultat et passez la valeur à « True ». Il suffira de redémarrer Firefox pour que la fonction soit disponible. Autre solution, moins fiable : passer par le canal bêta, où les groupes d’onglets sont activés d’origine.

Du neuf dans la barre de recherche

Plusieurs améliorations importantes également pour faciliter l’utilisation de la barre de recherche. Firefox 137 permet ainsi de changer le contexte en cliquant à gauche de la barre, sur le bouton Google ou correspondant au moteur par défaut. Dans la liste, en plus des moteurs, on peut maintenant choisir entre les marque-pages, les onglets, l’historique et les actions. On peut même sélectionner les paramètres de recherche.

Cette bascule entre les éléments est d’ailleurs accompagnée d’une persistance : changer le contexte de recherche ou le moteur n’efface pas les termes entrés dans la barre.

Firefox 137 peut aussi détecter si la page sur laquelle vous êtes dispose d’un champ de recherche. Auquel cas, écrire dans la barre de recherche peut suggérer de lancer l’action sur le site en cours, plutôt que dans le moteur par défaut. Du moins en théorie, car cette capacité est loin de fonctionner partout. On peut la voir par exemple sur iMDB, mais pas sur Allociné. Si vous vous servez deux fois de cette fonction, Firefox finira par vous proposer d’ajouter ce moteur de recherche à la liste intégrée.

On peut également se servir du symbole @ pour ajouter un contexte spécifique à la recherche. Par exemple, @google pour lancer une recherche sur Google, @onglets pour retrouver un onglet, etc. Pratique quand on préfère ne pas lâcher son clavier.

Enfin, la barre de recherche permet de réaliser des opérations mathématiques, le résultat s’affichant dans le menu en-dessous.

D’autres nouveautés bienvenues

Firefox 137 est également une version importante pour Linux, car le codec HEVC (H.265) y est maintenant pris en charge, logiciellement et matériellement. Mozilla en profite pour étendre ce support à sa version Android, mais uniquement à travers le matériel.

Le support des PDF fait également un petit bond avec le support des signatures, que l’on peut enregistrer pour plus tard. En outre, le lecteur intégré sait détecter les liens dans le texte pour les rendre exploitables.

On note plusieurs changements pour les développeurs, dont le support des méthodes Math.sumPrecise() et Atomics.pause(). Signalons aussi le respect du quota de 10 Mo pour l’API storage.session ainsi que l’affichage des métadonnées dans le panneau Fonts de l’Inspecteur. Le panneau Réseau autorise de son côté le contournement des réponses aux requêtes avec des fichiers locaux.

Enfin, Firefox 137 corrige huit failles de sécurité, dont trois critiques. L’installation est donc chaudement recommandée.

Windows 11 rend encore un peu plus obligatoire l’utilisation d’un compte Microsoft

Libérés de la liberté de choisir
Windows 11 rend encore un peu plus obligatoire l’utilisation d’un compte Microsoft

L’entreprise compte verrouiller encore un peu plus la création de compte sur Windows 11, pour rendre obligatoire le compte Microsoft. La dernière préversion du système bloque ainsi l’utilisation d’une méthode courante pour contourner cette étape. Mais ce court-circuit a déjà son propre court-circuit.

L’année dernière, Microsoft avait expliqué pourquoi un compte maison était si important pour Windows 11. Il déverrouille de nombreuses fonctions, dont la synchronisation des fichiers, des paramètres et autres, l’intégration de Microsoft 365, la sauvegarde des licences et de certaines clés de chiffrement, etc.

Problème, une partie des utilisateurs préfère utiliser un compte local. Tout le monde ne court pas après la synchronisation des informations. Ou, pour être plus précis, la synchronisation par Microsoft, avec le stockage des données personnelles chez l’éditeur américain. Pendant longtemps, les Windows ont permis la création d’un compte local. Mais Windows 11 a commencé à serrer la vis, avec des méthodes de contournement, comme la coupure de la connexion internet pendant la première configuration du système.

Nouveau tour de vis

Dans un billet, Microsoft a présenté récemment les préversions 26200.5516 et 26120.3653, respectivement pour les canaux Dev et Beta. Les nouveautés présentées sont nombreuses : recherche sémantique pour les PC Copilot+ équipés de processeurs AMD et Intel, récapitulatif écrit pour le Narrateur, ou encore des améliorations pour l’écran d’erreur vert en cas de redémarrage forcé, le Copilot et la fenêtre de partage.

Mais parmi les changements, on trouve également le blocage du contournement par BypassNRO. Les deux listes incluent en effet le message suivant : « Nous supprimons le script bypassnro.cmd de la version de base afin d’améliorer la sécurité et l’expérience utilisateur de Windows 11. Ce changement garantit que tous les utilisateurs sortent de la configuration avec une connectivité Internet et un compte Microsoft ».

Cette commande pouvait être utilisée depuis une invite de commande (Maj + F10) pendant la première configuration de la machine, après installation du système. Il suffisait alors d’entrer « oobe\bypassnro » pour contourner l’exigence d’un compte Microsoft, autorisant la création d’un compte local. Le script créait une clé dans la base de registre.

Contourner le contournement

Si Microsoft a bloqué le script pendant l’installation des préversions, la clé de registre peut toujours être créée. La méthode consiste à déclencher directement l’opération par la ligne de commande, même si cette dernière est nettement plus longue à écrire que le simple script bypassnro.cmd.

Il faut saisir deux commandes :

reg add HKLM\SOFTWARE\Microsoft\Windows\CurrentVersion\OOBE /v BypassNRO /t REG_DWORD /d 1 /f
shutdown /r /t 0

Si la ligne de commande vous semble trop rébarbative, il est également possible de le faire à la souris dans l’éditeur de registre. Pour cela, depuis l’invite de commande (toujours Maj + F10), entrez « regedit » et validez. Rendez-vous dans HKLM\SOFTWARE\Microsoft\Windows\CurrentVersion, puis créez la clé OOBE si elle n’existe pas. Là, dans ce dossier, créer une valeur DWORD 32 bits nommée « BypassNRO » et affectez lui la valeur 1. Il faudra ensuite redémarrer la machine.

Attention toutefois, Microsoft pourrait également bloquer cette possibilité. Le changement étant apparu dans des préversions, il serait simple pour l’éditeur d’insérer un nouveau blocage dans les prochaines semaines.

Ajoutons également que ce « bypass » reste fonctionnel sur les révisions stables de Windows 11, y compris la dernière 24H2.

Enfin, une autre méthode est apparue il y a six mois environ, comme relevé par Neowin notamment. Elle passe par l’utilisation de la console de développement juste avant de choisir une deuxième disposition pour le clavier pendant l’assistant de première configuration. Bien que la méthode soit clairement expliquée sur un dépôt GitHub, elle n’a pas fonctionné chez nous sur une installation neuve de Windows 11 24H2, malgré de multiples tentatives.

Notez qu’en passant par l’utilitaire Rufus, il reste possible pour l’instant de créer une clé d’installation Windows 11 sans le verrouillage sur le compte Microsoft. Pour mémoire, ce même utilitaire peut aussi être utilisé pour désactiver la vérification de la présence de la puce TPM 2.0, comme nous l’indiquions en février.

[Outil Next] Générez des images « style Flock » grâce à notre IA maison !

Flock 2.0 pour vous servir
[Outil Next] Générez des images « style Flock » grâce à notre IA maison !

Vous en rêviez ? Next vous propose un nouvel outil : avec un simple prompt, générez des images dans le « style des dessins de Flock ». Là encore, nous avons mis à contribution l’IA générative, mais en local. Explications.

Quand Flock a vu la semaine dernière des images « style Ghibli » générées par l’intelligence artificielle d’OpenAI, il était assez dubitatif. Mais il s’est vite rendu compte du potentiel de cette fonctionnalité, d’autant qu’elle a été reprise à tour de bras par des internautes et politiciens, sans plus de réflexion que « c’est beau ».

Bref, il veut croquer sa part du gâteau et Next pourrait de son côté profiter d’une belle exposition médiatique. Un combo gagnant-gagnant ?

Autant prendre les devants, avec une IA maison

Il a donc décidé de prendre les devants et de se lancer, avec l’aide de l’IA générative. Comme nous l’expliquions récemment, il utilisait déjà un peu l’IA, mais il passe clairement une nouvelle étape… sans doute un peu poussé par Sébastien qui s’en sert largement pour développer des extensions et d’autres applications.

Ce n’est pas tout. Flock dresse un constat triste, mais réaliste de la situation : il y a des chances que des IA génératives se nourrissent déjà de son travail, bien que l’indexation de nos contenus ne soit pas autorisée par notre fichier robots.txt. Ce dernier n’engage malheureusement que ceux qui y croient et veulent bien jouer le jeu. « Il est important de comprendre qu’il ne s’agit là que d’une indication sur ce que doivent faire les robots bienveillants, ce n’est en aucun cas un élément de sécurité. En effet, certains robots ignorent ce fichier », rappelle à juste titre Wikipédia.

On a fait chauffer les serveurs de moji

Il a donc profité d’une réunion d’équipe pour lancer une idée : que Next propose des dessins dans le « style Flock » aux lecteurs. Une fonctionnalité qui serait évidemment réservée à nos abonnés.

Sans attendre, on se lance, d’autant que moji dispose d’un datacenter, avec des serveurs et des GPU que nous pouvons utiliser pour divers projets. L’investissement pour Next est quasi nul, autant en profiter sans attendre ! Pour la phase d’entrainement, nous avons utilisé près de 3 000 dessins de Flock sur nos serveurs, et il nous a fourni près de 5 000 brouillons supplémentaires, tous réalisés pour Next.

Il faut bien le reconnaitre : c’est encore un peu juste pour arriver à un résultat parfait, mais c’est déjà largement exploitable pour une première version. L’outil est donc en bêta pour le moment. Nous le laissons ouvert à tous pour le moment, afin d’avoir un maximum de retours avant de le finaliser.

Un outil en bêta, accessible à tous pour l’instant

Pendant ce temps, l’IA génère des dessins supplémentaires de Flock. Ils serviront ensuite à réaliser une seconde phase d’apprentissage sur la base de dessins plus nombreux. Tous les GPU n’étant pas encore disponibles pour la génération d’images, le résultat peut mettre jusqu’à une trentaine de secondes à s’afficher. Patience donc.

En attendant, prenez ce nouvel outil en main, testez et faites-nous part de vos retours !

La suspension de TikTok en Nouvelle-Calédonie jugée illégale, mais pas impossible

Democracy
La suspension de TikTok en Nouvelle-Calédonie jugée illégale, mais pas impossible

Le Conseil d’État déclare illégal le blocage de TikTok imposé à la Calédonie en mai 2024. Il précise les conditions dans lesquelles une telle suspension pourrait être légale.

En pleines émeutes de contestation du projet gouvernemental de dégel électoral, en Nouvelle-Calédonie, le gouvernement avait déclaré l’état d’urgence et suspendu l’accès à TikTok. À partir du 15 mai 2024 à 20 heures et pendant deux semaines, le réseau social n’était plus accessible depuis la collectivité d’outre-mer.

La Quadrature du Net, la Ligue des droits de l’homme, ainsi que des particuliers avaient rapidement attaqué la décision de blocage en justice, le qualifiant de « coup inédit et particulièrement grave à la liberté d’expression en ligne ». Ce 1ᵉʳ avril, le Conseil d’État a rendu sa décision, dans laquelle il annule le blocage de TikTok.

Il souligne notamment que l’autorité administrative ne peut normalement interrompre un tel service « que si la loi le prévoit compte tenu des atteintes qu’une telle mesure porte aux droits et libertés (notamment liberté d’expression, libre communication des pensées et des opinions, droit à la vie privée et familiale, liberté du commerce et de l’industrie). »

Trois conditions à la suspension

Au passage, l’institution précise les conditions dans lesquelles un Premier ministre pourrait légalement interrompre « provisoirement » l’accès à un réseau social, « même si la loi ne le prévoit pas ». Ces conditions sont au nombre de trois.

La suspension peut être décidée « si la survenue de circonstances exceptionnelles la rend indispensable ». Elle ne peut l’être « qu’à titre provisoire », à condition « qu’aucun moyen technique ne permette de prendre immédiatement des mesures alternatives moins attentatoires aux droits et libertés que l’interruption totale du service pour l’ensemble de ses utilisateurs ». Enfin, cette suspension ne peut être mise en œuvre que « pour une durée n’excédant pas celle requise pour rechercher et mettre en œuvre ces mesures alternatives ».

Durée indéterminée

En l’occurrence, si le Conseil d’État admet que la situation en Nouvelle-Calédonie relevait bien des « circonstances exceptionnelles », dans la mesure où les émeutes ont entraîné des décès et des atteintes aux personnes et aux biens « d’une particulière gravité », il souligne que la suspension de TikTok décidée par le Premier ministre d’alors, Gabriel Attal, l’a été sans indication de durée, et « sans subordonner son maintien à l’impossibilité de mettre en œuvre des mesures alternatives ».

Le Conseil d’État juge ce blocage illégal, car ayant porté « une atteinte disproportionnée aux droits et libertés invoqués par les requérants ».

☕️ Derrière la viralité d’une fausse vidéo du Figaro, une possible évolution de l’opération Matriochka

Diffusée le 20 mars, une fausse vidéo du Figaro a rencontré un écho inédit sur les réseaux X et TikTok. Alors qu’Emmanuel Macron et Vladimir Poutine s’opposent, la vidéo affirme que « 71 % des Français sont convaincus que leur vie serait meilleure si le président français était Poutine ».

Le logo, la charte éditoriale… la vidéo est en tout point similaire à une production du Figaro, mais tout est faux, comme le soulignera le journaliste en charge des réseaux sociaux du Figaro Jean-Baptiste Semerdjian.

Matriochka version Flock

Copier des médias installés pour diffuser de la désinformation, le modus operandi est typique de l’opération Matriochka, qui sévit depuis un an et demi dans l’espace informationnel français.

Mais le projet d’opposants russes Bot Blocker (@antibot4navalny / @antibot4navalny.bsky.social), qui œuvre régulièrement à documenter ces opérations, relève ici une spécificité : la réponse d’un internaute réel, trompé par la vidéo, est rapidement devenue plus virale que la publication initiale du faux.

En effet, « pour la première fois, la réponse d’un utilisateur en tant que telle a été amplifiée par les robots Matrioshka, alors qu’auparavant, ils se concentraient exclusivement sur les faux visuels qu’ils créaient eux-mêmes », indique @antibot4navalny.

En pratique, les bots liés aux comptes pilotant l’opération sont allés démultiplier l’audience de publication d’internautes légitimes sur Telegram, TikTok et Twitter, pour augmenter la portée de leurs réactions, entrainant à leur suite d’autres internautes légitimes.

Royaume-Uni : la reconnaissance faciale policière en temps réel gagne du terrain

Big Brother Watched
Royaume-Uni : la reconnaissance faciale policière en temps réel gagne du terrain

Après avoir testé son système de reconnaissance faciale « en direct » via des fourgons de police, qui aurait permis d’identifier et arrêté plus de 500 « criminels présumés » recherchés, la police s’apprête à déployer deux caméras fixes dans la banlieue de Londres. Le nombre de « faux positifs » serait quasi-nul, ce que conteste l’ONG Big Brother Watch, qui se base aussi, de son côté, sur les systèmes déployés dans les magasins.

La police métropolitaine (« Met ») du Grand Londres va déployer deux caméras de reconnaissance faciale en direct (LFR, pour « Live Facial Recognition ») cet été à Croydon, une ville de la banlieue sud de la capitale britannique, rapporte The Times.

Ce déploiement ferait partie d’un projet pilote entamé il y a deux ans, précise The Register. Les caméras LFR comparent les visages des passants à une base de données de personnes recherchées et « criminels présumés, notamment des violeurs, des cambrioleurs et des voleurs ».

Les données sont immédiatement effacées s’il n’y a pas de correspondance. Le système, « accrédité » par le Laboratoire National de Physique, « ne présente pas les mêmes biais raciaux que d’autres formes de reconnaissance faciale », précise la « Met ».

Le système, testé jusqu’alors via des caméras LFR installées sur des fourgons de police, aurait d’ores et déjà permis, l’an passé de procéder à « plus de 500 arrestations » d’« individus dangereux soupçonnés d’infractions graves, notamment d’étranglement, de harcèlement, de violences domestiques et de viol », précise un porte-parole de la Met. Sur LinkedIn, la Met expliquait en décembre dernier que la LFR avait permis 540 arrestations, dont 406 inculpations ou mises en examen.

0,075 % de « vrais positifs », 0,00075 % d’erreurs (« faux positifs »)


Il reste 72% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Les PowerToys 0.90 se dotent d’une nouvelle palette de commandes

Nouvelle mouture pour la suite d’outils. Le plus gros apport de cette version 0.90 est la version 2 de Run, désormais renommé Command Palette (ou Palette de commandes). La palette fonctionne comme ce que l’on connait dans d’autres applications, comme Visual Studio Code. Son interface a été enrichie, son système d’extensions retravaillé et un accent particulier a été mis sur les performances.

Le Color Picker, qui permet de sélectionner la couleur d’un pixel n’importe où dans l’écran, a été remanié sous le capot. .NET WPF remplace ainsi WPFUI, ce qui doit apporter une meilleure compatibilité à l’outil et un support amélioré des thèmes.

Parmi les autres nouveautés, on peut citer également la possibilité d’effacer directement un fichier dans Peek (Aperçu), le support des variables dans les noms de fichiers dans New+, la correction de plusieurs bugs dans FancyZones, ainsi qu’une autre pour Espaces de travail, qui ne parvenait parfois pas à capturer certaines applications minimisées.

La mise à jour est disponible depuis la fenêtre principale des PowerToys. Pour les personnes qui voudraient essayer la suite d’outils (bien pratique), l’installeur se récupère depuis le Microsoft Store ou le dépôt GitHub associé. Rappelons que ces applications sont open source (licence MIT).

OpenAI lève 40 milliards de dollars et promet un modèle partiellement ouvert

OpenAI lève 40 milliards de dollars et promet un modèle partiellement ouvert

OpenAI a formalisé un nouveau tour de table à hauteur de 40 milliards de dollars, amenés principalement par Softbank. Pour conclure sa levée de fonds, la société doit cependant achever sa bascule vers un modèle « for profit ». Sam Altman annonce en parallèle la sortie prochaine d’un modèle à poids ouverts, une démarche qu’OpenAI n’avait pas engagée depuis 2019.

Un tour de table à 40 milliards de dollars, calculé sur la base d’une valorisation d’entreprise désormais estimée à 300 milliards de dollars  : OpenAI a annoncé lundi ce qui devrait devenir la plus importante levée de fonds jamais réalisée par une entreprise de la tech. Cette manne doit permettre à l’entreprise de « repousser encore plus loin les frontières de la recherche en IA, faire évoluer notre infrastructure de calcul et fournir des outils de plus en plus puissants aux 500 millions de personnes qui utilisent ChatGPT chaque semaine », affirme-t-elle dans un bref communiqué.

Une levée de fonds assortie de conditions

Le groupe japonais Softbank représente le principal contributeur à ce tour de table, qui sera cependant réalisé en deux temps, et soumis à plusieurs conditions suspensives. Le premier round, programmé pour le mois d’avril, porte sur une enveloppe de 10 milliards de dollars.

Le second round est quant à lui attendu pour fin 2025 ou début 2026, et peut atteindre 30 milliards de dollars si et seulement si OpenAI parvient à boucler la restructuration de son capital, pour parvenir à devenir une entité commerciale classique, sans limitation liée à sa composante non-profit (sans but lucratif) historique.

La société dirigée par Sam Altman repose aujourd’hui sur une structure dite « capped profit », dont les bénéfices sont plafonnés (l’excédent devant, statutairement, remonter vers la structure à but non lucratif). OpenAI travaille depuis des mois à l’évolution de sa gouvernance, précisément pour répondre aux exigences de Softbank et préparer ce tour de table.

Sur cette deuxième phase, Softbank prévoit de laisser de la place à de potentiels co-investisseurs, à hauteur de 10 milliards de dollars. D’après CNBC, le tour de table inclurait Microsoft, soutien historique d’OpenAI, ainsi que les fonds Coatue, Altimeter Capital et Thrive Capital. Une partie des fonds levés aurait vocation à alimenter la contribution d’OpenAI au projet Stargate, qui ambitionne pour mémoire de fédérer 500 milliards de dollars pour construire des infrastructures dédiées à l’IA aux États-Unis.

Sam Altman annonce un modèle à poids ouverts

OpenAI a, en parallèle, lancé un appel à contributions en direction des développeurs, pour recueillir leurs suggestions relatives à un futur modèle de langage à poids ouvert. La page dédiée propose un formulaire via lequel l’entreprise demande quels sont les modèles ouverts avec lequel la personne a déjà travaillé, et quelles seraient ses attentes quant à un modèle open-weight signé OpenAI.

« Nous prévoyons de publier notre premier modèle de langage à poids ouvert depuis GPT-2. Nous y réfléchissons depuis longtemps mais d’autres priorités ont pris le pas. Maintenant, cela nous semble important de le faire », commente Sam Altman sur X. Il annonce que des événements dédiés aux développeurs seront organisés prochainement, d’abord à San Francisco, puis en Europe et en Asie, pour recueillir les retours de la communauté et présenter les premiers prototypes.

« Nous sommes impatients de voir ce que les développeurs construiront et comment les grandes entreprises et les gouvernements l’utiliseront là où ils préfèrent exécuter eux-mêmes un modèle », se réjouit-il encore. À ce stade, OpenAI ne livre aucune information précise quant à la nature exacte de ce futur modèle. L’engagement porte simplement sur l’ouverture des poids, c’est-à-dire les paramètres définis au cours de l’entraînement qui conditionnent l’exécution du modèle.

☕️ France2030 : 50 millions d’euros pour la « SupraFusion »

C’est un projet financé par le plan d’investissement France2030, avec 50 millions d’euros sur sept ans. Il est piloté par le CEA et le CNRS. Il « vise à accélérer le développement de supraconducteurs à haute température pour répondre aux défis énergétiques et sociétaux de demain, grâce notamment à l’énergie de fusion ».

Si la fission nucléaire consiste à casser un noyau atomique pour créer de l’énergie, la fusion associe deux noyaux légers pour en faire un plus lourd. C’est le type de réaction que l’on retrouve au cœur des étoiles.

Attention à ne pas vous laisser avoir par la « haute température critique », il s’agit de 80 kelvins soit - 193 °C, mais on est loin des 4 kelvins (- 269 °C) des supraconducteurs traditionnels. Les supraconducteurs ont des « propriétés électriques et magnétiques particulières, qui les rendent aptes à supporter des courants d’intensité très élevée », explique le CNRS. Mais aussi sans perte, ajoute le CEA.

Ces matériaux pourraient être cruciaux en fusion nucléaire, mais ils « présenteraient également un grand potentiel dans de nouvelles applications comme la production d’électricité éolienne, le transfert d’électricité ou la mobilité lourde bas-carbone (avions, bateaux) ».

Le programme de recherche s’articule autour de trois axes : « développer les briques technologiques des supraconducteurs haute température critique, démontrer leur fiabilité technologique à grande échelle autour d’un démonstrateur d’électro-aimant d’envergure, et explorer les applications de rupture, en particulier les centrales de fusion compactes électrogènes ».

❌