Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

☕️ Réorganisation chez Microsoft : Pavan Davuluri prend les rênes des divisions Windows et Surface

En septembre dernier, coup de tonnerre chez Microsoft : après 19 ans dans l’entreprise (il a pris la direction des Surface puis de Windows), Panos Panay quittait Microsoft pour Amazon. Dans la foulée, l’entreprise séparait les deux branches.

Pavan Davuluri s’occupe des Surface, Mikhail Parakhin de Windows. « Désormais, Windows et Surface seront sous la responsabilité de Davuluri, car Parakhin a « décidé d’explorer de nouveaux rôles » », explique The Verge. Nos confrères ont pu consulter un mémo interne de Rajesh Jha, responsable des expériences et des appareils chez Microsoft.

« Mikhail Parakhin rendra désormais compte à Kevin Scott pendant une phase de transition, mais son avenir chez Microsoft semble incertain, et il est probable que ces « nouveaux rôles » seront en dehors de l’entreprise », ajoutent nos confrères.

Il y a quelques jours, Mustafa Suleyman (cofondateur de DeepMind) est arrivé chez Microsoft, comme CEO de la nouvelle division IA. Rajesh Jha parle d’une vision « holistique » dans son mémo, cela concerne aussi bien les puces, les systèmes, les appareils et l’intelligence artificielle bien évidemment.

La police américaine demande à Google la liste des personnes ayant visionné des vidéos YouTube

De spectateur à suspect : that escalated quickly !
Le coin gauche d'un écran d'ordinateur est ouvert sur une page YouTube.

Forbes révèle que dans deux décisions de justice, le gouvernement fédéral états-unien a demandé à Google de lui communiquer des informations sur toute personne ayant visionné plusieurs vidéos et flux en direct sur YouTube.

Il s’agissait tout d’abord d’identifier la personne derrière le pseudonyme en ligne « elonmuskwhm ». Elle est soupçonnée de vendre des bitcoins contre de l’argent liquide, ce qui pourrait enfreindre les lois sur le blanchiment d’argent.

Ratisser large pour (peut-être) trouver une personne

Des agents « infiltrés » lui avaient envoyé des liens vers des tutoriels YouTube. Les autorités avaient ensuite demandé à Google les noms, adresses, numéros de téléphone et activités des utilisateurs de tous les comptes Google qui avaient accédé aux vidéos de YouTube entre le 1ᵉʳ et le 8 janvier 2023.

Elles demandaient également les adresses IP des utilisateurs (sans compte Google) qui ont visionné ces vidéos. Or, relève Forbes, les vidéos avaient été « regardées collectivement » plus de 30 000 fois. « Le tribunal a accepté l’ordonnance et Google a été prié de garder la demande secrète jusqu’à ce qu’elle soit dévoilée en début de semaine », précisent nos confrères.

Autre affaire à Portsmouth, même logique des forces de l’ordre

Dans une autre enquête, la police de Portsmouth avait reçu une menace d'un inconnu qui aurait déposé un explosif dans une poubelle. L'ordonnance indique qu'après avoir fouillé la zone, la police avait appris qu'elle était surveillée par une caméra d'une entreprise locale rediffusée sur YouTube. Les policiers ont là aussi demandé à Google de leur fournir une liste des comptes qui ont « visionné et/ou interagi avec » huit flux en direct sur YouTube, et les informations d'identification associées pendant des périodes spécifiques. Or, souligne Forbes, parmi ces flux figurait une vidéo publiée par un compte suivi par 130 000 abonnés.

Google botte en touche

Nos confrères ne savent pas si Google leur a fourni des données. L'un de ses porte-paroles, Matt Bryant, leur a répondu que Google a, en réponse aux demandes des forces de l'ordre, « mis en place un processus rigoureux destiné à protéger la vie privée et les droits constitutionnels » de ses utilisateurs. « Nous examinons la validité juridique de chaque demande, conformément à la jurisprudence en vigueur, et nous nous opposons systématiquement aux demandes de données d'utilisateurs trop vastes ou inappropriées, y compris en nous opposant complètement à certaines demandes », précise ainsi le porte-parole. Interrogé par nos confrères, le département américain de la Justice n’a pas souhaité s’exprimer pour le moment.

 « Transformer des spectateurs innocents de YouTube en suspects criminels »

Des experts en protection de la vie privée issus de plusieurs groupes de défense des droits civils ont déclaré à Forbes qu'ils pensaient que ces ordonnances étaient inconstitutionnelles. Selon eux, elles menaçaient d'annuler les protections prévues par les 1ᵉʳ et 4ᵉ amendements de la Constitution, qui couvrent la liberté d'expression et la protection contre les perquisitions abusives, et donc de « transformer des spectateurs innocents de YouTube en suspects criminels », résume Forbes. « Personne ne devrait craindre que la police vienne frapper à sa porte simplement à cause de ce que l'algorithme de YouTube propose », précise Albert Fox-Cahn, directeur exécutif du Surveillance Technology Oversight Project. De plus, « ce que nous regardons en ligne peut révéler des informations très sensibles sur nous, nos opinions politiques, nos passions, nos croyances religieuses et bien d’autres choses encore », rappelle John Davisson, conseiller au Electronic Privacy Information Center.

Google a déployé une mise à jour pour « contrer » ces demandes

Il qualifie ces ordres de « tout aussi effrayants » que les mandats de géolocalisation (geofence) inversée, qui obligent Google à fournir des données sur tous les utilisateurs se trouvant à proximité d'un lieu de crime. Forbes rappelle à ce titre que Google a d'ailleurs annoncé en décembre une mise à jour qui rendra « techniquement impossible » la fourniture d'informations en réponse à de tels mandats.

Les Français ont une approche nuancée de l’intelligence artificielle

Plutôt attirés par les sciences et techniques

Les Français voient l’IA comme une révolution technologique peu avare en risques, selon le troisième baromètre de l’esprit critique d’Universcience.

On en parle, on y verse des fonds, mais quel est le rapport de la population française à l’intelligence artificielle ? C’est l’une des questions à laquelle a cherché à répondre l’établissement public Universcience (qui réunit la Cité des sciences et le Palais de la découverte) dans son troisième baromètre de l’esprit critique.

Outre analyser le comportement des Français face aux sciences (avec des résultats surprenants, des disciplines comme l’ostéopathie et l’astrologie étant plus souvent qualifiées de sciences par les 2004 personnes interrogées début février 2024 que la sociologie, l’écologie ou l’économie), l’enquête se penche aussi sur leur rapport à l’esprit critique, leurs manières de s’informer et, donc, leur vision de l’IA et de ces dernières itérations génératives.

© Universcience / OpinionWay

Une vision nuancée de l’intelligence artificielle


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

ONU : une première résolution mondiale sur l’intelligence artificielle

"Don't be evil", again ?
Ces cartes illustrées sont les dos d'un jeu de cartes original assemblant 56 mots A et I et des diagrammes d'échecs, faisant partie d'une expérimentation plus large de jeux analogiques sur l'I.A. Il explore une redéfinition alternative de l'I.A. en tant qu'unités d'un langage social avant une construction mathématique. Son but est d'examiner certains des principes de l'apprentissage automatique comme l'interprétation, la classification, la priorisation, en tant que composants de l'interaction humaine, avant son encodage. Les mains, les bouches et les caractères manuscrits sont choisis comme imagerie pour visualiser les sources et les choix humains exprimés à travers nos architectures techniques. La modularité associative et générative d'un jeu de cartes ouvre une représentation plus intemporelle de l'I.A., pour envisager différemment notre relation à la technologie.

Les Nations unies ont adopté à l’unanimité jeudi 21 mars une résolution sur l’intelligence artificielle pour soutenir des systèmes « sûrs, sécurisés et dignes de confiance » qui doivent bénéficier « également au développement durable pour tous ». Ce texte évoque une collaboration nécessaire avec les pays en développement tout en oubliant les travailleurs du clic.

L’ONU qualifie d ‘« historique » la résolution sur l’intelligence artificielle (IA) adoptée jeudi 21 mars [PDF] par son Assemblée générale. Le texte, proposé par les États-Unis et « coparrainé » par plus de 120 autres États membres (dont la France, la Belgique, le Kenya, le Libéria, l’Ouzbékistan, le Chili et les îles Fidji), n’est pas contraignant, mais appelle les États membres à créer des « cadres de réglementation et de gouvernance permettant de régir des systèmes d’intelligence artificielle qui soient sûrs, sécurisés et dignes de confiance ». Cette résolution contient 13 points sur lesquels l’ONU insiste pour que le développement de l’IA à travers le monde soit « responsable ».

Combler le fossé numérique et favoriser le développement durable

Dans cette résolution, l’ONU se déclare « résolue à combler le fossé numérique entre les pays et à l’intérieur même des pays, et notamment dans le domaine de l’intelligence artificielle ». Les nations unies soutiennent clairement le développement de cette technologie : « l’objectif étant de favoriser, plutôt que d’entraver, la transformation numérique et l’accès équitable aux avantages que procurent ces systèmes ».

Et ce, « en vue d’atteindre les 17 objectifs de développement durable et de réaliser le développement durable dans ses trois dimensions – économique, sociale et environnementale – et de tenter de remédier à d’autres difficultés communes à l’échelle mondiale qu’éprouvent en particulier les pays en développement », même si on sait que l’intelligence artificielle et notamment les grands modèles de langage posent des questions énergétiques complexes.

Coopération avec les pays en développement, mais oubli des travailleurs du clic

La résolution encourage la coopération de tous les acteurs du secteur avec les pays en développement « et à leur apporter une assistance pour favoriser un accès inclusif et équitable aux avantages » de ces technologies.

Elle demande à ses membres de « donner aux pays en développement, en particulier aux pays les moins avancés, les moyens de lever les principaux obstacles structurels et les barrières empêchant l’accès aux avantages que peuvent procurer les technologies nouvelles et naissantes et l’innovation en matière d’intelligence artificielle pour atteindre les 17 objectifs de développement durable », notamment en donnant accès aux sources scientifiques et à la recherche.

Elle incite aussi l’évaluation des incidences du déploiement de l’intelligence sur les marchés du travail « en particulier dans les pays en développement ». Mais elle n’évoque jamais la partie immergée du travail de l’IA impliquant actuellement souvent des travailleurs de ces pays : l’étiquetage des données, indispensable pour l’entraînement des IA.

Une gouvernance des données à mettre en place

Pourtant, le texte affirme que « les données sont fondamentales pour la mise au point et le fonctionnement des systèmes d’intelligence artificielle » et souligne « qu’une gouvernance des données juste, inclusive, responsable et efficace, l’amélioration de la production, de l’accessibilité et de l’infrastructure des données et l’utilisation des biens publics numériques sont essentielles » pour la mise en place d’IA « responsables ». Mais son objectif affiché sur le sujet est d’assurer « une plus grande cohérence et interopérabilité, dans toute la mesure du possible, des stratégies visant à améliorer la fiabilité des flux de données transfrontières ».

Le texte n’évite pas le sujet des discriminations et demande à ses membres de faciliter l’élaboration et l’application de cadres pour « mieux protéger les personnes contre toutes les formes de discrimination, de préjugés et d’utilisation abusive » et « d’éviter de renforcer ou de perpétuer des applications et des résultats discriminatoires ou entachés de préjugés ». Mais il ajoute tout de suite que les mesures prises en ce sens ne doivent pas avoir « une incidence involontaire ou disproportionnée sur le développement positif ou l’accès et l’utilisation des autres utilisateurs et bénéficiaires ».

L’ONU « encourage le secteur privé à respecter les dispositions applicables en droit international et en droit interne et à agir conformément » aux principes directeurs relatifs aux entreprises et aux droits de l’homme qu’elle énonçait déjà dans une résolution prise en 2011.

Un texte bien accueilli par les multinationales du secteur

Porteuse du texte, l’ambassadrice américaine Linda Thomas-Greenfield a exprimé l’espoir que le « dialogue inclusif et constructif qui a conduit à cette résolution serve de modèle pour les conversations futures sur les défis de l’IA dans d’autres domaines, par exemple, en ce qui concerne la paix et la sécurité et l’utilisation militaire responsable de l’autonomie de l’IA ». Elle a également souligné l’opportunité et la responsabilité de la communauté internationale « de gouverner cette technologie plutôt que de la laisser nous gouverner ».

Dans ce contexte d’absence de contraintes concrètes, les responsables des multinationales du secteur comme Meta, Google ou Microsoft se sont montrés en accord avec la résolution. « L’IA doit être conçue de manière à améliorer la vie, peu importe où vous vivez dans le monde » a affirmé sur Twitter Nick Clegg, Président des affaires internationales chez Meta, ajoutant que cette résolution était « une étape significative vers les normes d’interopérabilité dont nous avons besoin pour promouvoir un écosystème d’IA sûr, dynamique, ouvert et inclusif ».

De même, du côté de Microsoft, Brad Smith déclare que « nous soutenons pleinement l’adoption par l’ONU de la résolution globale sur l’IA ». Chez Google, Kent Walker affiche le même enthousiasme en affirmant que cette résolution « montre comment une bonne IA accélérera considérablement les progrès sur les systèmes « sûrs, sécurisés et dignes de confiance » et aidera les gens partout dans le monde ».

GoFetch : les puces Apple Silicon laissent fuiter des clés de chiffrement

Alors que revoilà le canal auxiliaire
Puce Apple Silicon

Apple a un nouveau problème sur les bras : ses puces Apple Silicon, qui équipent ses Mac, ont une faille. Elle peut être exploitée pour récupérer des clés cryptographiques. Pourtant, il s’agit du même type de vulnérabilité que l’on observe dans les processeurs depuis des années.

Des chercheurs ont annoncé avoir trouvé une faille de sécurité dans les processeurs M1, M2 et M3 d’Apple (les puces Ax des iPhone ne sont pas concernées). Baptisée GoFetch, elle est liée aux mécanismes de prédiction, que l’on retrouve dans les processeurs depuis longtemps, bien qu’ici à un degré plus poussé.

Les puces Apple Silicon vont cependant plus loin et intègrent – comme chez Intel depuis la 13ᵉ génération Core – un mécanisme élargissant le concept de prédiction. C’est malheureusement là que réside la brèche, le Data Memory-dependent Prefetcher (DMP) devenant un canal auxiliaire.

Le fonctionnement du DMP


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Il y a 20 ans, la CNIL se couchait devant l’État

La novlangue sécuritaire de 1984 2004
CNIL

Hier, nous avons publié une rétrospective de 50 ans d’histoire de la CNIL, avec un passage rapide sur les changements apportés par la loi de 2004. Ils sont loin d’être anodins et ont modifié en profondeur l’ADN de la Commission, notamment dans son rapport avec le gouvernement, dont elle est indépendante.

La loi de 2004 arrive avec six ans de retard

Sous couvert de transposer la directive européenne du 24 octobre 1995 sur la protection des données à caractère personnel, le Parlement adoptait, en 2004, une refonte de la loi de 1978 opérant un véritable renversement de perspectives.

Cette refonte de 2004 avait d’ailleurs fait bondir Louis Joinet (premier directeur de la CNIL) et Raymond Forni, ancien vice-président de la Commission de 1998 à 2000. La France aurait dû transposer cette directive depuis 1998 (elle avait donc six ans de retard) et elle fut le dernier pays de l’Union européenne à le faire.

L’État s’immunise contre les sanctions de la CNIL…

Entre autres choses, le projet de loi revenait, en effet, à retirer à la CNIL ses pouvoirs de sanction dès lors que c’est l’État qui serait pris en flagrant délit d’infraction, et libéralisait la création de fichiers portant sur l’ensemble de la population.

De plus, il donnait un délai courant jusqu’en 2010 (soit un délai de six ans) aux fichiers policiers et de renseignement (dont plusieurs étaient alors « hors la loi », et truffés d’erreurs) pour qu’ils se mettent en conformité, et s’avèrent « adéquats, pertinents, exacts, complets et, si nécessaire, mis à jour ». Un comble, pour une loi initialement créée pour encadrer le fichage policier.

Le projet retirait en outre à la CNIL le fait d’autoriser, ou non, « les traitements de données à caractère personnel mis en œuvre pour le compte de l’État et portant sur des données biométriques nécessaires à l’authentification et au contrôle de l’identité des personnes ». Il faisait de même pour les traitements tendant à « faciliter le développement de l’administration électronique » et ayant recours au numéro de sécurité sociale, anticipant donc la future carte d’identité biométrique, ainsi que le dossier médical partagé.

… et s’émancipe de son avis « conforme »


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Health Data Hub : le Conseil d’État rejette la suspension de la décision de la CNIL

Morsure du fouet
Entrée du Conseil d'Etat

Le Conseil d’État a rejeté ce matin la demande faite par un groupement d’entreprises et associations. Ce dernier souhaitait l’intervention urgente du Conseil pour invalider la décision de la CNIL publiée le 31 janvier dernier. Le rejet a été motivé par un « défaut d’urgence ».

La situation actuelle n’a pas fini de faire parler. La Plateforme de données de santé (Health Data Hub ou HDH) a été autorisée en décembre à stocker dans Microsoft Azure les données françaises pour le projet EMC2. Ce dernier, européen, vise à concentrer un lot de données provenant de plusieurs pays dans lesquels un équivalent du HDH est déjà établi. Objectif : permettre enfin le décollage des utilisations secondaires des données, avec en tête la recherche via des modèles d’IA.

On se rappelle que le communiqué de la CNIL était rédigé d’une façon très particulière : la contrainte y était exprimée entre les lignes. Et pour cause : la décision de la Commission se faisait sur la loi, et cette dernière est claire, puisque le Data Privacy Framework établit une adéquation entre les États-Unis et l’Europe pour tout ce qui touche à la sécurité et au respect de la vie privée dans les données.

Cette décision avait largement fait réagir, notamment le député Philippe Latombe. « Ils n’ont pas eu le choix, encore une fois. Mais la décision laisse suffisamment de prise pour que tout le monde puisse la contester. Et je vous le promets : vous allez avoir, dans les jours qui viennent, des contestations de cette décision auprès du Conseil d’État. Vous n’imaginez même pas combien sont prêts », prophétisait-il alors.

Cela a pris un peu plus de temps que prévu, mais une demande a été formulée devant le Conseil d’État la semaine dernière. Portée notamment par Clever Cloud, Nexedi et Rapid.space, elle demandait un référé, c’est-à-dire une intervention urgente du Conseil pour faire suspendre la décision de la CNIL. Cette demande a été rejetée.

La décision du Conseil d’État


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Avant même sa sortie officielle, Sora dans le viseur de la CNIL italienne

logo OpenAI dans l'obscurité

Après avoir considéré que ChatGPT était incompatible avec le RGPD le mois dernier, la Garante per la protezione dei dati personali (GPDP, l’équivalent de la CNIL en Italie) s’attaque à l’autre IA générative d’OpenAI, Sora.

Dans un communiqué publié le 8 mars, la Garante explique avoir ouvert une enquête sur Sora et demander à OpenAI de fournir « un certain nombre d’éclaircissements ».

Alors qu’OpenAI n’a annoncé aucun accès public à l’outil, la Garante lui demande de préciser « si le nouveau modèle d’IA est déjà accessible au public et s’il est ou sera proposé aux utilisateurs dans l’Union européenne, en particulier en Italie ».

Dans la page de présentation de Sora publiée par OpenAI, nous pouvons encore lire « nous prendrons plusieurs mesures de sécurité importantes avant de rendre Sora disponible dans les produits d’OpenAI. Nous travaillons avec des « red teamers » – des experts dans des domaines tels que la désinformation, les contenus haineux et les préjugés – qui testeront le modèle de manière contradictoire ».

La Garante a posé aussi à OpenAI une série de questions :

  • comment l’algorithme est entraîné ;
  • quelles données sont collectées et traitées pour entraîner l’algorithme, en particulier s’il s’agit de données à caractère personnel ;
  • si des catégories particulières de données (croyances religieuses ou philosophiques, opinions politiques, données génétiques, santé, vie sexuelle) sont collectées ;
  • et quelles sources sont utilisées.

Si le service est disponible en Europe, elle lui demande aussi les méthodes d’information des utilisateurs et non-utilisateurs à propos des procédures de traitements de leurs données et les bases juridiques sur lesquelles ils reposent.

L’autorité italienne donnait 20 jours à OpenAI pour répondre à toutes ces questions. L’entreprise doit donc répondre avant la fin de cette semaine.

☕️ La Fédération Française de Football piratée : 1,5 million de données des licenciés menacées

foot

L’information a été confirmée par le parquet de Paris à RTL : « La FFF a appris le 22 mars dernier que potentiellement 1,5 million de données de ses licenciés avaient été collectées ». Le Parisien et Zataz avaient fait état de cette fuite auparavant.

On y retrouve des informations telles que le nom, prénom, date et lieu de naissance, nationalité, représentant légal pour les mineurs, adresse, mail, numéro de téléphone, numéro de licence et club. Selon nos confrères qui s’appuient sur les déclarations des autorités, « les données relatives aux licences des saisons 2022-2023 et 2023-2024 sont compromises ».

Mot de passe, données bancaires et médicales ne sont pas concernées. Le parquet précise que les données des joueurs professionnels ne sont pas concernées. Une enquête est évidemment ouverte et la FFF a notifié la CNIL.

Comme c’était le cas lors des précédentes fuites massives, la préfecture de police a mis en ligne un formulaire de lettre-plainte en ligne. « La FFF informera individuellement l’ensemble des personnes concernées ».

« Cybermalveillance.gouv.fr recommande d’être particulièrement vigilant face à tout appel téléphonique ou message (mail, SMS) qui pourrait utiliser vos données personnelles compromises dans le but de vous rendre crédible une tentative d’escroquerie ou d’hameçonnage ciblée ».

☕️ Lancement du Programme de recherche intelligence artificielle avec 73 millions d’euros

AI IA

Le CNRS explique que le projet a été lancé le 25 mars, en partenariat avec le CEA et Inria. Ce « Programme de recherche (PEPR) Intelligence artificielle doit permettre d’accompagner l’accélération de la France dans le domaine de l’IA, au travers de trois grandes thématiques de recherche. Son budget de 73 millions d’euros sur six ans est financé par France 2030 ».

Les trois piliers sont les suivants : « la recherche sur l’IA frugale et l’IA embarquée », « la recherche engagée sur l’IA de confiance et distribuée » et enfin la « recherche sur les fondements mathématiques de l’intelligence artificielle ».

Le CNRS rappelle enfin que le PEPR a pour objectif de réunir « les communautés et favoriser l’interdisciplinarité », d’attirer les talents en France et d’identifier « sur toute la durée des projets des axes de recherche qui pourront faire l’objet de transfert industriel ». Reste à voir si 73 millions d’euros sur six ans seront suffisants.

☕️ Blender 4.1 est disponible

Blender est pour rappel un logiciel de conception et de rendu 3D open source. La version 4 a été mise en ligne en novembre dernier, avec de nombreuses nouveautés à la clé.

Dans les notes de version de la mouture 4.1, on peut lire qu’OpenImageDenoise « est désormais accéléré par GPU sur le matériel pris en charge ». La liste est relativement longue : NVIDIA GTX 16xx, TITAN V et toutes les RTX, Intel GPU Xe-HPG ou plus récent, Apple Silicon avec macOS 13.0 minimum.

Les GPU AMD ne le sont pas encore à cause de problème de stabilité, mais la prise en charge peut être testé dans les versions non stables 4.2. AMD peut se consoler avec la prise en charge des APU RDNA3 (Ryzen 8000G) par le logiciel de rendu 3D.

Sur Linux, « les performances ont été améliorées d’environ 5 % dans tous les tests ». Une vidéo de présentation a été mise en ligne.

☕️ Free s’associe à Qiara pour proposer à ses clients un système d’alarme connecté

L’opérateur s’est donc associée à la start-up française pour proposer à ses clients (anciens et nouveaux) un pack de sécurité à tarif réduit, avec une remise de « 20 % sur l’achat du Pack Essentiel et sur les services Qiara Plus et Ultra ».

Le pack comprend une caméra, des détecteurs de mouvement et d’ouverture, une sirène et un clavier numérique. Il est proposé à 199 euros (au lieu de 249 euros), auxquels il faudra éventuellement ajouter un abonnement Qiara Plus ou Ultra en fonction de vos besoins (respectivement à 7,99 et 15,99 euros par mois).

Free proposait pour rappel déjà un pack de sécurité avec sa Freebox Delta, mais la compatibilité n’est pas assurée avec l’Ultra. Les clients s’étant équipé et souhaitant changer de box pour profiter par exemple du 8 Gb/s ou des nouveaux services sont bons pour se rééquiper.

Free ne développe donc plus de solution maison et passe désormais par un partenaire. Pour rappel, la prise en charge de la domotique via le protocole maison DomusRF n’est lui non plus pas pris en charge par la Freebox Ultra.

☕️ Fedora 40 est disponible en version bêta

Fedora 40 bêta

La nouvelle mouture vient d’être mise en ligne, en bêta pour le moment. La version finale est attendue pour la fin du mois d’avril. Toutes les déclinaisons – Workstation, Server, IoT, Cloud et CoreOS ”next” stream – sont proposées.

Nous aurons prochainement l’occasion de revenir sur les changements dans une actualité dédiée. En attendant, les notes de version se trouvent par ici.

Pour télécharger Fedora 40 bêta c’est par là. Cliquez sur la déclinaison souhaitée (Workstation, Server…) puis pensez à activer le « Show Beta downloads » sur la droite.

Extradition de Julian Assange : Londres demande des garanties aux États-Unis et temporise

Journalism is not a crime
Free Speech Free Assange

La Haute Cour de Londres vient de donner un délai de trois semaines à la justice états-unienne pour garantir que le fondateur de WikiLeaks bénéficierait, en cas d’extradition, de la protection due aux journalistes pour certaines des accusations le visant. Mais aussi de la protection accordée par le premier amendement.

Londres demande des « garanties spécifiques »

Sur les dix-huit charges retenues contre lui, résume Mediapart, la Haute Cour de justice « en a en effet identifié trois relevant de la liberté d’expression et devant donc faire l’objet de garanties spécifiques ». Elles sont liées à la diffusion de documents confidentiels fournis à WikiLeaks par la lanceuse d’alerte Chelsea Manning et « ayant permis d’identifier des agents des services américains ».

La justice américaine accuse Julian Assange d’avoir mis leur vie en danger, ce que récusent ses avocats, les États-Unis n’ayant jamais étayé ces accusations. D’autant que WikiLeaks prenait grand soin d’anonymiser les documents finalement publiés.

Liberté d’expression et statut de journaliste pour Assange ?


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

La bêta de Fedora 40 est là, notre tour des nouveautés

Dynamite pour machine virtuelle
Logo de Fedora

La bêta de Fedora 40 est en ligne depuis hier, et avec elle la traditionnelle ronde des nouveautés et mises à jour générales. Elle est la première distribution classique à proposer aussi bien GNOME 46 que KDE Plasma 6. En dépit cependant de multiples changements et malgré un numéro de version tout rond, cette version se contente d’avancer tranquillement sur son chemin.

Avec Ubuntu, Fedora est l’une de ces distributions dont on suit l’évolution avec attention. Le système de Canonical a tendance à donner le « la », tant elle est reprise par d’autres distributions qui l’utilisent comme socle. L’approche de l’entreprise est le plus souvent médiane : sans être aussi conservatrice que Debian (sur laquelle elle est basée), elle ne se précipite pas sur les nouveautés.

Il en va tout autrement de Fedora, qui est le laboratoire à ciel ouvert de Red Hat. C’était la première distribution à passer par défaut à Wayland, dès la version 25 et bien des années avant Ubuntu. C’était aussi la première distribution grand public à passer à Btrfs en tant que système de fichier par défaut. Fedora se retrouve régulièrement en tête de l’adoption des nouvelles technologies, permettant d’observer leur comportement à travers une utilisation de masse.

Pour autant, chaque version de Fedora n’est pas une révolution. La nouvelle mouture, même si elle apporte des évolutions importantes, reste assez tranquille.

GNOME 46


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Les États-Unis offrent jusqu’à 10 M$ pour toute information sur sept pirates d’État chinois

Un virus émanant (lui aussi) de Wuhan
La Justice US offre jusqu'à 7M$ pour toute information au sujet de 7 pirates informatiques d'État chinois

Le ministère de la Justice états-unien a inculpé sept pirates informatiques chinois d’une trentaine d’années, soupçonnés de travailler pour les services de renseignement de la république populaire de Chine (RPC).

Ils sont accusés d’avoir ciblé des milliers de personnes et d’entreprises américaines et internationales dans le cadre d’une série d’opérations de piratage informatique servant les objectifs d’espionnage économique et de renseignement étranger de la RPC, indique le ministère de la Justice dans un communiqué de presse.

Ils seraient employés par une entreprise – connue sous le nom de Wuhan Xiaoruizhi Science & Technology Co. – créée en 2010 par le ministère de la Sécurité de l’État (Guoanbu, ou MSS, pour Chinese Ministry of State Security) pour servir de façade à ses opérations, selon l’acte d’accusation.

La société servirait de paravent au groupe connu au sein de la communauté de la cybersécurité sous le nom de Advanced Persistent Threat 31 (APT31, aussi connu sous les noms de Zirconium, Violet Typhoon, Judgment Panda et Altaire), faisant lui-même partie d’un programme de cyberespionnage géré par le département de la sécurité de l’État du Hubei du ministère de la Sécurité publique, situé dans la ville de Wuhan.

APT31 aurait mené, « depuis au moins 2010 », des campagnes mondiales de piratage informatique ciblant des dissidents politiques et des partisans supposés situés à l’intérieur et à l’extérieur de la Chine, des fonctionnaires gouvernementaux, des candidats et du personnel politique aux États-Unis et ailleurs, ainsi que des entreprises américaines, mais aussi des militants démocrates, des universitaires et des fonctionnaires étrangers, selon le département d’État.

Ils ciblaient aussi les conjoints de leurs victimes


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Émissions réelles de CO₂ en Europe : le poker-menteur des véhicules hybrides

Police vs syndicat 2.0
Voiture électrique

Il y a quelques semaines, la Cour des comptes européenne publiait un rapport sur la « réduction des émissions de dioxyde de carbone des voitures particulières ». Les consommations et émissions des voitures thermiques et hybrides rechargeables étaient passées au crible. Nous nous attardons principalement sur la seconde catégorie.

Entre 2009 et 2019, « les émissions moyennes des véhicules neufs en conditions d’utilisation réelles n’ont pas diminué, principalement parce que les constructeurs se sont concentrés sur la réduction des émissions mesurées en laboratoire plutôt que sur route ». Les hybrides rechargeables en prenaient pour leur grade car les émissions « sont trois à cinq fois supérieurs » aux prévisions WLTP, expliquait la Cour des comptes.

Des données en conditions réelles, provenant d’un million de véhicules


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Projet Ghostbusters : comment Facebook a espionné le trafic chiffré de Snapchat

Business de la surveillance ou surveillance du business ?

Dans le cadre d’un procès de publicitaires contre Meta sur son comportement anticoncurrentiel, des emails entre Mark Zuckerberg et ses équipes montrent que l’entreprise a mis en place un système pour espionner le trafic chiffré de Snapchat et ainsi connaître le fonctionnement de l’engagement dans l’application de son rival.

En 2016, Facebook (qui ne s’était pas encore renommé Meta) est parti à la chasse aux fantômes pour connaître, par tous les moyens, quel était le fonctionnement de son nouveau rival à l’icône en forme de petit spectre sur fond jaune. À l’époque, Snapchat est l’application qui monte et qui menace l’hégémonie de l’entreprise de Mark Zuckerberg sur le marché publicitaire sur les réseaux sociaux.

Facebook veut savoir comment Snapchat attire des annonceurs de façon agressive en prévision de son entrée en bourse. Mais problème : tout le trafic de Snapchat est chiffré et Facebook ne peut pas analyser le fonctionnement de l’application de son concurrent.

Demande explicite de Mark Zuckerberg


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ IA : Zuckerberg écrit à des data scientists de Google pour tenter de les débaucher

Ça n’est pas tous les jours que le patron de l’une des entreprises tech les plus puissantes du monde prend la casquette de recruteur.

Mais selon the Information, Mark Zuckerberg a personnellement envoyé des e-mails à au moins deux data scientists de DeepMind, chez Google, pour tenter de les persuader de venir travailler chez Meta.

L’entreprise fait tout pour développer ses efforts en matière d’intelligence artificielle, au point d’avoir proposé des emplois sans même passer par la case entretien de recrutement, ou augmenter les salaires des employés qui menacent de quitter le navire pour une autre société du secteur, pratique jusqu’ici refusée par Meta.

Une frénésie qui fait écho à celle des sociétés qui misent sur l’IA : en décembre, Fortune racontait par exemple que la conférence spécialisée NeurIPS s’était transformée en terrain de recrutement tous azimuts.

❌