Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

☕️ Apple obtient un siège d’observateur au conseil d’administration d’OpenAI

À la suite d’une « semaine de folie », Sam Altman, alors limogé, avait retrouvé son poste de CEO d’OpenAI. À la suite de quoi un nouveau conseil d’administration avait été formé. Au sein de ce dernier, Microsoft – qui avait déjà investi des milliards de dollars dans l’entreprise – avait obtenu un siège, bien qu’en tant qu’observateur seulement.

Selon Bloomberg, c’est aussi le cas d’Apple désormais. Nos confrères indiquent que c’est Phil Schiller qui aurait obtenu la place, négociée entre Apple et OpenAI pendant le rapprochement qui a vu l’arrivée de ChatGPT dans les prochaines plateformes de Cupertino.

En tant qu’observateurs, Microsoft et Apple ne peuvent pas voter durant les sessions du conseil d’administration. Même si les places sont théoriquement identiques, les partenariats avec Microsoft et Apple sont fondamentalement différents.

Il est probable que le contrat liant désormais OpenAI à Apple soit d’un montant élevé. Il s’agit cependant d’un contrat simple : Apple utilise les services d’OpenAI et rémunère l’entreprise en conséquence. À moins qu’Apple ait fait valoir qu’une exposition dans iOS et macOS valait bien une ristourne. Ou qu’OpenAI ait été impliqué d’une manière ou d’une autre dans la conception du bouquet Apple Intelligence, et qu’une exposition dans les systèmes d’Apple ait été une partie du paiement.

Microsoft, de son côté, est le partenaire privilégié d’OpenAI, dont la firme détient 49 % des parts. Elle est l’unique partenaire d’OpenAI en matière d’infrastructure, Azure servant à l’entrainement de tous ses modèles.

Proton lance son service Docs for Proton Drive, avec collaboration chiffrée en temps réel

Pour des recettes de cuisine secret-défense
Logo de Proton

Proton vient d’ajouter un nouveau service à sa besace : Docs in Proton Drive. Présenté comme une alternative sécurisée à Google Docs, il dispose du chiffrement de bout en bout, cher à l’éditeur suisse.

En avril dernier, Proton rachetait Standard Notes. Ce service permet de rédiger des notes, synchronisées avec le chiffrement de bout en bout. Dans son annonce, Proton, qui a fêté récemment ses dix ans, évoquait alors « une concordance de valeurs rare » et une « adéquation naturelle pour travailler ensemble ». L’entreprise promettait alors que les abonnements seraient honorés et que Standard Notes resterait open source. Au moins jusqu’à ce que Proton trouve « des moyens » de le rapprocher de ses propres produits.

La réflexion n’aura guère duré. Moins de trois mois plus tard, Docs in Proton Drive est l’héritier direct de ce rachat. Il est largement mis en avant comme une alternative sécurisée et respectueuse de la vie privée. Le billet d’annonce nomme explicitement Google Docs et Microsoft 365, dont il gère les fichiers DOCX.

Traitement de texte, prise de notes et collaboration

On y retrouve toutes les fonctions élémentaires d’un traitement de texte, avec tout ce qui touche au formatage du texte. Les fonctions de Standard Notes sont également présentes : compatibilité avec le Markdown, le texte enrichi, les blocs de code, les listes de contrôle et ainsi de suite. On peut en outre ajouter des commentaires et intégrer des images.

Point d’orgue du nouveau service, la synchronisation des modifications. Elle utilise le même chiffrement de bout en bout que dans les autres services. « Les documents de Proton Drive sont conçus selon les mêmes principes de confidentialité et de sécurité que tous nos services, à commencer par le chiffrement de bout en bout. Les documents vous permettent de collaborer en temps réel, de laisser des commentaires, d’ajouter des photos et de stocker vos fichiers en toute sécurité. Mieux encore, tout est privé – même les frappes au clavier et les mouvements du curseur sont chiffrés », déclare ainsi l’entreprise suisse.

La vie privée mise en avant

Elle explique dans son billet d’annonce que l’utilisation d’autres services comporte des risques. Collecte massive de données personnelles (qui peuvent être utilisées pour l’entrainement des modèles d’IA), fuites de données (les géants de la tech n’utilisent pas de chiffrement de bout en bout), réglementation faible sur la vie privée (particulièrement pour les entreprises basées aux États-Unis) et accès aux données par des tiers ou gouvernements : n’en jetez plus.

Proton, bien sûr, met en avant ses forces. À TechCrunch cependant, la société indique que la création d’une synchronisation chiffrée de bout en bout pour le travail collaboratif n’a pas été simple. Le développement du service a manifestement commencé il y a un moment, le rachat de Standard Notes étant venu compléter le projet.

« Construire des documents collaboratifs qui conservent l’E2EE [End to End Encryption, ndlr] était incroyablement difficile, et c’est quelque chose que nous n’avons vu personne d’autre faire sur le marché. Cela implique l’échange de clés et la synchronisation des informations clés, ainsi que la possibilité d’inviter des personnes à collaborer, de révoquer ces autorisations, et de partager des documents en privé », a expliqué Proton à nos confrères.

Une première version en cours de déploiement

L’annonce ayant quelques heures, le déploiement commence tout juste. Proton prévient que cela prendra quelques jours, pas d’inquiétude donc si vous ne voyez pas apparaître la fonction immédiatement. Outre la possibilité d’ouvrir les fichiers texte, DOC/DOCX ou encore ODF, on peut créer un nouveau document en passant par le bouton « Nouveau » en haut à gauche de Drive.

Comme pratiquement tous les produits Proton, Docs for Proton Drive est disponible depuis un compte gratuit. Seule la limite imposée au stockage dans Drive pourra se faire sentir. Il n’y a pas de différence entre les personnes utilisant un compte gratuit et celles abonnées sur la réception de la fonction. Celle-ci arrive également dans les applications mobiles, qu’il faudra mettre à jour pour en profiter

À TechCrunch, Proton a précisé que d’autres fonctions sont en cours de développement. Notamment pour compléter les capacités de collaboration dans les équipes. Un ajout peu surprenant, une partie de la communication autour du service étant orientée vers le monde professionnel maniant des données sensibles, dont le domaine de la santé. Le code du service sera prochainement ouvert, sans précision.

☕️ Le vote par Internet des Français de l’étranger ne durera que 30 heures, contre 5 jours en 2022

Les Français de l’étranger sont invités à voter pour le second tour des élections législatives anticipées depuis ce mercredi 3 juillet à midi, et jusqu’au 4 juillet à 18 heures. Une fenêtre de tir « particulièrement courte », souligne BFM Tech&Co.

Organisation de dernière minute oblige, la plateforme ne sera dès lors disponible que pendant 30 heures, contre 48 heures au premier tour. Un délai bien plus court que lors des élections législatives de 2022, qui avaient donné aux Français de l’étranger cinq jours pour se connecter à la plateforme.

Et ce, alors que lors du premier tour, de nombreux internautes avaient expliqué ne pas avoir pu se connecter à la plateforme en raison d’une trop forte affluence : 416 000 Français s’y étaient connectés (soit 72% des électeurs basés à l’étranger), contre 250 000 en 2022. Un problème désormais réglé « après une mise à jour des serveurs », assurent des sources diplomatiques à Tech&Co sans que l’on sache en quoi cette mise à jour consiste.

Lors du premier tour, des internautes avaient par ailleurs déploré ne jamais avoir reçu de SMS permettant de confirmer leur identité sur la plateforme, et donc de voter. « Des difficultés ponctuelles » avec certains opérateurs téléphoniques, dans certains pays, pour relayer l’ensemble des SMS envoyés depuis la France, expliquent les sources diplomatiques. En cas d’absence de SMS, il est recommandé aux électeurs de retenter leur chance, en sollicitant l’envoi d’un autre SMS.

☕️ Google a augmenté ses émissions de CO2 de 48 % depuis 2019

En 2023, la multinationale aurait augmenté ses émissions de CO2 de près de la moitié de ce qu’elle rejetait déjà en 2019, selon son propre rapport environnemental (PDF) commenté par le Financial Times. Google a produit 14,3 millions de tonnes équivalent CO2 en 2023.

Le journal économique fait remarquer que cette augmentation met en cause clairement l’engagement « net zero » de l’entreprise, qui prévoyait en 2021 d’avoir un bilan carbone neutre à l’horizon 2030.

L’entreprise explique aussi que la consommation totale d’électricité de ses data centers a augmenté de 17 % en 2023 par rapport à 2022 (celle-ci provenant toujours à 100 % d’énergies renouvelables selon elle).

Dans ce document, Google confirme que l’IA est une des causes principales de cette augmentation.

Elle y affirme aussi qu’il est difficile de prédire les conséquences environnementales futures de l’IA. Elle ajoute qu’au fur et à mesure de l’intégration de l’IA dans ses produits, la distinction entre l’IA et le reste n’aura plus grand sens, « nous nous concentrons donc sur les mesures concernant l’ensemble des data centers, car elles incluent la consommation globale de ressources (et donc l’impact environnemental) de l’IA » commente-t-elle.

Il sera dès lors encore plus difficile de savoir quelles seront les réelles conséquences de l’IA sur les émissions de l’entreprise.

Au Financial Times, la Responsable Développement durable de Google, Kate Brandt, explique que l’entreprise s’attend à ce que ses émissions augmentent encore « avant de redescendre vers notre objectif ».

En mai, Microsoft annonçait de son côté une hausse de ses émissions de 29 % depuis 2020.

☕️ L’Autorité de la concurrence serait sur le point de poursuivre NVIDIA

Selon Reuters, l’Autorité de la concurrence aiguiserait ses armes en vue d’un dépôt de plainte contre NVIDIA. La société, star des puces graphiques et des cartes accélératrices pour l’IA, est dans le collimateur de l’Autorité pour pratiques anticoncurrentielles.

L’information remonte alors que l’AdlC a publié vendredi dernier un rapport sur ses inquiétudes dans le domaine de l’IA. Comme nous l’avons expliqué, elle voit d’un mauvais œil la haute concentration des moyens et investissements dans une poignée de géants de la tech. Au risque d’étouffer toute forme de concurrence quand le soufflé commencera à retomber.

L’Autorité s’était autosaisie le 8 février sur la question. Dans l’avis rendu, elle rappelait d’ailleurs avoir perquisitionné des locaux dans le secteur des cartes graphiques, sans nommer NVIDIA. « Ce secteur, qui a été visé par une opération de visite et saisie inopinée en septembre 2023, est attentivement scruté par les services d’instruction de l’Autorité », indiquait alors l’Autorité.

Dans le même avis, elle évoquait plus spécifiquement deux risques liés à NVIDIA. D’une part, la dépendance du secteur vis-à-vis du logiciel CUDA, seul capable d’exploiter pleinement les capacités des GPU de l’entreprise. D’autre part, des investissements de cette dernière dans des fournisseurs de services cloud, comme CoreWeave.

Rappelons que la France et l’Europe sont loin d’être les seules à se pencher sur cette vaste concentration. Les États-Unis ont également ouvert une enquête sur les positions dominantes de NVIDIA, Microsoft et OpenAI, via une coordination du ministère de la Justice et de la Federal Trade Commission.

IA générative : l’Autorité de la concurrence alerte contre la trop grande concentration

Money calls money

Dans un avis publié le 28 juin, l’Autorité de la concurrence française avertit de « risques concurrentiels » dans le domaine de l’IA générative. Dans la course aux fonctions, la puissance de calcul représente un facteur-clé de réussite. Plusieurs géants du numérique, Microsoft et Alphabet en tête, ont déjà une avance « immense ».

Le 8 février, l’Autorité de la concurrence s’était autosaisie sur le dossier de l’intelligence artificielle générative. Face à un marché qui pourrait dépasser les 200 milliards de dollars de chiffre d’affaires en quelques années, elle notait plusieurs signes de vigilance. Notamment, les énormes prises de participation de certains géants du numérique, telles que Microsoft dans OpenAI, ou encore Amazon et Alphabet dans Anthropic.

L’Autorité a rendu son avis vendredi 28 juin. Elle s’inquiète de l’avance prise par certains gros acteurs et de la distorsion de la concurrence qu’elle entraine. Dans ce contexte, l’émergence de nouvelles entreprises pouvant se faire une place au soleil parait compromise. Les investissements tendent également à se concentrer sur les grandes entreprises déjà en place.

Le même schéma partout

Selon l’Autorité de la concurrence, on retrouve désormais la même organisation un peu partout pour la chaine de valeur. On trouve ainsi les grands acteurs du numérique, dont Microsoft et Alphabet, « présents sur l’ensemble de la chaine de valeur ».

L’autre groupe d’acteurs majeurs est constitué par les développeurs de modèles. Sont cités Anthropic, HuggingFace, Mistral AI et bien sûr OpenAI. Dans la plupart des cas, ces développeurs sont en partenariat avec un ou plusieurs géants du numérique. Le cas le plus connu est OpenAI avec Microsoft, ce dernier ayant investi 13 milliards de dollars et obtenu 49 % des parts du développeur de modèles.

À l’inverse, Amazon, Apple, Meta et NVIDIA ne sont présents que sur une partie de la chaine de valeur. Certaines entreprises ont cependant pignon sur rue. Les résultats et l’action de NVIDIA explosent depuis des mois, portés par le chiffre d’affaires et la vive demande pour ses produits. La firme au caméléon jouit d’une attractivité hors norme avec les besoins en puissance de calcul, aussi bien pour entrainer les modèles que pour l’inférence.

De gros avantages concurrentiels

L’Autorité remarque, bien sûr, que ce sont les mêmes grandes entreprises que l’on retrouve presque partout. La nécessité de recourir à des processeurs spécialisés pour l’IA, l’importance des services cloud, l’obligation de disposer de larges réserves de données, les besoins importants en financement et la recherche de talents rares créent autant de barrières à l’entrée dans le marché.

L’Autorité note en particulier l’accès à la puissance de calcul. Des entreprises comme Alphabet, Amazon et Microsoft ont d’immenses centres de données un peu partout sur la planète. Elles développent leurs propres puces spécialisées dans l’IA. Cependant, elles passent dans le même temps d’immenses commandes à NVIDIA, dont elles sont « partenaires et concurrentes ». La taille même de ces entreprises leur permet de négocier avec NVIDIA et AMD.

Autre gros avantage, l’accès aux données. YouTube est cité en exemple. Le service fournit une « source majeure de données d’entrainement pour les modèles d’IA » d’Alphabet. « Elles peuvent aussi utiliser leur puissance financière pour conclure des accords avec des propriétaires de données tierces comme le montre l’accord conclu par Google pour un montant de 60 millions de dollars (soit environ 55 millions d’euros) par an pour accéder aux données de Reddit », ajoute l’Autorité.

Un risque conséquent de concentration

Ces entreprises bénéficient « d’un accès inégalé aux intrants [composants, ndlr] nécessaires pour l’entrainement de modèles d’IA générative », ainsi que d’avantages liés à leur taille. Outre la négociation en fourniture de matériel, elles peuvent réaliser de vastes économies d’échelle. L’avis cite également la « nature cumulative » de leurs effets de réseaux « puisque les données de retour des utilisateurs permettent d’affiner les futurs modèles et d’améliorer leur performance ou de proposer de nouveaux services ».

Les moyens des géants leur permettent aussi de recruter les talents par des salaires attractifs. Ils peuvent vanter la perspective de travailler sur des technologies de pointe, avec des ressources inégalées et une immense puissance de calcul, en développement rapide.

Enfin, l’Autorité constate que les outils d’IA générative sont déjà présents dans un nombre croissant de produits. Elle note surtout l’arrivée massive des fonctions « Copilot » dans les services et logiciels de Microsoft. Ce n’est pas le lancement récent des PC Copilot+ qui va contredire ce mouvement. « Par ailleurs, les places de marché de modèles (MaaS) de ces grandes entreprises permettent d’accéder à des modèles d’IA générative, propriétaires ou de tiers, conçus pour fonctionner dans leur écosystème », ajoute l’Autorité.

Des risques en pagaille

Premier risque identifié par l’Autorité, une entente sur les prix et la disponibilité des composants informatiques. Ces derniers pourraient être rendus inaccessibles à des entreprises plus petites. Elles pourraient aussi se voir imposer des conditions déloyales ou discriminatoires. L’avis pointe des risques autour du logiciel CUDA de NVIDIA, « seul environnement parfaitement compatible avec les GPU devenus incontournables pour le calcul accéléré ».

Deuxième risque, très bien connu celui-là, le verrouillage par les grands fournisseurs de services cloud. On parle ici des incitations financières et autres cadeaux faits pour attirer les clients (les fameux crédits), couplées à des frais élevés de migration vers un autre prestataire (egress fees). Des éléments que l’Autorité pointait il y a an. Pourtant, ces pratiques « déjà identifiées » semblent « perdurer et même s’intensifier afin d’attirer le plus grand nombre de start-ups actives dans le secteur de l’IA générative », déplore-t-elle.

Autre gros risque pointé du doigt, les débordements sur l’accès aux données. L’Autorité rappelle la sanction de 250 millions d’euros infligée à Google. En cause, son utilisation des contenus d’éditeurs et agences de presse dans l’entrainement de son modèle de fondation Gemini, sans les avertir, ni autorisation.

En outre, les mêmes acteurs useraient d’autres techniques, comme se réserver l’accès aux données des créateurs de contenus (si besoin est en leur versant d’importantes rémunérations que d’autres ne peuvent suivre) ou la limitation de cet accès. Sur ce second point, les géants abuseraient de règles juridiques, y compris sur la protection des données personnelles, ou en invoquant des préoccupations de sécurité.

L’Autorité cite également les risques sur l’embauche (fixation des salaires, accords de non-débauchage…), les conditions d’accès de certains modèles dits « ouverts », les accords d’exclusivité entre des fournisseurs de services cloud et les principaux développeurs de modèles de fondation (OpenAI dans Azure chez Microsoft, par exemple), les pratiques de vente liée (notamment dans les smartphones) ou encore le risque de collusion entre entreprises du secteur.

Investissements, un risque presque silencieux

Certains investissements doivent être examinés de près, selon l’Autorité de la concurrence. Le cas le plus flagrant est bien sûr celui de Microsoft dans OpenAI. Ces injections massives d’argent « peuvent permettre aux start-ups du secteur de bénéficier de ressources financières et technologiques des grandes entreprises et ainsi favoriser l’innovation », pointe l’Autorité.

Cependant, les investissements peuvent aussi « affaiblir l’intensité concurrentielle entre les deux entités, entrainer des effets verticaux, un renforcement de la transparence sur le marché ou un verrouillage de certains acteurs ». L’Autorité dénonce également un « manque de transparence ». Des inquiétudes « partagées par les autorités de concurrence dans le monde, comme le montrent notamment les investigations en cours concernant Alphabet, Amazon, Anthropic, Microsoft et OpenAI ».

Si l’avis n’aborde pas directement la question, on peut aussi évoquer la quantité d’argent disponible face aux investissements réalisés. TechCrunch a publié récemment un article évoquant la résilience des vieilles entreprises de la tech, dont IBM, Oracle et SAP. De grands noms aptes à inspirer confiance et à qui les investissements permettent de mieux négocier le grand virage actuel.

Le danger est que l’argent investi ne soit plus disponible pour de jeunes entreprises qui pourraient faire la différence, participant d’autant plus à renforcer les positions actuelles. « La concurrence est minimale car nous sommes dans des oligopoles et des duopoles. Il y avait autrefois des centaines d’éditeurs de logiciels, mais des décennies de fusions et d’acquisitions ont réduit le nombre d’options à quelques entreprises dans chaque zone géographique, catégorie, taille de marché et secteur d’activité », a ainsi indiqué l’analyste Ray Wang à nos confrères.

Des propositions tous azimuts

L’Autorité de la concurrence formule en conséquence une série de propositions s’adressant à de nombreuses entités, actuelles et à venir. À la Commission européenne par exemple, l’Autorité recommande de « porter une attention particulière » au développement des offres MaaS (Model as a Service). Les entreprises concernées pourraient ainsi être désignées comme contrôleurs d’accès, en vertu du DMA.

L’Autorité s’adresse ensuite au futur Bureau de l’IA ainsi qu’à l’autorité qui sera désignée en application du règlement sur l’IA (très probablement la CNIL). Les deux entités seront invitées à surveiller deux points. Premièrement, que la « mise en œuvre du règlement ne freine pas l’émergence ou l’expansion d’opérateurs de taille plus modeste ». Deuxièmement, que les grandes entreprises « ne détournent pas le texte à leur avantage ».

Elle milite pour une coordination internationale, et d’autant plus que les interrogations et initiatives sont multiples dans le monde sur l’IA. Elle pointe le futur sommet mondial sur l’IA qui aura lieu en février 2025 en France comme « l’occasion de renforcer la gouvernance mondiale de l’IA ».

Une puissance publique pour tous

Parmi les autres propositions, citons une insistance particulière sur le développement des supercalculateurs publics, Jean Zay étant d’ailleurs cité. Elle souhaite donc une poursuite des investissements pour mettre cette puissance à disposition du plus grand nombre, la possibilité de louer les ressources publiques à des acteurs privés (en gardant la priorité aux recherches académiques), et l’établissement de critères d’ouverture pour les modèles d’IA générative entrainés sur ces infrastructures.

L’Autorité recommande également d’inciter les ayants droits à prendre conscience des données dans les œuvres protégées pour entrainer les modèles. Par exemple, à travers des offres groupées pour réduire les coûts de transaction. Elle demande de la vigilance sur la dilution de la culture française, en facilitant la mise à disposition des données francophones (publiques et privées), pour préserver leur représentation.

Notons que ces propositions ne font appel à aucune modification législative.

☕️ Australie : les entreprises du numérique ont six mois pour proposer un texte de protection des mineurs

des petits lapins face à de multiples pièges et dangers sournois

L’Australie donne six mois aux acteurs du numérique pour produire un code applicable expliquant comment ces entreprises prévoient d’empêcher les mineurs de voir du contenu pornographique ou inapproprié.

À défaut, le régulateur prévoit de leur imposer sa propre loi.

Alors que le pays a suspendu le projet d’imposer aux sites pornographiques de vérifier l’âge de leurs visiteurs en septembre dernier, la commissaire eSafety Julia Inman Grant a invité ses interlocuteurs à lui fournir un texte adapté d’ici au 3 octobre 2024.

Ce texte doit créer des standards pour une variété d’applications, des magasins d’applications eux-mêmes aux sites pornographiques, en passant par les applications de dating, les moteurs de recherche, les réseaux sociaux et applications de messagerie, ou encore les plateformes de jeu en réseau.

Les thèmes liés au suicide et aux troubles alimentaires sont aussi cités parmi les contenus dont elle souhaite voir l’accès régulé.

Auprès de Reuters, des porte-parole d’Alphabet et Meta ont déclaré travailler « de manière constructive » avec la commissaire eSafety.

☕️ Les syndicats de Samsung appellent à la grève

En Corée du Sud, les syndicats de Samsung appellent à la grève du 8 au 10 juillet.

Le but : obtenir un système de bonus et de congés plus transparent, et être traités par l’entreprise comme un réel partenaire. 
Le nombre exact d’employés qui devrait suivre le mouvement est encore en cours de détermination, d’après Reuters.

La syndicalisation a augmenté rapidement dans l’entreprise après que Samsung a officiellement cessé de décourager l’organisation des travailleurs.

Le mouvement pourrait n’avoir que peu d’impact tant les chaînes de production sont automatisées, selon certains analystes.

D’autres pointent que l’impact réel dépendra du nombre d’employés affectés au fonctionnement des usines de fabrication de puces qui participent à la grève.

☕️ Vous pouvez demander à YouTube de supprimer les contenus générés par IA qui vous ressemblent

YouTube a mis à jour sa procédure de demande de retrait pour les vidéos pouvant entrainer une violation de la vie privée. Au même rang que les contenus reprenant des informations personnelles ou les deepfakes, on peut demander le retrait d’une vidéo parce qu’elle utilise des contenus générés pouvant également y porter atteinte.

La demande de retrait n’entraine pas automatiquement la suppression du contenu. Google explique que chaque demande sera examinée selon une série de facteurs. Le contenu doit présenter « une version réaliste, modifiée ou synthétique » de la personne à l’origine de la plainte. Celle-ci doit être « identifiable de manière unique dans le contenu ».

« Il doit y avoir suffisamment d’informations dans la vidéo pour que d’autres personnes puissent vous reconnaître », résume Google. Si tel est le cas, YouTube enverra un message à l’auteur de la vidéo. Il ou elle aura alors 48 heures pour procéder à un changement, modification du contenu ou suppression. Rendre la vidéo privée ne sera pas suffisant. Passé ce délai, YouTube se chargera du retrait, avec de potentielles conséquences pour le compte à l’origine du contenu.

L’ajout de cette fonction va dans le sens de limites croissantes aux contenus générés par IA. Pour YouTube, c’est une suite « logique », plusieurs fonctions ayant été introduites dans ce sens. En mars dernier, Creator Studio a, par exemple, été mis à jour, permettant aux créateurs de préciser si un contenu d’apparence réaliste avait été conçu à partir de vidéos modifiées ou de synthèse, y compris ceux générés par IA.

Plus récemment, on a appris que YouTube testait les notes de communauté, à la manière de X. On pourra alors trouver des éléments de contexte comme la qualification d’un contenu en parodie, la présentation d’une ancienne vidéo comme nouvelle, etc. La fonction n’est pour l’instant disponible qu’en anglais et aux États-Unis.

Les abonnements de Meta violent le DMA, affirme la Commission européenne

Le modèle « payer ou accepter » de Meta n’est pas conforme au Digital Markets Act. Telle est la conclusion préliminaire de l’enquête de la Commission européenne sur les pratiques publicitaires de l’entreprise. Celle-ci, face au DMA, avait choisi de proposer un abonnement pour se débarrasser des publicités, sans répondre sur le fond de ce qui lui était reproché.

À l’automne dernier, Meta avait annoncé l’arrivée d’abonnements pour se débarrasser de la publicité sur Facebook et Instagram. Il s’agissait alors de la réponse de l’éditeur à l’Europe qui lui réclamait une mise en conformité avec le RGPD. Il avait d’ailleurs été condamné quelques mois plus tôt pour infraction au Règlement, avec une amende de 1,2 milliard d’euros.

Face à l’utilisation des données pour personnaliser la publicité (publicité comportementale), Meta avait choisi la voie de l’abonnement plutôt que celle du consentement. Ce dernier, évoqué un temps l’été dernier, a disparu du discours officiel.

Devant la manœuvre et une facture pour le moins salée, on s’attendait à une prise de position claire de la part de la Commission. En mars déjà, elle craignait « que le choix binaire imposé par le modèle « payer ou consentir » de Meta n’offre pas de véritable alternative au cas où les utilisateurs ne donneraient pas leur consentement ». Quelques semaines plus tard, sans citer Meta, la Commission européenne estimait que les formules « payer ou accepter » ne permettaient pas le consentement libre des internautes.

Le « choix binaire » de Meta n’est pas conforme au DMA

Dans un communiqué publié aujourd’hui, la Commission confirme : le « modèle publicitaire « payer ou accepter » n’est pas conforme à la loi sur les marchés numériques (DMA) ». « Ce choix binaire oblige les utilisateurs à consentir à la combinaison de leurs données personnelles et ne leur fournit pas une version moins personnalisée, mais équivalente des réseaux sociaux de Meta », ajoute la Commission dans son avis préliminaire.

Elle rappelle que les contrôleurs d’accès, tels que définis par le DMA, « doivent demander le consentement des utilisateurs pour combiner leurs données personnelles entre les services de la plateforme principale désignée et d’autres services » (article 5, paragraphe 2). Si l’internaute refuse, les contenus doivent quand même être affichés, dans une version moins personnalisée.

Or, les abonnements de Meta ne sauraient être conformes, car ils ne remplissent pas les conditions nécessaires au libre consentement :

  • Ils ne permettent pas un service utilisant moins de données à caractère personnel mais équivalent à celui basé sur les annonces personnalisées
  • Ils ne permettent pas aux internautes d’exercer « leur droit de consentir librement à la combinaison de leurs données personnelles »

Au tour de Meta

Cette conclusion préliminaire ne « préjuge pas de l’issue de l’enquête », rappelle la Commission européenne. Elle ajoute que Meta peut maintenant prendre acte des faits reprochés et travailler à sa réponse, en se basant sur les éléments fournis par la Commission. La conclusion de l’enquête interviendra dans les 12 mois suivant l’ouverture de la procédure, donc d’ici au 25 mars 2025.

Si cet avis préliminaire devait être confirmé, l’amende infligée par la Commission pourrait grimper jusqu’à 10 % du chiffre d’affaires mondial, et jusqu’à 20 % en cas de récidive.

« Notre avis préliminaire est que le modèle publicitaire de Meta n’est pas conforme à la loi sur les marchés numériques. Nous voulons donner aux citoyens les moyens de contrôler leurs propres données et d’opter pour une publicité moins personnalisée », a indiqué Margrethe Vestager, vice-présidente de la Commission et commissaire à la concurrence.

☕️ Atos sauvée par un accord avec des banques et des créanciers

Atos a annoncé le 30 juin avoir trouvé un nouvel accord avec « un groupe de banques et de porteurs d’obligations » permettant sa restructuration financière.

L’accord passera par une augmentation de capital de 233 millions d’euros, une réduction de la dette de 3,1 milliards d’euros et un apport de 1,5 à 1,675 milliard d’euros de nouveaux financements, selon le communiqué de l’entreprise.

L’accord a été trouvé à peine quatre jours après l’annonce du retrait du consortium Onepoint. Le but est désormais d’aller rapidement, pour lancer les opérations dès ce mois-ci, avant les Jeux Olympiques.

☕️ Sur Windows 11, la diffusion de la mise à jour KB5039302 boguée reprend partiellement

La semaine dernière, un gros problème était apparu avec la mise à jour optionnelle KB5039302. Sur certaines configurations, elle provoquait des redémarrages en boucle. Microsoft en avait stoppé la diffusion.

Dans une note technique, l’enquête semblait s’orienter vers une piste précise : les machines sur lesquelles une solution de virtualisation imbriquée (CloudPC, DevBox, Azure Virtual Desktop…) était configurée.

Le déploiement a repris, mais uniquement pour les PC n’utilisant pas ce type de technologie. « Cette mise à jour n’est désormais interrompue que pour les appareils concernés par le problème. Par conséquent, il est possible que cette mise à jour ne soit pas proposée aux machines virtuelles Hyper-V fonctionnant sur des hôtes utilisant certains types de processeurs », ajoute Microsoft à sa fiche technique.

La mise à jour n’est pas non plus distribuée sur les éditions N de Windows, dans lesquelles la barre des tâches devient inaccessible. Les éditions N sont celles dont les composants média – dont le Media Player – sont absents. C’est également valable pour les configurations dont les composants média ont été désactivés manuellement.

Rappelons que la mise à jour est optionnelle pour l’instant. Elle n’est pas installée automatiquement par Windows. Pour l’obtenir, il faut avoir coché la case « Recevez les dernières mises à jour dès qu’elles sont disponibles » et cliquer sur « Rechercher les mises à jour » dans Windows Update.

☕️ SK Hynix va investir 69 milliards d’euros dans l’IA d’ici 2028

Selon Reuters, le deuxième fabricant mondial de mémoire (derrière Samsung) va investir 103 000 milliards de wons (69,27 milliards d’euros) dans l’intelligence artificielle et les semi-conducteurs dans les quatre années qui viennent. La société veut notamment sécuriser 80 000 milliards de wons (53,82 milliards d’euros) d’ici à 2026.

Ces plans ont été annoncés à l’issue d’une réunion stratégique, vendredi 28 juin. Les branches mémoire et batterie pour véhicules électriques ont « subi de lourdes pertes », pointent nos confrères.

Les efforts vont se concentrer sur l’IA, les puces de mémoire à large bande passante (HBM), les centres de données et sur les services IA de type assistants.

Autre chantier, la réduction des plus de 175 filiales à une « fourchette gérable ». Le groupe ne précise cependant pas l’ampleur de la restructuration.

Quelques jours auparavant, Reuters s’interrogeait déjà sur les mesures que SK Hynix pourrait prendre pour faire face à une situation tendue. Le média pointait les fusions comme un moyen de rationaliser une entité tentaculaire. Selon plusieurs médias locaux, SK Innovation (qui possède la plus grande raffinerie de pétrole de Corée du Sud), SK On (batteries) et SK E&S (gaz naturel) pourraient ainsi fusionner.

Reuters rappelle en outre que la Corée du Sud, qui possède les deux plus gros fabricants de mémoire au monde (Samsung et SK Hynix), a débloqué une aide de 26 000 milliards de wons (17,5 milliards d’euros) à destination de la filière.

☕️ Starliner s’éternise sur la Station spatiale internationale… mais tout va bien affirme Boeing

La capsule Starliner est déjà depuis plus de trois semaines amarrée à la Station spatiale internationale, alors que la mission a duré à peine plus d’une semaine. En cause, des problèmes dont l’origine n’a toujours pas été identifiée. La NASA et Boeing ne savent toujours pas quand la capsule va pouvoir revenir sur Terre et la durée de la mission pourrait être prolongée.

Après des années de retard et des déboires de dernière minute, la capsule Starliner est finalement arrivée sur la Station spatiale internationale le 6 juin. Si l’arrimage est un succès, la NASA et Boeing ont détecté cinq fuites d’hélium, même si les deux partenaires affirment que tout va bien.

Dans la capsule, se trouvaient Butch Wilmore et Suni Williams, qui ne devaient rester que huit à dix jours dans la Station spatiale internationale. Plus de trois semaines plus tard, ils sont toujours dans l‘ISS. « Je tiens à préciser très clairement que Butch et Suni ne sont pas bloqués dans l’espace », explique Steve Stich, responsable du programme des vols commerciaux de la NASA.

La question se pose, car le voyage dure bien plus longtemps que prévu, sans que l’on sache pourquoi. Aucune date de retour n’est programmée. Néanmoins, les responsables du programme assurent que les astronautes et la capsule pourraient quitter l’ISS en cas d’urgence.

« Une campagne d’essais débutera dès le 2 juillet au centre de White Sands au Nouveau-Mexique, afin de reproduire la façon dont les propulseurs ont été utilisés pendant le vol […] Les tests prendront environ deux semaines, mais cela dépend de ce qui est trouvé – et d’autres analyses seront nécessaires par la suite », ajoute Steve Stich.

« Nous ne sommes pas pressés », martèle ce dernier, avant d’ajouter que l’Agence américaine envisageait de « prolonger la durée maximale de la mission Starliner de 45 jours à 90 jours », précise CNN.

Il faut dire que les ingénieurs ne sont « toujours pas certains de la cause profonde des problèmes du Starliner ». En attendant, les deux astronomes Butch Wilmore et Suni Williams restent dans l’ISS et participent aux tâches de routine.

Contraint de bloquer des noms de domaine, OpenDNS décide de quitter la France

Le DNS que vous avez demandé n’est plus disponible
Panneau stop

Une décision de justice demande à Cisco, Google et CloudFlare de bloquer l‘accès à plus d’une centaine de sites. Canal+ en est à l’origine, dans sa guerre contre le piratage sportif.

« En raison d’une décision de justice en France »

Certains pourraient y voir une manière d’écraser une mouche avec un bazooka, d’autres une manière de répondre aux « aux exigences des ayant-tous-les-droits ». La raison officielle est donnée par OpenDNS dans un billet de blog :

« À compter du 28 juin 2024, en raison d’une décision de justice en France rendue en vertu de l’article L.333-10 du code du sport français et d’une décision de justice au Portugal rendue en vertu de l’article 210-G(3) du code portugais du droit d’auteur, le service OpenDNS n’est actuellement pas disponible pour les utilisateurs en France et dans certains territoires français et au Portugal. Nous nous excusons pour la gêne occasionnée ».

Canal+ obtient le blocage DNS d’une centaine de sites

La décision de justice dont il est question a été publiée par nos confrères de l’Informé. Elle demande à Google, Cisco (propriétaire d’OpenDNS) et CloudFlare de bloquer l’accès à une centaine de sites, via leur résolveur DNS. Concrètement, les internautes utilisant le DNS d’un des trois services ne fait plus le lien entre le nom de domaine et l’adresse IP du serveur.

Il s’agit pour Canal+ de protéger ses droits et de rendre inaccessibles des sites diffusant des matchs des Champions League, de Premier League en football et du Top 14. « Après avoir obtenu le blocage par les fournisseurs d’accès et le déréférencement par Google de plusieurs sites illicites, Canal+ a décidé en octobre 2023 de passer à la vitesse supérieure en assignant cette fois Google, Cloudflare et Cisco », expliquent nos confrères.

Dans la décision du tribunal, publiée par nos confrères, il est indiqué : « La proportionnalité des blocages demandés est contestée par les défenderesses. Les sociétés Google, Cisco et Cloudflare prétendent que ces mesures seraient inutilement complexes et coûteuses dans la mesure où il existe de nombreux moyens autres de bloquer tout accès aux sites litigieux. De plus, les atteintes en cause ne seraient pas irrémédiables puisqu’il suffirait d’utiliser un VPN ou un autre service DNS alternatif pour contourner le blocage ». Ces arguments et les autres ont été rejetés par le tribunal.

OpenDNS renvoie un message « REFUSED »

Si on tente d’interroger le résolveur DNS en France ou au Portugal, on a désormais un beau message « REFUSED », avec un rappel du texte de loi en question. Comme le précise Stéphane Bortzmeyer, spécialiste du DNS, « ce n’est pas spécifique au nom de domaine demandé, tous donnent le même résultat. En outre, on peut vérifier, par exemple avec les sondes RIPE Atlas, que c’est pareil depuis quasiment tous les FAI français ».

CloudFlare aussi s’est exécuté avec désormais un message « Error HTTP 451 […] Unavailable For Legal Reasons ». Chez Google, le message d’erreur est plus succinct : « Hum, nous ne parvenons pas à trouver ce site ».

Des résolveurs DNS en pagaille

Stéphane Bortzmeyer est bien remonté contre cette décision de justice : « Les défenseurs de l’appropriation intellectuelle affirment souvent qu’elle sert à « protéger les créateurs » mais, comme on le voit ici, elle sert surtout à enrichir les clubs de football. Les personnes qui utilisaient OpenDNS le faisaient sans doute pour contourner une censure qui bénéficie surtout aux ayant-droits », ou encore parce que leurs objets connectés reposaient sur OpenDNS, ce qui n’est pas sans conséquence.

L'Internet des Objets, c'est quand on ne peut plus allumer la lumière car le contrôleur a les résolveurs #DNS d'#OpenDNS en dur et qu'on ne peut pas les changer : https://t.co/UqoWAih5oQ

— Stéphane Bortzmeyer (@bortzmeyer) June 28, 2024

Le spécialiste des infrastructures d’Internet et des DNS en profite pour rappeler que, en Europe, il y a d’autres résolveurs DNS : dns.sb, DNS4ALL, celui de FDN et même le sien personnel. Nous pouvons aussi ajouter Quad9. Il ajoute : « Si on utilise un résolveur public (ce qui n’est pas forcément une bonne idée), le choix est vaste et les alternatives nombreuses (aucune raison de tous aller sur le résolveur d’une grosse entreprise capitaliste états-unienne). Mais il n’est pas évident de choisir ».

Longévité : Apple explique certains choix de conception et fait des promesses

Tout est parfait, mais...
iPhone 15

Dans un rare exercice de communication, Apple a tenu à s’expliquer sur ses choix en matière de conception des produits. L’entreprise revient, dans un document intitulé « Longevity, by Design », sur la durabilité de ses produits et les compromis qu’elle fait parfois. Le document contient également une série de mesures, prévues plus tard dans l’année, pour simplifier la réparation.

Face à une volonté politique croissante de faire rentrer de grandes entreprises dans le « droit chemin », que ce soit en Europe ou aux États-Unis, Apple multiplie les actions. On l’a notamment vu avec le DMA, face auquel la firme de Cupertino tantôt se plaint, tantôt assouplit ses règles. On le voit aussi outre-Atlantique. Des États comme le Colorado et l’Oregon ont promulgué des lois pour simplifier la réparation, en interdisant le blocage des pièces de remplacement par des vérifications logicielles.

C’est dans ce contexte, et alors qu’Apple vient d’étendre ses outils de diagnostics à l’Europe, que le document « Longevity, by Design » a été publié. À qui s’adresse-t-il ? On serait tenté de répondre : « à la clientèle intéressée par ce genre d’information ». Mais ce qui s’apparente davantage à un livre blanc (d’une vingtaine de pages) vise aussi les décideurs politiques, en expliquant le bienfondé de la démarche. Car, selon Apple, la réparation en elle-même ne représente pas l’alpha et l’oméga de la longévité des produits.

Un équilibre entre réparation et fiabilité

L’un des points importants abordés par le document est la manière dont les ingénieurs choisissent de privilégier un aspect en particulier. Apple affirme qu’elle « domine le secteur en matière de longévité » face aux smartphones Android. L’iPhone préserverait d’ailleurs 40 % de sa valeur en plus, la différence se faisant plus sensible avec le temps.

Comment ? Par les choix de conception dans les iPhone. L’entreprise explique qu’une mesure peut ainsi être prise pour améliorer la longévité, au détriment de la capacité pure à la réparation. Elle donne un exemple : les iPhone 7 et 7 Plus, disposant d’une protection contre les infiltrations de liquide, ont permis de réduire de 75 % les taux de réparation. En revanche, la protection impliquait de sceller certaines zones, rendant plus complexe la réparation, via l’ajout d’adhésifs et de joints.

Des choix qui ont conduit, selon Apple, à une baisse de 38 % des actes de réparation entre 2015 et 2022 sur ses produits, et plus spécifiquement de 44 % sur les iPhone. En conséquence, Apple évalue à « plusieurs centaines de millions » le nombre d’iPhone ayant plus de cinq ans.

« La réparabilité est un élément essentiel de la longévité, mais l’optimisation de la réparabilité seule peut ne pas donner le meilleur résultat pour nos clients ou pour l’environnement ». En d’autres termes, Apple préfèrerait envoyer le moins possible les clients dans les boutiques pour réparation, plutôt que de faciliter la réparation et avoir une conception moins robuste.

Port de charge, une étude de cas

Le port de charge est cité en exemple dans le document. Pourquoi l’aborder ? Pour justifier que toutes les pièces le composant sont assemblées en un seul bloc.

« Le port de charge de l’iPhone fait partie d’un module à la grande longévité, qui comprend des microphones et d’autres composants qui peuvent être réparés dans leur ensemble, mais qui nécessitent rarement un remplacement. Rendre le port de charge remplaçable individuellement nécessiterait des composants supplémentaires, y compris son propre circuit imprimé flexible, son connecteur et ses fixations, ce qui augmenterait les émissions de carbone nécessaires à la fabrication de chaque appareil », affirme Apple, qui prend un angle d’attaque environnemental dans son argumentation.

Pour l’entreprise, la conception et la réparabilité d’une zone sont à relier aux taux de panne. « L’augmentation des émissions de carbone liées à la fabrication ne se justifie que si le port de charge doit être remplacé dans au moins 10 % des appareils. En fait, le taux de service réel était inférieur à 0,1 %, ce qui signifie que l’approche actuelle d’Apple en matière de conception produit moins d’émissions de carbone pendant la durée de vie de l’appareil », est certaine l’entreprise.

Il faut cependant noter que ce taux de 0,1 % n’a vraisemblablement pu être obtenu que par les boutiques officielles et le réseau CSSA (Centre De Services Agréé Apple) comprenant les enseignes agréées. Les réparations dans la myriade d’autres boutiques « non officielles » ne peuvent avoir été prises en compte. Il aurait fallu pour cela qu’elle interroge la plupart d’entre elles, trop nombreuses pour que l’opération soit rentable.

Appariement : ça coince

L’approche décrite par Apple laisse penser que tout est parfait en l’état. Ce n’est pas le cas. Preuve en est que l’entreprise elle-même met en avant les améliorations successives avec les nouveaux modèles. L’iPhone 14 avait, par exemple, inauguré une vitre arrière pouvant se remplacer beaucoup plus facilement. Et, si vous vous souvenez, iFixit lui avait même donné un 7/10 encourageant. Avant de se raviser. Une nouvelle grille d’évaluation avait été mise en place, à travers laquelle l’iPhone 14 n’obtenait plus que 4/10. Note à laquelle se maintient l’iPhone 15 actuel, dans toutes ses déclinaisons.

« Nous ne désactiverons pas activement [à distance, ndlr] une pièce tierce conçue pour être fabriquée selon les mêmes spécifications que nos produits, à moins que cela n’ait un impact sur la sécurité et la confidentialité des clients, ce qui est actuellement limité aux pièces biométriques », assure Apple. C’est donc valable pour tout ce qui touche de près ou de loin à Touch ID et Face ID. Et pas seulement, puisque les lasers sont, eux aussi, concernés (LiDAR).

Le constructeur assure qu’il n’existe aujourd’hui qu’un seul scénario dans lequel une pièce sera désactivée : si un capteur Touch ID ou Face ID tiers est installé. L’entreprise insiste sur le danger trop grand de laisser de tels composants être installés, puisque des acteurs malveillants pourraient en profiter pour contourner des protections.

Les autres pièces fonctionneront, avec une notification unique au premier redémarrage. Et de préciser que la moindre réparation d’un composant majeur sur un iPhone entraine l’apparition d’une section « Pièces et historique des réparations » dans les réglages de l’appareil. Les pièces authentiques et ayant fait l’objet d’un étalonnage réussi seront indiquées comme telles. S’il s’agit de pièces tierces, elles seront affublées d’une étiquette « Pièce inconnue ».

Tout va très bien, mais des aménagements sont prévus

Droite dans ses bottes, Apple explique donc sur une vingtaine de pages le bienfondé de son approche. Le document ne manque pas d’intérêt : les explications d’un constructeur sur ses choix de conception sont assez rares et recèlent des éléments importants.

L’entreprise n’a cependant pas la conscience tranquille. Plus on avance dans le document, plus elle répète qu’elle souhaite avant tout protéger la sécurité et la vie privée de sa clientèle. Elle évoque par une étude réalisée l’année dernière par UL Solutions sur des dizaines de batteries lithium-ion de fabricants tiers. Résultats : 88 % d’entre elles auraient pris feu dans un test ou un autre. Une manière bien sûr pour la Pomme de rappeler qu’il vaut mieux acheter des pièces authentiques.

Et pourtant, elle profite du document pour annoncer plusieurs mesures importantes, toutes liées aux réparations avec des pièces tierces. Ainsi, la fonction True Tone, qui équilibre les couleurs de l’écran en fonction de ce que perçoivent les capteurs de lumière, sera étendue aux écrans tiers « au mieux de leurs performances ». Les batteries tierces feront remonter des statistiques, visibles dans Réglages, comme la capacité maximale et le nombre de cycles. Apple précise cependant qu’elle ne sera pas en mesure de garantir que ces informations seront précises ou même exactes.

« Nous rendrons les pièces Apple usagées – prélevées sur un produit existant et installées sur un autre appareil lors d’une réparation – aussi faciles à utiliser que les pièces Apple neuves pour la réparation de certains produits », indique également Apple. Enfin, les pièces du programme de réparation en libre-service d’Apple ne nécessiteront plus le numéro de série de l’appareil pour « la plupart des réparations ».

Toutes ces mesures doivent prendre effet « plus tard dans l’année ». Il est probable qu’Apple attende l’arrivée de ses nouvelles plateformes, tout particulièrement iOS 18, pour prendre en compte ces changements. Des annonces qui, encore une fois, semblent bien plus taillées pour les décideurs politiques que pour la clientèle.

☕️ CriticGPT, le modèle d’OpenAI qui trouve les erreurs dans le code généré par GPT-4

Jeudi, OpenAI a publié un billet de blog expliquant qu’elle avait créé un nouveau modèle concernant la génération de code par IA : CriticGPT. Ici, l’idée n’est pas de générer du code via un prompt, mais de trouver les erreurs dans du code généré par GPT-4.

L’entreprise assure qu’avec ce nouveau modèle, dans 60 % des cas, les personnes qui l’utilisent ont de meilleurs résultats qu’avec seulement GPT-4.

L’idée est d’améliorer les systèmes d’apprentissage par renforcement à partir de rétroaction humaine (Reinforcement learning from human feedback, RLHF). Ils permettent à des relecteurs humains d’améliorer la précision des sorties des grands modèles de langage.

Comme à son habitude, l’entreprise publie un « papier » déposé sur son propre serveur (PDF). S’il ressemble à un article scientifique, il n’est pas déposé sur un serveur de prépublication ni encore moins publié dans une revue scientifique.

☕️ Microsoft retire une mise à jour faisant redémarrer en boucle Windows 11

Il y a deux jours, Microsoft a diffusé la mise à jour KB5039302 pour Windows 10 et 11. Contrairement aux mises à jour mensuelles (chaque deuxième mardi de chaque mois) dédiées à la sécurité, elle apportait plusieurs améliorations fonctionnelles pour Windows 11.

Le bouton permettant d’afficher rapidement le bureau est ainsi revenu par défaut. L’Explorateur de fichiers a gagné la capacité de créer des archives 7-Zip et TAR, le menu Partage reçoit une fonction Copier, le support de la norme Emoji passe à la version 15.1 (mouvements de tête, citron vert, phénix…) ainsi qu’un certain nombre de corrections de bugs.

Mais cette KB5039302 introduit un loup. Comme pointé par Neowin et confirmé par Microsoft dans la liste des problèmes connus pour les versions 22H2 et 23H2 de Windows 11, la nouvelle mise à jour peut entrainer des redémarrages en boucle chez certains utilisateurs.

« Ce problème est plus susceptible d’affecter les appareils utilisant des outils de machines virtuelles et des fonctions de virtualisation imbriquées, telles que CloudPC, DevBox, Azure Virtual Desktop. Nous enquêtons pour déterminer les conditions précises dans lesquelles ce problème peut se déclencher », indique Microsoft.

« Les utilisateurs de l’édition familiale de Windows sont moins susceptibles de rencontrer ce problème, car la virtualisation est moins répandue dans les environnements domestiques », ajoute l’entreprise. Elle a donc décidé de suspendre le déploiement de la mise à jour. Une nouvelle version sera proposée quand la cause du problème aura été déterminée.

Heureusement, cette mise à jour n’est pas déployée automatiquement, contrairement aux correctifs de sécurité. Pour l’obtenir, il faut avoir cliqué sur le bouton « Rechercher des mises à jour » dans Windows Update et activé le réglage « Recevez les dernières mises à jour dès qu’elles sont disponibles ».

☕️ Google ajoute 110 langues à son Translate

Google vient d’annoncer « la plus grande expansion jamais réalisée » de son service Translate avec 110 nouvelles langues. Le bond a pu être réalisé grâce à son modèle linguistique PaLM 2.

Selon l’entreprise, ces langues, prises dans leur ensemble, sont parlées par 614 millions de personnes. Certaines sont parlées par plus de 100 millions de personnes. D’autres par « de petites communautés autochtones », et d’autres encore ne sont pratiquement plus parlées, mais font l’objet « d’efforts de revitalisation ».

Parmi les langues ajoutées, le cantonais figure en bonne place. Il s’agit, selon Google, de l’une des langues les plus demandées. Mais elle « se confond souvent avec le mandarin à l’écrit », ce qui aurait rendu complexe l’obtention de données et l’entrainement des modèles.

On trouve également l’afar, parlé notamment à Djibouti et en Éthiopie, et qui aurait bénéficié « du plus grand nombre de contributions volontaires » dans le nouveau lot. Citons aussi le pendjabi, langue la plus parlée au Pakistan, ou encore le tok pisin (ou néo-mélanésien), un créole fondé sur l’anglais et la lingua franca de Papouasie-Nouvelle-Guinée.

❌