Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

IA générative : l’Autorité de la concurrence alerte contre la trop grande concentration

Money calls money

Dans un avis publié le 28 juin, l’Autorité de la concurrence française avertit de « risques concurrentiels » dans le domaine de l’IA générative. Dans la course aux fonctions, la puissance de calcul représente un facteur-clé de réussite. Plusieurs géants du numérique, Microsoft et Alphabet en tête, ont déjà une avance « immense ».

Le 8 février, l’Autorité de la concurrence s’était autosaisie sur le dossier de l’intelligence artificielle générative. Face à un marché qui pourrait dépasser les 200 milliards de dollars de chiffre d’affaires en quelques années, elle notait plusieurs signes de vigilance. Notamment, les énormes prises de participation de certains géants du numérique, telles que Microsoft dans OpenAI, ou encore Amazon et Alphabet dans Anthropic.

L’Autorité a rendu son avis vendredi 28 juin. Elle s’inquiète de l’avance prise par certains gros acteurs et de la distorsion de la concurrence qu’elle entraine. Dans ce contexte, l’émergence de nouvelles entreprises pouvant se faire une place au soleil parait compromise. Les investissements tendent également à se concentrer sur les grandes entreprises déjà en place.

Le même schéma partout

Selon l’Autorité de la concurrence, on retrouve désormais la même organisation un peu partout pour la chaine de valeur. On trouve ainsi les grands acteurs du numérique, dont Microsoft et Alphabet, « présents sur l’ensemble de la chaine de valeur ».

L’autre groupe d’acteurs majeurs est constitué par les développeurs de modèles. Sont cités Anthropic, HuggingFace, Mistral AI et bien sûr OpenAI. Dans la plupart des cas, ces développeurs sont en partenariat avec un ou plusieurs géants du numérique. Le cas le plus connu est OpenAI avec Microsoft, ce dernier ayant investi 13 milliards de dollars et obtenu 49 % des parts du développeur de modèles.

À l’inverse, Amazon, Apple, Meta et NVIDIA ne sont présents que sur une partie de la chaine de valeur. Certaines entreprises ont cependant pignon sur rue. Les résultats et l’action de NVIDIA explosent depuis des mois, portés par le chiffre d’affaires et la vive demande pour ses produits. La firme au caméléon jouit d’une attractivité hors norme avec les besoins en puissance de calcul, aussi bien pour entrainer les modèles que pour l’inférence.

De gros avantages concurrentiels

L’Autorité remarque, bien sûr, que ce sont les mêmes grandes entreprises que l’on retrouve presque partout. La nécessité de recourir à des processeurs spécialisés pour l’IA, l’importance des services cloud, l’obligation de disposer de larges réserves de données, les besoins importants en financement et la recherche de talents rares créent autant de barrières à l’entrée dans le marché.

L’Autorité note en particulier l’accès à la puissance de calcul. Des entreprises comme Alphabet, Amazon et Microsoft ont d’immenses centres de données un peu partout sur la planète. Elles développent leurs propres puces spécialisées dans l’IA. Cependant, elles passent dans le même temps d’immenses commandes à NVIDIA, dont elles sont « partenaires et concurrentes ». La taille même de ces entreprises leur permet de négocier avec NVIDIA et AMD.

Autre gros avantage, l’accès aux données. YouTube est cité en exemple. Le service fournit une « source majeure de données d’entrainement pour les modèles d’IA » d’Alphabet. « Elles peuvent aussi utiliser leur puissance financière pour conclure des accords avec des propriétaires de données tierces comme le montre l’accord conclu par Google pour un montant de 60 millions de dollars (soit environ 55 millions d’euros) par an pour accéder aux données de Reddit », ajoute l’Autorité.

Un risque conséquent de concentration

Ces entreprises bénéficient « d’un accès inégalé aux intrants [composants, ndlr] nécessaires pour l’entrainement de modèles d’IA générative », ainsi que d’avantages liés à leur taille. Outre la négociation en fourniture de matériel, elles peuvent réaliser de vastes économies d’échelle. L’avis cite également la « nature cumulative » de leurs effets de réseaux « puisque les données de retour des utilisateurs permettent d’affiner les futurs modèles et d’améliorer leur performance ou de proposer de nouveaux services ».

Les moyens des géants leur permettent aussi de recruter les talents par des salaires attractifs. Ils peuvent vanter la perspective de travailler sur des technologies de pointe, avec des ressources inégalées et une immense puissance de calcul, en développement rapide.

Enfin, l’Autorité constate que les outils d’IA générative sont déjà présents dans un nombre croissant de produits. Elle note surtout l’arrivée massive des fonctions « Copilot » dans les services et logiciels de Microsoft. Ce n’est pas le lancement récent des PC Copilot+ qui va contredire ce mouvement. « Par ailleurs, les places de marché de modèles (MaaS) de ces grandes entreprises permettent d’accéder à des modèles d’IA générative, propriétaires ou de tiers, conçus pour fonctionner dans leur écosystème », ajoute l’Autorité.

Des risques en pagaille

Premier risque identifié par l’Autorité, une entente sur les prix et la disponibilité des composants informatiques. Ces derniers pourraient être rendus inaccessibles à des entreprises plus petites. Elles pourraient aussi se voir imposer des conditions déloyales ou discriminatoires. L’avis pointe des risques autour du logiciel CUDA de NVIDIA, « seul environnement parfaitement compatible avec les GPU devenus incontournables pour le calcul accéléré ».

Deuxième risque, très bien connu celui-là, le verrouillage par les grands fournisseurs de services cloud. On parle ici des incitations financières et autres cadeaux faits pour attirer les clients (les fameux crédits), couplées à des frais élevés de migration vers un autre prestataire (egress fees). Des éléments que l’Autorité pointait il y a an. Pourtant, ces pratiques « déjà identifiées » semblent « perdurer et même s’intensifier afin d’attirer le plus grand nombre de start-ups actives dans le secteur de l’IA générative », déplore-t-elle.

Autre gros risque pointé du doigt, les débordements sur l’accès aux données. L’Autorité rappelle la sanction de 250 millions d’euros infligée à Google. En cause, son utilisation des contenus d’éditeurs et agences de presse dans l’entrainement de son modèle de fondation Gemini, sans les avertir, ni autorisation.

En outre, les mêmes acteurs useraient d’autres techniques, comme se réserver l’accès aux données des créateurs de contenus (si besoin est en leur versant d’importantes rémunérations que d’autres ne peuvent suivre) ou la limitation de cet accès. Sur ce second point, les géants abuseraient de règles juridiques, y compris sur la protection des données personnelles, ou en invoquant des préoccupations de sécurité.

L’Autorité cite également les risques sur l’embauche (fixation des salaires, accords de non-débauchage…), les conditions d’accès de certains modèles dits « ouverts », les accords d’exclusivité entre des fournisseurs de services cloud et les principaux développeurs de modèles de fondation (OpenAI dans Azure chez Microsoft, par exemple), les pratiques de vente liée (notamment dans les smartphones) ou encore le risque de collusion entre entreprises du secteur.

Investissements, un risque presque silencieux

Certains investissements doivent être examinés de près, selon l’Autorité de la concurrence. Le cas le plus flagrant est bien sûr celui de Microsoft dans OpenAI. Ces injections massives d’argent « peuvent permettre aux start-ups du secteur de bénéficier de ressources financières et technologiques des grandes entreprises et ainsi favoriser l’innovation », pointe l’Autorité.

Cependant, les investissements peuvent aussi « affaiblir l’intensité concurrentielle entre les deux entités, entrainer des effets verticaux, un renforcement de la transparence sur le marché ou un verrouillage de certains acteurs ». L’Autorité dénonce également un « manque de transparence ». Des inquiétudes « partagées par les autorités de concurrence dans le monde, comme le montrent notamment les investigations en cours concernant Alphabet, Amazon, Anthropic, Microsoft et OpenAI ».

Si l’avis n’aborde pas directement la question, on peut aussi évoquer la quantité d’argent disponible face aux investissements réalisés. TechCrunch a publié récemment un article évoquant la résilience des vieilles entreprises de la tech, dont IBM, Oracle et SAP. De grands noms aptes à inspirer confiance et à qui les investissements permettent de mieux négocier le grand virage actuel.

Le danger est que l’argent investi ne soit plus disponible pour de jeunes entreprises qui pourraient faire la différence, participant d’autant plus à renforcer les positions actuelles. « La concurrence est minimale car nous sommes dans des oligopoles et des duopoles. Il y avait autrefois des centaines d’éditeurs de logiciels, mais des décennies de fusions et d’acquisitions ont réduit le nombre d’options à quelques entreprises dans chaque zone géographique, catégorie, taille de marché et secteur d’activité », a ainsi indiqué l’analyste Ray Wang à nos confrères.

Des propositions tous azimuts

L’Autorité de la concurrence formule en conséquence une série de propositions s’adressant à de nombreuses entités, actuelles et à venir. À la Commission européenne par exemple, l’Autorité recommande de « porter une attention particulière » au développement des offres MaaS (Model as a Service). Les entreprises concernées pourraient ainsi être désignées comme contrôleurs d’accès, en vertu du DMA.

L’Autorité s’adresse ensuite au futur Bureau de l’IA ainsi qu’à l’autorité qui sera désignée en application du règlement sur l’IA (très probablement la CNIL). Les deux entités seront invitées à surveiller deux points. Premièrement, que la « mise en œuvre du règlement ne freine pas l’émergence ou l’expansion d’opérateurs de taille plus modeste ». Deuxièmement, que les grandes entreprises « ne détournent pas le texte à leur avantage ».

Elle milite pour une coordination internationale, et d’autant plus que les interrogations et initiatives sont multiples dans le monde sur l’IA. Elle pointe le futur sommet mondial sur l’IA qui aura lieu en février 2025 en France comme « l’occasion de renforcer la gouvernance mondiale de l’IA ».

Une puissance publique pour tous

Parmi les autres propositions, citons une insistance particulière sur le développement des supercalculateurs publics, Jean Zay étant d’ailleurs cité. Elle souhaite donc une poursuite des investissements pour mettre cette puissance à disposition du plus grand nombre, la possibilité de louer les ressources publiques à des acteurs privés (en gardant la priorité aux recherches académiques), et l’établissement de critères d’ouverture pour les modèles d’IA générative entrainés sur ces infrastructures.

L’Autorité recommande également d’inciter les ayants droits à prendre conscience des données dans les œuvres protégées pour entrainer les modèles. Par exemple, à travers des offres groupées pour réduire les coûts de transaction. Elle demande de la vigilance sur la dilution de la culture française, en facilitant la mise à disposition des données francophones (publiques et privées), pour préserver leur représentation.

Notons que ces propositions ne font appel à aucune modification législative.

IA générative : l’Autorité de la concurrence alerte contre la trop grande concentration

Money calls money

Dans un avis publié le 28 juin, l’Autorité de la concurrence française avertit de « risques concurrentiels » dans le domaine de l’IA générative. Dans la course aux fonctions, la puissance de calcul représente un facteur-clé de réussite. Plusieurs géants du numérique, Microsoft et Alphabet en tête, ont déjà une avance « immense ».

Le 8 février, l’Autorité de la concurrence s’était autosaisie sur le dossier de l’intelligence artificielle générative. Face à un marché qui pourrait dépasser les 200 milliards de dollars de chiffre d’affaires en quelques années, elle notait plusieurs signes de vigilance. Notamment, les énormes prises de participation de certains géants du numérique, telles que Microsoft dans OpenAI, ou encore Amazon et Alphabet dans Anthropic.

L’Autorité a rendu son avis vendredi 28 juin. Elle s’inquiète de l’avance prise par certains gros acteurs et de la distorsion de la concurrence qu’elle entraine. Dans ce contexte, l’émergence de nouvelles entreprises pouvant se faire une place au soleil parait compromise. Les investissements tendent également à se concentrer sur les grandes entreprises déjà en place.

Le même schéma partout

Selon l’Autorité de la concurrence, on retrouve désormais la même organisation un peu partout pour la chaine de valeur. On trouve ainsi les grands acteurs du numérique, dont Microsoft et Alphabet, « présents sur l’ensemble de la chaine de valeur ».

L’autre groupe d’acteurs majeurs est constitué par les développeurs de modèles. Sont cités Anthropic, HuggingFace, Mistral AI et bien sûr OpenAI. Dans la plupart des cas, ces développeurs sont en partenariat avec un ou plusieurs géants du numérique. Le cas le plus connu est OpenAI avec Microsoft, ce dernier ayant investi 13 milliards de dollars et obtenu 49 % des parts du développeur de modèles.

À l’inverse, Amazon, Apple, Meta et NVIDIA ne sont présents que sur une partie de la chaine de valeur. Certaines entreprises ont cependant pignon sur rue. Les résultats et l’action de NVIDIA explosent depuis des mois, portés par le chiffre d’affaires et la vive demande pour ses produits. La firme au caméléon jouit d’une attractivité hors norme avec les besoins en puissance de calcul, aussi bien pour entrainer les modèles que pour l’inférence.

De gros avantages concurrentiels

L’Autorité remarque, bien sûr, que ce sont les mêmes grandes entreprises que l’on retrouve presque partout. La nécessité de recourir à des processeurs spécialisés pour l’IA, l’importance des services cloud, l’obligation de disposer de larges réserves de données, les besoins importants en financement et la recherche de talents rares créent autant de barrières à l’entrée dans le marché.

L’Autorité note en particulier l’accès à la puissance de calcul. Des entreprises comme Alphabet, Amazon et Microsoft ont d’immenses centres de données un peu partout sur la planète. Elles développent leurs propres puces spécialisées dans l’IA. Cependant, elles passent dans le même temps d’immenses commandes à NVIDIA, dont elles sont « partenaires et concurrentes ». La taille même de ces entreprises leur permet de négocier avec NVIDIA et AMD.

Autre gros avantage, l’accès aux données. YouTube est cité en exemple. Le service fournit une « source majeure de données d’entrainement pour les modèles d’IA » d’Alphabet. « Elles peuvent aussi utiliser leur puissance financière pour conclure des accords avec des propriétaires de données tierces comme le montre l’accord conclu par Google pour un montant de 60 millions de dollars (soit environ 55 millions d’euros) par an pour accéder aux données de Reddit », ajoute l’Autorité.

Un risque conséquent de concentration

Ces entreprises bénéficient « d’un accès inégalé aux intrants [composants, ndlr] nécessaires pour l’entrainement de modèles d’IA générative », ainsi que d’avantages liés à leur taille. Outre la négociation en fourniture de matériel, elles peuvent réaliser de vastes économies d’échelle. L’avis cite également la « nature cumulative » de leurs effets de réseaux « puisque les données de retour des utilisateurs permettent d’affiner les futurs modèles et d’améliorer leur performance ou de proposer de nouveaux services ».

Les moyens des géants leur permettent aussi de recruter les talents par des salaires attractifs. Ils peuvent vanter la perspective de travailler sur des technologies de pointe, avec des ressources inégalées et une immense puissance de calcul, en développement rapide.

Enfin, l’Autorité constate que les outils d’IA générative sont déjà présents dans un nombre croissant de produits. Elle note surtout l’arrivée massive des fonctions « Copilot » dans les services et logiciels de Microsoft. Ce n’est pas le lancement récent des PC Copilot+ qui va contredire ce mouvement. « Par ailleurs, les places de marché de modèles (MaaS) de ces grandes entreprises permettent d’accéder à des modèles d’IA générative, propriétaires ou de tiers, conçus pour fonctionner dans leur écosystème », ajoute l’Autorité.

Des risques en pagaille

Premier risque identifié par l’Autorité, une entente sur les prix et la disponibilité des composants informatiques. Ces derniers pourraient être rendus inaccessibles à des entreprises plus petites. Elles pourraient aussi se voir imposer des conditions déloyales ou discriminatoires. L’avis pointe des risques autour du logiciel CUDA de NVIDIA, « seul environnement parfaitement compatible avec les GPU devenus incontournables pour le calcul accéléré ».

Deuxième risque, très bien connu celui-là, le verrouillage par les grands fournisseurs de services cloud. On parle ici des incitations financières et autres cadeaux faits pour attirer les clients (les fameux crédits), couplées à des frais élevés de migration vers un autre prestataire (egress fees). Des éléments que l’Autorité pointait il y a an. Pourtant, ces pratiques « déjà identifiées » semblent « perdurer et même s’intensifier afin d’attirer le plus grand nombre de start-ups actives dans le secteur de l’IA générative », déplore-t-elle.

Autre gros risque pointé du doigt, les débordements sur l’accès aux données. L’Autorité rappelle la sanction de 250 millions d’euros infligée à Google. En cause, son utilisation des contenus d’éditeurs et agences de presse dans l’entrainement de son modèle de fondation Gemini, sans les avertir, ni autorisation.

En outre, les mêmes acteurs useraient d’autres techniques, comme se réserver l’accès aux données des créateurs de contenus (si besoin est en leur versant d’importantes rémunérations que d’autres ne peuvent suivre) ou la limitation de cet accès. Sur ce second point, les géants abuseraient de règles juridiques, y compris sur la protection des données personnelles, ou en invoquant des préoccupations de sécurité.

L’Autorité cite également les risques sur l’embauche (fixation des salaires, accords de non-débauchage…), les conditions d’accès de certains modèles dits « ouverts », les accords d’exclusivité entre des fournisseurs de services cloud et les principaux développeurs de modèles de fondation (OpenAI dans Azure chez Microsoft, par exemple), les pratiques de vente liée (notamment dans les smartphones) ou encore le risque de collusion entre entreprises du secteur.

Investissements, un risque presque silencieux

Certains investissements doivent être examinés de près, selon l’Autorité de la concurrence. Le cas le plus flagrant est bien sûr celui de Microsoft dans OpenAI. Ces injections massives d’argent « peuvent permettre aux start-ups du secteur de bénéficier de ressources financières et technologiques des grandes entreprises et ainsi favoriser l’innovation », pointe l’Autorité.

Cependant, les investissements peuvent aussi « affaiblir l’intensité concurrentielle entre les deux entités, entrainer des effets verticaux, un renforcement de la transparence sur le marché ou un verrouillage de certains acteurs ». L’Autorité dénonce également un « manque de transparence ». Des inquiétudes « partagées par les autorités de concurrence dans le monde, comme le montrent notamment les investigations en cours concernant Alphabet, Amazon, Anthropic, Microsoft et OpenAI ».

Si l’avis n’aborde pas directement la question, on peut aussi évoquer la quantité d’argent disponible face aux investissements réalisés. TechCrunch a publié récemment un article évoquant la résilience des vieilles entreprises de la tech, dont IBM, Oracle et SAP. De grands noms aptes à inspirer confiance et à qui les investissements permettent de mieux négocier le grand virage actuel.

Le danger est que l’argent investi ne soit plus disponible pour de jeunes entreprises qui pourraient faire la différence, participant d’autant plus à renforcer les positions actuelles. « La concurrence est minimale car nous sommes dans des oligopoles et des duopoles. Il y avait autrefois des centaines d’éditeurs de logiciels, mais des décennies de fusions et d’acquisitions ont réduit le nombre d’options à quelques entreprises dans chaque zone géographique, catégorie, taille de marché et secteur d’activité », a ainsi indiqué l’analyste Ray Wang à nos confrères.

Des propositions tous azimuts

L’Autorité de la concurrence formule en conséquence une série de propositions s’adressant à de nombreuses entités, actuelles et à venir. À la Commission européenne par exemple, l’Autorité recommande de « porter une attention particulière » au développement des offres MaaS (Model as a Service). Les entreprises concernées pourraient ainsi être désignées comme contrôleurs d’accès, en vertu du DMA.

L’Autorité s’adresse ensuite au futur Bureau de l’IA ainsi qu’à l’autorité qui sera désignée en application du règlement sur l’IA (très probablement la CNIL). Les deux entités seront invitées à surveiller deux points. Premièrement, que la « mise en œuvre du règlement ne freine pas l’émergence ou l’expansion d’opérateurs de taille plus modeste ». Deuxièmement, que les grandes entreprises « ne détournent pas le texte à leur avantage ».

Elle milite pour une coordination internationale, et d’autant plus que les interrogations et initiatives sont multiples dans le monde sur l’IA. Elle pointe le futur sommet mondial sur l’IA qui aura lieu en février 2025 en France comme « l’occasion de renforcer la gouvernance mondiale de l’IA ».

Une puissance publique pour tous

Parmi les autres propositions, citons une insistance particulière sur le développement des supercalculateurs publics, Jean Zay étant d’ailleurs cité. Elle souhaite donc une poursuite des investissements pour mettre cette puissance à disposition du plus grand nombre, la possibilité de louer les ressources publiques à des acteurs privés (en gardant la priorité aux recherches académiques), et l’établissement de critères d’ouverture pour les modèles d’IA générative entrainés sur ces infrastructures.

L’Autorité recommande également d’inciter les ayants droits à prendre conscience des données dans les œuvres protégées pour entrainer les modèles. Par exemple, à travers des offres groupées pour réduire les coûts de transaction. Elle demande de la vigilance sur la dilution de la culture française, en facilitant la mise à disposition des données francophones (publiques et privées), pour préserver leur représentation.

Notons que ces propositions ne font appel à aucune modification législative.

☕️ Vous pouvez demander à YouTube de supprimer les contenus générés par IA qui vous ressemblent

YouTube a mis à jour sa procédure de demande de retrait pour les vidéos pouvant entrainer une violation de la vie privée. Au même rang que les contenus reprenant des informations personnelles ou les deepfakes, on peut demander le retrait d’une vidéo parce qu’elle utilise des contenus générés pouvant également y porter atteinte.

La demande de retrait n’entraine pas automatiquement la suppression du contenu. Google explique que chaque demande sera examinée selon une série de facteurs. Le contenu doit présenter « une version réaliste, modifiée ou synthétique » de la personne à l’origine de la plainte. Celle-ci doit être « identifiable de manière unique dans le contenu ».

« Il doit y avoir suffisamment d’informations dans la vidéo pour que d’autres personnes puissent vous reconnaître », résume Google. Si tel est le cas, YouTube enverra un message à l’auteur de la vidéo. Il ou elle aura alors 48 heures pour procéder à un changement, modification du contenu ou suppression. Rendre la vidéo privée ne sera pas suffisant. Passé ce délai, YouTube se chargera du retrait, avec de potentielles conséquences pour le compte à l’origine du contenu.

L’ajout de cette fonction va dans le sens de limites croissantes aux contenus générés par IA. Pour YouTube, c’est une suite « logique », plusieurs fonctions ayant été introduites dans ce sens. En mars dernier, Creator Studio a, par exemple, été mis à jour, permettant aux créateurs de préciser si un contenu d’apparence réaliste avait été conçu à partir de vidéos modifiées ou de synthèse, y compris ceux générés par IA.

Plus récemment, on a appris que YouTube testait les notes de communauté, à la manière de X. On pourra alors trouver des éléments de contexte comme la qualification d’un contenu en parodie, la présentation d’une ancienne vidéo comme nouvelle, etc. La fonction n’est pour l’instant disponible qu’en anglais et aux États-Unis.

☕️ Vous pouvez demander à YouTube de supprimer les contenus générés par IA qui vous ressemblent

YouTube a mis à jour sa procédure de demande de retrait pour les vidéos pouvant entrainer une violation de la vie privée. Au même rang que les contenus reprenant des informations personnelles ou les deepfakes, on peut demander le retrait d’une vidéo parce qu’elle utilise des contenus générés pouvant également y porter atteinte.

La demande de retrait n’entraine pas automatiquement la suppression du contenu. Google explique que chaque demande sera examinée selon une série de facteurs. Le contenu doit présenter « une version réaliste, modifiée ou synthétique » de la personne à l’origine de la plainte. Celle-ci doit être « identifiable de manière unique dans le contenu ».

« Il doit y avoir suffisamment d’informations dans la vidéo pour que d’autres personnes puissent vous reconnaître », résume Google. Si tel est le cas, YouTube enverra un message à l’auteur de la vidéo. Il ou elle aura alors 48 heures pour procéder à un changement, modification du contenu ou suppression. Rendre la vidéo privée ne sera pas suffisant. Passé ce délai, YouTube se chargera du retrait, avec de potentielles conséquences pour le compte à l’origine du contenu.

L’ajout de cette fonction va dans le sens de limites croissantes aux contenus générés par IA. Pour YouTube, c’est une suite « logique », plusieurs fonctions ayant été introduites dans ce sens. En mars dernier, Creator Studio a, par exemple, été mis à jour, permettant aux créateurs de préciser si un contenu d’apparence réaliste avait été conçu à partir de vidéos modifiées ou de synthèse, y compris ceux générés par IA.

Plus récemment, on a appris que YouTube testait les notes de communauté, à la manière de X. On pourra alors trouver des éléments de contexte comme la qualification d’un contenu en parodie, la présentation d’une ancienne vidéo comme nouvelle, etc. La fonction n’est pour l’instant disponible qu’en anglais et aux États-Unis.

Les abonnements de Meta violent le DMA, affirme la Commission européenne

Le modèle « payer ou accepter » de Meta n’est pas conforme au Digital Markets Act. Telle est la conclusion préliminaire de l’enquête de la Commission européenne sur les pratiques publicitaires de l’entreprise. Celle-ci, face au DMA, avait choisi de proposer un abonnement pour se débarrasser des publicités, sans répondre sur le fond de ce qui lui était reproché.

À l’automne dernier, Meta avait annoncé l’arrivée d’abonnements pour se débarrasser de la publicité sur Facebook et Instagram. Il s’agissait alors de la réponse de l’éditeur à l’Europe qui lui réclamait une mise en conformité avec le RGPD. Il avait d’ailleurs été condamné quelques mois plus tôt pour infraction au Règlement, avec une amende de 1,2 milliard d’euros.

Face à l’utilisation des données pour personnaliser la publicité (publicité comportementale), Meta avait choisi la voie de l’abonnement plutôt que celle du consentement. Ce dernier, évoqué un temps l’été dernier, a disparu du discours officiel.

Devant la manœuvre et une facture pour le moins salée, on s’attendait à une prise de position claire de la part de la Commission. En mars déjà, elle craignait « que le choix binaire imposé par le modèle « payer ou consentir » de Meta n’offre pas de véritable alternative au cas où les utilisateurs ne donneraient pas leur consentement ». Quelques semaines plus tard, sans citer Meta, la Commission européenne estimait que les formules « payer ou accepter » ne permettaient pas le consentement libre des internautes.

Le « choix binaire » de Meta n’est pas conforme au DMA

Dans un communiqué publié aujourd’hui, la Commission confirme : le « modèle publicitaire « payer ou accepter » n’est pas conforme à la loi sur les marchés numériques (DMA) ». « Ce choix binaire oblige les utilisateurs à consentir à la combinaison de leurs données personnelles et ne leur fournit pas une version moins personnalisée, mais équivalente des réseaux sociaux de Meta », ajoute la Commission dans son avis préliminaire.

Elle rappelle que les contrôleurs d’accès, tels que définis par le DMA, « doivent demander le consentement des utilisateurs pour combiner leurs données personnelles entre les services de la plateforme principale désignée et d’autres services » (article 5, paragraphe 2). Si l’internaute refuse, les contenus doivent quand même être affichés, dans une version moins personnalisée.

Or, les abonnements de Meta ne sauraient être conformes, car ils ne remplissent pas les conditions nécessaires au libre consentement :

  • Ils ne permettent pas un service utilisant moins de données à caractère personnel mais équivalent à celui basé sur les annonces personnalisées
  • Ils ne permettent pas aux internautes d’exercer « leur droit de consentir librement à la combinaison de leurs données personnelles »

Au tour de Meta

Cette conclusion préliminaire ne « préjuge pas de l’issue de l’enquête », rappelle la Commission européenne. Elle ajoute que Meta peut maintenant prendre acte des faits reprochés et travailler à sa réponse, en se basant sur les éléments fournis par la Commission. La conclusion de l’enquête interviendra dans les 12 mois suivant l’ouverture de la procédure, donc d’ici au 25 mars 2025.

Si cet avis préliminaire devait être confirmé, l’amende infligée par la Commission pourrait grimper jusqu’à 10 % du chiffre d’affaires mondial, et jusqu’à 20 % en cas de récidive.

« Notre avis préliminaire est que le modèle publicitaire de Meta n’est pas conforme à la loi sur les marchés numériques. Nous voulons donner aux citoyens les moyens de contrôler leurs propres données et d’opter pour une publicité moins personnalisée », a indiqué Margrethe Vestager, vice-présidente de la Commission et commissaire à la concurrence.

Les abonnements de Meta violent le DMA, affirme la Commission européenne

Le modèle « payer ou accepter » de Meta n’est pas conforme au Digital Markets Act. Telle est la conclusion préliminaire de l’enquête de la Commission européenne sur les pratiques publicitaires de l’entreprise. Celle-ci, face au DMA, avait choisi de proposer un abonnement pour se débarrasser des publicités, sans répondre sur le fond de ce qui lui était reproché.

À l’automne dernier, Meta avait annoncé l’arrivée d’abonnements pour se débarrasser de la publicité sur Facebook et Instagram. Il s’agissait alors de la réponse de l’éditeur à l’Europe qui lui réclamait une mise en conformité avec le RGPD. Il avait d’ailleurs été condamné quelques mois plus tôt pour infraction au Règlement, avec une amende de 1,2 milliard d’euros.

Face à l’utilisation des données pour personnaliser la publicité (publicité comportementale), Meta avait choisi la voie de l’abonnement plutôt que celle du consentement. Ce dernier, évoqué un temps l’été dernier, a disparu du discours officiel.

Devant la manœuvre et une facture pour le moins salée, on s’attendait à une prise de position claire de la part de la Commission. En mars déjà, elle craignait « que le choix binaire imposé par le modèle « payer ou consentir » de Meta n’offre pas de véritable alternative au cas où les utilisateurs ne donneraient pas leur consentement ». Quelques semaines plus tard, sans citer Meta, la Commission européenne estimait que les formules « payer ou accepter » ne permettaient pas le consentement libre des internautes.

Le « choix binaire » de Meta n’est pas conforme au DMA

Dans un communiqué publié aujourd’hui, la Commission confirme : le « modèle publicitaire « payer ou accepter » n’est pas conforme à la loi sur les marchés numériques (DMA) ». « Ce choix binaire oblige les utilisateurs à consentir à la combinaison de leurs données personnelles et ne leur fournit pas une version moins personnalisée, mais équivalente des réseaux sociaux de Meta », ajoute la Commission dans son avis préliminaire.

Elle rappelle que les contrôleurs d’accès, tels que définis par le DMA, « doivent demander le consentement des utilisateurs pour combiner leurs données personnelles entre les services de la plateforme principale désignée et d’autres services » (article 5, paragraphe 2). Si l’internaute refuse, les contenus doivent quand même être affichés, dans une version moins personnalisée.

Or, les abonnements de Meta ne sauraient être conformes, car ils ne remplissent pas les conditions nécessaires au libre consentement :

  • Ils ne permettent pas un service utilisant moins de données à caractère personnel mais équivalent à celui basé sur les annonces personnalisées
  • Ils ne permettent pas aux internautes d’exercer « leur droit de consentir librement à la combinaison de leurs données personnelles »

Au tour de Meta

Cette conclusion préliminaire ne « préjuge pas de l’issue de l’enquête », rappelle la Commission européenne. Elle ajoute que Meta peut maintenant prendre acte des faits reprochés et travailler à sa réponse, en se basant sur les éléments fournis par la Commission. La conclusion de l’enquête interviendra dans les 12 mois suivant l’ouverture de la procédure, donc d’ici au 25 mars 2025.

Si cet avis préliminaire devait être confirmé, l’amende infligée par la Commission pourrait grimper jusqu’à 10 % du chiffre d’affaires mondial, et jusqu’à 20 % en cas de récidive.

« Notre avis préliminaire est que le modèle publicitaire de Meta n’est pas conforme à la loi sur les marchés numériques. Nous voulons donner aux citoyens les moyens de contrôler leurs propres données et d’opter pour une publicité moins personnalisée », a indiqué Margrethe Vestager, vice-présidente de la Commission et commissaire à la concurrence.

☕️ Sur Windows 11, la diffusion de la mise à jour KB5039302 boguée reprend partiellement

La semaine dernière, un gros problème était apparu avec la mise à jour optionnelle KB5039302. Sur certaines configurations, elle provoquait des redémarrages en boucle. Microsoft en avait stoppé la diffusion.

Dans une note technique, l’enquête semblait s’orienter vers une piste précise : les machines sur lesquelles une solution de virtualisation imbriquée (CloudPC, DevBox, Azure Virtual Desktop…) était configurée.

Le déploiement a repris, mais uniquement pour les PC n’utilisant pas ce type de technologie. « Cette mise à jour n’est désormais interrompue que pour les appareils concernés par le problème. Par conséquent, il est possible que cette mise à jour ne soit pas proposée aux machines virtuelles Hyper-V fonctionnant sur des hôtes utilisant certains types de processeurs », ajoute Microsoft à sa fiche technique.

La mise à jour n’est pas non plus distribuée sur les éditions N de Windows, dans lesquelles la barre des tâches devient inaccessible. Les éditions N sont celles dont les composants média – dont le Media Player – sont absents. C’est également valable pour les configurations dont les composants média ont été désactivés manuellement.

Rappelons que la mise à jour est optionnelle pour l’instant. Elle n’est pas installée automatiquement par Windows. Pour l’obtenir, il faut avoir coché la case « Recevez les dernières mises à jour dès qu’elles sont disponibles » et cliquer sur « Rechercher les mises à jour » dans Windows Update.

☕️ Sur Windows 11, la diffusion de la mise à jour KB5039302 boguée reprend partiellement

La semaine dernière, un gros problème était apparu avec la mise à jour optionnelle KB5039302. Sur certaines configurations, elle provoquait des redémarrages en boucle. Microsoft en avait stoppé la diffusion.

Dans une note technique, l’enquête semblait s’orienter vers une piste précise : les machines sur lesquelles une solution de virtualisation imbriquée (CloudPC, DevBox, Azure Virtual Desktop…) était configurée.

Le déploiement a repris, mais uniquement pour les PC n’utilisant pas ce type de technologie. « Cette mise à jour n’est désormais interrompue que pour les appareils concernés par le problème. Par conséquent, il est possible que cette mise à jour ne soit pas proposée aux machines virtuelles Hyper-V fonctionnant sur des hôtes utilisant certains types de processeurs », ajoute Microsoft à sa fiche technique.

La mise à jour n’est pas non plus distribuée sur les éditions N de Windows, dans lesquelles la barre des tâches devient inaccessible. Les éditions N sont celles dont les composants média – dont le Media Player – sont absents. C’est également valable pour les configurations dont les composants média ont été désactivés manuellement.

Rappelons que la mise à jour est optionnelle pour l’instant. Elle n’est pas installée automatiquement par Windows. Pour l’obtenir, il faut avoir coché la case « Recevez les dernières mises à jour dès qu’elles sont disponibles » et cliquer sur « Rechercher les mises à jour » dans Windows Update.

☕️ SK Hynix va investir 69 milliards d’euros dans l’IA d’ici 2028

Selon Reuters, le deuxième fabricant mondial de mémoire (derrière Samsung) va investir 103 000 milliards de wons (69,27 milliards d’euros) dans l’intelligence artificielle et les semi-conducteurs dans les quatre années qui viennent. La société veut notamment sécuriser 80 000 milliards de wons (53,82 milliards d’euros) d’ici à 2026.

Ces plans ont été annoncés à l’issue d’une réunion stratégique, vendredi 28 juin. Les branches mémoire et batterie pour véhicules électriques ont « subi de lourdes pertes », pointent nos confrères.

Les efforts vont se concentrer sur l’IA, les puces de mémoire à large bande passante (HBM), les centres de données et sur les services IA de type assistants.

Autre chantier, la réduction des plus de 175 filiales à une « fourchette gérable ». Le groupe ne précise cependant pas l’ampleur de la restructuration.

Quelques jours auparavant, Reuters s’interrogeait déjà sur les mesures que SK Hynix pourrait prendre pour faire face à une situation tendue. Le média pointait les fusions comme un moyen de rationaliser une entité tentaculaire. Selon plusieurs médias locaux, SK Innovation (qui possède la plus grande raffinerie de pétrole de Corée du Sud), SK On (batteries) et SK E&S (gaz naturel) pourraient ainsi fusionner.

Reuters rappelle en outre que la Corée du Sud, qui possède les deux plus gros fabricants de mémoire au monde (Samsung et SK Hynix), a débloqué une aide de 26 000 milliards de wons (17,5 milliards d’euros) à destination de la filière.

☕️ SK Hynix va investir 69 milliards d’euros dans l’IA d’ici 2028

Selon Reuters, le deuxième fabricant mondial de mémoire (derrière Samsung) va investir 103 000 milliards de wons (69,27 milliards d’euros) dans l’intelligence artificielle et les semi-conducteurs dans les quatre années qui viennent. La société veut notamment sécuriser 80 000 milliards de wons (53,82 milliards d’euros) d’ici à 2026.

Ces plans ont été annoncés à l’issue d’une réunion stratégique, vendredi 28 juin. Les branches mémoire et batterie pour véhicules électriques ont « subi de lourdes pertes », pointent nos confrères.

Les efforts vont se concentrer sur l’IA, les puces de mémoire à large bande passante (HBM), les centres de données et sur les services IA de type assistants.

Autre chantier, la réduction des plus de 175 filiales à une « fourchette gérable ». Le groupe ne précise cependant pas l’ampleur de la restructuration.

Quelques jours auparavant, Reuters s’interrogeait déjà sur les mesures que SK Hynix pourrait prendre pour faire face à une situation tendue. Le média pointait les fusions comme un moyen de rationaliser une entité tentaculaire. Selon plusieurs médias locaux, SK Innovation (qui possède la plus grande raffinerie de pétrole de Corée du Sud), SK On (batteries) et SK E&S (gaz naturel) pourraient ainsi fusionner.

Reuters rappelle en outre que la Corée du Sud, qui possède les deux plus gros fabricants de mémoire au monde (Samsung et SK Hynix), a débloqué une aide de 26 000 milliards de wons (17,5 milliards d’euros) à destination de la filière.

Longévité : Apple explique certains choix de conception et fait des promesses

Tout est parfait, mais...
iPhone 15

Dans un rare exercice de communication, Apple a tenu à s’expliquer sur ses choix en matière de conception des produits. L’entreprise revient, dans un document intitulé « Longevity, by Design », sur la durabilité de ses produits et les compromis qu’elle fait parfois. Le document contient également une série de mesures, prévues plus tard dans l’année, pour simplifier la réparation.

Face à une volonté politique croissante de faire rentrer de grandes entreprises dans le « droit chemin », que ce soit en Europe ou aux États-Unis, Apple multiplie les actions. On l’a notamment vu avec le DMA, face auquel la firme de Cupertino tantôt se plaint, tantôt assouplit ses règles. On le voit aussi outre-Atlantique. Des États comme le Colorado et l’Oregon ont promulgué des lois pour simplifier la réparation, en interdisant le blocage des pièces de remplacement par des vérifications logicielles.

C’est dans ce contexte, et alors qu’Apple vient d’étendre ses outils de diagnostics à l’Europe, que le document « Longevity, by Design » a été publié. À qui s’adresse-t-il ? On serait tenté de répondre : « à la clientèle intéressée par ce genre d’information ». Mais ce qui s’apparente davantage à un livre blanc (d’une vingtaine de pages) vise aussi les décideurs politiques, en expliquant le bienfondé de la démarche. Car, selon Apple, la réparation en elle-même ne représente pas l’alpha et l’oméga de la longévité des produits.

Un équilibre entre réparation et fiabilité

L’un des points importants abordés par le document est la manière dont les ingénieurs choisissent de privilégier un aspect en particulier. Apple affirme qu’elle « domine le secteur en matière de longévité » face aux smartphones Android. L’iPhone préserverait d’ailleurs 40 % de sa valeur en plus, la différence se faisant plus sensible avec le temps.

Comment ? Par les choix de conception dans les iPhone. L’entreprise explique qu’une mesure peut ainsi être prise pour améliorer la longévité, au détriment de la capacité pure à la réparation. Elle donne un exemple : les iPhone 7 et 7 Plus, disposant d’une protection contre les infiltrations de liquide, ont permis de réduire de 75 % les taux de réparation. En revanche, la protection impliquait de sceller certaines zones, rendant plus complexe la réparation, via l’ajout d’adhésifs et de joints.

Des choix qui ont conduit, selon Apple, à une baisse de 38 % des actes de réparation entre 2015 et 2022 sur ses produits, et plus spécifiquement de 44 % sur les iPhone. En conséquence, Apple évalue à « plusieurs centaines de millions » le nombre d’iPhone ayant plus de cinq ans.

« La réparabilité est un élément essentiel de la longévité, mais l’optimisation de la réparabilité seule peut ne pas donner le meilleur résultat pour nos clients ou pour l’environnement ». En d’autres termes, Apple préfèrerait envoyer le moins possible les clients dans les boutiques pour réparation, plutôt que de faciliter la réparation et avoir une conception moins robuste.

Port de charge, une étude de cas

Le port de charge est cité en exemple dans le document. Pourquoi l’aborder ? Pour justifier que toutes les pièces le composant sont assemblées en un seul bloc.

« Le port de charge de l’iPhone fait partie d’un module à la grande longévité, qui comprend des microphones et d’autres composants qui peuvent être réparés dans leur ensemble, mais qui nécessitent rarement un remplacement. Rendre le port de charge remplaçable individuellement nécessiterait des composants supplémentaires, y compris son propre circuit imprimé flexible, son connecteur et ses fixations, ce qui augmenterait les émissions de carbone nécessaires à la fabrication de chaque appareil », affirme Apple, qui prend un angle d’attaque environnemental dans son argumentation.

Pour l’entreprise, la conception et la réparabilité d’une zone sont à relier aux taux de panne. « L’augmentation des émissions de carbone liées à la fabrication ne se justifie que si le port de charge doit être remplacé dans au moins 10 % des appareils. En fait, le taux de service réel était inférieur à 0,1 %, ce qui signifie que l’approche actuelle d’Apple en matière de conception produit moins d’émissions de carbone pendant la durée de vie de l’appareil », est certaine l’entreprise.

Il faut cependant noter que ce taux de 0,1 % n’a vraisemblablement pu être obtenu que par les boutiques officielles et le réseau CSSA (Centre De Services Agréé Apple) comprenant les enseignes agréées. Les réparations dans la myriade d’autres boutiques « non officielles » ne peuvent avoir été prises en compte. Il aurait fallu pour cela qu’elle interroge la plupart d’entre elles, trop nombreuses pour que l’opération soit rentable.

Appariement : ça coince

L’approche décrite par Apple laisse penser que tout est parfait en l’état. Ce n’est pas le cas. Preuve en est que l’entreprise elle-même met en avant les améliorations successives avec les nouveaux modèles. L’iPhone 14 avait, par exemple, inauguré une vitre arrière pouvant se remplacer beaucoup plus facilement. Et, si vous vous souvenez, iFixit lui avait même donné un 7/10 encourageant. Avant de se raviser. Une nouvelle grille d’évaluation avait été mise en place, à travers laquelle l’iPhone 14 n’obtenait plus que 4/10. Note à laquelle se maintient l’iPhone 15 actuel, dans toutes ses déclinaisons.

« Nous ne désactiverons pas activement [à distance, ndlr] une pièce tierce conçue pour être fabriquée selon les mêmes spécifications que nos produits, à moins que cela n’ait un impact sur la sécurité et la confidentialité des clients, ce qui est actuellement limité aux pièces biométriques », assure Apple. C’est donc valable pour tout ce qui touche de près ou de loin à Touch ID et Face ID. Et pas seulement, puisque les lasers sont, eux aussi, concernés (LiDAR).

Le constructeur assure qu’il n’existe aujourd’hui qu’un seul scénario dans lequel une pièce sera désactivée : si un capteur Touch ID ou Face ID tiers est installé. L’entreprise insiste sur le danger trop grand de laisser de tels composants être installés, puisque des acteurs malveillants pourraient en profiter pour contourner des protections.

Les autres pièces fonctionneront, avec une notification unique au premier redémarrage. Et de préciser que la moindre réparation d’un composant majeur sur un iPhone entraine l’apparition d’une section « Pièces et historique des réparations » dans les réglages de l’appareil. Les pièces authentiques et ayant fait l’objet d’un étalonnage réussi seront indiquées comme telles. S’il s’agit de pièces tierces, elles seront affublées d’une étiquette « Pièce inconnue ».

Tout va très bien, mais des aménagements sont prévus

Droite dans ses bottes, Apple explique donc sur une vingtaine de pages le bienfondé de son approche. Le document ne manque pas d’intérêt : les explications d’un constructeur sur ses choix de conception sont assez rares et recèlent des éléments importants.

L’entreprise n’a cependant pas la conscience tranquille. Plus on avance dans le document, plus elle répète qu’elle souhaite avant tout protéger la sécurité et la vie privée de sa clientèle. Elle évoque par une étude réalisée l’année dernière par UL Solutions sur des dizaines de batteries lithium-ion de fabricants tiers. Résultats : 88 % d’entre elles auraient pris feu dans un test ou un autre. Une manière bien sûr pour la Pomme de rappeler qu’il vaut mieux acheter des pièces authentiques.

Et pourtant, elle profite du document pour annoncer plusieurs mesures importantes, toutes liées aux réparations avec des pièces tierces. Ainsi, la fonction True Tone, qui équilibre les couleurs de l’écran en fonction de ce que perçoivent les capteurs de lumière, sera étendue aux écrans tiers « au mieux de leurs performances ». Les batteries tierces feront remonter des statistiques, visibles dans Réglages, comme la capacité maximale et le nombre de cycles. Apple précise cependant qu’elle ne sera pas en mesure de garantir que ces informations seront précises ou même exactes.

« Nous rendrons les pièces Apple usagées – prélevées sur un produit existant et installées sur un autre appareil lors d’une réparation – aussi faciles à utiliser que les pièces Apple neuves pour la réparation de certains produits », indique également Apple. Enfin, les pièces du programme de réparation en libre-service d’Apple ne nécessiteront plus le numéro de série de l’appareil pour « la plupart des réparations ».

Toutes ces mesures doivent prendre effet « plus tard dans l’année ». Il est probable qu’Apple attende l’arrivée de ses nouvelles plateformes, tout particulièrement iOS 18, pour prendre en compte ces changements. Des annonces qui, encore une fois, semblent bien plus taillées pour les décideurs politiques que pour la clientèle.

Longévité : Apple explique certains choix de conception et fait des promesses

Tout est parfait, mais...
iPhone 15

Dans un rare exercice de communication, Apple a tenu à s’expliquer sur ses choix en matière de conception des produits. L’entreprise revient, dans un document intitulé « Longevity, by Design », sur la durabilité de ses produits et les compromis qu’elle fait parfois. Le document contient également une série de mesures, prévues plus tard dans l’année, pour simplifier la réparation.

Face à une volonté politique croissante de faire rentrer de grandes entreprises dans le « droit chemin », que ce soit en Europe ou aux États-Unis, Apple multiplie les actions. On l’a notamment vu avec le DMA, face auquel la firme de Cupertino tantôt se plaint, tantôt assouplit ses règles. On le voit aussi outre-Atlantique. Des États comme le Colorado et l’Oregon ont promulgué des lois pour simplifier la réparation, en interdisant le blocage des pièces de remplacement par des vérifications logicielles.

C’est dans ce contexte, et alors qu’Apple vient d’étendre ses outils de diagnostics à l’Europe, que le document « Longevity, by Design » a été publié. À qui s’adresse-t-il ? On serait tenté de répondre : « à la clientèle intéressée par ce genre d’information ». Mais ce qui s’apparente davantage à un livre blanc (d’une vingtaine de pages) vise aussi les décideurs politiques, en expliquant le bienfondé de la démarche. Car, selon Apple, la réparation en elle-même ne représente pas l’alpha et l’oméga de la longévité des produits.

Un équilibre entre réparation et fiabilité

L’un des points importants abordés par le document est la manière dont les ingénieurs choisissent de privilégier un aspect en particulier. Apple affirme qu’elle « domine le secteur en matière de longévité » face aux smartphones Android. L’iPhone préserverait d’ailleurs 40 % de sa valeur en plus, la différence se faisant plus sensible avec le temps.

Comment ? Par les choix de conception dans les iPhone. L’entreprise explique qu’une mesure peut ainsi être prise pour améliorer la longévité, au détriment de la capacité pure à la réparation. Elle donne un exemple : les iPhone 7 et 7 Plus, disposant d’une protection contre les infiltrations de liquide, ont permis de réduire de 75 % les taux de réparation. En revanche, la protection impliquait de sceller certaines zones, rendant plus complexe la réparation, via l’ajout d’adhésifs et de joints.

Des choix qui ont conduit, selon Apple, à une baisse de 38 % des actes de réparation entre 2015 et 2022 sur ses produits, et plus spécifiquement de 44 % sur les iPhone. En conséquence, Apple évalue à « plusieurs centaines de millions » le nombre d’iPhone ayant plus de cinq ans.

« La réparabilité est un élément essentiel de la longévité, mais l’optimisation de la réparabilité seule peut ne pas donner le meilleur résultat pour nos clients ou pour l’environnement ». En d’autres termes, Apple préfèrerait envoyer le moins possible les clients dans les boutiques pour réparation, plutôt que de faciliter la réparation et avoir une conception moins robuste.

Port de charge, une étude de cas

Le port de charge est cité en exemple dans le document. Pourquoi l’aborder ? Pour justifier que toutes les pièces le composant sont assemblées en un seul bloc.

« Le port de charge de l’iPhone fait partie d’un module à la grande longévité, qui comprend des microphones et d’autres composants qui peuvent être réparés dans leur ensemble, mais qui nécessitent rarement un remplacement. Rendre le port de charge remplaçable individuellement nécessiterait des composants supplémentaires, y compris son propre circuit imprimé flexible, son connecteur et ses fixations, ce qui augmenterait les émissions de carbone nécessaires à la fabrication de chaque appareil », affirme Apple, qui prend un angle d’attaque environnemental dans son argumentation.

Pour l’entreprise, la conception et la réparabilité d’une zone sont à relier aux taux de panne. « L’augmentation des émissions de carbone liées à la fabrication ne se justifie que si le port de charge doit être remplacé dans au moins 10 % des appareils. En fait, le taux de service réel était inférieur à 0,1 %, ce qui signifie que l’approche actuelle d’Apple en matière de conception produit moins d’émissions de carbone pendant la durée de vie de l’appareil », est certaine l’entreprise.

Il faut cependant noter que ce taux de 0,1 % n’a vraisemblablement pu être obtenu que par les boutiques officielles et le réseau CSSA (Centre De Services Agréé Apple) comprenant les enseignes agréées. Les réparations dans la myriade d’autres boutiques « non officielles » ne peuvent avoir été prises en compte. Il aurait fallu pour cela qu’elle interroge la plupart d’entre elles, trop nombreuses pour que l’opération soit rentable.

Appariement : ça coince

L’approche décrite par Apple laisse penser que tout est parfait en l’état. Ce n’est pas le cas. Preuve en est que l’entreprise elle-même met en avant les améliorations successives avec les nouveaux modèles. L’iPhone 14 avait, par exemple, inauguré une vitre arrière pouvant se remplacer beaucoup plus facilement. Et, si vous vous souvenez, iFixit lui avait même donné un 7/10 encourageant. Avant de se raviser. Une nouvelle grille d’évaluation avait été mise en place, à travers laquelle l’iPhone 14 n’obtenait plus que 4/10. Note à laquelle se maintient l’iPhone 15 actuel, dans toutes ses déclinaisons.

« Nous ne désactiverons pas activement [à distance, ndlr] une pièce tierce conçue pour être fabriquée selon les mêmes spécifications que nos produits, à moins que cela n’ait un impact sur la sécurité et la confidentialité des clients, ce qui est actuellement limité aux pièces biométriques », assure Apple. C’est donc valable pour tout ce qui touche de près ou de loin à Touch ID et Face ID. Et pas seulement, puisque les lasers sont, eux aussi, concernés (LiDAR).

Le constructeur assure qu’il n’existe aujourd’hui qu’un seul scénario dans lequel une pièce sera désactivée : si un capteur Touch ID ou Face ID tiers est installé. L’entreprise insiste sur le danger trop grand de laisser de tels composants être installés, puisque des acteurs malveillants pourraient en profiter pour contourner des protections.

Les autres pièces fonctionneront, avec une notification unique au premier redémarrage. Et de préciser que la moindre réparation d’un composant majeur sur un iPhone entraine l’apparition d’une section « Pièces et historique des réparations » dans les réglages de l’appareil. Les pièces authentiques et ayant fait l’objet d’un étalonnage réussi seront indiquées comme telles. S’il s’agit de pièces tierces, elles seront affublées d’une étiquette « Pièce inconnue ».

Tout va très bien, mais des aménagements sont prévus

Droite dans ses bottes, Apple explique donc sur une vingtaine de pages le bienfondé de son approche. Le document ne manque pas d’intérêt : les explications d’un constructeur sur ses choix de conception sont assez rares et recèlent des éléments importants.

L’entreprise n’a cependant pas la conscience tranquille. Plus on avance dans le document, plus elle répète qu’elle souhaite avant tout protéger la sécurité et la vie privée de sa clientèle. Elle évoque par une étude réalisée l’année dernière par UL Solutions sur des dizaines de batteries lithium-ion de fabricants tiers. Résultats : 88 % d’entre elles auraient pris feu dans un test ou un autre. Une manière bien sûr pour la Pomme de rappeler qu’il vaut mieux acheter des pièces authentiques.

Et pourtant, elle profite du document pour annoncer plusieurs mesures importantes, toutes liées aux réparations avec des pièces tierces. Ainsi, la fonction True Tone, qui équilibre les couleurs de l’écran en fonction de ce que perçoivent les capteurs de lumière, sera étendue aux écrans tiers « au mieux de leurs performances ». Les batteries tierces feront remonter des statistiques, visibles dans Réglages, comme la capacité maximale et le nombre de cycles. Apple précise cependant qu’elle ne sera pas en mesure de garantir que ces informations seront précises ou même exactes.

« Nous rendrons les pièces Apple usagées – prélevées sur un produit existant et installées sur un autre appareil lors d’une réparation – aussi faciles à utiliser que les pièces Apple neuves pour la réparation de certains produits », indique également Apple. Enfin, les pièces du programme de réparation en libre-service d’Apple ne nécessiteront plus le numéro de série de l’appareil pour « la plupart des réparations ».

Toutes ces mesures doivent prendre effet « plus tard dans l’année ». Il est probable qu’Apple attende l’arrivée de ses nouvelles plateformes, tout particulièrement iOS 18, pour prendre en compte ces changements. Des annonces qui, encore une fois, semblent bien plus taillées pour les décideurs politiques que pour la clientèle.

☕️ Microsoft retire une mise à jour faisant redémarrer en boucle Windows 11

Il y a deux jours, Microsoft a diffusé la mise à jour KB5039302 pour Windows 10 et 11. Contrairement aux mises à jour mensuelles (chaque deuxième mardi de chaque mois) dédiées à la sécurité, elle apportait plusieurs améliorations fonctionnelles pour Windows 11.

Le bouton permettant d’afficher rapidement le bureau est ainsi revenu par défaut. L’Explorateur de fichiers a gagné la capacité de créer des archives 7-Zip et TAR, le menu Partage reçoit une fonction Copier, le support de la norme Emoji passe à la version 15.1 (mouvements de tête, citron vert, phénix…) ainsi qu’un certain nombre de corrections de bugs.

Mais cette KB5039302 introduit un loup. Comme pointé par Neowin et confirmé par Microsoft dans la liste des problèmes connus pour les versions 22H2 et 23H2 de Windows 11, la nouvelle mise à jour peut entrainer des redémarrages en boucle chez certains utilisateurs.

« Ce problème est plus susceptible d’affecter les appareils utilisant des outils de machines virtuelles et des fonctions de virtualisation imbriquées, telles que CloudPC, DevBox, Azure Virtual Desktop. Nous enquêtons pour déterminer les conditions précises dans lesquelles ce problème peut se déclencher », indique Microsoft.

« Les utilisateurs de l’édition familiale de Windows sont moins susceptibles de rencontrer ce problème, car la virtualisation est moins répandue dans les environnements domestiques », ajoute l’entreprise. Elle a donc décidé de suspendre le déploiement de la mise à jour. Une nouvelle version sera proposée quand la cause du problème aura été déterminée.

Heureusement, cette mise à jour n’est pas déployée automatiquement, contrairement aux correctifs de sécurité. Pour l’obtenir, il faut avoir cliqué sur le bouton « Rechercher des mises à jour » dans Windows Update et activé le réglage « Recevez les dernières mises à jour dès qu’elles sont disponibles ».

☕️ Microsoft retire une mise à jour faisant redémarrer en boucle Windows 11

Il y a deux jours, Microsoft a diffusé la mise à jour KB5039302 pour Windows 10 et 11. Contrairement aux mises à jour mensuelles (chaque deuxième mardi de chaque mois) dédiées à la sécurité, elle apportait plusieurs améliorations fonctionnelles pour Windows 11.

Le bouton permettant d’afficher rapidement le bureau est ainsi revenu par défaut. L’Explorateur de fichiers a gagné la capacité de créer des archives 7-Zip et TAR, le menu Partage reçoit une fonction Copier, le support de la norme Emoji passe à la version 15.1 (mouvements de tête, citron vert, phénix…) ainsi qu’un certain nombre de corrections de bugs.

Mais cette KB5039302 introduit un loup. Comme pointé par Neowin et confirmé par Microsoft dans la liste des problèmes connus pour les versions 22H2 et 23H2 de Windows 11, la nouvelle mise à jour peut entrainer des redémarrages en boucle chez certains utilisateurs.

« Ce problème est plus susceptible d’affecter les appareils utilisant des outils de machines virtuelles et des fonctions de virtualisation imbriquées, telles que CloudPC, DevBox, Azure Virtual Desktop. Nous enquêtons pour déterminer les conditions précises dans lesquelles ce problème peut se déclencher », indique Microsoft.

« Les utilisateurs de l’édition familiale de Windows sont moins susceptibles de rencontrer ce problème, car la virtualisation est moins répandue dans les environnements domestiques », ajoute l’entreprise. Elle a donc décidé de suspendre le déploiement de la mise à jour. Une nouvelle version sera proposée quand la cause du problème aura été déterminée.

Heureusement, cette mise à jour n’est pas déployée automatiquement, contrairement aux correctifs de sécurité. Pour l’obtenir, il faut avoir cliqué sur le bouton « Rechercher des mises à jour » dans Windows Update et activé le réglage « Recevez les dernières mises à jour dès qu’elles sont disponibles ».

☕️ Google ajoute 110 langues à son Translate

Google vient d’annoncer « la plus grande expansion jamais réalisée » de son service Translate avec 110 nouvelles langues. Le bond a pu être réalisé grâce à son modèle linguistique PaLM 2.

Selon l’entreprise, ces langues, prises dans leur ensemble, sont parlées par 614 millions de personnes. Certaines sont parlées par plus de 100 millions de personnes. D’autres par « de petites communautés autochtones », et d’autres encore ne sont pratiquement plus parlées, mais font l’objet « d’efforts de revitalisation ».

Parmi les langues ajoutées, le cantonais figure en bonne place. Il s’agit, selon Google, de l’une des langues les plus demandées. Mais elle « se confond souvent avec le mandarin à l’écrit », ce qui aurait rendu complexe l’obtention de données et l’entrainement des modèles.

On trouve également l’afar, parlé notamment à Djibouti et en Éthiopie, et qui aurait bénéficié « du plus grand nombre de contributions volontaires » dans le nouveau lot. Citons aussi le pendjabi, langue la plus parlée au Pakistan, ou encore le tok pisin (ou néo-mélanésien), un créole fondé sur l’anglais et la lingua franca de Papouasie-Nouvelle-Guinée.

☕️ Google ajoute 110 langues à son Translate

Google vient d’annoncer « la plus grande expansion jamais réalisée » de son service Translate avec 110 nouvelles langues. Le bond a pu être réalisé grâce à son modèle linguistique PaLM 2.

Selon l’entreprise, ces langues, prises dans leur ensemble, sont parlées par 614 millions de personnes. Certaines sont parlées par plus de 100 millions de personnes. D’autres par « de petites communautés autochtones », et d’autres encore ne sont pratiquement plus parlées, mais font l’objet « d’efforts de revitalisation ».

Parmi les langues ajoutées, le cantonais figure en bonne place. Il s’agit, selon Google, de l’une des langues les plus demandées. Mais elle « se confond souvent avec le mandarin à l’écrit », ce qui aurait rendu complexe l’obtention de données et l’entrainement des modèles.

On trouve également l’afar, parlé notamment à Djibouti et en Éthiopie, et qui aurait bénéficié « du plus grand nombre de contributions volontaires » dans le nouveau lot. Citons aussi le pendjabi, langue la plus parlée au Pakistan, ou encore le tok pisin (ou néo-mélanésien), un créole fondé sur l’anglais et la lingua franca de Papouasie-Nouvelle-Guinée.

☕️ Plusieurs nouveautés pour Chrome mobile, dont les Actions

Google déploie actuellement de nouvelles fonctions pour son navigateur mobile. Selon qu’il s’agit d’Android ou d’iOS, il faudra attendre un peu.

Le plus gros apport, ce sont les Chrome Actions. Elles affichent des boutons d’actions à côté de certains résultats de recherche, pour gagner du temps. Dans le cas d’un restaurant, des boutons seront affichés pour appeler, obtenir l’itinéraire ou accéder aux avis laissés par d’autres. Les Chrome Actions sont disponibles depuis hier sur Android, mais il faudra attendre cet automne sur iOS, sans plus de précision.

Viennent ensuite les suggestions de raccourcis. Chrome se sert des habitudes de navigation pour proposer plus vite les adresses déjà visitées. Si vous écrivez régulièrement une certaine recherche pour obtenir, par exemple, les horaires de passage des transports en commun dans votre ville, Chrome suggèrera la page habituellement visitée.

Pour les tablettes – aussi bien Android qu’iPad – la barre d’adresse a été rafraichie. Elle a été passée à la moulinette Material You et s’affiche désormais en surimpression sur le site consulté, sans le masquer. On pourra donc appuyer sur les côtés pour y revenir.

La mouture iOS de Chrome rattrape également son retard sur les versions web et Android. Quand on appuie sur la barre d’adresses, avant que l’on commence à écrire quoi que ce soit, les recherches en tendance s’affichent dans la liste.

☕️ Plusieurs nouveautés pour Chrome mobile, dont les Actions

Google déploie actuellement de nouvelles fonctions pour son navigateur mobile. Selon qu’il s’agit d’Android ou d’iOS, il faudra attendre un peu.

Le plus gros apport, ce sont les Chrome Actions. Elles affichent des boutons d’actions à côté de certains résultats de recherche, pour gagner du temps. Dans le cas d’un restaurant, des boutons seront affichés pour appeler, obtenir l’itinéraire ou accéder aux avis laissés par d’autres. Les Chrome Actions sont disponibles depuis hier sur Android, mais il faudra attendre cet automne sur iOS, sans plus de précision.

Viennent ensuite les suggestions de raccourcis. Chrome se sert des habitudes de navigation pour proposer plus vite les adresses déjà visitées. Si vous écrivez régulièrement une certaine recherche pour obtenir, par exemple, les horaires de passage des transports en commun dans votre ville, Chrome suggèrera la page habituellement visitée.

Pour les tablettes – aussi bien Android qu’iPad – la barre d’adresse a été rafraichie. Elle a été passée à la moulinette Material You et s’affiche désormais en surimpression sur le site consulté, sans le masquer. On pourra donc appuyer sur les côtés pour y revenir.

La mouture iOS de Chrome rattrape également son retard sur les versions web et Android. Quand on appuie sur la barre d’adresses, avant que l’on commence à écrire quoi que ce soit, les recherches en tendance s’affichent dans la liste.

☕️ Sans Contact Plus déployé pour des paiements de plus 50 euros

La pratique du paiement sans contact a connu une explosion pendant la crise sanitaire. En 2022, il était ainsi déjà utilisé par 86 % des personnes ayant une carte, indiquait la Banque de France. Il représentait même 60 % des paiements par carte, avec une hausse de 6 points sur un an, a rappelé BFM Business.

Le paiement sans contact est apparu en 2012. Initialement pensé pour un montant maximal de 20 euros, la limite a été repoussée à 30 euros en 2017, puis à 50 euros rapidement après. Cette limite est toujours en place. Au-delà, il faut insérer sa carte et payer comme d’habitude, en saisissant le code PIN.

Le Sans Contact Plus, en cours de déploiement dans les terminaux de paiement, permet de s’en affranchir. Le plafond devient alors celui de la carte bancaire. Il y a cependant un hic : il faudra saisir le code PIN. Pour les sommes inférieures à 50 euros, le parcours reste le même, donc sans code.

Cette modification ne retire finalement qu’une étape dans le processus : l’insertion de la carte. La poussée du paiement sans contact s’est faite justement parce qu’il permettait de ne pas toucher le terminal.

Surtout, le Sans Contact Plus arrive un peu tard, car les smartphones sont passés par là. Avec des systèmes de paiement comme Apple Pay et Google Pay, on peut payer sans contact et sans barrière des 50 euros. Mais, au moins, les usagers de cartes bancaires n’ont rien à faire. Durant un temps, il faudra simplement demander au magasin si le nouveau type de paiement sans contact est accepté.

❌