Vue lecture

Doctolib, condamnée à 4,6 millions d’euros, affirme ne pas être « en position dominante »

Doctolib, pas Doctolibre
Doctolib, condamnée à 4,6 millions d’euros, affirme ne pas être « en position dominante »

Doctolib vient d’écoper d’une amende de 4,665 millions d’euros de l’Autorité de la concurrence pour abus de position dominante. La plateforme de rendez-vous médical annonce qu’elle fera appel et tente de justifier ses actions passées.

L’Autorité de la concurrence rappelle le fonctionnement des plateformes de rendez-vous médicaux et l’enjeu autour du nombre d’utilisateurs des deux côtés de l’écran (professionnels de santé et patients) : « les patients sont attirés par les plateformes proposant un large choix de professionnels de santé et ces derniers ont tendance à favoriser les plateformes utilisées par un grand nombre de patients ».

L’Autorité enquête suite à une plainte de Cegedim

Le Covid-19 a entrainé une forte augmentation de l’utilisation de ces plateformes, notamment en 2021 quand certaines se sont vu confier par le gouvernement « la gestion des rendez-vous en ligne lors de la campagne de vaccination contre la Covid-19 ». C’était notamment le cas de Doctolib, Maiia (édité par Cegedim) et KelDoc. La téléconsultation s’est aussi fortement développée pendant les confinements.

La condamnation du jour fait suite à une plainte d’un de ses concurrents en 2019 : Cegedim Santé. Ce dernier avait pour rappel été condamné en 2024 à 800 000 euros d’amende pour avoir traité des données de santé sans autorisation. Concernant Doctolib, l’enquête a pris du retard à cause de la pandémie, mais elle a entrainée une visite et une saisie dans les locaux en 2021.

Pour l’AdlC pas de doute : Doctolib « est en position dominante »

L’Autorité de la concurrence explique que « Doctolib, compte tenu de ses parts de marché et de celles, beaucoup plus faibles, de ses concurrents, de leur évolution, des barrières à l’entrée sur le marché et de l’absence de puissance d’achat compensatrice, est en position dominante sur le marché français des services de prise de rendez-vous médicaux en ligne, au moins depuis 2017 ».

Que ce soit en nombre de clients ou en chiffre d’affaires, les parts de marché de Doctolib « sont de manière constante supérieures à 50 % entre 2017 et 2022 et dépassent certaines années 90 % ». Même position dominante pour les téléconsultations, avec des parts de marché « supérieures à 40 % » aussi bien sur le nombre de clients que de téléconsultations.

Problème pour l’Autorité, « Doctolib a délibérément mis en œuvre plusieurs pratiques anticoncurrentielles ». C’est donc un abus de position dominante, une pratique condamnable et pour laquelle Doctolib écope de 4,665 millions d’euros d’amende.

Selon des documents, Doctolib voulait « verrouiller » patients et médecins

L’Autorité de la concurrence détaille ses griefs. Tout d’abord, jusqu’en septembre 2023, Doctolib imposait dans ses contrats avec les professionnels de santé « une clause d’exclusivité, combinée à une clause dite « anti-allotement » permettant à Doctolib de suspendre ou résilier le contrat ».

Dans des documents internes, des dirigeants affichaient sans détour leur volonté « [d’] être une interface obligatoire et stratégique entre le médecin et son patient afin de les verrouiller tous les deux » pour « ne laisse[r] aucun cabinet à la concurrence », rapporte l’Autorité. La formulation a le mérite de ne laisser aucune place au doute.

Doctolib mettait en avant des difficultés techniques ou opérationnelles pour exiger des professionnels de santé qu’ils résilient leur abonnement à un service concurrent pour passer sur la plateforme dominante sur le marché, un argument qui n’a visiblement pas fait mouche auprès de l’Autorité.

Alors que le service juridique de Doctolib alertait en interne sur l’illégalité d’une telle clause et insistait « vraiment fortement » pour la supprimer, le président de Doctolib aurait décidé de la maintenir selon l’Autorité, arguant « qu’il [fallait] stratégiquement la garder ». Selon l’enquête de l’AdlC, cela a eu des conséquences sur le marché : « certains opérateurs, tels que Solocal ou Qare, ont cessé de développer leur service ou ont même abandonné l’idée d’en développer ».

Sur les téléconsultations, « dès le lancement de Doctolib Téléconsultation en 2019, les contrats d’abonnement prévoyaient la souscription préalable obligatoire à Doctolib Patient », avec toutes les problématiques que nous venons d’évoquer sur la concurrence.

MonDocteur : du rachat à la « disparition en tant que concurrent »

Doctolib aurait aussi mis en place une pratique radicale pour « killer le produit » d’un concurent. En juillet 2018, la plateforme a racheté MonDocteur qui était présenté dans des documents internes comme « concurrent # 1 ».

Ces mêmes documents ne laisseraient aucune place au doute quant à la finalité du rachat : « la création de valeur […] n’est pas l’ajout de l’actif [MonDocteur] mais sa disparition en tant que concurrent ». Après le rachat, « Doctolib fonctionnera sans plus aucune concurrence en France » indiquerait un document rédigé à la demande de Doctolib, selon l’Autorité de la conccurence.

Débarrassée de son « concurrent #1 », Doctolib y voyait aussi un moyen de « réduire la pression sur les prix » et ainsi les augmenter de « 10 à 20 % », toujours selon le communiqué de l’Autorité. Cette dernière confirme que « Doctolib a bien procédé ultérieurement à plusieurs augmentations successives de ses tarifs ». Cette opération aurait permis à Doctolib d’engranger 10 000 nouveaux professionnels de santé et d’augmenter ses parts de marché, même avec les hausses de prix.

Ce rachat n’est pas passé par le contrôle des concentrations car il se situait « sous les seuils de notification qui déclenchent un examen ex ante de la part des autorités de concurrence ». Mais, comme le permet la jurisprudence depuis l’affaire Towercast, rien ne s’oppose à une analyse a posteriori d’un possible abus de position dominante. L’Autorité considère dans sa décision que ce rachat « constituait un abus de position dominante contraire aux articles 102 TFUE et L. 420 - 2 du Code de commerce ».

Deux amendes : 4 615 000 et 50 000 euros

Dans sa conclusion, l’Autorité de la concurrence affirme que ces pratiques ont bien eu pour effet « d’évincer les concurrents sur les marchés concernés ». Peu importe « les mérites propres de cette entreprise, qui ne sont pas contestés », ajoute-elle.

L’amende se décompose en deux parties. D’une part, « Doctolib a mis en œuvre, par les deux pratiques d’exclusivité et de ventes liées, une infraction, unique complexe et continue en élaborant une stratégie globale anticoncurrentielle visant à verrouiller le marché et à évincer ses concurrents ». La plateforme est sanctionnée de 4 615 000 euros.

D’autre part, le rachat de MonDocteur, « dans le seul et unique but de faire disparaitre son principal concurrent et de verrouiller le marché », est sanctionné de 50 000 euros. Pourquoi une somme qui semble relativement faible ? À cause d’une « incertitude juridique » avant 2023.

En effet, « la pratique mise en œuvre par Doctolib avait pour point de départ une date antérieure à l’arrêt Towercast, qui a clarifié la jurisprudence en réaffirmant la portée de l’arrêt Continental Can du 21 février 1973, appliquant les règles relatives aux abus de position dominante aux opérations de concentration ».

Au total, on arrive donc aux 4,665 millions d’euros. La sanction arrive quelques jours seulement après que le PDG de Doctolib (Stanislas Niox-Chateau) a expliqué que la plateforme était rentable « depuis quelques semaines ». L’Autorité « enjoint » – ou ordonne expressément – à Doctolib « de publier un résumé de la décision dans l’édition papier et sur le site Internet du journal « Le Quotidien du Médecin » ». Bien évidemment, cette décision peut faire l’objet d’un recours. Doctolib a d’ailleurs déjà annoncé son intention de faire appel.

Doctolib affirme n’être « en aucun cas en position dominante »

Pour la plateforme, cette décision « présente une lecture erronée de notre activité, et de notre secteur ». Elle affirme qu’elle n’est « en aucun cas en position dominante » et « n’équipe aujourd’hui que 30 % des soignants français (10 % en 2019 au moment de la plainte) »… sans préciser pour autant la part de marché de ses concurrents ni combien de professionnels de santé sont sur ce genre de plateforme.

MonDocteur est présenté comme « une petite start-up en 2018, qui équipait 2 % des soignants au moment du rachat », alors que Doctolib était à 10 % au même moment. La plateforme présente cette opération de croissance externe comme une « banalité absolue dans la vie d’une entreprise ».

Doctolib défend le bien-fondé du lien entre la téléconsultation et le reste du logiciel Doctolib : « la déconnecter aboutirait à des difficultés conséquentes pour le suivi des patients et l’activité quotidienne des soignants. C’est cette connexion qui permet l’accès au dossier patient, le partage d’ordonnance et la facturation ».

Enfin, toujours selon la plateforme, cette décision « s’appuie enfin sur l’existence passée d’une clause d’exclusivité il y a 11 ans, qui était présente seulement pour prévenir un mauvais usage de notre logiciel par les soignants ».

La décision complète de l’Autorité n’est pas encore disponible, mais elle sera intéressante à lire car elle permettra d’analyser le détail de la procédure, des échanges et des arguments des deux parties. Les deux parties auront de toute façon rendez-vous pour la procédure en appel.

Des « solutions fiables, sécurisées et sans engagement » ?

Dans son communiqué, Doctolib affirme que son « seul et unique objectif depuis le premier jour est de développer des solutions fiables, sécurisées et sans engagement ». Rappelons que la vie de Doctolib est loin d’être un fleuve tranquille ces dernières années.

En plus de la condamnation du jour par l’Autorité de la concurrence, elle a fait face à un « incident technique » en 2023 avec la perte de données médicales et, en 2020, au vol d’« informations administratives de 6 128 rendez-vous » en 2020.

Il y a également eu une procédure devant le Conseil d’État pour faire suspendre le partenariat entre l’État et Doctolib, sans succès. En cause, l’hébergement des données sur Amazon Web Services, avec toutes les questions que cela soulève sur la souveraineté. La question se pose aujourd’hui pour les données de santé chez Microsoft. Signalons enfin une longue enquête de Télérama en 2020 sur la sécurité, titrée « Sur Doctolib, le secret médical est soigné avec beaucoup trop de légèreté ».

  •  

Doctolib, condamnée à 4,6 millions d’euros, affirme ne pas être « en position dominante »

Doctolib, pas Doctolibre
Doctolib, condamnée à 4,6 millions d’euros, affirme ne pas être « en position dominante »

Doctolib vient d’écoper d’une amende de 4,665 millions d’euros de l’Autorité de la concurrence pour abus de position dominante. La plateforme de rendez-vous médical annonce qu’elle fera appel et tente de justifier ses actions passées.

L’Autorité de la concurrence rappelle le fonctionnement des plateformes de rendez-vous médicaux et l’enjeu autour du nombre d’utilisateurs des deux côtés de l’écran (professionnels de santé et patients) : « les patients sont attirés par les plateformes proposant un large choix de professionnels de santé et ces derniers ont tendance à favoriser les plateformes utilisées par un grand nombre de patients ».

L’Autorité enquête suite à une plainte de Cegedim

Le Covid-19 a entrainé une forte augmentation de l’utilisation de ces plateformes, notamment en 2021 quand certaines se sont vu confier par le gouvernement « la gestion des rendez-vous en ligne lors de la campagne de vaccination contre la Covid-19 ». C’était notamment le cas de Doctolib, Maiia (édité par Cegedim) et KelDoc. La téléconsultation s’est aussi fortement développée pendant les confinements.

La condamnation du jour fait suite à une plainte d’un de ses concurrents en 2019 : Cegedim Santé. Ce dernier avait pour rappel été condamné en 2024 à 800 000 euros d’amende pour avoir traité des données de santé sans autorisation. Concernant Doctolib, l’enquête a pris du retard à cause de la pandémie, mais elle a entrainée une visite et une saisie dans les locaux en 2021.

Pour l’AdlC pas de doute : Doctolib « est en position dominante »

L’Autorité de la concurrence explique que « Doctolib, compte tenu de ses parts de marché et de celles, beaucoup plus faibles, de ses concurrents, de leur évolution, des barrières à l’entrée sur le marché et de l’absence de puissance d’achat compensatrice, est en position dominante sur le marché français des services de prise de rendez-vous médicaux en ligne, au moins depuis 2017 ».

Que ce soit en nombre de clients ou en chiffre d’affaires, les parts de marché de Doctolib « sont de manière constante supérieures à 50 % entre 2017 et 2022 et dépassent certaines années 90 % ». Même position dominante pour les téléconsultations, avec des parts de marché « supérieures à 40 % » aussi bien sur le nombre de clients que de téléconsultations.

Problème pour l’Autorité, « Doctolib a délibérément mis en œuvre plusieurs pratiques anticoncurrentielles ». C’est donc un abus de position dominante, une pratique condamnable et pour laquelle Doctolib écope de 4,665 millions d’euros d’amende.

Selon des documents, Doctolib voulait « verrouiller » patients et médecins

L’Autorité de la concurrence détaille ses griefs. Tout d’abord, jusqu’en septembre 2023, Doctolib imposait dans ses contrats avec les professionnels de santé « une clause d’exclusivité, combinée à une clause dite « anti-allotement » permettant à Doctolib de suspendre ou résilier le contrat ».

Dans des documents internes, des dirigeants affichaient sans détour leur volonté « [d’] être une interface obligatoire et stratégique entre le médecin et son patient afin de les verrouiller tous les deux » pour « ne laisse[r] aucun cabinet à la concurrence », rapporte l’Autorité. La formulation a le mérite de ne laisser aucune place au doute.

Doctolib mettait en avant des difficultés techniques ou opérationnelles pour exiger des professionnels de santé qu’ils résilient leur abonnement à un service concurrent pour passer sur la plateforme dominante sur le marché, un argument qui n’a visiblement pas fait mouche auprès de l’Autorité.

Alors que le service juridique de Doctolib alertait en interne sur l’illégalité d’une telle clause et insistait « vraiment fortement » pour la supprimer, le président de Doctolib aurait décidé de la maintenir selon l’Autorité, arguant « qu’il [fallait] stratégiquement la garder ». Selon l’enquête de l’AdlC, cela a eu des conséquences sur le marché : « certains opérateurs, tels que Solocal ou Qare, ont cessé de développer leur service ou ont même abandonné l’idée d’en développer ».

Sur les téléconsultations, « dès le lancement de Doctolib Téléconsultation en 2019, les contrats d’abonnement prévoyaient la souscription préalable obligatoire à Doctolib Patient », avec toutes les problématiques que nous venons d’évoquer sur la concurrence.

MonDocteur : du rachat à la « disparition en tant que concurrent »

Doctolib aurait aussi mis en place une pratique radicale pour « killer le produit » d’un concurent. En juillet 2018, la plateforme a racheté MonDocteur qui était présenté dans des documents internes comme « concurrent # 1 ».

Ces mêmes documents ne laisseraient aucune place au doute quant à la finalité du rachat : « la création de valeur […] n’est pas l’ajout de l’actif [MonDocteur] mais sa disparition en tant que concurrent ». Après le rachat, « Doctolib fonctionnera sans plus aucune concurrence en France » indiquerait un document rédigé à la demande de Doctolib, selon l’Autorité de la conccurence.

Débarrassée de son « concurrent #1 », Doctolib y voyait aussi un moyen de « réduire la pression sur les prix » et ainsi les augmenter de « 10 à 20 % », toujours selon le communiqué de l’Autorité. Cette dernière confirme que « Doctolib a bien procédé ultérieurement à plusieurs augmentations successives de ses tarifs ». Cette opération aurait permis à Doctolib d’engranger 10 000 nouveaux professionnels de santé et d’augmenter ses parts de marché, même avec les hausses de prix.

Ce rachat n’est pas passé par le contrôle des concentrations car il se situait « sous les seuils de notification qui déclenchent un examen ex ante de la part des autorités de concurrence ». Mais, comme le permet la jurisprudence depuis l’affaire Towercast, rien ne s’oppose à une analyse a posteriori d’un possible abus de position dominante. L’Autorité considère dans sa décision que ce rachat « constituait un abus de position dominante contraire aux articles 102 TFUE et L. 420 - 2 du Code de commerce ».

Deux amendes : 4 615 000 et 50 000 euros

Dans sa conclusion, l’Autorité de la concurrence affirme que ces pratiques ont bien eu pour effet « d’évincer les concurrents sur les marchés concernés ». Peu importe « les mérites propres de cette entreprise, qui ne sont pas contestés », ajoute-elle.

L’amende se décompose en deux parties. D’une part, « Doctolib a mis en œuvre, par les deux pratiques d’exclusivité et de ventes liées, une infraction, unique complexe et continue en élaborant une stratégie globale anticoncurrentielle visant à verrouiller le marché et à évincer ses concurrents ». La plateforme est sanctionnée de 4 615 000 euros.

D’autre part, le rachat de MonDocteur, « dans le seul et unique but de faire disparaitre son principal concurrent et de verrouiller le marché », est sanctionné de 50 000 euros. Pourquoi une somme qui semble relativement faible ? À cause d’une « incertitude juridique » avant 2023.

En effet, « la pratique mise en œuvre par Doctolib avait pour point de départ une date antérieure à l’arrêt Towercast, qui a clarifié la jurisprudence en réaffirmant la portée de l’arrêt Continental Can du 21 février 1973, appliquant les règles relatives aux abus de position dominante aux opérations de concentration ».

Au total, on arrive donc aux 4,665 millions d’euros. La sanction arrive quelques jours seulement après que le PDG de Doctolib (Stanislas Niox-Chateau) a expliqué que la plateforme était rentable « depuis quelques semaines ». L’Autorité « enjoint » – ou ordonne expressément – à Doctolib « de publier un résumé de la décision dans l’édition papier et sur le site Internet du journal « Le Quotidien du Médecin » ». Bien évidemment, cette décision peut faire l’objet d’un recours. Doctolib a d’ailleurs déjà annoncé son intention de faire appel.

Doctolib affirme n’être « en aucun cas en position dominante »

Pour la plateforme, cette décision « présente une lecture erronée de notre activité, et de notre secteur ». Elle affirme qu’elle n’est « en aucun cas en position dominante » et « n’équipe aujourd’hui que 30 % des soignants français (10 % en 2019 au moment de la plainte) »… sans préciser pour autant la part de marché de ses concurrents ni combien de professionnels de santé sont sur ce genre de plateforme.

MonDocteur est présenté comme « une petite start-up en 2018, qui équipait 2 % des soignants au moment du rachat », alors que Doctolib était à 10 % au même moment. La plateforme présente cette opération de croissance externe comme une « banalité absolue dans la vie d’une entreprise ».

Doctolib défend le bien-fondé du lien entre la téléconsultation et le reste du logiciel Doctolib : « la déconnecter aboutirait à des difficultés conséquentes pour le suivi des patients et l’activité quotidienne des soignants. C’est cette connexion qui permet l’accès au dossier patient, le partage d’ordonnance et la facturation ».

Enfin, toujours selon la plateforme, cette décision « s’appuie enfin sur l’existence passée d’une clause d’exclusivité il y a 11 ans, qui était présente seulement pour prévenir un mauvais usage de notre logiciel par les soignants ».

La décision complète de l’Autorité n’est pas encore disponible, mais elle sera intéressante à lire car elle permettra d’analyser le détail de la procédure, des échanges et des arguments des deux parties. Les deux parties auront de toute façon rendez-vous pour la procédure en appel.

Des « solutions fiables, sécurisées et sans engagement » ?

Dans son communiqué, Doctolib affirme que son « seul et unique objectif depuis le premier jour est de développer des solutions fiables, sécurisées et sans engagement ». Rappelons que la vie de Doctolib est loin d’être un fleuve tranquille ces dernières années.

En plus de la condamnation du jour par l’Autorité de la concurrence, elle a fait face à un « incident technique » en 2023 avec la perte de données médicales et, en 2020, au vol d’« informations administratives de 6 128 rendez-vous » en 2020.

Il y a également eu une procédure devant le Conseil d’État pour faire suspendre le partenariat entre l’État et Doctolib, sans succès. En cause, l’hébergement des données sur Amazon Web Services, avec toutes les questions que cela soulève sur la souveraineté. La question se pose aujourd’hui pour les données de santé chez Microsoft. Signalons enfin une longue enquête de Télérama en 2020 sur la sécurité, titrée « Sur Doctolib, le secret médical est soigné avec beaucoup trop de légèreté ».

  •  

Shein : les 200 000 colis arrivés cette nuit en France « seront tous contrôlés. Tous. »

Shehin
Shein : les 200 000 colis arrivés cette nuit en France « seront tous contrôlés. Tous. »

Depuis l’affaire des « poupées sexuelles à caractère pédopornographique », la plateforme chinoise Shein est dans le viseur du gouvernement. Afin de chercher « des preuves », l’ensemble des 200 000 colis arrivés cette nuit sont contrôlés… Mais de quelles preuves a-t-on encore besoin ?

Ce matin, les ministres Serge Papin et Amélie de Montchalin étaient aux côtés « des agents des douanes à l’aéroport Charles-de-Gaulle pour une opération exceptionnelle ». « Cette nuit, 200 000 colis sont arrivés à Roissy-Charles-de-Gaulle : ils seront tous contrôlés. Tous. Nous avons, une nouvelle fois, constaté la présence de produits non conformes aux règles », explique Serge Papin sur X.

Surprise (ou pas) : « des produits non conformes et illicites »

« Les premiers constats font apparaître des produits non conformes et illicites : cosmétiques non autorisés, jouets dangereux pour les enfants, contrefaçons, appareils électroménagers défaillants », ajoute Amélie de Montchalin. Ce qui ne devrait malheureusement surprendre personne tant la sonnette d’alarme est tirée depuis des années. Dernier rappel en date, fin octobre, avec une enquête de l’UFC-Que Choisir sur plusieurs catégories de produits.

« L’aéroport Paris–Charles de Gaulle est la première frontière de la France, et l’un des principaux points d’entrée des marchandises issues du e-commerce international. Chaque année, 95 % des flux de colis en provenance de Chine y transitent avant d’être distribués sur l’ensemble du territoire », ajoute la ministre.

« Il faut qu’on puisse avoir des preuves »

« Pour que nous puissions réussir à mettre un frein à un système qui est manifestement non conforme par rapport à toutes nos normes, nos règles et notre fiscalité, il faut qu’on puisse avoir des preuves ».

Des preuves, la France en a pourtant déjà, comme le rappelle la ministre dans la suite de son discours : « les douaniers en ont tous les jours ». La différence ? « Aujourd’hui la plateforme ne pourra pas dire qu’on a juste ouvert les mauvais paquets ».

« Nous ne sommes pas impuissants, nous sommes très mobilisés », affirme-t-elle ; « on n’arrêtera pas les contrôles tant que les normes ne seront pas respectées ». Si les douaniers vérifient des colis tous les jours, il n’en reste pas moins que l’importation de produits non conformes et/ou dangereux est une réalité depuis longtemps, et pas uniquement sur Shein. Temu, Wish et AliExpress ne sont pas épargnées.

800 millions de colis de Chine chaque année

L’année dernière, le patron de la Poste expliquait qu’Amazon, Temu et Shein représentaient 43 % des colis acheminés par ses services en Europe. La montée en puissance des plateformes chinoises était impressionnante : « Temu et Shein, qui représentent 22 % de nos colis en Europe. C’était moins de 5 % il y a cinq ans », affirmait Philippe Wahl, PDG de la Poste.

En avril, Amélie de Montchalin expliquait à l’Assemblée nationale que « 94 % de ces 800 millions d’articles [venant de Chine] sont non conformes et d’abord en termes de sécurité. Nous parlons d’articles qui incendient nos maisons, de produits cosmétiques qui rendent malade, de jouets qui sont toxiques pour nos enfants ».

La différence étant la vente, et la livraison, en France de « poupées sexuelles d’apparence enfantine » sur Shein et AliExpress. S’en sont suivi des enquêtes judiciaires françaises, européennes et une procédure de suspension contre Shein par le gouvernement français.

  •  

Shein : les 200 000 colis arrivés cette nuit en France « seront tous contrôlés. Tous. »

Shehin
Shein : les 200 000 colis arrivés cette nuit en France « seront tous contrôlés. Tous. »

Depuis l’affaire des « poupées sexuelles à caractère pédopornographique », la plateforme chinoise Shein est dans le viseur du gouvernement. Afin de chercher « des preuves », l’ensemble des 200 000 colis arrivés cette nuit sont contrôlés… Mais de quelles preuves a-t-on encore besoin ?

Ce matin, les ministres Serge Papin et Amélie de Montchalin étaient aux côtés « des agents des douanes à l’aéroport Charles-de-Gaulle pour une opération exceptionnelle ». « Cette nuit, 200 000 colis sont arrivés à Roissy-Charles-de-Gaulle : ils seront tous contrôlés. Tous. Nous avons, une nouvelle fois, constaté la présence de produits non conformes aux règles », explique Serge Papin sur X.

Surprise (ou pas) : « des produits non conformes et illicites »

« Les premiers constats font apparaître des produits non conformes et illicites : cosmétiques non autorisés, jouets dangereux pour les enfants, contrefaçons, appareils électroménagers défaillants », ajoute Amélie de Montchalin. Ce qui ne devrait malheureusement surprendre personne tant la sonnette d’alarme est tirée depuis des années. Dernier rappel en date, fin octobre, avec une enquête de l’UFC-Que Choisir sur plusieurs catégories de produits.

« L’aéroport Paris–Charles de Gaulle est la première frontière de la France, et l’un des principaux points d’entrée des marchandises issues du e-commerce international. Chaque année, 95 % des flux de colis en provenance de Chine y transitent avant d’être distribués sur l’ensemble du territoire », ajoute la ministre.

« Il faut qu’on puisse avoir des preuves »

« Pour que nous puissions réussir à mettre un frein à un système qui est manifestement non conforme par rapport à toutes nos normes, nos règles et notre fiscalité, il faut qu’on puisse avoir des preuves ».

Des preuves, la France en a pourtant déjà, comme le rappelle la ministre dans la suite de son discours : « les douaniers en ont tous les jours ». La différence ? « Aujourd’hui la plateforme ne pourra pas dire qu’on a juste ouvert les mauvais paquets ».

« Nous ne sommes pas impuissants, nous sommes très mobilisés », affirme-t-elle ; « on n’arrêtera pas les contrôles tant que les normes ne seront pas respectées ». Si les douaniers vérifient des colis tous les jours, il n’en reste pas moins que l’importation de produits non conformes et/ou dangereux est une réalité depuis longtemps, et pas uniquement sur Shein. Temu, Wish et AliExpress ne sont pas épargnées.

800 millions de colis de Chine chaque année

L’année dernière, le patron de la Poste expliquait qu’Amazon, Temu et Shein représentaient 43 % des colis acheminés par ses services en Europe. La montée en puissance des plateformes chinoises était impressionnante : « Temu et Shein, qui représentent 22 % de nos colis en Europe. C’était moins de 5 % il y a cinq ans », affirmait Philippe Wahl, PDG de la Poste.

En avril, Amélie de Montchalin expliquait à l’Assemblée nationale que « 94 % de ces 800 millions d’articles [venant de Chine] sont non conformes et d’abord en termes de sécurité. Nous parlons d’articles qui incendient nos maisons, de produits cosmétiques qui rendent malade, de jouets qui sont toxiques pour nos enfants ».

La différence étant la vente, et la livraison, en France de « poupées sexuelles d’apparence enfantine » sur Shein et AliExpress. S’en sont suivi des enquêtes judiciaires françaises, européennes et une procédure de suspension contre Shein par le gouvernement français.

  •  

Les datacenters colonisent les fonds marins et l’espace

Vous êtes encerclés par les datas, toute résistance est inutile
Les datacenters colonisent les fonds marins et l’espace

Microsoft puis le Chinois HiCloud immergent des datacenters dans l’eau au large des côtes. À l’opposé, HPE installe des serveurs dans la Station spatiale internationale, tandis que Google veut déployer une constellation de satellites pour des traitements liés à l’IA en profitant de l’énergie solaire. Deux approches, un même besoin : toujours plus de serveurs.

Sur notre planète Terre, la croissance galopante du numérique et, depuis quelques années, de l’intelligence artificielle générative soulève des questions sur la consommation des ressources, notamment en électricité et en eau. Comme nous l’avons expliqué dans un long dossier, il existe bien des indicateurs, mais ils sont parfois suffisamment flous pour « jouer » avec les résultats.

Depuis maintenant des années, des projets tentent des approches différentes… comprendre ailleurs que sur la terre ferme. Une première solution « évidente » et facile d’accès est de passer au niveau des mers et des océans. Ils occupent 70 % de la Terre (la planète) et proposent des avantages certains, mais aussi des contraintes.

Microsoft a immergé un datacenter pendant deux ans


Il reste 94% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

[MàJ] Shein : « procédure de suspension » engagée, la marketplace ferme en France

Quelle époque formidable…
[MàJ] Shein : « procédure de suspension » engagée, la marketplace ferme en France

Depuis quelques jours, les plateformes chinoises sont dans le collimateur de la justice française. En cause la vente de « poupées sexuelles d’apparence enfantine » chez Shein et AliExpress. Cette affaire arrive quelques jours avant l’ouverture de Shein au BHV et éclabousse d’autres plateformes comme Temu et Wish.

Mise à jour du 5 novembre à 16 h. Dans un communiqué envoyé par e-mail et arrivé peu de temps après l’annonce du gouvernement, Shein annonce avoir « pris la décision de suspendre temporairement les ventes de sa Marketplace en France ». La plateforme affirme que la décision a été prise « indépendamment de l’annonce du Premier ministre ».

« Cette mesure vise à permettre une revue complète des procédures, afin de garantir une conformité totale avec la législation française et le plus haut niveau de protection des consommateurs », explique l’entreprise. Elle veut désormais « engager dans les plus brefs délais un dialogue avec les autorités françaises ».


Mise à jour du 5 novembre à 15 h. Ce mercredi 5 novembre, le gouvernement « engage la procédure de suspension de Shein le temps nécessaire pour que la plateforme démontre aux pouvoirs publics que l’ensemble de ses contenus soient enfin en conformité avec nos lois et règlements ». Pour rappel, Shein a ouvert ses portes au BHV à Paris aujourd’hui à 13 h.

Le communiqué ne donne aucun détail et précise simplement qu’un « premier point d’étape devra être fait par les ministres dans les 48 prochaines heures ». Rien concernant AliExpress qui, pourtant, vendait les mêmes poupées enfantines pédopornographiques.

Ce matin, « des députés avaient annoncé le prochain dépôt d’une proposition transpartisane de résolution européenne » afin de demander plus de sévérité contre la plateforme, que ce soit en France ou au niveau européen.


Publication originale le 4 novembre à 15 h. Ce week-end, nous apprenions que Shein proposait des « poupées sexuelles à caractère pédopornographique ». Le procureur de la République était saisi de l’affaire, tandis que la plateforme Shein retirait les articles de la vente, reconnaissant au passage des « défaillances majeures ».

Sur AliExpress et Shein, des « poupées sexuelles d’apparence enfantine »

Rapidement, il est apparu que Shein n’était pas la seule plateforme à proposer des articles du genre. Aliexpress était aussi pointé du doigt par la répression des fraudes dans un second communiqué. La DGCCRF explique en effet avoir « élargi ses investigations à d’autres plateformes de e-commerce largement fréquentées par les consommateurs français ».

Là encore, les constatations sont sans appel. Sur AliExpress, la DGCCRF a constaté la présence de « poupées sexuelles d’apparence enfantine » dont la description et la catégorisation « permettent difficilement de douter du caractère pédopornographique des contenus ».

Aliexpress affirme à l’AFP que « les annonces concernées ont été retirées dès que nous en avons eu connaissance ». C’était également le cas pour Shein, à la fois pour les objets pédopornographiques, les signalements à la justice et les retraits.

Quatre enquêtes ouvertes par le parquet de Paris


Il reste 80% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

[Édito] Que faire face à la merdification de l’information

Comme disait Napoléon, « faut pas croire tout ce qu’on lit sur Internet »
[Édito] Que faire face à la merdification de l’information

N’ayons pas peur des mots, nous sommes dans une « merdification » importante de l’information. Le phénomène n’est pas nouveau, mais il prend de l’importance sur les réseaux sociaux et avec l’IA générative. La balle est dans le camp des internautes.

Enshittification ou merdification a été élu mot de l’année 2024 par le dictionnaire d’anglais australien Macquarie. Sa définition : « détérioration progressive d’un service ou d’un produit, en particulier d’une plateforme en ligne, provoquée par une réduction de la qualité du service fourni résultant de la recherche de profit ».

Ce terme s’applique parfaitement à l’information en ligne. Le phénomène n’est pas nouveau, mais il est de plus en plus inquiétant. Un bon terreau de cette merdification est la course à l’information. Il ne faut pas confondre vitesse et précipitation ; les exemples sont malheureusement nombreux et la situation se répète inlassablement.

La course à l’audience

Sur Internet, cette course à l’information va (malheureusement) de pair avec celle de l’audience. La raison est simple : la publicité, dont les revenus sont directement liés au nombre de visiteurs (les fameux visiteurs uniques ou VU dans le jargon du métier) ou de pages vues. D’une information claire et objective, on dérive depuis longtemps vers des titres putaclicks, des fake news et, de plus en plus, un mélange des deux.

Avec la merdification de l’information, le phénomène va plus loin. Les gens (et pas uniquement les jeunes) s’abreuvent maintenant sur les réseaux sociaux et s’informent par le prisme de certains influenceurs. Pour reprendre les inconnus : « y’a le mauvais chasseur [d’information] : y voit un truc qui bouge, y tire. Le bon chasseur : y voit un truc, y tire… ».

Dans l’information, c’est presque pareil, sauf que ceux qui racontent n’importe quoi sont les premiers à tirer, ceux qui enquêtent tirent plus tard. La course à l’audimat pousse une grande partie des médias à tirer le plus vite possible. L’information est fausse ? Pas « grave », une seconde sera publiée s’il y a de quoi (re)faire de l’audience, sinon elle sera limite laissée de côté.

Nous avons déjà longuement parlé de la loi de Brandolini ou « principe d’asymétrie des idioties » pour les sciences, mais cela touche désormais toutes les catégories d’information. Ne pas oublier que ceux qui racontent des idioties (pour rester poli) ne prennent pas de pincettes et foncent tête baissée, là où les chercheurs et scientifiques pèsent les conséquences et la portée de leurs mots. Deux discours, une même cible, mais pas les mêmes règles du jeu.

Combien de fois des informations ont fait les gros titres lors d’une condamnation alors que le jugement cassé en appel n’est quasiment pas évoqué ? Beaucoup trop… Combien de fois de fausses vidéos sont relayées sans jamais corriger le tir ? Beaucoup trop… Combien de fois des fuites de données inexistantes font les gros titres (et font le jeu des pirates) ? Beaucoup trop… Vous avez compris l’idée.

La course à la visibilité

La situation évolue, mais pas dans le bon sens. Aujourd’hui, personnalités publiques et influenceurs ont un vrai pouvoir sur les gens et le moindre geste peut déplacer des foules. Un exemple récent avec un t-shirt vintage d’un aquarium porté par Taylor Swift. Des fans voulaient le même, l’aquarium en fait une réédition et le propose en « cadeau » pour un don à la protection des loutres. Montant de l’opération : plus de 2 millions de dollars. Rien de grave ici, au contraire, mais cela montre à quel point une idole peut faire bouger les choses.

Le problème étant que certains influenceurs poussent parfois à leur communauté des produits illégaux et/ou dangereux, au mépris des lois. L’année dernière, la DGCCRF dressait un triste bilan : sur 310 influenceurs contrôlés, 151 étaient « en anomalies ».

Les marques ont bien compris le potentiel des influenceurs et l’océan (plus ou moins grand) de poissons à attraper. Rappel : vous êtes le poisson. Pour vous attraper, marques et/ou influenceurs passent parfois la ligne rouge puisque la mention d’un partenariat commercial n’est pas toujours indiquée.

De l’information consommée par certains sur les réseaux sociaux, on se retrouve à avoir des messages publicitaires, que ce soit pour des produits ou des idées (politiques). Les influenceurs s’invitent aussi dans la vie politique et vice-versa, cela soulève d’autres questions sur l’information politique diversifiée. Si la télévision et la radio sont dans le viseur de l’Arcom, le web et les réseaux sociaux sont encore laissés de côté.

Le sujet de la régulation ne bouge pas vraiment alors qu’en mars prochain auront lieu les élections municipales, puis les présidentielles en 2027. Il y a de quoi être inquiet, d’autant que la génération des enfants nés dans la seconde moitié des années 2000, qui ont donc grandi avec les réseaux sociaux, sont désormais en âge de voter.

La course au sensationnel

L’IA générative est aussi un problème, qui fait des dégâts dans les médias. Dernier exemple en date, ce qui était présenté comme le projet « sky stadium » de l’Arabie saoudite. Une vidéo montrant ce que devait être un stade à 350 mètres d’altitude était fausse, comme l’indique l’AFP Factuel.

Reprise par de nombreux médias, avec souvent Paris-Match comme source (qui a depuis supprimé sa publication Instagram), l’information n’est pas toujours corrigée. Cette fausse vidéo surfe en prime sur la vague du projet pharaonique « The Line », qui a beaucoup de plomb dans l’aile. Bref, une belle histoire et de belles images, à un détail près : c’est faux.

Cet exemple soulève un autre problème : le temps nécessaire à débunker ce genre de fake news, pourtant grossières. Ce n’est qu’un seul exemple dans l’océan de merdification de l’information. Certains sites d’information générés par intelligence artificielle n’en finissent pas d’inonder le web avec du n’importe quoi.

Ils lancent des fausses informations dans tous les sens à la recherche de buzz (pour multiplier les visiteurs, donc les pages, donc les publicités, donc les revenus). Cela ne va généralement pas chercher plus loin. Parfois, les sites Gen AI peuvent aussi servir des buts particuliers : spammer des moteurs de recherche ou des intelligences artificielles, inonder les réseaux sociaux pour faire passer un message, élargir à coup de masses la fenêtre d’Overton

Tous les formats de médias sont concernés. Les actualités étaient les premières, suivies désormais par les vidéos et les deepfakes. La question des vidéos générées par IA entre en pleine collision avec les fausses informations et autres deepfake avec le cas de TiboInShape, qui a rendu son visage et sa voix réutilisables par tout un chacun sur Sora d’OpenAI.

Tout n’est pas à jeter dans le monde des réseaux sociaux et des influenceurs, loin de là ! HugoDecrypte (TikTok, X, Instagram, YouTube…) en est un bon exemple. Il s’est imposé comme source fiable auprès des jeunes, comme en témoigne la maxime « Tant qu’HugoDécrypte l’a pas dit, j’y crois pas ».

L’enjeu est important : « Facebook et YouTube sont utilisés respectivement chaque semaine pour s’informer par 36 % et 30 % des plus de 96 000 personnes interrogées, tandis qu’Instagram et WhatsApp sont utilisés par près d’une personne sur cinq pour ce type d’usage, TikTok par 16 % d’entre elles, X par 12 % », expliquions-nous récemment, sur la base d’un rapport de Reuters Institute.

Si vous avez des influenceurs et/ou créateurs de contenus que vous suivez pour leur sérieux et la qualité de leur information, n’hésitez pas à partager les noms dans les commentaires !

Les fausses informations prennent du temps à la vraie information

Les fausses informations sont problématiques, mais faut-il toutes les débunker ? Chez Next par exemple, nous pourrions passer quasiment toutes nos journées à les débunker tant elles sont nombreuses. Du coup, il ne resterait plus de temps pour des « vrais » sujets et analyses.

La merdification de l’information entraine non seulement une prolifération de fausses informations, mais occupe aussi des journalistes de cellules de « fact checking » à les démonter. Ces forces ne seraient-elles pas mieux utilisées à enquêter, à analyser des tendances, à faire des interviews… Bref, du fond ? Je pense que oui, mille fois oui !

La merdification de l’information est à tous les niveaux sur Internet – des sites de presse aux réseaux sociaux – et il devient de plus en plus difficile de trier le bon grain de l’ivraie. L’esprit critique est plus que jamais nécessaire face à la déferlante de fausses informations et de désinformation. Il suffisait pendant un temps de se dire « c’est trop beau pour être vrai, c’est probablement faux » pour lever la plupart des doutes, ce n’est plus le cas aujourd’hui.

« Quand on pense qu’il suffirait que les gens arrêtent… »

Mais force est de constater que ça marche : les gens lisent les fausses informations, les partagent sur les réseaux sociaux et dans des « boucles WhatsApp » (ou autres messageries). Elles sont parfois prises au premier degré avec une inquiétude face à ce qui n’est en fait que du vent.

Comme les gens accèdent à ce genre de contenus, leurs créateurs gagnent de l’argent et donc abreuvent la bête de toujours plus de contenus du genre. Plus les gens vont en lire, plus les réseaux sociaux vont en pousser à l’utilisateur pour le garder captif le plus longtemps possible. Regardez une vidéo Gen IA avec des animaux sur TikTok une fois ou deux et votre flux en devient rapidement inondé. C’est valable pour toutes les thématiques, y compris la politique, les enjeux environnementaux, les sciences, etc.

Chez Next, nous avons pris le pari de traiter des sujets de fond, de vérifier avant de parler, d’enquêter au long cours, et de ne pas céder aux sirènes du putaclik… Un vœu pieux, mais force est de constater que cela ne « paye pas ».

Nous sommes également parmi les rares ovnis du paysage médiatique à n’afficher aucune publicité et à ne pas vous traquer (d’où l’absence de « bandeau RGPD » ), une promesse renforcée depuis le rachat par moji. Ce rachat permet d’ailleurs à Next d’être toujours vivant et de continuer à vous informer avec les mêmes principes.

Mais, là où des médias surfant à fond sur le putaclic et flirtant avec la désinformation prospèrent et engrangent des bénéfices, Next est toujours déficitaire. Une phrase de Coluche résonne plus que jamais : « Quand on pense qu’il suffirait que les gens arrêtent de les acheter [de les lire dans le cas de cet édito, ndlr] pour que ça ne se vende plus. Quelle misère ! ».

S’abonner à Next vous permet de lire l’ensemble de nos articles et de participer aux commentaires, mais aussi de nous soutenir dans notre modèle économique et notre manière de traiter l’information.

  •  

[Édito] Que faire face à la merdification de l’information

Comme disait Napoléon, « faut pas croire tout ce qu’on lit sur Internet »
[Édito] Que faire face à la merdification de l’information

N’ayons pas peur des mots, nous sommes dans une « merdification » importante de l’information. Le phénomène n’est pas nouveau, mais il prend de l’importance sur les réseaux sociaux et avec l’IA générative. La balle est dans le camp des internautes.

Enshittification ou merdification a été élu mot de l’année 2024 par le dictionnaire d’anglais australien Macquarie. Sa définition : « détérioration progressive d’un service ou d’un produit, en particulier d’une plateforme en ligne, provoquée par une réduction de la qualité du service fourni résultant de la recherche de profit ».

Ce terme s’applique parfaitement à l’information en ligne. Le phénomène n’est pas nouveau, mais il est de plus en plus inquiétant. Un bon terreau de cette merdification est la course à l’information. Il ne faut pas confondre vitesse et précipitation ; les exemples sont malheureusement nombreux et la situation se répète inlassablement.

La course à l’audience

Sur Internet, cette course à l’information va (malheureusement) de pair avec celle de l’audience. La raison est simple : la publicité, dont les revenus sont directement liés au nombre de visiteurs (les fameux visiteurs uniques ou VU dans le jargon du métier) ou de pages vues. D’une information claire et objective, on dérive depuis longtemps vers des titres putaclicks, des fake news et, de plus en plus, un mélange des deux.

Avec la merdification de l’information, le phénomène va plus loin. Les gens (et pas uniquement les jeunes) s’abreuvent maintenant sur les réseaux sociaux et s’informent par le prisme de certains influenceurs. Pour reprendre les inconnus : « y’a le mauvais chasseur [d’information] : y voit un truc qui bouge, y tire. Le bon chasseur : y voit un truc, y tire… ».

Dans l’information, c’est presque pareil, sauf que ceux qui racontent n’importe quoi sont les premiers à tirer, ceux qui enquêtent tirent plus tard. La course à l’audimat pousse une grande partie des médias à tirer le plus vite possible. L’information est fausse ? Pas « grave », une seconde sera publiée s’il y a de quoi (re)faire de l’audience, sinon elle sera limite laissée de côté.

Nous avons déjà longuement parlé de la loi de Brandolini ou « principe d’asymétrie des idioties » pour les sciences, mais cela touche désormais toutes les catégories d’information. Ne pas oublier que ceux qui racontent des idioties (pour rester poli) ne prennent pas de pincettes et foncent tête baissée, là où les chercheurs et scientifiques pèsent les conséquences et la portée de leurs mots. Deux discours, une même cible, mais pas les mêmes règles du jeu.

Combien de fois des informations ont fait les gros titres lors d’une condamnation alors que le jugement cassé en appel n’est quasiment pas évoqué ? Beaucoup trop… Combien de fois de fausses vidéos sont relayées sans jamais corriger le tir ? Beaucoup trop… Combien de fois des fuites de données inexistantes font les gros titres (et font le jeu des pirates) ? Beaucoup trop… Vous avez compris l’idée.

La course à la visibilité

La situation évolue, mais pas dans le bon sens. Aujourd’hui, personnalités publiques et influenceurs ont un vrai pouvoir sur les gens et le moindre geste peut déplacer des foules. Un exemple récent avec un t-shirt vintage d’un aquarium porté par Taylor Swift. Des fans voulaient le même, l’aquarium en fait une réédition et le propose en « cadeau » pour un don à la protection des loutres. Montant de l’opération : plus de 2 millions de dollars. Rien de grave ici, au contraire, mais cela montre à quel point une idole peut faire bouger les choses.

Le problème étant que certains influenceurs poussent parfois à leur communauté des produits illégaux et/ou dangereux, au mépris des lois. L’année dernière, la DGCCRF dressait un triste bilan : sur 310 influenceurs contrôlés, 151 étaient « en anomalies ».

Les marques ont bien compris le potentiel des influenceurs et l’océan (plus ou moins grand) de poissons à attraper. Rappel : vous êtes le poisson. Pour vous attraper, marques et/ou influenceurs passent parfois la ligne rouge puisque la mention d’un partenariat commercial n’est pas toujours indiquée.

De l’information consommée par certains sur les réseaux sociaux, on se retrouve à avoir des messages publicitaires, que ce soit pour des produits ou des idées (politiques). Les influenceurs s’invitent aussi dans la vie politique et vice-versa, cela soulève d’autres questions sur l’information politique diversifiée. Si la télévision et la radio sont dans le viseur de l’Arcom, le web et les réseaux sociaux sont encore laissés de côté.

Le sujet de la régulation ne bouge pas vraiment alors qu’en mars prochain auront lieu les élections municipales, puis les présidentielles en 2027. Il y a de quoi être inquiet, d’autant que la génération des enfants nés dans la seconde moitié des années 2000, qui ont donc grandi avec les réseaux sociaux, sont désormais en âge de voter.

La course au sensationnel

L’IA générative est aussi un problème, qui fait des dégâts dans les médias. Dernier exemple en date, ce qui était présenté comme le projet « sky stadium » de l’Arabie saoudite. Une vidéo montrant ce que devait être un stade à 350 mètres d’altitude était fausse, comme l’indique l’AFP Factuel.

Reprise par de nombreux médias, avec souvent Paris-Match comme source (qui a depuis supprimé sa publication Instagram), l’information n’est pas toujours corrigée. Cette fausse vidéo surfe en prime sur la vague du projet pharaonique « The Line », qui a beaucoup de plomb dans l’aile. Bref, une belle histoire et de belles images, à un détail près : c’est faux.

Cet exemple soulève un autre problème : le temps nécessaire à débunker ce genre de fake news, pourtant grossières. Ce n’est qu’un seul exemple dans l’océan de merdification de l’information. Certains sites d’information générés par intelligence artificielle n’en finissent pas d’inonder le web avec du n’importe quoi.

Ils lancent des fausses informations dans tous les sens à la recherche de buzz (pour multiplier les visiteurs, donc les pages, donc les publicités, donc les revenus). Cela ne va généralement pas chercher plus loin. Parfois, les sites Gen AI peuvent aussi servir des buts particuliers : spammer des moteurs de recherche ou des intelligences artificielles, inonder les réseaux sociaux pour faire passer un message, élargir à coup de masses la fenêtre d’Overton

Tous les formats de médias sont concernés. Les actualités étaient les premières, suivies désormais par les vidéos et les deepfakes. La question des vidéos générées par IA entre en pleine collision avec les fausses informations et autres deepfake avec le cas de TiboInShape, qui a rendu son visage et sa voix réutilisables par tout un chacun sur Sora d’OpenAI.

Tout n’est pas à jeter dans le monde des réseaux sociaux et des influenceurs, loin de là ! HugoDecrypte (TikTok, X, Instagram, YouTube…) en est un bon exemple. Il s’est imposé comme source fiable auprès des jeunes, comme en témoigne la maxime « Tant qu’HugoDécrypte l’a pas dit, j’y crois pas ».

L’enjeu est important : « Facebook et YouTube sont utilisés respectivement chaque semaine pour s’informer par 36 % et 30 % des plus de 96 000 personnes interrogées, tandis qu’Instagram et WhatsApp sont utilisés par près d’une personne sur cinq pour ce type d’usage, TikTok par 16 % d’entre elles, X par 12 % », expliquions-nous récemment, sur la base d’un rapport de Reuters Institute.

Si vous avez des influenceurs et/ou créateurs de contenus que vous suivez pour leur sérieux et la qualité de leur information, n’hésitez pas à partager les noms dans les commentaires !

Les fausses informations prennent du temps à la vraie information

Les fausses informations sont problématiques, mais faut-il toutes les débunker ? Chez Next par exemple, nous pourrions passer quasiment toutes nos journées à les débunker tant elles sont nombreuses. Du coup, il ne resterait plus de temps pour des « vrais » sujets et analyses.

La merdification de l’information entraine non seulement une prolifération de fausses informations, mais occupe aussi des journalistes de cellules de « fact checking » à les démonter. Ces forces ne seraient-elles pas mieux utilisées à enquêter, à analyser des tendances, à faire des interviews… Bref, du fond ? Je pense que oui, mille fois oui !

La merdification de l’information est à tous les niveaux sur Internet – des sites de presse aux réseaux sociaux – et il devient de plus en plus difficile de trier le bon grain de l’ivraie. L’esprit critique est plus que jamais nécessaire face à la déferlante de fausses informations et de désinformation. Il suffisait pendant un temps de se dire « c’est trop beau pour être vrai, c’est probablement faux » pour lever la plupart des doutes, ce n’est plus le cas aujourd’hui.

« Quand on pense qu’il suffirait que les gens arrêtent… »

Mais force est de constater que ça marche : les gens lisent les fausses informations, les partagent sur les réseaux sociaux et dans des « boucles WhatsApp » (ou autres messageries). Elles sont parfois prises au premier degré avec une inquiétude face à ce qui n’est en fait que du vent.

Comme les gens accèdent à ce genre de contenus, leurs créateurs gagnent de l’argent et donc abreuvent la bête de toujours plus de contenus du genre. Plus les gens vont en lire, plus les réseaux sociaux vont en pousser à l’utilisateur pour le garder captif le plus longtemps possible. Regardez une vidéo Gen IA avec des animaux sur TikTok une fois ou deux et votre flux en devient rapidement inondé. C’est valable pour toutes les thématiques, y compris la politique, les enjeux environnementaux, les sciences, etc.

Chez Next, nous avons pris le pari de traiter des sujets de fond, de vérifier avant de parler, d’enquêter au long cours, et de ne pas céder aux sirènes du putaclik… Un vœu pieux, mais force est de constater que cela ne « paye pas ».

Nous sommes également parmi les rares ovnis du paysage médiatique à n’afficher aucune publicité et à ne pas vous traquer (d’où l’absence de « bandeau RGPD » ), une promesse renforcée depuis le rachat par moji. Ce rachat permet d’ailleurs à Next d’être toujours vivant et de continuer à vous informer avec les mêmes principes.

Mais, là où des médias surfant à fond sur le putaclic et flirtant avec la désinformation prospèrent et engrangent des bénéfices, Next est toujours déficitaire. Une phrase de Coluche résonne plus que jamais : « Quand on pense qu’il suffirait que les gens arrêtent de les acheter [de les lire dans le cas de cet édito, ndlr] pour que ça ne se vende plus. Quelle misère ! ».

S’abonner à Next vous permet de lire l’ensemble de nos articles et de participer aux commentaires, mais aussi de nous soutenir dans notre modèle économique et notre manière de traiter l’information.

  •  

PUE, WUE et CUE : comprendre l’empreinte environnementale des datacenters

Et le BOM ? Bullshit-O-Mètre
PUE, WUE et CUE : comprendre l’empreinte environnementale des datacenters

Dans nos précédents articles, nous avons expliqué ce qu’était un serveur, puis une baie (ou un rack) et enfin un datacenter. Nous étions restés sur des considérations purement matérielles. L’éléphant dans la pièce est bien évidemment la question environnementale, avec la consommation en eau, en électricité et les émissions carbones.

Autant les exploitants de datacenters peuvent être prolixes quand il s’agit de promettre monts et merveilles sur les avantages du cloud et de l’IA, autant le mutisme s’installe rapidement (surtout chez les géants américains) sur les consommations et émissions de gaz à effet de serre. Même quand ils communiquent, il faut se méfier du périmètre des indicateurs.

Nous allons parler du PUE (Power Usage Effectiveness, ou Indicateur d’efficacité énergétique en français) qui représente l’efficacité énergétique, mais ne donne pas d’indication sur les émissions carbone liées. Suivant les pays, un PUE identique ne signifie pas du tout la même chose ! La France par exemple utilise beaucoup de nucléaire dans son mix énergétique, alors que les États-Unis et la Pologne par exemple vont utiliser du charbon pour produire de l’électricité.

Nous parlerons ensuite de WUE (Water Usage Effectiveness, indicateur d’efficacité d’utilisation de l’eau), qui permet d’avoir un rapport entre la quantité d’eau utilisée et l’énergie électrique consommée. Comme pour l’électricité, la position géographique a son importance, notamment pour prendre en compte d’éventuelles tensions hydriques, d’autant plus avec le réchauffement climatique qui vient rebattre les cartes.

Le troisième gros morceau concerne le CUE (Carbon Usage Effectiveness, indicateur d’efficacité d’utilisation du carbone) qui mesure l’empreinte carbone du datacenter en fonction de sa consommation d’énergie. Mais là encore, rien n’est simple et pour un même datacenter le CUE peut fortement varier suivant un paramètre. Doit-on prendre en compte l’électricité réellement consommée ou bien l’électricité renouvelable virtuellement achetée à coup de contrats d’approvisionnement ?

Next vous explique tout cela en détail.

Consommation électrique et PUE

Quand on parle électricité, on saute généralement trop vite sur la consommation, en laissant de côté les sources et le mix énergétique. C’est pourtant un élément très important.


Il reste 92% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ Shein vendait des « poupées sexuelles à caractère pédopornographique »

C’est le constat fait par la DGCCRF (Direction générale de la Concurrence, de la Consommation et de la Répression des Fraudes). « Leur description et leur catégorisation sur le site permettent difficilement de douter du caractère pédopornographique des contenus », explique le ministère de l’Économie dans un communiqué.

Des signalements au procureur de la République, à l’Arcom et à la plateforme Shein ont été faits dans la foulée. « La diffusion, via un réseau de communications électroniques, de représentations à caractère pédopornographique, est passible de peines pouvant aller jusqu’à 7 ans d’emprisonnement et 100 000 euros d’amende », rappelle le ministère.

Sans compter que, « en l’absence de mesure de filtrage efficace visant à protéger les mineurs, la loi prévoit des peines d’amende pouvant aller jusqu’à 3 ans de prison et 75 000 euros d’amende. Ces faits ont également été signalés au procureur et à l’Arcom ».

Sentant le vent tourner, un communiqué de presse a été envoyé dans la foulée par Shein à de nombreuses rédactions, dont Next : « Shein confirme que les produits en question ont été immédiatement retirés de la plateforme dès que nous avons eu connaissance de ces défaillances majeures ».

Une enquête a été lancée pour comprendre comment « ces annonces ont pu contourner [les] dispositifs de contrôle ». L’entreprise « mène une revue complète afin d’identifier et de retirer tout produit similaire susceptible d’être mis en vente par d’autres vendeurs tiers ».

« Ce type de contenu est totalement inacceptable et va à l’encontre de toutes les valeurs que nous défendons. Nous prenons des mesures correctives immédiates et renforçons nos dispositifs internes afin d’éviter qu’une telle situation ne se reproduise », affirme le porte-parole de Shein Quentin Ruffat.

Shein doit pour rappel ouvrir dans les prochains jours un espace de plus de 1 000 m² dans le magasin historique du BHV, ainsi que des corners de 300 à 400 m² dans cinq magasins Galeries Lafayette. Cette annonce avait largement fait polémique. Disney devait, par exemple, décorer les vitrines du magasin mais a finalement décidé d’annuler car les conditions n’étaient « plus réunies pour déployer sereinement les animations de Noël ».

Shein a reçu une amende de 150 millions d’euros pour avoir fait n’importe quoi avec les cookies, ainsi que deux amendes de la DGCCRF : 1,1 million d’euros pour une « information défaillante sur la qualité environnementale des produits » et 40 millions d’euros pour des pratiques commerciales trompeuses. D’autres enquêtes sont en cours.

  •  

☕️ Shein vendait des « poupées sexuelles à caractère pédopornographique »

C’est le constat fait par la DGCCRF (Direction générale de la Concurrence, de la Consommation et de la Répression des Fraudes). « Leur description et leur catégorisation sur le site permettent difficilement de douter du caractère pédopornographique des contenus », explique le ministère de l’Économie dans un communiqué.

Des signalements au procureur de la République, à l’Arcom et à la plateforme Shein ont été faits dans la foulée. « La diffusion, via un réseau de communications électroniques, de représentations à caractère pédopornographique, est passible de peines pouvant aller jusqu’à 7 ans d’emprisonnement et 100 000 euros d’amende », rappelle le ministère.

Sans compter que, « en l’absence de mesure de filtrage efficace visant à protéger les mineurs, la loi prévoit des peines d’amende pouvant aller jusqu’à 3 ans de prison et 75 000 euros d’amende. Ces faits ont également été signalés au procureur et à l’Arcom ».

Sentant le vent tourner, un communiqué de presse a été envoyé dans la foulée par Shein à de nombreuses rédactions, dont Next : « Shein confirme que les produits en question ont été immédiatement retirés de la plateforme dès que nous avons eu connaissance de ces défaillances majeures ».

Une enquête a été lancée pour comprendre comment « ces annonces ont pu contourner [les] dispositifs de contrôle ». L’entreprise « mène une revue complète afin d’identifier et de retirer tout produit similaire susceptible d’être mis en vente par d’autres vendeurs tiers ».

« Ce type de contenu est totalement inacceptable et va à l’encontre de toutes les valeurs que nous défendons. Nous prenons des mesures correctives immédiates et renforçons nos dispositifs internes afin d’éviter qu’une telle situation ne se reproduise », affirme le porte-parole de Shein Quentin Ruffat.

Shein doit pour rappel ouvrir dans les prochains jours un espace de plus de 1 000 m² dans le magasin historique du BHV, ainsi que des corners de 300 à 400 m² dans cinq magasins Galeries Lafayette. Cette annonce avait largement fait polémique. Disney devait, par exemple, décorer les vitrines du magasin mais a finalement décidé d’annuler car les conditions n’étaient « plus réunies pour déployer sereinement les animations de Noël ».

Shein a reçu une amende de 150 millions d’euros pour avoir fait n’importe quoi avec les cookies, ainsi que deux amendes de la DGCCRF : 1,1 million d’euros pour une « information défaillante sur la qualité environnementale des produits » et 40 millions d’euros pour des pratiques commerciales trompeuses. D’autres enquêtes sont en cours.

  •  

#Nextquick : le coût en eau d’une requête ChatGPT

Message in a bottle, yeah !
#Nextquick : le coût en eau d’une requête ChatGPT

Régulièrement sur les réseaux sociaux, la même rengaine revient : le coût en eau d’une requête sur ChatGPT. Après les GW comme unité de calcul de puissance des GPU, le litre pour le coût environnemental des IA génératives ?

50 cl d’eau par requête ChatGPT ? Chiche !

Selon certains, une requête « consommerait 50 cl d’eau ». Partons de ce postulat. Selon Sam Altman, ChatGPT aurait plus de 800 millions d’utilisateurs actifs par semaine pour 2,5 milliards de requêtes par jour. Cela donnerait donc 1,25 milliard de litres (1 250 000 m³) d’eau par jour, ou encore 450 millions de m³ d’eau sur l’année.

À titre de comparaison, Microsoft annonce des prélèvements de 10,4 millions de m³ d’eau en 2024 au niveau mondial (5,8 millions en Amérique du Nord). Selon l’USGS (United States Geological Survey), la consommation des États-Unis en 2015 était de 322 milliards de gallons (1,2 milliard de m³ d’eau) par jour, soit 450 milliards de m³ par an.

On résume : sur la base des hypothèses, ChatGPT consommerait 45 fois plus d’eau que Microsoft au niveau mondial ou 0,1 % de la consommation totale des États-Unis (en 2015).

Avec 50 cl d’eau par requête, il ne faudrait que 60 millions de requêtes ChatGPT par jour pour arriver à la consommation totale d’eau de Microsoft.

Comment calculer combien d’eau consomme une requête ?

Deuxième approche, comment passe-t-on d’un prompt à un volume d’eau et peut-on retomber sur 50 cl par requête ? Déjà existe-t-il un lien de causalité entre une requête et une consommation d’eau. Oui : l’eau est utilisée pour refroidir les serveurs informatiques. Pour estimer la consommation, deux approches.

La première à partir de la consommation exacte d’une requête. Avec une règle de trois, en connaissant la consommation totale en électricité et en eau sur une période, on pourrait en déduire le volume d’eau moyen pour une requête. Mais on ne connait pas le coût énergétique d’une requête.

La deuxième avec le nombre total de requêtes sur une période (en partant du principe que le serveur ne fait rien d’autre). Si on connait la quantité d’eau utilisée, on peut obtenir la consommation moyenne d’une requête.

Attention, dans les deux cas on parle de moyenne sur l’ensemble des requêtes. Certaines sont plus longues que d’autres et consomment donc davantage.

Les datacenters ne sont pas égaux

Autre point important : la localisation des serveurs. Imaginons que la requête se fasse sur Azure de Microsoft (partenaire d’OpenAI), la consommation d’eau par kWh (on parle de WUE) varie entre 0,02 L/kWh (Irlande) et 1,52 L/kWh (Arizona) selon les données de Microsoft, soit jusqu’à 80x plus. Sur les datacenters Azure aux États-Unis, le WUE va de 0,1 à 1,52, soit un rapport de x15. Une même requête consommerait donc 80 fois plus d’eau en Arizona qu’à Singapour ou en Irlande.

Sans connaitre le datacenter (et on ne le connait pas quand on fait une requête), sa consommation électrique ni son WUE, impossible d’en déduire une estimation (même vague) de la consommation d’une requête à ChatGPT.

« 500 ml pour environ 10 à 50 réponses de longueur moyenne »

D’où viennent alors les 500 ml (50 cl) qu’on voit revenir plus ou moins régulièrement ? D’une étude américaine publiée dans la revue Communications of ACM :

« En prenant comme exemple le modèle GPT-3 avec ses 175 milliards de paramètres, nous montrons que l’entraînement de GPT-3 dans les centres de données américains de Microsoft peut consommer un total de 5,4 millions de litres d’eau, dont 700 000 litres de consommation d’eau sur site (scope 1). De plus, GPT-3 a besoin de « boire » (c’est-à-dire de consommer) une bouteille d’eau de 500 ml pour environ 10 à 50 réponses de longueur moyenne, selon le moment et le lieu de son déploiement ».

500 ml pour 10 à 50 réponses, soit 10 à 50 ml pour une requête GPT-3. OpenAI est depuis passé à GPT-5, mais nous n’avons pas de détails sur son coût environnemental. On se doute qu’il est bien plus important, mais dans quelles proportions ?

Les 10 à 50 ml sont-ils liés au datacenter avec le plus petit WUE, celui avec le plus gros ou à une moyenne ? Selon les hypothèses, la consommation pourrait donc varier de 0,7 à 750 ml… À ce niveau-là, difficile de dire qu’on tient une piste.

« Consommer » de l’eau ?

Et puis, qu’appelle-t-on consommation d’eau ? Microsoft fait bien la différence entre prélèvement, consommation et rejet. La consommation est égale aux prélèvements moins les rejets. Les 10 millions de m³ sont des prélèvements, pour une consommation de 5,8 millions de m³, le reste de l’eau étant rejeté. Rappelons que sur Terre l’eau ne disparait pas, elle suit un cycle.

Dernier point : on n’a même pas parlé du coût de l’entrainement du modèle (des batteries de GPU pendant des mois), de la production de l’électricité, du réseau… Mais ce serait autant d’éléments à intégrer.

  •  

Le monde selon NVIDIA : l’IA pour l’IA par l’IA

1 milliard de dollars is the new centime
Le monde selon NVIDIA : l’IA pour l’IA par l’IA

Comme à chaque conférence GTC, NVIDIA présente ses nouveautés et orientations. L’intelligence artificielle est au cœur des annonces, avec des partenariats tous azimuts, des datacenters toujours plus gros… NVIDIA partage aussi sa vision d’un monde robotisé dans lequel des machines « intelligentes et pensantes » vont « stimuler la réindustrialisation américaine ».

Mardi, l’action de NVIDIA a bondi de 20 % (avant de se stabiliser à+ 16 %), quelle peut en être la cause ? L’intelligence artificielle. Le moins que l’on puisse dire, c’est que les annonces étaient nombreuses. Next vous propose un tour d’horizon de la vingtaine de communiqués de presse pour avoir une vision d’ensemble.

NVIDIA investit 1 milliard de dollars dans Nokia


Il reste 97% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

C’est quoi un datacenter ?

Ma Gavcave est un DC !
C’est quoi un datacenter ?

Nous avons vu ce qu’était un serveur, puis une baie (ou un rack). Si on multiplie les baies, on arrive à une salle, puis un datacenter. Mais un « DC » ce n’est pas que des baies, c’est aussi bien d’autres éléments.

Difficile de définir ce qu’est exactement un datacenter (ou centre de données, pour la traduction littérale) puisqu’aucune règle n’est précise. La présentation d’IBM correspond assez bien à l’idée qu’on s’en fait : « une salle, un bâtiment ou une installation physique qui abrite l’infrastructure informatique nécessaire à la création, à l’exécution et à la fourniture d’applications et de services ».

Il n’y a pas de taille minimale ni maximale : on peut très bien faire un datacenter dans une cave souterraine, un abri anti-atomique en plein cœur de Paris, dans une ancienne maison, un immeuble, un bunker, un bâtiment industriel, un conteneur, etc. Vous voyez, c’est large !

Un datacenter, c’est plusieurs (grosses) arrivées électriques


Il reste 90% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

AI200 et AI250 : Qualcomm veut sa part du gâteau de l’IA dans les datacenters

Rien à déclarer, version communiqué de presse
AI200 et AI250 : Qualcomm veut sa part du gâteau de l’IA dans les datacenters

Qualcomm ne veut pas rester sur le bord de l’autoroute des puces dédiées à l’IA pour les datacenters. L’entreprise annonce ses AI200 et AI250 pour redéfinir les « performances d’inférence à l’échelle du rack pour l’ère de l’IA ». De belles promesses, mais avec quasiment aucun chiffre, histoire probablement d’occuper le terrain…

Qualcomm annonce deux nouveaux produits pour l’intelligence artificielle, qui sont basés sur ses NPU (Neural Processing Unit) Hexagon, ceux que l’on retrouve dans ses SoC. Le géant des semi-conducteurs ne vise pas les opérations lourdes liées à l’entrainement des grands modèles de langage, mais celles liées à la phase d’inférence, c’est-à-dire lorsqu’il faut répondre aux utilisateurs.

Qualcomm AI200 et AI250 : où sont les caractéristiques techniques ?

Il est question de « cartes accélératrices basées sur puces Qualcomm AI200 et AI250, ainsi que des racks », c’est-à-dire des baies complètes à installer dans les datacenters. La première solution, AI200, « prend en charge 768 Go de LPDDR par carte pour une capacité mémoire accrue et un coût réduit ». Une quantité relativement importante pour de l’inférence, mais comme Qualcomm ne donne aucun détail supplémentaire, difficile d’en savoir plus…

Si on regarde la dernière génération de SoC avec un NPU Hexagon, le Snapdragon 8 Elite Gen 5, il est question de « 12 scalar + 8 vector + 1 accelerator configuration », avec la prise en charge des niveaux de précision INT2, INT4, INT8 et INT16 pour les entiers, ainsi que FP8 et FP16 pour les nombres à virgule.

Qu’en est-il pour les « cartes » qui composeront les racks de Qualcomm ? Mystère et boule de gomme… L’annonce intervient dans une période chargée sur les accélérateurs dédiés à l’intelligence artificielle générative, avec notamment OpenAI qui multiplie les promesses avec des milliards de dollars et des GW de puissance électrique comme s’il en pleuvait. Il y a eu NVIDIA, puis AMD et Broadcom plus récemment.

Du near-memory computing pour l’AI250

Concernant l’AI250, c’est encore plus vague : elle « fera ses débuts avec une architecture mémoire innovante basée sur du calcul proche de la mémoire (near-memory computing), apportant un saut générationnel d’efficacité et de performances pour les workloads d’inférence IA en offrant une bande passante mémoire effective supérieure de plus de 10x et une consommation énergétique nettement inférieure ». Le bingo bullshit fait ensuite un carton plein : « Cela permet une inférence IA désagrégée pour une utilisation efficiente du matériel ».

Qualcomm ajoute que ses racks (ou baies) utilisent un refroidissement liquide direct (DLC) qui est désormais standardisé dans les datacenters, proposent du PCIe et du réseau Ethernet ; le tout avec « une consommation électrique par rack de 160 kW ». Cette puissance est, pour le moment, plutôt dans la moyenne haute actuelle pour ce genre d’usage. Pour rappel, OVHcloud prévoit même des baies de 240 kW par la suite.

C’est aussi un moyen de faire comme ses petits camarades : parler de puissance électrique pour l’intelligence artificielle, mais sans annoncer la moindre puissance de calcul.

Rendez-vous en 2026 et 2027

Les Qualcomm AI200 et AI250 ne sont pas disponibles tout de suite, loin de là. La première n’arrivera pas avant l’année prochaine et la seconde qu’en 2027. Qualcomm s’engage à tenir une « cadence annuelle à l’avenir, axée sur des performances d’inférence pour l’IA de pointe, l’efficacité énergétique et le TCO (Total Cost of Ownership)  ».

Sur sa page dédiée aux datacenters, Qualcomm référence déjà une solution pour l’inférence : la Cloud AI 100 Ultra. Il s’agit d’une carte PCIe x16 (gen 4) avec une puissance de 870 TOPS en INT8, 128 Go de mémoire et un TDP de 150 W.

Qualcomm annonce aussi une « collaboration majeure visant à déployer une infrastructure d’intelligence artificielle avancée en Arabie saoudite ». HUMAIN, une société du Fonds public d’investissement d’Arabie saoudite, « prévoit de déployer 200 mégawatts dès 2026, en s’appuyant sur les solutions d’accélération en rack Qualcomm AI200 et AI250 ». Ces annonces ont fait grimper de près de 20 % l’action de Qualcomm à l’ouverture lundi, avant qu’elle ne se stabilise sur une hausse de l’ordre de 10 %.

  •  

AI200 et AI250 : Qualcomm veut sa part du gâteau de l’IA dans les datacenters

Rien à déclarer, version communiqué de presse
AI200 et AI250 : Qualcomm veut sa part du gâteau de l’IA dans les datacenters

Qualcomm ne veut pas rester sur le bord de l’autoroute des puces dédiées à l’IA pour les datacenters. L’entreprise annonce ses AI200 et AI250 pour redéfinir les « performances d’inférence à l’échelle du rack pour l’ère de l’IA ». De belles promesses, mais avec quasiment aucun chiffre, histoire probablement d’occuper le terrain…

Qualcomm annonce deux nouveaux produits pour l’intelligence artificielle, qui sont basés sur ses NPU (Neural Processing Unit) Hexagon, ceux que l’on retrouve dans ses SoC. Le géant des semi-conducteurs ne vise pas les opérations lourdes liées à l’entrainement des grands modèles de langage, mais celles liées à la phase d’inférence, c’est-à-dire lorsqu’il faut répondre aux utilisateurs.

Qualcomm AI200 et AI250 : où sont les caractéristiques techniques ?

Il est question de « cartes accélératrices basées sur puces Qualcomm AI200 et AI250, ainsi que des racks », c’est-à-dire des baies complètes à installer dans les datacenters. La première solution, AI200, « prend en charge 768 Go de LPDDR par carte pour une capacité mémoire accrue et un coût réduit ». Une quantité relativement importante pour de l’inférence, mais comme Qualcomm ne donne aucun détail supplémentaire, difficile d’en savoir plus…

Si on regarde la dernière génération de SoC avec un NPU Hexagon, le Snapdragon 8 Elite Gen 5, il est question de « 12 scalar + 8 vector + 1 accelerator configuration », avec la prise en charge des niveaux de précision INT2, INT4, INT8 et INT16 pour les entiers, ainsi que FP8 et FP16 pour les nombres à virgule.

Qu’en est-il pour les « cartes » qui composeront les racks de Qualcomm ? Mystère et boule de gomme… L’annonce intervient dans une période chargée sur les accélérateurs dédiés à l’intelligence artificielle générative, avec notamment OpenAI qui multiplie les promesses avec des milliards de dollars et des GW de puissance électrique comme s’il en pleuvait. Il y a eu NVIDIA, puis AMD et Broadcom plus récemment.

Du near-memory computing pour l’AI250

Concernant l’AI250, c’est encore plus vague : elle « fera ses débuts avec une architecture mémoire innovante basée sur du calcul proche de la mémoire (near-memory computing), apportant un saut générationnel d’efficacité et de performances pour les workloads d’inférence IA en offrant une bande passante mémoire effective supérieure de plus de 10x et une consommation énergétique nettement inférieure ». Le bingo bullshit fait ensuite un carton plein : « Cela permet une inférence IA désagrégée pour une utilisation efficiente du matériel ».

Qualcomm ajoute que ses racks (ou baies) utilisent un refroidissement liquide direct (DLC) qui est désormais standardisé dans les datacenters, proposent du PCIe et du réseau Ethernet ; le tout avec « une consommation électrique par rack de 160 kW ». Cette puissance est, pour le moment, plutôt dans la moyenne haute actuelle pour ce genre d’usage. Pour rappel, OVHcloud prévoit même des baies de 240 kW par la suite.

C’est aussi un moyen de faire comme ses petits camarades : parler de puissance électrique pour l’intelligence artificielle, mais sans annoncer la moindre puissance de calcul.

Rendez-vous en 2026 et 2027

Les Qualcomm AI200 et AI250 ne sont pas disponibles tout de suite, loin de là. La première n’arrivera pas avant l’année prochaine et la seconde qu’en 2027. Qualcomm s’engage à tenir une « cadence annuelle à l’avenir, axée sur des performances d’inférence pour l’IA de pointe, l’efficacité énergétique et le TCO (Total Cost of Ownership)  ».

Sur sa page dédiée aux datacenters, Qualcomm référence déjà une solution pour l’inférence : la Cloud AI 100 Ultra. Il s’agit d’une carte PCIe x16 (gen 4) avec une puissance de 870 TOPS en INT8, 128 Go de mémoire et un TDP de 150 W.

Qualcomm annonce aussi une « collaboration majeure visant à déployer une infrastructure d’intelligence artificielle avancée en Arabie saoudite ». HUMAIN, une société du Fonds public d’investissement d’Arabie saoudite, « prévoit de déployer 200 mégawatts dès 2026, en s’appuyant sur les solutions d’accélération en rack Qualcomm AI200 et AI250 ». Ces annonces ont fait grimper de près de 20 % l’action de Qualcomm à l’ouverture lundi, avant qu’elle ne se stabilise sur une hausse de l’ordre de 10 %.

  •  

On a testé OpenZL, le modèle de compression de Meta : résultats et limitations

Allez, on se tasse !
On a testé OpenZL, le modèle de compression de Meta : résultats et limitations

Il y a trois semaines, Meta annonçait un nouveau modèle de compression en open source. Nous l’avons installé sur une de nos machines afin de tester ses possibilités sur différents types de fichiers, au-delà des tests de Meta. Nous avons découvert quelques limitations au passage.

Pour nos tests, nous utilisons une machine virtuelle avec Ubuntu Server 24.02 LTS (SSD dédié, 24 cœurs CPU et 56 Go de mémoire) sur notre serveur Dell PowerEdgeT630 avec Proxmox.

Installation d’OpenZL et premiers tours de piste

L’installation n’est vraiment pas compliquée et ne nécessite que trois lignes de code.

git clone https://github.com/facebook/openzl.git
cd openzl
make

La première ligne va créer un répertoire openzl et y copier le contenu du dépôt GitHub d’OpenZL de Meta (Facebook). La deuxième ligne nous permet d’aller dans ce répertoire, la troisième de lancer la compilation d’OpenZL. C’est tout !

Le programme s’appelle « zli » et on peut l’appeler, dans notre cas, via cette commande : « /home/gathor/openzl-repo/cachedObjs/*/zli ». Par exemple, pour connaitre la version de l’algorithme : « /home/gathor/openzl-repo/cachedObjs/*/zli --version ». Pour simplifier, nous garderons simplement la commande zli pour la suite de cet article.

Le fonctionnement classique de zli est le suivant : « zli <command> [options] < args> ». Les commandes possibles sont compress, decompress, train, benchmark, etc. On peut aussi préciser un nom de fichier de sortie avec -o, un profil avec -p, etc. On peut utiliser « zli --help » pour avoir tous les détails.

Sur sao, OpenZL explose bien la concurrence

Premier test : vérifier les allégations de Meta sur le niveau de compression des données sao. Il faut d’abord récupérer le corpus silesia et ensuite extraire le fichier sao. Deux lignes de commandes plus tard, c’est fait.

Nous lançons dans la foulée trois tests de compression avec zli (profil sao), xz avec le niveau 9 de compression et zstd avec le niveau 3 (time permet de récupérer le temps nécessaire au traitement de la commande) pour répéter les tests de Meta.

curl -L -o silesia.zip http://sun.aei.polsl.pl/~sdeor/corpus/silesia.zip
python3 -c "import zipfile; zipfile.ZipFile('silesia.zip').extract('sao', '')"
time zli compress sao -o sao.ozl -p sao -f
time xz - 9 -k sao -f
time zstd - 3 -k sao -o sao.zst -f

Nous arrivons bien à un ratio de 2,06, exactement ce qu’annonce Meta. Même chose pour xz avec 1,64x et zstd avec 1,31x. xz est déjà à son niveau maximum de compression, mais pas zstd qui peut monter bien plus haut. Avec un niveau de 22, cela donne un ratio de compression de 1,45x (mais avec un temps de traitement beaucoup plus long), comme on peut le voir dans le graphique ci-dessous.

Passons maintenant aux tests maison !


Il reste 85% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ Nouvelle alerte sur des « tsunamis » de déchets électroniques

L‘organisation non gouvernementale Basel Action Network (BAN) a publié le résultat d’une enquête sur les déchets électroniques de dix entreprises américaines. L’ONG parle d’un « tsunami caché d’exportations de déchets électroniques vers l’Asie ».

Pour BAN, des « volumes importants d’électronique des États-Unis continuent d’être exportés vers des pays qui ont interdit leur importation et manquent souvent de capacités pour les gérer ». Selon leur enquête, cela pourrait représenter « environ 2 000 conteneurs (représentant 32 947 tonnes métriques) qui pourraient être remplis de déchets électroniques abandonnés ».

Parmi les destinations mises en avant par BAN, on retrouve la Malaisie, l’Indonésie, la Thaïlande, les Philippines et les Émirats arabes unis. Dans les entreprises identifiées, Best Buy est citée. Sur les dix entreprises, huit étaient certifiées R2V3 pour… « responsible recycling », affirme l’ONG.

Monstre de consommation numérique s'auto-alimentant

La situation n’a malheureusement rien de nouveau. En 2021 déjà, l’OMS alertait sur un « tsunami de déchets électroniques », comme le rapportait Le Monde. Un exemple au Ghana : « Des adolescents, parfois très jeunes, brûlent les déchets électroniques pour en récupérer le cuivre, le cobalt, le platine et autres métaux précieux. Des fumées noires et âcres rendent l’air irrespirable. Plomb, mercure, arsenic, cadmium se répandent dans le sol, contaminent l’eau », expliquaient nos confrères.

Le Temps parlait aussi de tsunami en 2024, suite à la publication d’un rapport de l’Institut des Nations unies pour la recherche et la formation (Unitar) : « Les « e-déchets » augmentent cinq fois plus vite que leur recyclage ». En 2022, selon le rapport, 62 millions de tonnes d’e-déchets ont été produits, en « hausse de 82 % par rapport à 2010. Ce chiffre est même en passe d’atteindre 82 millions de tonnes d’ici à 2030 ». Il y a de fortes disparités : « un Européen en produit environ sept fois plus qu’un Africain ».

Pour l’ONU, « les métaux – notamment le cuivre, l’or et le fer – représentent la moitié des 62 millions de tonnes, pour une valeur totale de quelque 91 milliards de dollars. Les plastiques représentent 17 millions de tonnes et les 14 millions de tonnes restantes comprennent des substances telles que les matériaux composites et le verre ».

  •  

☕️ Nouvelle alerte sur des « tsunamis » de déchets électroniques

L‘organisation non gouvernementale Basel Action Network (BAN) a publié le résultat d’une enquête sur les déchets électroniques de dix entreprises américaines. L’ONG parle d’un « tsunami caché d’exportations de déchets électroniques vers l’Asie ».

Pour BAN, des « volumes importants d’électronique des États-Unis continuent d’être exportés vers des pays qui ont interdit leur importation et manquent souvent de capacités pour les gérer ». Selon leur enquête, cela pourrait représenter « environ 2 000 conteneurs (représentant 32 947 tonnes métriques) qui pourraient être remplis de déchets électroniques abandonnés ».

Parmi les destinations mises en avant par BAN, on retrouve la Malaisie, l’Indonésie, la Thaïlande, les Philippines et les Émirats arabes unis. Dans les entreprises identifiées, Best Buy est citée. Sur les dix entreprises, huit étaient certifiées R2V3 pour… « responsible recycling », affirme l’ONG.

Monstre de consommation numérique s'auto-alimentant

La situation n’a malheureusement rien de nouveau. En 2021 déjà, l’OMS alertait sur un « tsunami de déchets électroniques », comme le rapportait Le Monde. Un exemple au Ghana : « Des adolescents, parfois très jeunes, brûlent les déchets électroniques pour en récupérer le cuivre, le cobalt, le platine et autres métaux précieux. Des fumées noires et âcres rendent l’air irrespirable. Plomb, mercure, arsenic, cadmium se répandent dans le sol, contaminent l’eau », expliquaient nos confrères.

Le Temps parlait aussi de tsunami en 2024, suite à la publication d’un rapport de l’Institut des Nations unies pour la recherche et la formation (Unitar) : « Les « e-déchets » augmentent cinq fois plus vite que leur recyclage ». En 2022, selon le rapport, 62 millions de tonnes d’e-déchets ont été produits, en « hausse de 82 % par rapport à 2010. Ce chiffre est même en passe d’atteindre 82 millions de tonnes d’ici à 2030 ». Il y a de fortes disparités : « un Européen en produit environ sept fois plus qu’un Africain ».

Pour l’ONU, « les métaux – notamment le cuivre, l’or et le fer – représentent la moitié des 62 millions de tonnes, pour une valeur totale de quelque 91 milliards de dollars. Les plastiques représentent 17 millions de tonnes et les 14 millions de tonnes restantes comprennent des substances telles que les matériaux composites et le verre ».

  •  

T@LC : on a posé 20 fois la même question à une IA, on a eu 5 réponses différentes

Oublie que t'as aucune chance, vas-y fonce ! On sait jamais !
T@LC : on a posé 20 fois la même question à une IA, on a eu 5 réponses différentes

Dans notre nouvel épisode de T@LC (Tests À La Con), nous avons posé 20 fois une même question à Claude, mais n’avons obtenu la bonne réponse que 16 fois. L’intelligence artificielle générative s’est trompée dans ses calculs (elles ne sont pas bonnes dans ce domaine), mais aussi dans son raisonnement.

On en parle à longueur d’actualités, mais un rappel ne peut pas faire de mal : les intelligences artificielles génératives ont deux principaux défauts. Tout d’abord, elles hallucinent plus ou moins régulièrement, c’est-à-dire qu’elles proposent des résultats incorrects ou trompeurs, pour reprendre la notion qui est généralement admise dans cette communauté (sans être une définition absolue).

Le deuxième défaut est étroitement lié au premier : les intelligences artificielles sont probabilistes. Et qui dit probabilité, dit risque d’erreur. C’est aussi simple que cela. En fait, une intelligence artificielle va donner la réponse qu’elle juge la plus probable selon ses modèles mathématiques.

On pourrait très grossièrement résumer en disant que si une IA est fiable à 90 % sur un sujet, elle donnera la bonne réponse 9 fois sur 10 (ce n’est pas si simple, mais c’est une première approche). La dixième fois, elle peut halluciner et répondre complètement à côté de la plaque. Les probabilités peuvent varier, mais de par la construction des modèles, il est impossible de garantir un résultat fiable à 100 % en toutes circonstances.

Une question, vingt réponses : quatre sont fausses

Vous voulez un exemple ? Nous avons posé plusieurs fois une même question à Claude avec le modèle Haiku 4.5 : « Combien de temps faut-il pour consommer 500 Go avec un débit de 50 Mb/s ? ».

Rien de bien compliqué pour un humain : 50 Mb/s c’est équivalent à 6,25 Mo/s (on divise par huit), soit 80 000 secondes pour 500 000 Mo (500 Go) ou bien encore 22,2 heures. C’est également 22 heures, 13 minutes et 33 secondes.

Enfin « rien de compliqué » à condition de s’entendre sur le passage des Go aux Mo. Parle-t-on de 500 000 Mo (500 * 10³) ou bien de 512 000 Mo (500 * 1024 ou 500 * 2¹⁰) pour 500 Go ? Ce n’est pas la question ici, mais avec 512 000 Mo on arrive à 81 920 secondes, soit 22,76 heures ou encore 22 heures, 45 minutes et 33 secondes.

Nous avons posé 20 fois la même question à Claude, en effaçant à chaque fois la conversation précédente et en lançant une nouvelle. Nous avons accordé une bonne réponse aussi bien pour 22h13 que 22h45. Sur les 20 tentatives, l’intelligence artificielle n’a cependant donné la bonne réponse que 16 fois.

Deux fois elle s’est trompée lors des opérations mathématiques, mais le raisonnement était bon, les deux autres fois son raisonnement était faux. Avant de passer aux explications détaillées, voici le bilan de nos 20 questions (identiques) :


Il reste 77% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •