Vue normale

Reçu — 20 avril 2026 Actualités numériques

☕️ Pegasus : la justice française a auditionné deux des cofondateurs de NSO

20 avril 2026 à 15:39


Deux fondateurs de NSO Group, la société israélienne qui a créé le logiciel espion Pegasus (passée sous pavillon étatsunien en novembre dernier), ont été entendus dans le cadre de la procédure judiciaire ouverte sur la surveillance de plusieurs téléphones portables français. Celle-ci avait été lancée en juillet 2022 suite à la plainte déposée par Reporters sans frontières après les révélations faites par le consortium Pegasus Project réunis par l’ONG Forbidden Stories en 2021.

Shalev Hulio, l’ancien CEO de NSO Group a été entendu par le juge Serge Tournaire le 29 janvier dernier et l’autre cofondateur, Omri Lavie a été auditionné en février. Les deux hommes ont déjà quitté l’entreprise. « Nous vendons la boîte noire au client et nous n’y avons pas accès », a assuré Shalev Hulio au juge, selon Médiapart, tout en reconnaissant que l’entreprise pouvait accéder aux logs des activités de ses clients dans certaines conditions et qu’elle pouvait suspendre l’accès en cas de violation de ses conditions d’utilisation.

NSO Group
NSO Group

Serge Tournaire a obtenu de la Direction générale de la Sécurité extérieure (DGSE) qu’elle verse au dossier une note datée de novembre 2022 résumant ses connaissances sur l’entreprise et son logiciel espion. Elle y explique « le fait que NSO, et éventuellement Israël, connaît les pays ciblés par ses clients » et « estime hautement probable que NSO, et éventuellement Israël, connaissent les téléphones ciblés par son outil, voire les données qui en sont exfiltrées ».

En France, 23 personnes ont déposé plainte sur le sujet dont l’ancienne ministre des Armées Florence Parly mais aussi des journalistes de Médiapart comme Edwy Plenel et Lénaïg Bredoux ou l’ancienne journaliste du Canard enchainé Dominique Simonnot. Selon Médiapart, l’avocat d’Omri Lavie a affirmé au juge Tournaire qu’aucune personnalité française n’avait été espionnée à l’aide de Pegasus, défaussant la responsabilité d’espionnages évoqués dans la presse à des concurrents.

Les deux co-fondateurs ont été placés sous le statut de témoins assistés à l’issue de leur audition. Auprès de Médiapart, les avocats de plusieurs parties civiles, William Bourdon et Vincent Brengarth, considèrent ce placement comme « une avancée au regard de l’absence de coopération d’Israël et de l’opacité dans laquelle les faits se sont déroulés », tout en ajoutant qu’ « il est raisonnable de penser que le dossier est très loin d’être terminé. D’autres évolutions doivent être envisagées ».

☕️ Pegasus : la justice française a auditionné deux des cofondateurs de NSO

20 avril 2026 à 15:39


Deux fondateurs de NSO Group, la société israélienne qui a créé le logiciel espion Pegasus (passée sous pavillon étatsunien en novembre dernier), ont été entendus dans le cadre de la procédure judiciaire ouverte sur la surveillance de plusieurs téléphones portables français. Celle-ci avait été lancée en juillet 2022 suite à la plainte déposée par Reporters sans frontières après les révélations faites par le consortium Pegasus Project réunis par l’ONG Forbidden Stories en 2021.

Shalev Hulio, l’ancien CEO de NSO Group a été entendu par le juge Serge Tournaire le 29 janvier dernier et l’autre cofondateur, Omri Lavie a été auditionné en février. Les deux hommes ont déjà quitté l’entreprise. « Nous vendons la boîte noire au client et nous n’y avons pas accès », a assuré Shalev Hulio au juge, selon Médiapart, tout en reconnaissant que l’entreprise pouvait accéder aux logs des activités de ses clients dans certaines conditions et qu’elle pouvait suspendre l’accès en cas de violation de ses conditions d’utilisation.

NSO Group
NSO Group

Serge Tournaire a obtenu de la Direction générale de la Sécurité extérieure (DGSE) qu’elle verse au dossier une note datée de novembre 2022 résumant ses connaissances sur l’entreprise et son logiciel espion. Elle y explique « le fait que NSO, et éventuellement Israël, connaît les pays ciblés par ses clients » et « estime hautement probable que NSO, et éventuellement Israël, connaissent les téléphones ciblés par son outil, voire les données qui en sont exfiltrées ».

En France, 23 personnes ont déposé plainte sur le sujet dont l’ancienne ministre des Armées Florence Parly mais aussi des journalistes de Médiapart comme Edwy Plenel et Lénaïg Bredoux ou l’ancienne journaliste du Canard enchainé Dominique Simonnot. Selon Médiapart, l’avocat d’Omri Lavie a affirmé au juge Tournaire qu’aucune personnalité française n’avait été espionnée à l’aide de Pegasus, défaussant la responsabilité d’espionnages évoqués dans la presse à des concurrents.

Les deux co-fondateurs ont été placés sous le statut de témoins assistés à l’issue de leur audition. Auprès de Médiapart, les avocats de plusieurs parties civiles, William Bourdon et Vincent Brengarth, considèrent ce placement comme « une avancée au regard de l’absence de coopération d’Israël et de l’opacité dans laquelle les faits se sont déroulés », tout en ajoutant qu’ « il est raisonnable de penser que le dossier est très loin d’être terminé. D’autres évolutions doivent être envisagées ».

La baisse du budget du CNRS, « une rupture » dans le financement de la recherche française

20 avril 2026 à 14:29
Désorganisation scientifique
La baisse du budget du CNRS, « une rupture » dans le financement de la recherche française

Les agents du CNRS s’alarment d’une nouvelle coupe budgétaire : « On assiste à un net désengagement de l’État ». La France est-elle en train de suivre le chemin tracé par Donald Trump aux États-Unis ? Nous sommes en tout cas à contre-courant de la Chine qui renforce ses investissements dans la recherche.

« Ce qui se joue n’est pas un ajustement budgétaire. C’est une rupture », explique le texte signé par 735 agents du CNRS, dont 540 directrices et directeurs d’unité.

Le PDG de l’organisme de recherche, Antoine Petit, a annoncé récemment en interne que « le cabinet du Premier ministre a demandé au CNRS de présenter un budget rectificatif incluant une diminution des prévisions de dépenses de 20 M€ afin de conserver une trésorerie non fléchée de quelques dizaines de millions d’euros en fin d’exercice 2026 ». Dans ces 20 millions d’euros, 13,5 sont pris sur les dépenses des laboratoires, 6,5 sont économisés sur des investissements immobiliers.

Il a donné cette information aux salariés du CNRS quelques semaines après avoir été reconduit en tant que PDG, cette fois par intérim. Antoine Petit a épuisé la possibilité d’être de nouveau pleinement à la tête de l’organisme de recherche après avoir été nommé deux fois par Emmanuel Macron à ce poste. Mais la nomination de son successeur prend plus de temps que prévu dans ce contexte de baisse drastique de financement de la recherche.

Ponctionné de plus d’un demi-milliard d’euros en 2 ans

Car si Antoine Petit annonce une baisse de 20 millions d’euros, celle-ci n’est pas la première. Le texte des agents du CNRS la remet en contexte : « En l’espace de deux ans, le CNRS a vu son budget et sa trésorerie ponctionnés de plus d’un demi-milliard d’euros, du fait notamment de charges nouvelles décidées par le gouvernement qui ne sont pas compensées ».

« Contrairement à une idée répandue, les budgets des laboratoires ne financent pas une abstraction. Ils permettent de travailler. Ils servent à acheter des équipements, à mener des expériences, à accueillir des doctorantes et doctorants et des jeunes chercheuses et chercheurs, à échanger avec des collègues étrangers, à faire vivre une communauté scientifique. Les réduire, c’est arrêter concrètement des recherches », expliquent-ils.

À Challenges, Antoine Petit affirme que « jusqu’à présent le CNRS avait trouvé des marges de manœuvre permettant ne pas répercuter la contrainte budgétaire sur les moyens financiers alloués aux laboratoires, mais c’est désormais malheureusement impossible ».

Un collectif de directeurs de laboratoire de mathématiques a publié une tribune dans Le Monde mardi 14 avril dans laquelle il s’alarme de cette réduction supplémentaire de 20 millions d’euros. « De manière très concrète, en mathématiques, le budget qui a déjà été versé aux laboratoires pour 2026 sera ponctionné de plus de 8 %. […] Un quart de l’exercice 2026 est déjà écoulé et les engagements prévus sont brutalement remis en cause ».

Désorganisation et désengagement aux États-Unis et en France, investissement en Chine

L’année dernière, aux États-Unis, l’administration Trump avait chargé le DOGE de couper dans le budget des agences scientifiques en les désorganisant brutalement et en poussant la NASA, la NOAA ou encore la National Science Foundation à licencier massivement.

Dans leur tribune, les mathématiciens du CNRS constatent qu’en France aussi, « on assiste à un net désengagement de l’État. Cette situation touche aussi les universités et l’ensemble des organismes de recherche » en dépit de la loi de programmation pluriannuelle de la recherche votée sous le premier mandat d’Emmanuel Macron qui devait « mieux financer et évaluer la recherche publique, améliorer l’attractivité des métiers de la recherche et replacer la science dans une relation ouverte avec toute la société », expliquent-ils.

Ils ajoutent que « la recherche publique est un investissement pour le futur, dont il faut assumer le caractère imprévisible ». « La diminution du budget du CNRS renforce encore, dans le financement de la recherche, le poids des appels à projets, ciblés et peu ouverts à l’inattendu », expliquent ces chercheurs en mathématiques.

Ils pointent aussi que « pendant qu’en France, l’État impose une baisse drastique des budgets de ses fleurons de la recherche, la Chine […] annonce une hausse de 10 % du budget gouvernemental consacré à la recherche scientifique ».

Fin 2023, le président de la République avait voulu reprendre la main pour une énième réforme du milieu de la recherche publique qui devait tout chambouler en transformant les organismes scientifiques en « agences de programmes » et renforcer ainsi le poids de la gestion de la recherche par les appels à projets. Si leurs directions ont mis en place des changements pour aller dans ce sens, aucun texte de loi n’a finalement éclairci la nouvelle orientation voulue par Emmanuel Macron.

Mais ces coupes dans les budgets récurrents des infrastructures scientifiques et l’obligation de passer par des appels à projets poussent toutes les équipes de recherche à fonctionner avec des bouts de ficelle administratifs : « Avec la baisse de 10 %, il va nous manquer 3 000 euros pour payer le contrat de travail de six mois qu’on a fait à un jeune postdoctorant. Ceux qui avaient encore des crédits dans notre unité vont être solidaires et nous prêter l’argent au détriment d’autres projets », explique l’océanographe et directrice de recherche au CNRS Katell Guizien à Reporterre.

La baisse du budget du CNRS, « une rupture » dans le financement de la recherche française

20 avril 2026 à 14:29
Désorganisation scientifique
La baisse du budget du CNRS, « une rupture » dans le financement de la recherche française

Les agents du CNRS s’alarment d’une nouvelle coupe budgétaire : « On assiste à un net désengagement de l’État ». La France est-elle en train de suivre le chemin tracé par Donald Trump aux États-Unis ? Nous sommes en tout cas à contre-courant de la Chine qui renforce ses investissements dans la recherche.

« Ce qui se joue n’est pas un ajustement budgétaire. C’est une rupture », explique le texte signé par 735 agents du CNRS, dont 540 directrices et directeurs d’unité.

Le PDG de l’organisme de recherche, Antoine Petit, a annoncé récemment en interne que « le cabinet du Premier ministre a demandé au CNRS de présenter un budget rectificatif incluant une diminution des prévisions de dépenses de 20 M€ afin de conserver une trésorerie non fléchée de quelques dizaines de millions d’euros en fin d’exercice 2026 ». Dans ces 20 millions d’euros, 13,5 sont pris sur les dépenses des laboratoires, 6,5 sont économisés sur des investissements immobiliers.

Il a donné cette information aux salariés du CNRS quelques semaines après avoir été reconduit en tant que PDG, cette fois par intérim. Antoine Petit a épuisé la possibilité d’être de nouveau pleinement à la tête de l’organisme de recherche après avoir été nommé deux fois par Emmanuel Macron à ce poste. Mais la nomination de son successeur prend plus de temps que prévu dans ce contexte de baisse drastique de financement de la recherche.

Ponctionné de plus d’un demi-milliard d’euros en 2 ans

Car si Antoine Petit annonce une baisse de 20 millions d’euros, celle-ci n’est pas la première. Le texte des agents du CNRS la remet en contexte : « En l’espace de deux ans, le CNRS a vu son budget et sa trésorerie ponctionnés de plus d’un demi-milliard d’euros, du fait notamment de charges nouvelles décidées par le gouvernement qui ne sont pas compensées ».

« Contrairement à une idée répandue, les budgets des laboratoires ne financent pas une abstraction. Ils permettent de travailler. Ils servent à acheter des équipements, à mener des expériences, à accueillir des doctorantes et doctorants et des jeunes chercheuses et chercheurs, à échanger avec des collègues étrangers, à faire vivre une communauté scientifique. Les réduire, c’est arrêter concrètement des recherches », expliquent-ils.

À Challenges, Antoine Petit affirme que « jusqu’à présent le CNRS avait trouvé des marges de manœuvre permettant ne pas répercuter la contrainte budgétaire sur les moyens financiers alloués aux laboratoires, mais c’est désormais malheureusement impossible ».

Un collectif de directeurs de laboratoire de mathématiques a publié une tribune dans Le Monde mardi 14 avril dans laquelle il s’alarme de cette réduction supplémentaire de 20 millions d’euros. « De manière très concrète, en mathématiques, le budget qui a déjà été versé aux laboratoires pour 2026 sera ponctionné de plus de 8 %. […] Un quart de l’exercice 2026 est déjà écoulé et les engagements prévus sont brutalement remis en cause ».

Désorganisation et désengagement aux États-Unis et en France, investissement en Chine

L’année dernière, aux États-Unis, l’administration Trump avait chargé le DOGE de couper dans le budget des agences scientifiques en les désorganisant brutalement et en poussant la NASA, la NOAA ou encore la National Science Foundation à licencier massivement.

Dans leur tribune, les mathématiciens du CNRS constatent qu’en France aussi, « on assiste à un net désengagement de l’État. Cette situation touche aussi les universités et l’ensemble des organismes de recherche » en dépit de la loi de programmation pluriannuelle de la recherche votée sous le premier mandat d’Emmanuel Macron qui devait « mieux financer et évaluer la recherche publique, améliorer l’attractivité des métiers de la recherche et replacer la science dans une relation ouverte avec toute la société », expliquent-ils.

Ils ajoutent que « la recherche publique est un investissement pour le futur, dont il faut assumer le caractère imprévisible ». « La diminution du budget du CNRS renforce encore, dans le financement de la recherche, le poids des appels à projets, ciblés et peu ouverts à l’inattendu », expliquent ces chercheurs en mathématiques.

Ils pointent aussi que « pendant qu’en France, l’État impose une baisse drastique des budgets de ses fleurons de la recherche, la Chine […] annonce une hausse de 10 % du budget gouvernemental consacré à la recherche scientifique ».

Fin 2023, le président de la République avait voulu reprendre la main pour une énième réforme du milieu de la recherche publique qui devait tout chambouler en transformant les organismes scientifiques en « agences de programmes » et renforcer ainsi le poids de la gestion de la recherche par les appels à projets. Si leurs directions ont mis en place des changements pour aller dans ce sens, aucun texte de loi n’a finalement éclairci la nouvelle orientation voulue par Emmanuel Macron.

Mais ces coupes dans les budgets récurrents des infrastructures scientifiques et l’obligation de passer par des appels à projets poussent toutes les équipes de recherche à fonctionner avec des bouts de ficelle administratifs : « Avec la baisse de 10 %, il va nous manquer 3 000 euros pour payer le contrat de travail de six mois qu’on a fait à un jeune postdoctorant. Ceux qui avaient encore des crédits dans notre unité vont être solidaires et nous prêter l’argent au détriment d’autres projets », explique l’océanographe et directrice de recherche au CNRS Katell Guizien à Reporterre.

☕️ [MàJ] Fuite de données à France Titres : au moins 11,7 millions de comptes touchés

22 avril 2026 à 06:09


Le site du gouvernement français vous permettant d’effectuer vos démarches de passeport, carte d’identité, permis de conduire et carte grise a subi un « incident de sécurité », selon un email que le service a envoyé à des utilisateurs.

Dans son communiqué de presse publié ce mardi 21 avril, le ministère de l’Intérieur annonce le chiffre de 11,7 millions de comptes concernés.

L’agence nationale des titres sécurisés (ANTS) qui le gère s’en est aperçue le mercredi 15 avril dernier. Elle leur indique que les données personnelles concernées sont, entre autres :

  • « les données relatives à [leur] état civil (nom et prénom) ;
  • les identifiants de connexion (identifiant de compte et adresse mail) ;
  • et d’autres données présentes uniquement dans certains comptes (adresse postale et numéro de téléphone). »

L’ANTS assure qu’elle a pris « toutes les mesures nécessaires » depuis et que « les données transmises dans le cadre de vos démarches de passeport, carte d’identité, permis de conduire et carte grise (numéro de demande, statut de demande, pièces justificatives, photographies) ne sont, par ailleurs, pas concernées par cet incident ».

Le communiqué de presse envoyé par le ministère de l’Intérieur à l’AFP détaille un peu plus : « sous réserve des investigations en cours, s’agissant des comptes particuliers, les données à caractère personnel concernées seraient des données d’identification : identifiant de connexion, civilité, nom, prénoms, adresse électronique, date de naissance, identifiant unique du compte ; et, le cas échéant, d’autres données qui ne sont pas systématiquement présentes dans les comptes : adresse postale, lieu de naissance, téléphone ».

Il précise aussi que « la divulgation des données ne concerne pas les données complémentaires transmises dans le cadre de la réalisation des différentes démarches, telles que les pièces jointes. Ces données personnelles ne permettent pas d’accès illégitime au compte du portail ».

L’agence ajoute dans son email avoir notifié la CNIL de l’incident et que le ministère de l’Intérieur a transmis un signalement à la Procureure de la République de Paris en application de l’article 40 du code de procédure pénale en vue de l’ouverture d’une enquête.

Elle affirme aux utilisateurs qu’ils n’ont aucune démarche à effectuer mais leur conseille de redoubler de vigilance concernant les tentatives de phishing.

Le communiqué du ministère explique aussi que les investigations doivent encore déterminer précisément l’origine de l’incident ainsi que son ampleur.

En septembre dernier, l’ANTS avait enquêté sur une fuite de données revendiquée par des pirates, sans trouver de trace d’intrusion tout en affirmant que l’échantillon mis en ligne présentait de « nombreuses incohérences ». France Titres ajoutait que, « en tant qu’opérateur du ministère de l’Intérieur manipulant des données sensibles, l’ANTS fait l’objet de mesures de sécurité renforcées et d’une vigilance permanente des services de l’État contre toute intrusion, physique ou informatique ». Cette fois, c’est officiel, les défenses sont tombées.

Ce n’est malheureusement pas la première fois de l’année qu’une institution française subit une fuite de ce genre. Ainsi l’Urssaf a subi une fuite en janvier concernant 12 millions de victimes potentielles, des données du CNRS ont été récupérées en février dernier, celles du système d’information sur les armes du ministère de l’Intérieur en mars

☕️ [MàJ] Fuite de données à France Titres : au moins 11,7 millions de comptes touchés

22 avril 2026 à 06:09


Le site du gouvernement français vous permettant d’effectuer vos démarches de passeport, carte d’identité, permis de conduire et carte grise a subi un « incident de sécurité », selon un email que le service a envoyé à des utilisateurs.

Dans son communiqué de presse publié ce mardi 21 avril, le ministère de l’Intérieur annonce le chiffre de 11,7 millions de comptes concernés.

L’agence nationale des titres sécurisés (ANTS) qui le gère s’en est aperçue le mercredi 15 avril dernier. Elle leur indique que les données personnelles concernées sont, entre autres :

  • « les données relatives à [leur] état civil (nom et prénom) ;
  • les identifiants de connexion (identifiant de compte et adresse mail) ;
  • et d’autres données présentes uniquement dans certains comptes (adresse postale et numéro de téléphone). »

L’ANTS assure qu’elle a pris « toutes les mesures nécessaires » depuis et que « les données transmises dans le cadre de vos démarches de passeport, carte d’identité, permis de conduire et carte grise (numéro de demande, statut de demande, pièces justificatives, photographies) ne sont, par ailleurs, pas concernées par cet incident ».

Le communiqué de presse envoyé par le ministère de l’Intérieur à l’AFP détaille un peu plus : « sous réserve des investigations en cours, s’agissant des comptes particuliers, les données à caractère personnel concernées seraient des données d’identification : identifiant de connexion, civilité, nom, prénoms, adresse électronique, date de naissance, identifiant unique du compte ; et, le cas échéant, d’autres données qui ne sont pas systématiquement présentes dans les comptes : adresse postale, lieu de naissance, téléphone ».

Il précise aussi que « la divulgation des données ne concerne pas les données complémentaires transmises dans le cadre de la réalisation des différentes démarches, telles que les pièces jointes. Ces données personnelles ne permettent pas d’accès illégitime au compte du portail ».

L’agence ajoute dans son email avoir notifié la CNIL de l’incident et que le ministère de l’Intérieur a transmis un signalement à la Procureure de la République de Paris en application de l’article 40 du code de procédure pénale en vue de l’ouverture d’une enquête.

Elle affirme aux utilisateurs qu’ils n’ont aucune démarche à effectuer mais leur conseille de redoubler de vigilance concernant les tentatives de phishing.

Le communiqué du ministère explique aussi que les investigations doivent encore déterminer précisément l’origine de l’incident ainsi que son ampleur.

En septembre dernier, l’ANTS avait enquêté sur une fuite de données revendiquée par des pirates, sans trouver de trace d’intrusion tout en affirmant que l’échantillon mis en ligne présentait de « nombreuses incohérences ». France Titres ajoutait que, « en tant qu’opérateur du ministère de l’Intérieur manipulant des données sensibles, l’ANTS fait l’objet de mesures de sécurité renforcées et d’une vigilance permanente des services de l’État contre toute intrusion, physique ou informatique ». Cette fois, c’est officiel, les défenses sont tombées.

Ce n’est malheureusement pas la première fois de l’année qu’une institution française subit une fuite de ce genre. Ainsi l’Urssaf a subi une fuite en janvier concernant 12 millions de victimes potentielles, des données du CNRS ont été récupérées en février dernier, celles du système d’information sur les armes du ministère de l’Intérieur en mars

☕️ OpenAI : trois départs successifs après l’arrêt de Sora

20 avril 2026 à 08:15


Alors qu’OpenAI a abandonné Sora le mois dernier, le responsable du projet en interne, Bill Peebles, a annoncé son départ de l’entreprise.

« Sora était un projet qui n’aurait pu voir le jour nulle part ailleurs qu’à OpenAI, et c’est pour cette raison que j’aimerai toujours profondément cet endroit », affirme-t-il dans un long message posté sur X vendredi 17 avril. « OpenAI fait preuve d’une grande tolérance envers les projets ambitieux et farfelus, mais dès juillet 2023, beaucoup doutaient qu’il fût possible de parvenir à une génération de plusieurs plans en haute définition 1080p en moins d’un an, compte tenu de l’état actuel du secteur de la vidéo dans son ensemble. Nous y sommes parvenus sept mois plus tard », ajoute-t-il, même si le service a été arrêté un an après.

Le même jour, le responsable de « OpenAI for Science » Kevin Weil a aussi annoncé qu’il partait. Son service, qui avait lancé l’éditeur de LaTex Prism et le modèle GPT‑Rosalind, est dissous et sera redispatché dans d’autres équipes, a-t-il annoncé sur X.

Enfin, Srinivas Narayanan, le responsable technique des applications B2B d’OpenAI les a suivis le lendemain. « Diriger l’équipe d’ingénierie B2B a été un immense privilège. Compte tenu des lancements de produits récents et à venir, j’ai estimé que le moment était venu de prendre du recul », affirme-t-il de son côté.

Ces départs suivent l’annonce d’une réorganisation agitée chez OpenAI à la veille d’une possible entrée en bourse dans l’année.

☕️ OpenAI : trois départs successifs après l’arrêt de Sora

20 avril 2026 à 08:15


Alors qu’OpenAI a abandonné Sora le mois dernier, le responsable du projet en interne, Bill Peebles, a annoncé son départ de l’entreprise.

« Sora était un projet qui n’aurait pu voir le jour nulle part ailleurs qu’à OpenAI, et c’est pour cette raison que j’aimerai toujours profondément cet endroit », affirme-t-il dans un long message posté sur X vendredi 17 avril. « OpenAI fait preuve d’une grande tolérance envers les projets ambitieux et farfelus, mais dès juillet 2023, beaucoup doutaient qu’il fût possible de parvenir à une génération de plusieurs plans en haute définition 1080p en moins d’un an, compte tenu de l’état actuel du secteur de la vidéo dans son ensemble. Nous y sommes parvenus sept mois plus tard », ajoute-t-il, même si le service a été arrêté un an après.

Le même jour, le responsable de « OpenAI for Science » Kevin Weil a aussi annoncé qu’il partait. Son service, qui avait lancé l’éditeur de LaTex Prism et le modèle GPT‑Rosalind, est dissous et sera redispatché dans d’autres équipes, a-t-il annoncé sur X.

Enfin, Srinivas Narayanan, le responsable technique des applications B2B d’OpenAI les a suivis le lendemain. « Diriger l’équipe d’ingénierie B2B a été un immense privilège. Compte tenu des lancements de produits récents et à venir, j’ai estimé que le moment était venu de prendre du recul », affirme-t-il de son côté.

Ces départs suivent l’annonce d’une réorganisation agitée chez OpenAI à la veille d’une possible entrée en bourse dans l’année.

Reçu — 17 avril 2026 Actualités numériques

UE : la Commission a copié/collé les lobbys pour cacher les données sur les datacenters

17 avril 2026 à 15:05
Discrétion assistée par la loi
UE : la Commission a copié/collé les lobbys pour cacher les données sur les datacenters

En 2024, Microsoft et le lobby bruxellois de la tech DigitalEurope ont obtenu que les données de consommation des datacenters de plus de 500 kW récoltées par la Commission européenne ne soient pas rendues publiques. Le consortium Investigate Europe montre que les amendements au texte européen réglementant ces informations sont des reprises quasiment mot pour mot des propositions qu’ils ont faites.

Il y a trois ans, en 2023, l’Union européenne a voulu réviser sa législation sur l’efficacité énergétique et introduire une obligation d’information sur la consommation des data centers qui dépassent les 500 kW de puissance. Mais Microsoft et le lobby bruxellois de la tech DigitalEurope ont réussi à faire intégrer à la Commission des amendements quasiment copiés/collés interdisant toute publication de ces données par l’Europe et ses États membres, a découvert le consortium journalistique Investigate Europe.

Les données sur la consommation des data centers font l’objet d’intenses débats sur leur impact environnemental. Dans leurs rapports environnementaux maison, les grandes entreprises de la tech font leurs arrangements (plus ou moins importants), rendant impossible leur interprétation. Les projets de création de data centers font de plus en plus face à des résistances, mais il est difficile d’objectiver le débat avec le peu d’informations sur la réalité du terrain de ces installations.

Dans ce sens, la volonté exprimée par une première version du texte de révision aurait pu grandement aider l’information du public sur le sujet. En effet, le texte prévoyait un inventaire des informations sur les data centers de plus de 500 kW situés en Europe comportant au moins leur localisation et des indicateurs de performance sur la consommation d’énergie, la valorisation de la chaleur résiduelle, la consommation d’eau et l’utilisation d’énergies renouvelables. Et, selon cette première version, la Commission devait rendre publique cette base de données sous forme agrégée.

Ensuite, comme le prévoit le processus, la Commission a recueilli les commentaires des parties concernées et notamment des différents lobbys. Ainsi, Microsoft [PDF] et le lobby DigitalEurope (dont les membres sont par exemple Meta, CapGemini, Microsoft, NVIDIA ou encore Google) [PDF] ont tous deux proposé un amendement pour classifier les informations concernant les data centers.

Des propositions d’amendements adoptées mot pour mot

Et, dans l’article 5 du texte final, ces amendements ont été adoptés quasiment mot pour mot. Ainsi, le texte prévoit, comme le demandaient Microsoft et DigitalEurope, que « les informations relatives aux centres de données, qui sont soumises au droit de l’Union et au droit national en matière de protection des secrets d’affaires et de confidentialité, ne doivent pas être rendues publiques. L’article 12, paragraphe 3, exige en outre que la base de données européenne soit accessible au public sous forme agrégée. Il est donc nécessaire de veiller à ce que les indicateurs clés de performance et les autres informations communiquées à la base de données européenne restent confidentiels ».

A aussi été ajouté que « la Commission et les États membres concernés préservent la confidentialité de toutes les informations et de tous les indicateurs clés de performance relatifs aux centres de données individuels qui sont communiqués à la base de données conformément à l’article 3. Ces informations sont considérées comme des informations confidentielles touchant aux intérêts commerciaux des exploitants et des propriétaires de centres de données », comme le demandaient les entreprises de la tech mot pour mot ou presque.

Nos confrères expliquent que les États membres de l’Union européenne ont aussi été vivement encouragés par la Commission à refuser toute demande d’accès à ces informations dans un email envoyé début 2025 [PDF].

Selon le chercheur en droit de l’environnement de l’université d’Opole, Jerzy Jendrośka, consulté par Investigate Europe, cette clause de confidentialité pourrait violer les règles de transparence édictées par la Convention d’Aarhus. « En vingt ans, je ne me souviens pas d’un cas similaire », explique-t-il, « Cela ne semble manifestement pas conforme à la convention ».

UE : la Commission a copié/collé les lobbys pour cacher les données sur les datacenters

17 avril 2026 à 15:05
Discrétion assistée par la loi
UE : la Commission a copié/collé les lobbys pour cacher les données sur les datacenters

En 2024, Microsoft et le lobby bruxellois de la tech DigitalEurope ont obtenu que les données de consommation des datacenters de plus de 500 kW récoltées par la Commission européenne ne soient pas rendues publiques. Le consortium Investigate Europe montre que les amendements au texte européen réglementant ces informations sont des reprises quasiment mot pour mot des propositions qu’ils ont faites.

Il y a trois ans, en 2023, l’Union européenne a voulu réviser sa législation sur l’efficacité énergétique et introduire une obligation d’information sur la consommation des data centers qui dépassent les 500 kW de puissance. Mais Microsoft et le lobby bruxellois de la tech DigitalEurope ont réussi à faire intégrer à la Commission des amendements quasiment copiés/collés interdisant toute publication de ces données par l’Europe et ses États membres, a découvert le consortium journalistique Investigate Europe.

Les données sur la consommation des data centers font l’objet d’intenses débats sur leur impact environnemental. Dans leurs rapports environnementaux maison, les grandes entreprises de la tech font leurs arrangements (plus ou moins importants), rendant impossible leur interprétation. Les projets de création de data centers font de plus en plus face à des résistances, mais il est difficile d’objectiver le débat avec le peu d’informations sur la réalité du terrain de ces installations.

Dans ce sens, la volonté exprimée par une première version du texte de révision aurait pu grandement aider l’information du public sur le sujet. En effet, le texte prévoyait un inventaire des informations sur les data centers de plus de 500 kW situés en Europe comportant au moins leur localisation et des indicateurs de performance sur la consommation d’énergie, la valorisation de la chaleur résiduelle, la consommation d’eau et l’utilisation d’énergies renouvelables. Et, selon cette première version, la Commission devait rendre publique cette base de données sous forme agrégée.

Ensuite, comme le prévoit le processus, la Commission a recueilli les commentaires des parties concernées et notamment des différents lobbys. Ainsi, Microsoft [PDF] et le lobby DigitalEurope (dont les membres sont par exemple Meta, CapGemini, Microsoft, NVIDIA ou encore Google) [PDF] ont tous deux proposé un amendement pour classifier les informations concernant les data centers.

Des propositions d’amendements adoptées mot pour mot

Et, dans l’article 5 du texte final, ces amendements ont été adoptés quasiment mot pour mot. Ainsi, le texte prévoit, comme le demandaient Microsoft et DigitalEurope, que « les informations relatives aux centres de données, qui sont soumises au droit de l’Union et au droit national en matière de protection des secrets d’affaires et de confidentialité, ne doivent pas être rendues publiques. L’article 12, paragraphe 3, exige en outre que la base de données européenne soit accessible au public sous forme agrégée. Il est donc nécessaire de veiller à ce que les indicateurs clés de performance et les autres informations communiquées à la base de données européenne restent confidentiels ».

A aussi été ajouté que « la Commission et les États membres concernés préservent la confidentialité de toutes les informations et de tous les indicateurs clés de performance relatifs aux centres de données individuels qui sont communiqués à la base de données conformément à l’article 3. Ces informations sont considérées comme des informations confidentielles touchant aux intérêts commerciaux des exploitants et des propriétaires de centres de données », comme le demandaient les entreprises de la tech mot pour mot ou presque.

Nos confrères expliquent que les États membres de l’Union européenne ont aussi été vivement encouragés par la Commission à refuser toute demande d’accès à ces informations dans un email envoyé début 2025 [PDF].

Selon le chercheur en droit de l’environnement de l’université d’Opole, Jerzy Jendrośka, consulté par Investigate Europe, cette clause de confidentialité pourrait violer les règles de transparence édictées par la Convention d’Aarhus. « En vingt ans, je ne me souviens pas d’un cas similaire », explique-t-il, « Cela ne semble manifestement pas conforme à la convention ».

OpenAI récupère le prénom de Rosalind Franklin pour son modèle spécialisé en biologie

17 avril 2026 à 11:38
Dans son ADN
OpenAI récupère le prénom de Rosalind Franklin pour son modèle spécialisé en biologie

Avec GPT‑Rosalind, OpenAI veut encore affirmer que ses outils peuvent être utiles aux chercheurs mais surtout aux industries pharmaceutiques et biomédicales. L’entreprise de Sam Altman utilise aussi le prénom d’une chercheuse, Rosalind Franklin, dont le travail a été pillé par ses confrères qui ont eu le prix Nobel qu’elle n’a pas obtenu.

Alors qu’OpenAI vient de mettre à jour Codex pour poser la fondation de sa « superapp », l’entreprise de Sam Altman veut afficher son potentiel dans les industries pharmaceutique, médicale et biochimique en présentant un nouveau modèle : GPT‑Rosalind.

Depuis quelque temps déjà, OpenAI veut absolument nous faire croire que ses modèles d’IA générative ont le niveau d’un chercheur. En novembre dernier, l’entreprise publiait une compilation de témoignages de chercheurs qu’elle avait édités sous forme d’un article scientifique pour vanter les mérites de GPT-5. À l’époque, OpenAI mettait en avant la résolution de problèmes mathématiques… qui avaient déjà été résolus par des humains, revendiquant donc des découvertes effectuées par d’autres.

Le créateur de ChatGPT assure désormais que son nouveau modèle peut améliorer le « workflow » des biologistes, biochimistes et bioinformaticiens pour « explorer davantage de possibilités, à mettre en évidence des liens qui auraient pu passer inaperçus et à formuler plus rapidement de meilleures hypothèses ».

« À terme, ces systèmes pourraient aider les organismes du secteur des sciences de la vie à réaliser des avancées qui seraient impossibles autrement, avec un taux de réussite bien plus élevé », promet l’entreprise sans pour autant expliquer comment.

L’instrumentalisation du prénom de Rosalind Franklin

Pour nommer ce modèle fine-tuné pour les biologistes, OpenAI utilise le prénom de Rosalind Franklin, qui avait co-découvert la structure hélicoïdale de l’ADN. « Ce modèle porte le nom de Rosalind Franklin, dont les recherches rigoureuses ont contribué à élucider la structure de l’ADN et ont jeté les bases de la biologie moléculaire moderne », affirme l’entreprise.

Cette biologiste n’avait pas reçu le prix Nobel pour cette découverte, contrairement à James Dewey Watson, Francis Crick et Maurice Wilkins, alors qu’on sait maintenant que ses travaux ont été cruciaux et que Watson et Crick les ont utilisés sans la créditer correctement.

Plusieurs chercheurs font remarquer l’ironie qu’une entreprise, dont l’entrainement des modèles s’appuie massivement sur les travaux des autres sans les citer, rende hommage à une chercheuse qui a longtemps été invisibilisée.

On peut aussi ajouter que, contrairement aux habitudes, par exemple avec Watson chez IBM, l’entreprise n’utilise pas le nom de Rosalind Franklin mais seulement son prénom. Mais ce n’est pas le premier « hommage » de la sorte que l’entreprise met en avant : rappelons-nous de son utilisation du style du réalisateur anti-IA Hayao Miyazaki pour la promotion de ses modèles.

Des collaborations avec des acteurs majeurs du domaine

Concernant son utilisation, GPT‑Rosalind doit, selon OpenAI, permettre aux chercheurs en biologie de faire de l’analyse de données, ou encore de pouvoir fouiller dans la littérature scientifique existante pour construire de nouvelles expériences scientifiques. Mais l’entreprise n’explique pas quelles données elle a utilisées pour affiner son modèle.

La recherche étant, par défaut, en perpétuelle évolution, le modèle en lui-même ne suffira pas à avoir un outil adapté à l’état de l’art et l’utilisation du RAG (Retrieval-augmented generation) et d’autres techniques seront sans doute nécessaires. Néanmoins, OpenAI affiche travailler avec des entreprises du secteur comme Novo Nordisk, Thermo Fischer ou Moderna pour intégrer son modèle dans leurs processus de recherche.

OpenAI met en avant des benchmarks qui, bien sûr, affichent GPT‑Rosalind au top dans son domaine, comparé à Gemini 3.1 pro, Grok 4.2 et à ses autres modèles. Mais pour BixBench, le seul pour lequel la startup donne des chiffres, la performance ne semble pas si exceptionnelle comparée à celle d’un GPT5.4 non spécialisé :

Pour accéder au modèle, les entreprises et organisations qui le voudraient doivent faire une demande via un formulaire. OpenAI met par contre en avant des plugins pour la recherche en bio avec Codex accessibles sur son GitHub.

OpenAI récupère le prénom de Rosalind Franklin pour son modèle spécialisé en biologie

17 avril 2026 à 11:38
Dans son ADN
OpenAI récupère le prénom de Rosalind Franklin pour son modèle spécialisé en biologie

Avec GPT‑Rosalind, OpenAI veut encore affirmer que ses outils peuvent être utiles aux chercheurs mais surtout aux industries pharmaceutiques et biomédicales. L’entreprise de Sam Altman utilise aussi le prénom d’une chercheuse, Rosalind Franklin, dont le travail a été pillé par ses confrères qui ont eu le prix Nobel qu’elle n’a pas obtenu.

Alors qu’OpenAI vient de mettre à jour Codex pour poser la fondation de sa « superapp », l’entreprise de Sam Altman veut afficher son potentiel dans les industries pharmaceutique, médicale et biochimique en présentant un nouveau modèle : GPT‑Rosalind.

Depuis quelque temps déjà, OpenAI veut absolument nous faire croire que ses modèles d’IA générative ont le niveau d’un chercheur. En novembre dernier, l’entreprise publiait une compilation de témoignages de chercheurs qu’elle avait édités sous forme d’un article scientifique pour vanter les mérites de GPT-5. À l’époque, OpenAI mettait en avant la résolution de problèmes mathématiques… qui avaient déjà été résolus par des humains, revendiquant donc des découvertes effectuées par d’autres.

Le créateur de ChatGPT assure désormais que son nouveau modèle peut améliorer le « workflow » des biologistes, biochimistes et bioinformaticiens pour « explorer davantage de possibilités, à mettre en évidence des liens qui auraient pu passer inaperçus et à formuler plus rapidement de meilleures hypothèses ».

« À terme, ces systèmes pourraient aider les organismes du secteur des sciences de la vie à réaliser des avancées qui seraient impossibles autrement, avec un taux de réussite bien plus élevé », promet l’entreprise sans pour autant expliquer comment.

L’instrumentalisation du prénom de Rosalind Franklin

Pour nommer ce modèle fine-tuné pour les biologistes, OpenAI utilise le prénom de Rosalind Franklin, qui avait co-découvert la structure hélicoïdale de l’ADN. « Ce modèle porte le nom de Rosalind Franklin, dont les recherches rigoureuses ont contribué à élucider la structure de l’ADN et ont jeté les bases de la biologie moléculaire moderne », affirme l’entreprise.

Cette biologiste n’avait pas reçu le prix Nobel pour cette découverte, contrairement à James Dewey Watson, Francis Crick et Maurice Wilkins, alors qu’on sait maintenant que ses travaux ont été cruciaux et que Watson et Crick les ont utilisés sans la créditer correctement.

Plusieurs chercheurs font remarquer l’ironie qu’une entreprise, dont l’entrainement des modèles s’appuie massivement sur les travaux des autres sans les citer, rende hommage à une chercheuse qui a longtemps été invisibilisée.

On peut aussi ajouter que, contrairement aux habitudes, par exemple avec Watson chez IBM, l’entreprise n’utilise pas le nom de Rosalind Franklin mais seulement son prénom. Mais ce n’est pas le premier « hommage » de la sorte que l’entreprise met en avant : rappelons-nous de son utilisation du style du réalisateur anti-IA Hayao Miyazaki pour la promotion de ses modèles.

Des collaborations avec des acteurs majeurs du domaine

Concernant son utilisation, GPT‑Rosalind doit, selon OpenAI, permettre aux chercheurs en biologie de faire de l’analyse de données, ou encore de pouvoir fouiller dans la littérature scientifique existante pour construire de nouvelles expériences scientifiques. Mais l’entreprise n’explique pas quelles données elle a utilisées pour affiner son modèle.

La recherche étant, par défaut, en perpétuelle évolution, le modèle en lui-même ne suffira pas à avoir un outil adapté à l’état de l’art et l’utilisation du RAG (Retrieval-augmented generation) et d’autres techniques seront sans doute nécessaires. Néanmoins, OpenAI affiche travailler avec des entreprises du secteur comme Novo Nordisk, Thermo Fischer ou Moderna pour intégrer son modèle dans leurs processus de recherche.

OpenAI met en avant des benchmarks qui, bien sûr, affichent GPT‑Rosalind au top dans son domaine, comparé à Gemini 3.1 pro, Grok 4.2 et à ses autres modèles. Mais pour BixBench, le seul pour lequel la startup donne des chiffres, la performance ne semble pas si exceptionnelle comparée à celle d’un GPT5.4 non spécialisé :

Pour accéder au modèle, les entreprises et organisations qui le voudraient doivent faire une demande via un formulaire. OpenAI met par contre en avant des plugins pour la recherche en bio avec Codex accessibles sur son GitHub.

☕️ Zorin OS 18.1 est disponible, recommandant encore plus d’apps alternatives

17 avril 2026 à 08:31


Comme la dernière version majeure de Zorin OS, la version 18.1 qui vient de sortir propose un environnement fait pour séduire les utilisateurs de Windows 10 qui se demandent par quoi remplacer l’ancien système.

L’équipe de la distribution explique notamment dans un billet que la version 18.1 permet, avec son système de support des applications Windows en surcouche de Wine, d’installer plus de 240 logiciels édités pour le système d’exploitation de Microsoft tout en proposant des alternatives.

Cette nouvelle version de Zorin améliore encore un peu l’interface avec la possibilité d’afficher les fenêtres en mosaïque ou encore une meilleure intégration des alphabets de droite à gauche utilisés par l’arabe, l’hébreu ou l’ourdou. Zorin OS intègre aussi la version 26.2 de LibreOffice dont l’équipe met en avant la meilleure compatibilité avec les formats de documents de Microsoft Office/365.

Sous le capot, Zorin OS 18.1 utilise la version 6.17 du noyau de Linux, comme la dernière version 25.10 d’Ubuntu.

☕️ Zorin OS 18.1 est disponible, recommandant encore plus d’apps alternatives

17 avril 2026 à 08:31


Comme la dernière version majeure de Zorin OS, la version 18.1 qui vient de sortir propose un environnement fait pour séduire les utilisateurs de Windows 10 qui se demandent par quoi remplacer l’ancien système.

L’équipe de la distribution explique notamment dans un billet que la version 18.1 permet, avec son système de support des applications Windows en surcouche de Wine, d’installer plus de 240 logiciels édités pour le système d’exploitation de Microsoft tout en proposant des alternatives.

Cette nouvelle version de Zorin améliore encore un peu l’interface avec la possibilité d’afficher les fenêtres en mosaïque ou encore une meilleure intégration des alphabets de droite à gauche utilisés par l’arabe, l’hébreu ou l’ourdou. Zorin OS intègre aussi la version 26.2 de LibreOffice dont l’équipe met en avant la meilleure compatibilité avec les formats de documents de Microsoft Office/365.

Sous le capot, Zorin OS 18.1 utilise la version 6.17 du noyau de Linux, comme la dernière version 25.10 d’Ubuntu.

Reçu — 27 mars 2026 Actualités numériques

OpenAI met en pause pour une durée indéterminée la sortie de sa version adulte de ChatGPT

27 mars 2026 à 15:50
Le business contre la « règle 34 »
OpenAI met en pause pour une durée indéterminée la sortie de sa version adulte de ChatGPT

Faisant face à une opposition interne depuis des mois et à un besoin de montrer que son entreprise peut proposer des outils utiles dans l’environnement professionnel, Sam Altman semble (non sans mal) accepter d’abandonner l’idée de mettre en place une version pornographique de ChatGPT.

Suivant les velléités d’Elon Musk avec son IA Grok de permettre aux utilisateurs de générer des images et des textes pornographiques, en octobre dernier, Sam Altman affirmait vouloir « traiter les utilisateurs adultes comme des adultes » en leur créant un mode particulier une fois que leur âge était vérifié.

Mais le monde des adultes ramènerait le CEO d’OpenAI vers le « serious business ». Comme l’explique le Financial Times quelques jours après que l’entreprise a annoncé l’abandon de Sora 2, OpenAI a suspendu « pour une durée indéterminée » son projet de lancement de la version pornographique de son chatbot pour se concentrer sur ses autres projets. La version « adulte » de ChatGPT avait déjà été reportée au début du mois. L’entreprise affirmait toujours croire au projet mais « il faudra plus de temps pour acquérir l’expérience nécessaire », ajoutait-elle à l’époque.

Des investisseurs peu motivés par le projet

Les voix de certains investisseurs se seraient jointes aux critiques émises en interne sur le projet. En effet, celui-ci était déjà critiqué par des salariés mais aussi par un comité d’experts furieux et unanimement opposé, créé le jour même où Sam Altman avait exprimé sa volonté de créer ce mode « adulte ».

L’entreprise a affirmé au journal économique britannique qu’elle voulait finalement d’abord mener des recherches à long terme sur les effets des conversations à caractère sexuel explicite et l’attachement affectif avant de prendre une décision sur le lancement de cette version de son chatbot, ajoutant qu’il n’y avait pour l’instant pas de « preuve empirique » sur la question.

Mais, selon des sources du Financial Times, certains investisseurs étaient inquiets à la fois des risques liés à ce genre d’outil et du peu de potentiel de croissance qu’il pouvait apporter à l’entreprise.

Des risques de faux positifs sur l’estimation de l’âge des mineurs

Concernant les risques, ce n’était pas seulement lié à de potentielles polémiques et attaques en justice sur la gestion de tel ou tel contenu problématique, comme ce qu’on a pu voir avec les deepfakes générés par Grok visant à dénuder des femmes, parfois mineures. Mais comme nous l’expliquions, l’entreprise a aussi du mal à proposer un outil de prédiction d’âge maison qui ne laisse aucun enfant passer la barrière. Ainsi, il classait encore récemment à tort 12 % des mineurs comme des adultes.

Ces décisions sont prises une semaine après que le Wall Street Journal affirme qu’OpenAI allait réduire ses projets parallèles pour se concentrer sur son cœur de métier. Le journal économique américain expliquait que l’entreprise de Sam Altman était sous la pression d’Anthropic qui s’est imposée comme la startup rivale qui propose des solutions pratiques et novatrices dans le cadre du travail, comme Claude Code ou Cowork.

« Nous ne pouvons pas laisser passer cette occasion parce que nous sommes distraits par des activités secondaires », affirmait la responsable des applications d’OpenAI, Fidji Simo, à son équipe récemment selon Business Insider, ajoutant que l’entreprise devait absolument améliorer sa productivité dans le secteur professionnel, puis dans le secteur grand public.

OpenAI met en pause pour une durée indéterminée la sortie de sa version adulte de ChatGPT

27 mars 2026 à 15:50
Le business contre la « règle 34 »
OpenAI met en pause pour une durée indéterminée la sortie de sa version adulte de ChatGPT

Faisant face à une opposition interne depuis des mois et à un besoin de montrer que son entreprise peut proposer des outils utiles dans l’environnement professionnel, Sam Altman semble (non sans mal) accepter d’abandonner l’idée de mettre en place une version pornographique de ChatGPT.

Suivant les velléités d’Elon Musk avec son IA Grok de permettre aux utilisateurs de générer des images et des textes pornographiques, en octobre dernier, Sam Altman affirmait vouloir « traiter les utilisateurs adultes comme des adultes » en leur créant un mode particulier une fois que leur âge était vérifié.

Mais le monde des adultes ramènerait le CEO d’OpenAI vers le « serious business ». Comme l’explique le Financial Times quelques jours après que l’entreprise a annoncé l’abandon de Sora 2, OpenAI a suspendu « pour une durée indéterminée » son projet de lancement de la version pornographique de son chatbot pour se concentrer sur ses autres projets. La version « adulte » de ChatGPT avait déjà été reportée au début du mois. L’entreprise affirmait toujours croire au projet mais « il faudra plus de temps pour acquérir l’expérience nécessaire », ajoutait-elle à l’époque.

Des investisseurs peu motivés par le projet

Les voix de certains investisseurs se seraient jointes aux critiques émises en interne sur le projet. En effet, celui-ci était déjà critiqué par des salariés mais aussi par un comité d’experts furieux et unanimement opposé, créé le jour même où Sam Altman avait exprimé sa volonté de créer ce mode « adulte ».

L’entreprise a affirmé au journal économique britannique qu’elle voulait finalement d’abord mener des recherches à long terme sur les effets des conversations à caractère sexuel explicite et l’attachement affectif avant de prendre une décision sur le lancement de cette version de son chatbot, ajoutant qu’il n’y avait pour l’instant pas de « preuve empirique » sur la question.

Mais, selon des sources du Financial Times, certains investisseurs étaient inquiets à la fois des risques liés à ce genre d’outil et du peu de potentiel de croissance qu’il pouvait apporter à l’entreprise.

Des risques de faux positifs sur l’estimation de l’âge des mineurs

Concernant les risques, ce n’était pas seulement lié à de potentielles polémiques et attaques en justice sur la gestion de tel ou tel contenu problématique, comme ce qu’on a pu voir avec les deepfakes générés par Grok visant à dénuder des femmes, parfois mineures. Mais comme nous l’expliquions, l’entreprise a aussi du mal à proposer un outil de prédiction d’âge maison qui ne laisse aucun enfant passer la barrière. Ainsi, il classait encore récemment à tort 12 % des mineurs comme des adultes.

Ces décisions sont prises une semaine après que le Wall Street Journal affirme qu’OpenAI allait réduire ses projets parallèles pour se concentrer sur son cœur de métier. Le journal économique américain expliquait que l’entreprise de Sam Altman était sous la pression d’Anthropic qui s’est imposée comme la startup rivale qui propose des solutions pratiques et novatrices dans le cadre du travail, comme Claude Code ou Cowork.

« Nous ne pouvons pas laisser passer cette occasion parce que nous sommes distraits par des activités secondaires », affirmait la responsable des applications d’OpenAI, Fidji Simo, à son équipe récemment selon Business Insider, ajoutant que l’entreprise devait absolument améliorer sa productivité dans le secteur professionnel, puis dans le secteur grand public.

La Wikipedia anglophone interdit l’édition assistée par modèles de langage

27 mars 2026 à 14:48
IA pas d'arrangement
La Wikipedia anglophone interdit l’édition assistée par modèles de langage

La version anglophone de l’encyclopédie participative a décidé d’interdire l’utilisation de l’IA générative pour la plupart des modifications de ses pages. Wikipédia en allemand a aussi récemment restreint cette utilisation.

« Les textes générés par des grands modèles de langage (LLM) tels que ChatGPT, Gemini, DeepSeek, etc. enfreignent souvent plusieurs des principes fondamentaux de Wikipédia », explique maintenant une page de la version anglophone de l’encyclopédie consacrée à la rédaction d’articles à l’aide de grands modèles de langage.

Deux petites exceptions pour l’usage de l’IA générative dans la Wikipédia anglophone

Les éditeurs ont donc décidé que, désormais, « l’utilisation des grands modèles de langage (LLM) pour générer ou réécrire le contenu d’articles est interdite » (toujours concernant la version anglophone). Même si peu de personnes ont participé au vote (46), une large majorité (44) a voté en faveur de cette nouvelle règle quand seulement deux personnes s’y sont opposées, comme on peut le lire dans le résumé des discussions.

Le texte ajoute quand même deux exceptions pour lesquelles les utilisateurs de la Wikipédia anglophone peuvent utiliser des outils intégrant des LLM.

Ainsi, la règle permet cette utilisation aux éditeurs pour « obtenir des suggestions de corrections de fond concernant leurs propres textes ». L’intégration de ces suggestions doit néanmoins se faire « après vérification humaine », et « à condition que le LLM n’ajoute pas de contenu de son propre chef ».

La Wikipédia anglophone accepte aussi l’utilisation de ces outils pour traduire des pages d’autres versions linguistiques de l’encyclopédie, à condition de suivre les règles récemment mises en place à ce sujet. En effet, les « hallucinations » venues de traductions par IA avaient déjà fait bouger les lignes à ce sujet.

Une utilisation difficile à objectiver et un déni toujours possible

Un dernier paragraphe concède que certains utilisateurs peuvent avoir un style d’écriture qui se rapproche de celui d’une IA générative. Ainsi, le texte demande à ce que les éventuelles sanctions prises au nom de l’utilisation de modèles de langage s’appuient plus sur l’infraction des principes fondamentaux de Wikipédia que sur l’éventuelle signature stylistique et linguistique d’un texte.

Mais l’une des éditrices ayant voté en faveur de cette règle exprime quand même la crainte que son adoption soit vaine : « Je crains tout de même un peu que l’approche que nous adoptons dans ces directives n’encourage le mensonge (surtout compte tenu de la réserve selon laquelle, si le texte est de bonne qualité, la directive ou la politique ne sera pas appliquée, alors à quoi bon ?) et qu’il soit difficile de les faire respecter correctement ».

Une interdiction d’usages jugée utile par certains

Pour l’une des personnes qui s’y est opposée, la formulation proposée ne fait pas la distinction entre l’utilisation des LLM pour générer du « slop » et « un processus de travail beaucoup plus restreint, dans lequel un éditeur expérimenté identifie les sources, définit le cadre de la tâche, vérifie le résultat par rapport aux sources et assume l’entière responsabilité de ce qui est publié ».

« Mettre tout cela dans le même panier n’aide personne », ajoute celle pour qui « « l’utilisation des LLM pour générer ou réécrire le contenu d’articles est interdite » : c’est tout simplement trop radical ».

Dans les discussions avant vote, un autre utilisateur expliquait en quoi, pour lui, les LLM pouvaient être utiles dans l’édition de Wikipédia : « une utilisation que j’ai trouvée utile consiste à importer le fichier PDF d’une source que je viens de lire dans le LLM en lui donnant la consigne suivante : « génère une référence au format Wikipédia pour ce document. Si des informations bibliographiques manquent, effectue une recherche sur Internet pour les trouver et fournis-moi les liens vers les sources où tu as trouvé ces informations manquantes afin que je puisse vérifier leur exactitude » ».

Mais, comme l’explique une des personnes en faveur de l’interdiction, le besoin de « remédier au déséquilibre flagrant entre l’effort nécessaire pour générer du contenu IA slop et celui requis pour le nettoyer » l’a emporté.

Les Wikipédia germanophone et francophone avancent aussi sur le sujet

L’utilisation des outils s’appuyant sur les LLM n’agite pas que la communauté anglophone. Comme nous l’expliquions l’année dernière, la communauté francophone a déjà adopté, à l’époque, un texte de recommandation sur l’usage de l’IA générative.

Le résumé de ce texte affirme que « l’intelligence artificielle générative (IAg) n’apporte aucune garantie sur la fiabilité, la libre réutilisation et la vérifiabilité du contenu. Son utilisation est donc vivement déconseillée ».

Jules*, l’un des administrateurs de Wikipédia en français, affirme cependant sur Bluesky qu’ « en pratique, les blocages pour mésusage de l’IA générative se multiplient » et il ajoute qu’« il est probable qu’une nouvelle itération [de la recommandation] survienne dans les prochains mois ».

Il pointe aussi qu’en février dernier, la Wikipédia germanophone s’est dotée « d’une recommandation stricte sur l’IA générative », dixit la newsletter francophone du projet.

Elle indique : « Wikipédia est un projet dont le contenu est documenté et rédigé par des humains pour des humains. L’utilisation de l’intelligence artificielle générative dans le cadre de l’élaboration de contenus pour Wikipédia est donc fondamentalement indésirable, à quelques exceptions près, qui sont énumérées ci-dessous ».

Sont ainsi autorisés le recours à la traduction automatique, qui fonctionne avec le support de l’IA, l’utilisation d’outils basés sur l’IA pour la détection des erreurs (mais, contrairement aux robots de Wikipédia, toute modification doit être validée par un humain), ainsi que la recherche avec l’aide de l’IA.

La Wikipedia anglophone interdit l’édition assistée par modèles de langage

27 mars 2026 à 14:48
IA pas d'arrangement
La Wikipedia anglophone interdit l’édition assistée par modèles de langage

La version anglophone de l’encyclopédie participative a décidé d’interdire l’utilisation de l’IA générative pour la plupart des modifications de ses pages. Wikipédia en allemand a aussi récemment restreint cette utilisation.

« Les textes générés par des grands modèles de langage (LLM) tels que ChatGPT, Gemini, DeepSeek, etc. enfreignent souvent plusieurs des principes fondamentaux de Wikipédia », explique maintenant une page de la version anglophone de l’encyclopédie consacrée à la rédaction d’articles à l’aide de grands modèles de langage.

Deux petites exceptions pour l’usage de l’IA générative dans la Wikipédia anglophone

Les éditeurs ont donc décidé que, désormais, « l’utilisation des grands modèles de langage (LLM) pour générer ou réécrire le contenu d’articles est interdite » (toujours concernant la version anglophone). Même si peu de personnes ont participé au vote (46), une large majorité (44) a voté en faveur de cette nouvelle règle quand seulement deux personnes s’y sont opposées, comme on peut le lire dans le résumé des discussions.

Le texte ajoute quand même deux exceptions pour lesquelles les utilisateurs de la Wikipédia anglophone peuvent utiliser des outils intégrant des LLM.

Ainsi, la règle permet cette utilisation aux éditeurs pour « obtenir des suggestions de corrections de fond concernant leurs propres textes ». L’intégration de ces suggestions doit néanmoins se faire « après vérification humaine », et « à condition que le LLM n’ajoute pas de contenu de son propre chef ».

La Wikipédia anglophone accepte aussi l’utilisation de ces outils pour traduire des pages d’autres versions linguistiques de l’encyclopédie, à condition de suivre les règles récemment mises en place à ce sujet. En effet, les « hallucinations » venues de traductions par IA avaient déjà fait bouger les lignes à ce sujet.

Une utilisation difficile à objectiver et un déni toujours possible

Un dernier paragraphe concède que certains utilisateurs peuvent avoir un style d’écriture qui se rapproche de celui d’une IA générative. Ainsi, le texte demande à ce que les éventuelles sanctions prises au nom de l’utilisation de modèles de langage s’appuient plus sur l’infraction des principes fondamentaux de Wikipédia que sur l’éventuelle signature stylistique et linguistique d’un texte.

Mais l’une des éditrices ayant voté en faveur de cette règle exprime quand même la crainte que son adoption soit vaine : « Je crains tout de même un peu que l’approche que nous adoptons dans ces directives n’encourage le mensonge (surtout compte tenu de la réserve selon laquelle, si le texte est de bonne qualité, la directive ou la politique ne sera pas appliquée, alors à quoi bon ?) et qu’il soit difficile de les faire respecter correctement ».

Une interdiction d’usages jugée utile par certains

Pour l’une des personnes qui s’y est opposée, la formulation proposée ne fait pas la distinction entre l’utilisation des LLM pour générer du « slop » et « un processus de travail beaucoup plus restreint, dans lequel un éditeur expérimenté identifie les sources, définit le cadre de la tâche, vérifie le résultat par rapport aux sources et assume l’entière responsabilité de ce qui est publié ».

« Mettre tout cela dans le même panier n’aide personne », ajoute celle pour qui « « l’utilisation des LLM pour générer ou réécrire le contenu d’articles est interdite » : c’est tout simplement trop radical ».

Dans les discussions avant vote, un autre utilisateur expliquait en quoi, pour lui, les LLM pouvaient être utiles dans l’édition de Wikipédia : « une utilisation que j’ai trouvée utile consiste à importer le fichier PDF d’une source que je viens de lire dans le LLM en lui donnant la consigne suivante : « génère une référence au format Wikipédia pour ce document. Si des informations bibliographiques manquent, effectue une recherche sur Internet pour les trouver et fournis-moi les liens vers les sources où tu as trouvé ces informations manquantes afin que je puisse vérifier leur exactitude » ».

Mais, comme l’explique une des personnes en faveur de l’interdiction, le besoin de « remédier au déséquilibre flagrant entre l’effort nécessaire pour générer du contenu IA slop et celui requis pour le nettoyer » l’a emporté.

Les Wikipédia germanophone et francophone avancent aussi sur le sujet

L’utilisation des outils s’appuyant sur les LLM n’agite pas que la communauté anglophone. Comme nous l’expliquions l’année dernière, la communauté francophone a déjà adopté, à l’époque, un texte de recommandation sur l’usage de l’IA générative.

Le résumé de ce texte affirme que « l’intelligence artificielle générative (IAg) n’apporte aucune garantie sur la fiabilité, la libre réutilisation et la vérifiabilité du contenu. Son utilisation est donc vivement déconseillée ».

Jules*, l’un des administrateurs de Wikipédia en français, affirme cependant sur Bluesky qu’ « en pratique, les blocages pour mésusage de l’IA générative se multiplient » et il ajoute qu’« il est probable qu’une nouvelle itération [de la recommandation] survienne dans les prochains mois ».

Il pointe aussi qu’en février dernier, la Wikipédia germanophone s’est dotée « d’une recommandation stricte sur l’IA générative », dixit la newsletter francophone du projet.

Elle indique : « Wikipédia est un projet dont le contenu est documenté et rédigé par des humains pour des humains. L’utilisation de l’intelligence artificielle générative dans le cadre de l’élaboration de contenus pour Wikipédia est donc fondamentalement indésirable, à quelques exceptions près, qui sont énumérées ci-dessous ».

Sont ainsi autorisés le recours à la traduction automatique, qui fonctionne avec le support de l’IA, l’utilisation d’outils basés sur l’IA pour la détection des erreurs (mais, contrairement aux robots de Wikipédia, toute modification doit être validée par un humain), ainsi que la recherche avec l’aide de l’IA.

TurboQuant veut réduire grandement les besoins en mémoire des IA génératives… et ça marche

27 mars 2026 à 10:39
On en revient toujours à Shannon
TurboQuant veut réduire grandement les besoins en mémoire des IA génératives… et ça marche

Des chercheurs de Google ont publié un ensemble d’algorithmes de quantification, nommé TurboQuant. Ils permettent une compression massive réduisant l’utilisation de la mémoire, notamment pour l’IA générative, alors que le prix de la RAM est dans toutes les têtes.

Le nombre de paramètres et la taille de la fenêtre contextuelle des modèles de langage (LLM) prennent une place de plus en plus importante dans leur utilisation, notamment pour traiter des quantités énormes de documents et leur permettre d’augmenter leur acuité. Mais son utilisation intensive demande une quantité importante de mémoire. L’optimisation de la compression de ces informations devient primordiale.

On vous explique le nerf de la guerre : la quantification

La quantification vectorielle est une technique déjà utilisée pour cette compression. Mais jusqu’ici, celle-ci créait au fur et à mesure un « surcoût de mémoire ». Google a annoncé ce mardi 24 mars que ses chercheurs avaient justement mis en place une série d’algorithmes de quantification qui « répond de manière optimale » à ce problème.

De fait, ils avaient mis en ligne leur article sur la plateforme de prépublication scientifique arXiv dès le 28 avril 2025 et celui-ci était passé assez inaperçu. Dans leurs billets, les chercheurs de Google expliquent que leur article a été accepté pour présentation à la conférence scientifique ICLR qui se déroulera du 23 avril au 27 avril 2026 à Rio.


Il reste 80% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Reçu — 26 mars 2026 Actualités numériques

☕️ Le Conseil de Trump sur les sciences et technologies rempli de CEO de la tech

26 mars 2026 à 14:07


Plus d’un an après son investiture et après avoir maintes fois attaqué les agences scientifiques de son pays, Donald Trump a nommé les membres de son Comité présidentiel des conseillers en science et technologie (President’s Council of Advisors on Science and Technology PCAST).

Ce comité est présidé, comme annoncé en janvier 2025, par Michael Kratsios (conseiller de Donald Trump depuis son premier mandat) et l’investisseur David Sacks (PayPal, Facebook, Uber, SpaceX, Palantir…).

Illustration : Flock

S’ajoutent à la liste, les noms de :

  • Marc Andreessen (fondateur de Netscape)
  • Sergey Brin (cofondateur de Google)
  • Safra Catz (CEO d’Oracle)
  • Michael Dell (fondateur de Dell)
  • Jacob DeWitte (fondateur d’Oklo)
  • Fred Ehrsam (co-fondateur de Coinbase et Paradigm)
  • Larry Ellison (co-fondateur d’Oracle)
  • David Friedberg (financier)
  • Jensen Huang (CEO de NVIDIA)
  • John Martinis (responsable du Google Quantum AI Lab et prix Nobel de physique 2025)
  • Bob Mumgaard (CEO de Commonwealth Fusion Systems)
  • Lisa Su (CEO d’AMD)
  • Mark Zuckerberg (CEO de Meta)

Si une bonne partie de ces personnalités ont fait des études longues, et parfois dans des universités prestigieuses, ArsTechnica pointe le fait qu’aucun n’est actuellement chercheur.

De fait, ce comité a été créé en 2001 sous George W. Bush et n’a pas une importance primordiale dans la gestion de la politique de la recherche aux États-Unis. Mais cette longue liste de responsables de la tech états-unienne marque en creux le manque de chercheuses et chercheurs sur tous les autres sujets que peuvent couvrir les différentes disciplines scientifiques.

❌