Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 30 septembre 2024Actualités numériques

Véto du gouverneur de Californie contre le projet de loi sur l’IA contesté dans la Silicon Valley

30 septembre 2024 à 15:00
Silicon Valley 1 - Hollywood 0
Véto du gouverneur de Californie contre le projet de loi sur l’IA contesté dans la Silicon Valley

Le gouverneur de la Californie, Gavin Newsom, a déposé un véto dimanche 29 septembre contre le projet de loi qui devait réguler l’IA dans son État, qui héberge à la fois la Silicon Valley et Hollywood. Le texte visait les modèles les plus importants et prévoyait notamment un interrupteur d’urgence pour désactiver les systèmes en cas de problème ingérable, ainsi que des protocoles de tests et une protection des lanceurs d’alertes.

Le projet de « loi sur l’innovation sûre et sécurisée pour les modèles d’intelligence artificielle d’avant-garde » (ou SB 1047), a fait l’objet d’intenses campagnes de lobbying en Californie ces dernières semaines, tant du côté des pour que des contre. Le gouverneur de l’État, Gavin Newsom, y a finalement opposé son véto (PDF) à la veille de la date limite.

SB 1047 prévoyait d’imposer certaines obligations aux créateurs de modèles. Elle les aurait rendus responsables devant la loi de l’État en cas de « risque déraisonnable que le modèle ou ces dérivés cause ou permette matériellement un dommage critique ». Le texte californien n’était pas aussi complet que l’AI Act européen, mais posait quelques jalons de régulation.

Pour une régulation, mais pas celle-là

Le gouverneur ne veut pas envoyer un message anti-régulation, mais critique le projet comme ciblant seulement et de façon inappropriée selon lui les grands modèles d’IA générative :

« Bien que bien intentionné, le projet de loi SB 1047 ne tient pas compte du fait qu’un système d’IA est déployé dans des environnements à haut risque, qu’il implique une prise de décision critique ou l’utilisation de données sensibles. Au lieu de cela, le projet de loi applique des normes strictes même aux fonctions les plus élémentaires – du moment qu’un grand système les déploie. Je ne pense pas qu’il s’agisse là de la meilleure approche pour protéger le public des menaces réelles posées par la technologie », affirme-t-il dans sa lettre justifiant le véto.

Gavin Newsom ajoute que « des modèles plus petits et spécialisés pourraient s’avérer tout aussi dangereux, voire plus dangereux, que les modèles visés par la loi SB 1047, au risque de freiner l’innovation même qui alimente les progrès en faveur du bien public ».

« Nous ne pouvons pas nous permettre d’attendre qu’une catastrophe majeure se produise avant de prendre des mesures pour protéger le public », affirme le gouverneur. Cependant, « pour assurer la sécurité du public, nous devons nous contenter d’une solution qui n’est pas fondée sur une analyse empirique de la trajectoire des systèmes et des capacités de l’IA. En fin de compte, tout cadre visant à réglementer efficacement l’IA doit suivre l’évolution de la technologie elle-même ».

Les directions de startups de la Silicon Valley contre la loi

Alors qu’Elon Musk avait étonné jeudi dernier les observateurs en se prononçant pour cette régulation, la plupart de la Silicon Valley s’était positionnée contre, à l’instar d’OpenAI. Celle-ci poussait notamment pour une réglementation au niveau national plutôt qu’un patchwork de lois étatiques.

Chez Meta, le ton était aussi à la critique du projet. Yann Le Cun, responsable scientifique dans l’entreprise, a d’ailleurs rapidement salué la « décision judicieuse » du gouverneur. Il avait relayé plusieurs argumentaires sur X contre le projet de loi.

Du côté d’Anthropic, après avoir critiqué la loi, l’entreprise indiquait dans une lettre (PDF) plus trop savoir où elle en était après les différentes modifications du texte : « selon notre évaluation, le nouveau projet de loi SB 1047 est considérablement amélioré, au point que nous pensons que ses avantages l’emportent probablement sur ses coûts. Toutefois, nous n’en sommes pas sûrs et certains aspects du projet de loi nous semblent encore préoccupants ou ambigus ».

L’ancienne présidente de la Chambre des représentants des États-Unis, Nancy Pelosi, s’était aussi prononcée contre ce projet de loi : « Nous voulons que la Californie soit à la pointe de l’IA en protégeant les consommateurs, les données, la propriété intellectuelle et bien d’autres choses encore, mais le projet de loi SB 1047 est plus nuisible qu’utile à cette fin ».

Quelques têtes d’ingénieurs et de chercheurs qui dépassent

Certains ingénieurs et chercheurs en IA étaient quand même sortis du lot pour soutenir le texte. Le chercheur et ancien salarié de Google Brain, Geoffrey Hinton, avait notamment initié un texte signé par plusieurs employés de la Silicon Valley :

« Nous pensons que les modèles d’IA les plus puissants pourraient bientôt présenter des risques graves, tels qu’un accès élargi aux armes biologiques et des cyberattaques sur les infrastructures critiques. Il est possible et approprié pour les entreprises pionnières de l’IA de tester si les plus puissants modèles peuvent causer de graves dégâts, et pour ces entreprises de mettre en œuvre des mesures de protection raisonnables contre de tels risques ».

Hollywood pour une régulation, pour le bien de l’humanité

Du côté de Hollywood, 125 « grands noms » du milieu s’étaient mobilisés en publiant une lettre ouverte. « Nous croyons fermement au potentiel éblouissant de l’IA à être utilisée pour le bien. Mais nous devons aussi être réalistes quant aux risques », affirmaient-ils. Cette lettre se défendait de tout corporatisme en expliquant que « ce projet de loi ne vise pas à protéger les artistes, mais à protéger tout le monde ».

Si le gouverneur Gavin Newsom a posé son véto sur ce texte, il a souligné avoir demandé à un de ses services de travailler sur « l’évaluation des menaces potentielles posées par l’utilisation de l’IA générative » et leurs conséquences sur les infrastructures critiques en Californie, « y compris celles qui pourraient entraîner des pertes massives ».

Véto du gouverneur de Californie contre le projet de loi sur l’IA contesté dans la Silicon Valley

30 septembre 2024 à 15:00
Silicon Valley 1 - Hollywood 0
Véto du gouverneur de Californie contre le projet de loi sur l’IA contesté dans la Silicon Valley

Le gouverneur de la Californie, Gavin Newsom, a déposé un véto dimanche 29 septembre contre le projet de loi qui devait réguler l’IA dans son État, qui héberge à la fois la Silicon Valley et Hollywood. Le texte visait les modèles les plus importants et prévoyait notamment un interrupteur d’urgence pour désactiver les systèmes en cas de problème ingérable, ainsi que des protocoles de tests et une protection des lanceurs d’alertes.

Le projet de « loi sur l’innovation sûre et sécurisée pour les modèles d’intelligence artificielle d’avant-garde » (ou SB 1047), a fait l’objet d’intenses campagnes de lobbying en Californie ces dernières semaines, tant du côté des pour que des contre. Le gouverneur de l’État, Gavin Newsom, y a finalement opposé son véto (PDF) à la veille de la date limite.

SB 1047 prévoyait d’imposer certaines obligations aux créateurs de modèles. Elle les aurait rendus responsables devant la loi de l’État en cas de « risque déraisonnable que le modèle ou ces dérivés cause ou permette matériellement un dommage critique ». Le texte californien n’était pas aussi complet que l’AI Act européen, mais posait quelques jalons de régulation.

Pour une régulation, mais pas celle-là

Le gouverneur ne veut pas envoyer un message anti-régulation, mais critique le projet comme ciblant seulement et de façon inappropriée selon lui les grands modèles d’IA générative :

« Bien que bien intentionné, le projet de loi SB 1047 ne tient pas compte du fait qu’un système d’IA est déployé dans des environnements à haut risque, qu’il implique une prise de décision critique ou l’utilisation de données sensibles. Au lieu de cela, le projet de loi applique des normes strictes même aux fonctions les plus élémentaires – du moment qu’un grand système les déploie. Je ne pense pas qu’il s’agisse là de la meilleure approche pour protéger le public des menaces réelles posées par la technologie », affirme-t-il dans sa lettre justifiant le véto.

Gavin Newsom ajoute que « des modèles plus petits et spécialisés pourraient s’avérer tout aussi dangereux, voire plus dangereux, que les modèles visés par la loi SB 1047, au risque de freiner l’innovation même qui alimente les progrès en faveur du bien public ».

« Nous ne pouvons pas nous permettre d’attendre qu’une catastrophe majeure se produise avant de prendre des mesures pour protéger le public », affirme le gouverneur. Cependant, « pour assurer la sécurité du public, nous devons nous contenter d’une solution qui n’est pas fondée sur une analyse empirique de la trajectoire des systèmes et des capacités de l’IA. En fin de compte, tout cadre visant à réglementer efficacement l’IA doit suivre l’évolution de la technologie elle-même ».

Les directions de startups de la Silicon Valley contre la loi

Alors qu’Elon Musk avait étonné jeudi dernier les observateurs en se prononçant pour cette régulation, la plupart de la Silicon Valley s’était positionnée contre, à l’instar d’OpenAI. Celle-ci poussait notamment pour une réglementation au niveau national plutôt qu’un patchwork de lois étatiques.

Chez Meta, le ton était aussi à la critique du projet. Yann Le Cun, responsable scientifique dans l’entreprise, a d’ailleurs rapidement salué la « décision judicieuse » du gouverneur. Il avait relayé plusieurs argumentaires sur X contre le projet de loi.

Du côté d’Anthropic, après avoir critiqué la loi, l’entreprise indiquait dans une lettre (PDF) plus trop savoir où elle en était après les différentes modifications du texte : « selon notre évaluation, le nouveau projet de loi SB 1047 est considérablement amélioré, au point que nous pensons que ses avantages l’emportent probablement sur ses coûts. Toutefois, nous n’en sommes pas sûrs et certains aspects du projet de loi nous semblent encore préoccupants ou ambigus ».

L’ancienne présidente de la Chambre des représentants des États-Unis, Nancy Pelosi, s’était aussi prononcée contre ce projet de loi : « Nous voulons que la Californie soit à la pointe de l’IA en protégeant les consommateurs, les données, la propriété intellectuelle et bien d’autres choses encore, mais le projet de loi SB 1047 est plus nuisible qu’utile à cette fin ».

Quelques têtes d’ingénieurs et de chercheurs qui dépassent

Certains ingénieurs et chercheurs en IA étaient quand même sortis du lot pour soutenir le texte. Le chercheur et ancien salarié de Google Brain, Geoffrey Hinton, avait notamment initié un texte signé par plusieurs employés de la Silicon Valley :

« Nous pensons que les modèles d’IA les plus puissants pourraient bientôt présenter des risques graves, tels qu’un accès élargi aux armes biologiques et des cyberattaques sur les infrastructures critiques. Il est possible et approprié pour les entreprises pionnières de l’IA de tester si les plus puissants modèles peuvent causer de graves dégâts, et pour ces entreprises de mettre en œuvre des mesures de protection raisonnables contre de tels risques ».

Hollywood pour une régulation, pour le bien de l’humanité

Du côté de Hollywood, 125 « grands noms » du milieu s’étaient mobilisés en publiant une lettre ouverte. « Nous croyons fermement au potentiel éblouissant de l’IA à être utilisée pour le bien. Mais nous devons aussi être réalistes quant aux risques », affirmaient-ils. Cette lettre se défendait de tout corporatisme en expliquant que « ce projet de loi ne vise pas à protéger les artistes, mais à protéger tout le monde ».

Si le gouverneur Gavin Newsom a posé son véto sur ce texte, il a souligné avoir demandé à un de ses services de travailler sur « l’évaluation des menaces potentielles posées par l’utilisation de l’IA générative » et leurs conséquences sur les infrastructures critiques en Californie, « y compris celles qui pourraient entraîner des pertes massives ».

☕️ WordPress.org accorde un court sursis à WP Engine, l’accès sera de nouveau coupé demain

30 septembre 2024 à 07:40

Dans un billet très corrosif publié sur le blog de WordPress.org vendredi 27 septembre, Matt Mullenweg explique avoir laissé un « sursis » à WP Engine : l’entreprise a encore accès aux ressources de wordpress.org jusqu’au 1er octobre. Mais dès demain 00:01 UTC (soit 2 h heure française), cet accès sera de nouveau coupé.

Le torchon brûle donc toujours dans l’écosystème commercial de WordPress. Matt Mullenweg, qui est à la fois le créateur du logiciel et le responsable de l’entreprise Automattic qui vend des prestations autour, en veut à WP Engine. Selon lui, son concurrent utilise la marque WordPress abusivement, ne contribue pas assez au projet et « profère des menaces juridiques » contre WordPress.org.

Matt Mullenweg explique faire cette concession après avoir entendu que les clients de WP Engine sont « frustrés » de cette situation.

☕️ WordPress.org accorde un court sursis à WP Engine, l’accès sera de nouveau coupé demain

30 septembre 2024 à 07:40

Dans un billet très corrosif publié sur le blog de WordPress.org vendredi 27 septembre, Matt Mullenweg explique avoir laissé un « sursis » à WP Engine : l’entreprise a encore accès aux ressources de wordpress.org jusqu’au 1er octobre. Mais dès demain 00:01 UTC (soit 2 h heure française), cet accès sera de nouveau coupé.

Le torchon brûle donc toujours dans l’écosystème commercial de WordPress. Matt Mullenweg, qui est à la fois le créateur du logiciel et le responsable de l’entreprise Automattic qui vend des prestations autour, en veut à WP Engine. Selon lui, son concurrent utilise la marque WordPress abusivement, ne contribue pas assez au projet et « profère des menaces juridiques » contre WordPress.org.

Matt Mullenweg explique faire cette concession après avoir entendu que les clients de WP Engine sont « frustrés » de cette situation.

Microsoft se lance tardivement à l’assaut des « hallucinations » de ses IA

30 septembre 2024 à 06:50
Modèle de Langage Sans Défaut ?
Microsoft se lance tardivement à l’assaut des « hallucinations » de ses IA

L’entreprise de Redmond lance un outil appelé « Correction » censé identifier et proposer des réécritures de textes générés par des IA. Cet outil s’appuie lui aussi sur des modèles de langage. L’outil arrive tard, alors que le doute s’installe dans une partie des entreprises sur la confiance à accorder aux IA génératives.

Comme l’avoue maintenant Microsoft dans sa vidéo de promotion de son nouvel outil « Correction », « les « hallucinations » des IA peuvent avoir des conséquences sur la précision, la confiance de l’utilisateur et la crédibilité de votre application ».

Jusqu’à récemment, les entreprises d’IA génératives ont massivement diffusé ce genre d’outils sans se préoccuper de ces conséquences. Pourtant, ces « hallucinations » – ou plutôt des erreurs dans lesquelles le système produit du texte ou des images incohérents – étaient présentes depuis les débuts de l’utilisation publique des grands modèles.

Des rustines pour éviter les hallucinations

Ces entreprises commencent à proposer quelques rustines pour combler les erreurs de leurs modèles. Il semble aussi, alors que les milieux financiers parlent de plus en plus d’une bulle de l’IA, qu’elles doivent montrer aux investisseurs que leurs systèmes peuvent être améliorés. En juin, OpenAI annonçait son CriticGPT pour proposer des corrections sur des erreurs de code générées par GPT-4. Fin juin, Google a aussi proposé son propre système.

Ici, avec Correction, Microsoft assure pouvoir proposer un outil qui peut détecter et réécrire des contenus incorrects générés par n’importe quelle IA générative. « Il est essentiel de donner à nos clients les moyens de comprendre les contenus non fondés et les hallucinations et d’agir en conséquence, d’autant plus que la demande de fiabilité et d’exactitude des contenus générés par l’IA ne cesse d’augmenter », explique l’entreprise.

Microsoft propose cet outil aux utilisateurs de son API Azure AI Content Safety qui peuvent s’en servir sur du texte généré par n’importe quel modèle.

Interrogé par TechCrunch, Microsoft affirme que « Correction est alimenté par un nouveau processus d’utilisation de petits et grands modèles de langage pour aligner les sorties sur des documents donnés ». L’entreprise ajoute : « nous espérons que cette nouvelle fonctionnalité aidera les créateurs et les utilisateurs d’IA générative dans des domaines tels que la médecine, où les développeurs d’applications déterminent que la précision des réponses est d’une importance significative ».

Des modèles pour corriger d’autres modèles

Elle redirige aussi vers un article mis en ligne récemment par les chercheurs de Microsoft sur arXiv. Comme le remarque TechCrunch, « le document omet des détails essentiels, tels que les ensembles de données utilisés pour entrainer les modèles ».

Cet article propose un enchainement de deux modèles de langage pour analyser la phrase générée par le modèle testé. Le premier modèle de Correction, un petit modèle, va classer la phrase en tant qu’ « hallucination » ou pas. Si la phrase est catégorisée comme telle, un autre modèle, plus gros, est utilisé pour générer une explication de cette catégorisation. Si ce modèle considère que la phrase générée n’est pas une « hallucination », un mécanisme de retour d’information affine les résultats du premier modèle.

Le système de Microsoft, qui utilise la génération augmentée de récupération (RAG, retrieval-augmented generation), a besoin de s’appuyer sur un ensemble de documents donné par l’utilisateur comme « base de raisonnement ».

Les hallucinations sont intrinsèques aux modèles de langage

Interrogé par TechCrunch sur ce système, Os Keyes, doctorant à l’université de Washington, explique qu’ « essayer d’éliminer les hallucinations de l’IA générative, c’est comme essayer d’éliminer l’hydrogène de l’eau ».

Pour Mike Cook, chercheur à l’université Queen Mary, cette correction au fil de l’eau et sans transparence pourrait donner un faux sentiment de disparition des hallucinations. « Microsoft, comme OpenAI et Google, ont créé cette situation problématique dans laquelle on se fie aux modèles dans des scénarios où ils se trompent fréquemment » explique-t-il à TechCrunch. Mais pour Mike Cook, « Microsoft répète maintenant l’erreur à un niveau plus élevé. Disons que cela nous fait passer d’une sécurité de 90 % à une sécurité de 99 %le problème n’a jamais vraiment été dans ces 9 %. Il se situera toujours dans le 1 % d’erreurs que nous ne détectons pas encore ».

Une perte de confiance des clients

Problème pour Microsoft et ses concurrents, les « hallucinations » commencent à miner la confiance de leurs utilisateurs dans leurs nouveaux outils. Nos collègues de The Information expliquaient début septembre que certains clients de Microsoft n’utilisent plus l’IA d’Office censée les aider. Fin juillet, Business Insider racontait qu’une entreprise de l’industrie pharmaceutique a abandonné au bout de six mois son accord avec Microsoft concernant Copilot, car les outils proposés n’étaient pas assez performants pour justifier l’investissement.

Interrogés par le cabinet de KPMG, six responsables de la tech du Royaume-Uni sur dix considèrent que les hallucinations sont les plus gros problèmes lorsqu’on adopte des outils d’IA générative.

Microsoft se lance tardivement à l’assaut des « hallucinations » de ses IA

30 septembre 2024 à 06:50
Modèle de Langage Sans Défaut ?
Microsoft se lance tardivement à l’assaut des « hallucinations » de ses IA

L’entreprise de Redmond lance un outil appelé « Correction » censé identifier et proposer des réécritures de textes générés par des IA. Cet outil s’appuie lui aussi sur des modèles de langage. L’outil arrive tard, alors que le doute s’installe dans une partie des entreprises sur la confiance à accorder aux IA génératives.

Comme l’avoue maintenant Microsoft dans sa vidéo de promotion de son nouvel outil « Correction », « les « hallucinations » des IA peuvent avoir des conséquences sur la précision, la confiance de l’utilisateur et la crédibilité de votre application ».

Jusqu’à récemment, les entreprises d’IA génératives ont massivement diffusé ce genre d’outils sans se préoccuper de ces conséquences. Pourtant, ces « hallucinations » – ou plutôt des erreurs dans lesquelles le système produit du texte ou des images incohérents – étaient présentes depuis les débuts de l’utilisation publique des grands modèles.

Des rustines pour éviter les hallucinations

Ces entreprises commencent à proposer quelques rustines pour combler les erreurs de leurs modèles. Il semble aussi, alors que les milieux financiers parlent de plus en plus d’une bulle de l’IA, qu’elles doivent montrer aux investisseurs que leurs systèmes peuvent être améliorés. En juin, OpenAI annonçait son CriticGPT pour proposer des corrections sur des erreurs de code générées par GPT-4. Fin juin, Google a aussi proposé son propre système.

Ici, avec Correction, Microsoft assure pouvoir proposer un outil qui peut détecter et réécrire des contenus incorrects générés par n’importe quelle IA générative. « Il est essentiel de donner à nos clients les moyens de comprendre les contenus non fondés et les hallucinations et d’agir en conséquence, d’autant plus que la demande de fiabilité et d’exactitude des contenus générés par l’IA ne cesse d’augmenter », explique l’entreprise.

Microsoft propose cet outil aux utilisateurs de son API Azure AI Content Safety qui peuvent s’en servir sur du texte généré par n’importe quel modèle.

Interrogé par TechCrunch, Microsoft affirme que « Correction est alimenté par un nouveau processus d’utilisation de petits et grands modèles de langage pour aligner les sorties sur des documents donnés ». L’entreprise ajoute : « nous espérons que cette nouvelle fonctionnalité aidera les créateurs et les utilisateurs d’IA générative dans des domaines tels que la médecine, où les développeurs d’applications déterminent que la précision des réponses est d’une importance significative ».

Des modèles pour corriger d’autres modèles

Elle redirige aussi vers un article mis en ligne récemment par les chercheurs de Microsoft sur arXiv. Comme le remarque TechCrunch, « le document omet des détails essentiels, tels que les ensembles de données utilisés pour entrainer les modèles ».

Cet article propose un enchainement de deux modèles de langage pour analyser la phrase générée par le modèle testé. Le premier modèle de Correction, un petit modèle, va classer la phrase en tant qu’ « hallucination » ou pas. Si la phrase est catégorisée comme telle, un autre modèle, plus gros, est utilisé pour générer une explication de cette catégorisation. Si ce modèle considère que la phrase générée n’est pas une « hallucination », un mécanisme de retour d’information affine les résultats du premier modèle.

Le système de Microsoft, qui utilise la génération augmentée de récupération (RAG, retrieval-augmented generation), a besoin de s’appuyer sur un ensemble de documents donné par l’utilisateur comme « base de raisonnement ».

Les hallucinations sont intrinsèques aux modèles de langage

Interrogé par TechCrunch sur ce système, Os Keyes, doctorant à l’université de Washington, explique qu’ « essayer d’éliminer les hallucinations de l’IA générative, c’est comme essayer d’éliminer l’hydrogène de l’eau ».

Pour Mike Cook, chercheur à l’université Queen Mary, cette correction au fil de l’eau et sans transparence pourrait donner un faux sentiment de disparition des hallucinations. « Microsoft, comme OpenAI et Google, ont créé cette situation problématique dans laquelle on se fie aux modèles dans des scénarios où ils se trompent fréquemment » explique-t-il à TechCrunch. Mais pour Mike Cook, « Microsoft répète maintenant l’erreur à un niveau plus élevé. Disons que cela nous fait passer d’une sécurité de 90 % à une sécurité de 99 %le problème n’a jamais vraiment été dans ces 9 %. Il se situera toujours dans le 1 % d’erreurs que nous ne détectons pas encore ».

Une perte de confiance des clients

Problème pour Microsoft et ses concurrents, les « hallucinations » commencent à miner la confiance de leurs utilisateurs dans leurs nouveaux outils. Nos collègues de The Information expliquaient début septembre que certains clients de Microsoft n’utilisent plus l’IA d’Office censée les aider. Fin juillet, Business Insider racontait qu’une entreprise de l’industrie pharmaceutique a abandonné au bout de six mois son accord avec Microsoft concernant Copilot, car les outils proposés n’étaient pas assez performants pour justifier l’investissement.

Interrogés par le cabinet de KPMG, six responsables de la tech du Royaume-Uni sur dix considèrent que les hallucinations sont les plus gros problèmes lorsqu’on adopte des outils d’IA générative.

À partir d’avant-hierActualités numériques

☕️ Un terminal Starlink aurait été découvert par l’Ukraine sur un drone russe

27 septembre 2024 à 12:27
Un terminal Starlink aurait été découvert par l’Ukraine sur un drone russe

Selon le média ukrainien Defense Express et repris par Newsweek, la Russie aurait installé des terminaux Starlink sur ses drones Shahed de conception iranienne.

L’armée ukrainienne a indiqué mercredi dernier avoir intercepté 28 des 32 drones Shahed-136 lancés par la Russie dans la nuit de mardi à mercredi. Defense Express affirme que l’un d’entre eux était équipé d’un terminal Starlink.

Interrogées par Newsweek, les forces ukrainiennes n’ont pas voulu aborder le sujet, confirmant seulement qu’elles analysaient les cibles abattues.

L’histoire ne dit pas si Starlink compte cette utilisation dans les 4 millions d’utilisateurs qu’elle a revendiqués récemment.

Le torchon brule dans l’écosystème commercial de WordPress

27 septembre 2024 à 13:28
Next, un site propulsé par Wordpress ;)
Le torchon brule dans l’écosystème commercial de WordPress

Une bataille juridique s’est engagée entre deux des plus importants hébergeurs de sites WordPress : Automattic et WP Engine. Le premier accuse le second d’être rien de moins qu’un « cancer pour WordPress ». Jusque-là verbal, le conflit s’est récemment étendu puisqu’Automattic a décidé de bloquer l’accès de WordPress.org aux sites hébergés par son concurrent.

Le débat tourne, au départ, autour de l’utilisation de la marque WordPress, mais aussi des contributions plus ou moins importantes des protagonistes au logiciel libre qu’est WordPress.

Rappelons d’abord que WordPress doit son succès au fait d’être un logiciel libre distribué sous licence GNU GPL 2, mais aussi à l’existence d’une grande communauté qui propose une flopée d’extensions, notamment regroupées sur le site wordpress.org. Ce dernier est également le site de diffusion du code principal du logiciel ainsi que de son support.

Le projet a été créé en 2003 par Matt Mullenweg et Mike Little. Deux ans plus tard, le premier a créé l’entreprise Automattic qui héberge la plateforme commerciale de blogs wordpress.com s’appuyant sur le logiciel du même nom.

Les usages commerciaux de la marque gérée par Automattic

En 2006, Automattic a enregistré différentes marques autour du nom WordPress. Mais suite à des discussions dans la communauté, Matt Mullenweg a proposé de créer une fondation à laquelle Automattic a cédé les droits sur les marques. L’entreprise a gardé le droit d’utiliser WordPress.com pour elle-même. Matt Mullenweg a été autorisé à utiliser les noms WordPress.org et WordPress.net.

Automattic reste cependant le gestionnaire exclusif de la licence pour des usages commerciaux, explique la fondation qui gère, elle, les usages non-commerciaux.

WP Engine, un « cancer » pour WordPress ?

Et c’est sur cette question que Matt Mullenweg a publié un billet sur le site de wordpress.org pour affirmer que « WP Engine n’est pas WordPress » et critiquer l’utilisation de la marque par l’entreprise. Il accuse WP Engine de créer la confusion et d’en profiter financièrement :

« Ce que WP Engine vous donne n’est pas WordPress, c’est quelque chose qu’ils ont découpé, hacké, charcuté pour ressembler à WordPress, mais en fait ils vous donnent une contrefaçon bon marché et vous la font payer plus cher ».

Et il résume, de façon provocatrice : « c’est l’une des nombreuses raisons pour lesquelles ils sont un cancer pour WordPress, et il est important de se rappeler qu’en l’absence de contrôle, le cancer se propage ».

Escalade de menaces juridiques

WP Engine a d’abord répondu lundi 23 septembre que « les récentes attaques contre [eux] sont injustes et fausses et clairement conçues pour nuire à notre entreprise ». Elle affirmait que, depuis sa fondation en 2010, elle s’est consacrée « à faire progresser l’utilisation et l’adoption de WordPress en innovant, investissant et en s’impliquant activement dans la communauté ».

Mais l’entreprise a aussi répliqué légalement en envoyant une ordonnance de cessation et d’abstention à Automattic. Elle lui demande, ainsi qu’à son CEO Matt Mullenweg de « cesser de faire des déclarations fausses, nuisibles et désobligeantes à l’encontre de WP Engine et [de rétracter] ces déclarations ».

Automattic, dans la même journée (bien que l’information soit sortie mercredi), a envoyé sa propre ordonnance de cessation et d’abstention à WP Engine (PDF) lui demandant de « cesser immédiatement d’utiliser sans autorisation [ses] marques ».

Au passage, la fondation a changé sa page concernant l’utilisation des marques en ajoutant une remarque sur l’utilisation du terme « WP » :

« L’abréviation « WP » n’est pas couverte par les marques déposées de WordPress, mais ne l’utilisez pas d’une manière qui prête à confusion. Par exemple, de nombreuses personnes pensent que WP Engine est « WordPress Engine » et est officiellement associée à WordPress, ce qui n’est pas le cas. L’entreprise n’a jamais fait de don à la Fondation WordPress, bien qu’elle ait réalisé des milliards de dollars de revenus grâce à WordPress ».

Accès à WordPress.org coupé

Mais l’affaire est allée encore plus loin mercredi. Matt Mullenweg a revendiqué avoir coupé l’accès à wordpress.org pour tous les sites hébergés par WP Engine. Cette action a eu pour effet que les mises à jour de ces sites, qui s’appuyaient sur le site principal du projet, ont été bloquées :

This is absolutely insane and such a disgusting abuse of power by @photomatt. I have clients using @wpengine and now they can't easily install plugins or update themes. #WordPress https://t.co/UxdcGyCKLu pic.twitter.com/n60xV9xOje

— Dave Amirault (@ozskier) September 25, 2024

Dans son billet expliquant son action, Matt Mullenweg redirige les clients de WP Engine qui rencontrent ces problèmes vers le service support de l’entreprise. Il ajoute que tant que WP Engine menace juridiquement WordPress.org, l’entreprise « n’a plus d’accès gratuit aux ressources de WordPress.org ».

Pour lui, si « WP Engine veut contrôler votre expérience WordPress », « ils ont besoin de gérer leur propre système de connexion des utilisateurs, leurs serveurs de mise à jour, leur répertoire de plugins, leur répertoire de thèmes, leur répertoire de modèles, leur répertoire de blocs, leurs traductions, leur répertoire de photos, leur job board, leurs meetups, leurs conférences, leur bug tracker, leurs forums, leur Slack, leur Ping-o-matic, et leur showcase. Leurs serveurs ne peuvent plus accéder gratuitement à nos serveurs ».

Réagissant à cette annonce, WP Engine a tweeté que Matt Mullenweg « a abusé de son contrôle sur WordPress pour interférer avec l’accès des clients de WP Engine à WordPress.org, affirmant qu’il l’a fait parce que WP Engine a intenté une action en justice contre WordPress.org ». L’entreprise réfute en expliquant que son ordonnance de cessation et d’abstention « était une lettre – pas une action en justice – et était adressée à Automattic pour la tendance à la mauvaise conduite grave et répétée de Matt – un comportement qui doit cesser pour la santé et la stabilité de l’ensemble de la communauté ».

L’entreprise a d’abord publié un rapport expliquant la situation de blocage. Elle l’a ensuite mis à jour pour informer ses clients qu’elle avait trouvé une solution provisoire qui leur « permet d’effectuer des mises à jour de [leurs] plugins et thèmes comme [ils le feraient] normalement ».

☕️ Un terminal Starlink aurait été découvert par l’Ukraine sur un drone russe

27 septembre 2024 à 12:27
Un terminal Starlink aurait été découvert par l’Ukraine sur un drone russe

Selon le média ukrainien Defense Express et repris par Newsweek, la Russie aurait installé des terminaux Starlink sur ses drones Shahed de conception iranienne.

L’armée ukrainienne a indiqué mercredi dernier avoir intercepté 28 des 32 drones Shahed-136 lancés par la Russie dans la nuit de mardi à mercredi. Defense Express affirme que l’un d’entre eux était équipé d’un terminal Starlink.

Interrogées par Newsweek, les forces ukrainiennes n’ont pas voulu aborder le sujet, confirmant seulement qu’elles analysaient les cibles abattues.

L’histoire ne dit pas si Starlink compte cette utilisation dans les 4 millions d’utilisateurs qu’elle a revendiqués récemment.

☕️ Explosion de bipeurs au Liban : la Norvège a lancé un avis de recherche international

27 septembre 2024 à 06:57

Le média public norvégien NRK explique que la police criminelle norvégienne (Kripos) a lancé un avis de recherche international à propos d’une personne qui serait impliquée dans l’explosion des bipeurs au Liban. Celle-ci a causé au moins douze morts et près de 2 800 blessés et a été attribuée à Israël, qui ne l’a pas revendiquée.

Selon Reuters, la personne en question serait Rinson Jose, une personne de nationalité norvégienne. Il aurait disparu lors d’un voyage aux États-Unis la semaine dernière.

L’agence de presse explique qu’en 2022, il aurait ouvert une entreprise en Bulgarie qui serait impliquée dans la chaine d’approvisionnement des bipeurs. Les autorités bulgares ont enquêté, mais n’ont pas trouvé de preuve que les bipeurs en question ont été fabriqués ou exportés depuis leur pays.

Samedi dernier, le média indien The Hindu évoquait déjà une enquête de la police indienne sur Rinson Jose, originaire du pays, mais l’ayant quitté il y a une dizaine d’années.

Comme elles ne le considèrent plus comme Indien, les autorités du pays n’ont pas lancé d’action en justice ou d’enquête officielle contre lui.

☕️ Explosion de bipeurs au Liban : la Norvège a lancé un avis de recherche international

27 septembre 2024 à 06:57

Le média public norvégien NRK explique que la police criminelle norvégienne (Kripos) a lancé un avis de recherche international à propos d’une personne qui serait impliquée dans l’explosion des bipeurs au Liban. Celle-ci a causé au moins douze morts et près de 2 800 blessés et a été attribuée à Israël, qui ne l’a pas revendiquée.

Selon Reuters, la personne en question serait Rinson Jose, une personne de nationalité norvégienne. Il aurait disparu lors d’un voyage aux États-Unis la semaine dernière.

L’agence de presse explique qu’en 2022, il aurait ouvert une entreprise en Bulgarie qui serait impliquée dans la chaine d’approvisionnement des bipeurs. Les autorités bulgares ont enquêté, mais n’ont pas trouvé de preuve que les bipeurs en question ont été fabriqués ou exportés depuis leur pays.

Samedi dernier, le média indien The Hindu évoquait déjà une enquête de la police indienne sur Rinson Jose, originaire du pays, mais l’ayant quitté il y a une dizaine d’années.

Comme elles ne le considèrent plus comme Indien, les autorités du pays n’ont pas lancé d’action en justice ou d’enquête officielle contre lui.

☕️ La Russie bloque la base de données sur la censure OONI

26 septembre 2024 à 15:19

L’Open Observatory of Network Interference est un projet de surveillance de la censure d’Internet au niveau mondial lancé en 2012 dans le cadre du projet Tor. Selon le billet de blog publié par l’organisation, la Russie a décidé le 11 septembre de bloquer une de ses plateformes : OONI Explorer.

Celle-ci rassemble énormément de données sur le blocage de différents sites sur des milliers de sous-réseaux dans 242 pays. Ces données sont récoltées par les internautes via l’application OONI Probe. « Parmi tous les pays, les utilisateurs d’OONI Probe en Russie contribuent au deuxième plus grand volume de mesures (après les États-Unis, où les utilisateurs d’OONI Probe contribuent au plus grand nombre de mesures parmi tous les pays) », explique l’organisation.

Elle ajoute : « cela nous a permis d’étudier différents cas de censure de l’internet en Russie, tels que le blocage de Tor, le blocage de sites web de médias indépendants et la manière dont la censure de l’internet en Russie a évolué au cours de la guerre en Ukraine ».

OONI explique avoir reçu un email du Service fédéral de supervision des communications, Roskomnadzor, l’informant de cette décision de blocage et notamment l’url de la page visée en question : https://explorer.ooni.org/ru/chart/circumvention.

Dans son billet, OONI remercie le Roskomnadzor de l’avoir informé, faisant remarquer que la Chine n’a pas cette délicatesse. L’organisation constate que cette url pointe « vers la traduction russe de notre tableau de bord sur le contournement de la censure ».

« Cette page ne comprend que des mesures sur l’accessibilité de trois outils de contournement (Psiphon, Tor, Tor Snowflake), et nous soulignons même que la présence d’anomalies dans les mesures n’est pas nécessairement indicative d’un blocage, car des faux positifs peuvent se produire. En attendant, le reste de la plateforme OONI Explorer fournit une mine de données sur de nombreuses autres formes de censure de l’internet en Russie et dans le monde », ajoute-t-elle.

Mais, si ce n’est que cette page qui est officiellement ciblée, OONI remarque qu’ « en pratique, toutefois, le blocage n’est pas aussi ciblé, car il n’est pas possible de le limiter à une page web spécifique lorsqu’un site web est hébergé sur HTTPS ». Résultat, tout le site explorer.ooni.org est inaccessible en Russie.

☕️ La Russie bloque la base de données sur la censure OONI

26 septembre 2024 à 15:19

L’Open Observatory of Network Interference est un projet de surveillance de la censure d’Internet au niveau mondial lancé en 2012 dans le cadre du projet Tor. Selon le billet de blog publié par l’organisation, la Russie a décidé le 11 septembre de bloquer une de ses plateformes : OONI Explorer.

Celle-ci rassemble énormément de données sur le blocage de différents sites sur des milliers de sous-réseaux dans 242 pays. Ces données sont récoltées par les internautes via l’application OONI Probe. « Parmi tous les pays, les utilisateurs d’OONI Probe en Russie contribuent au deuxième plus grand volume de mesures (après les États-Unis, où les utilisateurs d’OONI Probe contribuent au plus grand nombre de mesures parmi tous les pays) », explique l’organisation.

Elle ajoute : « cela nous a permis d’étudier différents cas de censure de l’internet en Russie, tels que le blocage de Tor, le blocage de sites web de médias indépendants et la manière dont la censure de l’internet en Russie a évolué au cours de la guerre en Ukraine ».

OONI explique avoir reçu un email du Service fédéral de supervision des communications, Roskomnadzor, l’informant de cette décision de blocage et notamment l’url de la page visée en question : https://explorer.ooni.org/ru/chart/circumvention.

Dans son billet, OONI remercie le Roskomnadzor de l’avoir informé, faisant remarquer que la Chine n’a pas cette délicatesse. L’organisation constate que cette url pointe « vers la traduction russe de notre tableau de bord sur le contournement de la censure ».

« Cette page ne comprend que des mesures sur l’accessibilité de trois outils de contournement (Psiphon, Tor, Tor Snowflake), et nous soulignons même que la présence d’anomalies dans les mesures n’est pas nécessairement indicative d’un blocage, car des faux positifs peuvent se produire. En attendant, le reste de la plateforme OONI Explorer fournit une mine de données sur de nombreuses autres formes de censure de l’internet en Russie et dans le monde », ajoute-t-elle.

Mais, si ce n’est que cette page qui est officiellement ciblée, OONI remarque qu’ « en pratique, toutefois, le blocage n’est pas aussi ciblé, car il n’est pas possible de le limiter à une page web spécifique lorsqu’un site web est hébergé sur HTTPS ». Résultat, tout le site explorer.ooni.org est inaccessible en Russie.

Après les JO, le préfet de Paris veut prolonger la vidéosurveillance algorithmique

26 septembre 2024 à 14:55
Quelle surprise !
Après les JO, le préfet de Paris veut prolonger la vidéosurveillance algorithmique

Devant la Commission des lois, le préfet de police de Paris, Laurent Nuñez, s’est dit favorable à la reconduction de la vidéosurveillance algorithmique dans les rues de la capitale après avoir jugé « positif » le bilan de son expérimentation lors des Jeux olympiques et paralympiques, sans pour autant donner de chiffres précis.

Après l’expérimentation de la vidéosurveillance algorithmique autorisée au titre de l’organisation des Jeux olympiques et paralympique, le préfet de police de Paris, Laurent Nuñez a soutenu la reconduction du dispositif devant la commission des lois de l’Assemblée nationale ce mercredi 25 septembre, comme l’a repéré Le Monde, utilisant le fameux effet cliquet qui « empêche le retour en arrière d’un processus une fois un certain stade dépassé ».

« Le gouvernement vous présentera ou pas une reconduction, mais, à titre personnel, et ce sera la proposition que nous allons pousser, nous y sommes très favorables », a appuyé Laurent Nuñez face aux députés.


Il reste 83% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Meta Llama 3.2 : du modèle multimodal à celui « de poche »

26 septembre 2024 à 10:31

L’entreprise de Mark Zuckerberg a annoncé mercredi 25 septembre la sortie de la nouvelle version de sa famille de modèles de langage Llama.

Cette version 3.2, qui arrive seulement deux mois après la 3.1, est la première intégrant des modèles multimodaux (intégrant donc le traitement d’images) chez Meta. En l’occurrence, il s’agit des modèles 11B et 90B de la famille.

Mais cette famille est aussi composée de modèles beaucoup plus petits (1B et 3B), qui se concentrent seulement sur le traitement de textes. Ces modèles, conçus pour fonctionner sur des mobiles ou des appareils en « edge », pourraient être utilisés pour créer des fonctionnalités utilisant l’IA générative sans avoir à accéder à Internet.

Comme l’entreprise l’avait indiqué précédemment, ses modèles multimodaux (11B et 90B en l’occurrence) ne sont pas disponibles pour l’Europe. Elle évoquait « la nature imprévisible de l’environnement réglementaire européen » pour justifier sa décision tout en visant le RGPD qui a été voté il y a huit ans. Plus récemment, elle a écrit une lettre ouverte à l’Europe, évoquant un cadre règlementaire fragmenté et signée par de nombreuses entreprises.

OpenAI veut s’émanciper, alors que trois dirigeants quittent encore le navire

26 septembre 2024 à 09:41
OpenAI veut s’émanciper, alors que trois dirigeants quittent encore le navire

L’entreprise responsable de ChatGPT a un plan pour se rendre plus attractive pour les investisseurs : enlever tout pouvoir de contrôle à sa structure originelle et non lucrative. Par la même occasion, elle envisage de donner 7 % de participation à son CEO Sam Altman. Dans le même temps, trois nouveaux départs sont annoncés dans sa direction dont la CTO Mira Murati.

C’est un nouveau rebondissement dans la structure d’OpenAI. D’après des sources de l’agence de presse Reuters, le créateur de ChatGPT ferait en sorte de se passer du contrôle du conseil d’administration de sa structure à but non lucratif pour attirer plus facilement les investisseurs.

Cette structure non lucrative ne serait pas pour autant supprimée totalement et garderait une participation minoritaire dans l’entreprise, au risque qu’elle ne soit pas beaucoup plus qu’une coquille vide.

En juin dernier, le CEO Sam Altman envisageait déjà cette possibilité et en avait informé certains actionnaires de l’entreprise.

Changement radical comparé au projet initial

Cœur du projet OpenAI lancé 2015, la structure non lucrative montée par 11 personnes dont Elon Musk et Sam Altman étaient co-présidents, se donnait comme but de « faire progresser l’intelligence numérique de la manière la plus susceptible de profiter à l’humanité dans son ensemble, sans être contraints par la nécessité de générer un rendement financier ».

Elle a ensuite dérivé vers une fonction de contrôle des risques des IA créées par les ingénieurs et chercheurs du projet et vendues par la structure lucrative. Ce nouveau changement devrait donc avoir des conséquences sur la manière dont ces risques sont encadrés au sein d’OpenAI.

Néanmoins, dans un communiqué obtenu par Bloomberg, OpenAI affirme qu’elle reste « concentrée sur la construction d’une IA qui profite à tous » et assure que « l’organisation à but non lucratif est au cœur de [leur] mission et continuera d’exister » sans pour autant qu’on sache quel sera son rôle dans la nouvelle organisation.

Rappelons qu’en novembre 2023, lors d’une semaine de folie, Sam Altman avait été limogé d’OpenAI avant d’être réintégré, avec un nouveau conseil d’administration. Il lui avait fallu attendre mars dernier pour réintégrer ce CA.

7 % pour Altman…

Un autre changement important chez OpenAI pourrait venir. L’entreprise pense aussi donner pour la première fois une part au sein de son capital à son CEO, Sam Altman, expliquait toujours Reuters. Bloomberg parle de 7 % de l’entreprise, ce qui, au vu de la valorisation actuelle de l’entreprise à 150 milliards de dollars, équivaudrait à 10,5 milliards de dollars pour Sam Altman.

… et trois départs dans l’équipe de direction

Enfin, l’entreprise essuie, en parallèle, le départ de trois de ses responsables, dont sa CTO Mira Murati. Celle-ci a annoncé la nouvelle mercredi 25 septembre via un tweet dans lequel elle affirme se retirer « parce qu’ [elle voulait] se donner le temps et l’espace nécessaires » pour ses propres projets, sans s’appesantir sur d’autres raisons. Selon Reuters, elle reste pour l’instant au sein de l’entreprise en prenant le temps de négocier son départ. Dans un long tweet, Sam Altman a fait comprendre que Mira Murati ne l’avait prévenu que le matin même.

Rappelons que, lors de la fameuse semaine de novembre dernier, elle avait été brièvement nommée CEO par intérim avant de signer avec plus de 500 de ses collègues une lettre de soutien à Sam Altman.

Le vice-président Recherche de la structure, Barret Zoph, et le Chief Research Officer Bob McGrew, ont tous deux allongé la longue liste des responsables d’OpenAI qui ont décidé de partir récemment.

☕️ Meta Llama 3.2 : du modèle multimodal à celui « de poche »

26 septembre 2024 à 10:31

L’entreprise de Mark Zuckerberg a annoncé mercredi 25 septembre la sortie de la nouvelle version de sa famille de modèles de langage Llama.

Cette version 3.2, qui arrive seulement deux mois après la 3.1, est la première intégrant des modèles multimodaux (intégrant donc le traitement d’images) chez Meta. En l’occurrence, il s’agit des modèles 11B et 90B de la famille.

Mais cette famille est aussi composée de modèles beaucoup plus petits (1B et 3B), qui se concentrent seulement sur le traitement de textes. Ces modèles, conçus pour fonctionner sur des mobiles ou des appareils en « edge », pourraient être utilisés pour créer des fonctionnalités utilisant l’IA générative sans avoir à accéder à Internet.

Comme l’entreprise l’avait indiqué précédemment, ses modèles multimodaux (11B et 90B en l’occurrence) ne sont pas disponibles pour l’Europe. Elle évoquait « la nature imprévisible de l’environnement réglementaire européen » pour justifier sa décision tout en visant le RGPD qui a été voté il y a huit ans. Plus récemment, elle a écrit une lettre ouverte à l’Europe, évoquant un cadre règlementaire fragmenté et signée par de nombreuses entreprises.

OpenAI veut s’émanciper, alors que trois dirigeants quittent encore le navire

26 septembre 2024 à 09:41
OpenAI veut s’émanciper, alors que trois dirigeants quittent encore le navire

L’entreprise responsable de ChatGPT a un plan pour se rendre plus attractive pour les investisseurs : enlever tout pouvoir de contrôle à sa structure originelle et non lucrative. Par la même occasion, elle envisage de donner 7 % de participation à son CEO Sam Altman. Dans le même temps, trois nouveaux départs sont annoncés dans sa direction dont la CTO Mira Murati.

C’est un nouveau rebondissement dans la structure d’OpenAI. D’après des sources de l’agence de presse Reuters, le créateur de ChatGPT ferait en sorte de se passer du contrôle du conseil d’administration de sa structure à but non lucratif pour attirer plus facilement les investisseurs.

Cette structure non lucrative ne serait pas pour autant supprimée totalement et garderait une participation minoritaire dans l’entreprise, au risque qu’elle ne soit pas beaucoup plus qu’une coquille vide.

En juin dernier, le CEO Sam Altman envisageait déjà cette possibilité et en avait informé certains actionnaires de l’entreprise.

Changement radical comparé au projet initial

Cœur du projet OpenAI lancé 2015, la structure non lucrative montée par 11 personnes dont Elon Musk et Sam Altman étaient co-présidents, se donnait comme but de « faire progresser l’intelligence numérique de la manière la plus susceptible de profiter à l’humanité dans son ensemble, sans être contraints par la nécessité de générer un rendement financier ».

Elle a ensuite dérivé vers une fonction de contrôle des risques des IA créées par les ingénieurs et chercheurs du projet et vendues par la structure lucrative. Ce nouveau changement devrait donc avoir des conséquences sur la manière dont ces risques sont encadrés au sein d’OpenAI.

Néanmoins, dans un communiqué obtenu par Bloomberg, OpenAI affirme qu’elle reste « concentrée sur la construction d’une IA qui profite à tous » et assure que « l’organisation à but non lucratif est au cœur de [leur] mission et continuera d’exister » sans pour autant qu’on sache quel sera son rôle dans la nouvelle organisation.

Rappelons qu’en novembre 2023, lors d’une semaine de folie, Sam Altman avait été limogé d’OpenAI avant d’être réintégré, avec un nouveau conseil d’administration. Il lui avait fallu attendre mars dernier pour réintégrer ce CA.

7 % pour Altman…

Un autre changement important chez OpenAI pourrait venir. L’entreprise pense aussi donner pour la première fois une part au sein de son capital à son CEO, Sam Altman, expliquait toujours Reuters. Bloomberg parle de 7 % de l’entreprise, ce qui, au vu de la valorisation actuelle de l’entreprise à 150 milliards de dollars, équivaudrait à 10,5 milliards de dollars pour Sam Altman.

… et trois départs dans l’équipe de direction

Enfin, l’entreprise essuie, en parallèle, le départ de trois de ses responsables, dont sa CTO Mira Murati. Celle-ci a annoncé la nouvelle mercredi 25 septembre via un tweet dans lequel elle affirme se retirer « parce qu’ [elle voulait] se donner le temps et l’espace nécessaires » pour ses propres projets, sans s’appesantir sur d’autres raisons. Selon Reuters, elle reste pour l’instant au sein de l’entreprise en prenant le temps de négocier son départ. Dans un long tweet, Sam Altman a fait comprendre que Mira Murati ne l’avait prévenu que le matin même.

Rappelons que, lors de la fameuse semaine de novembre dernier, elle avait été brièvement nommée CEO par intérim avant de signer avec plus de 500 de ses collègues une lettre de soutien à Sam Altman.

Le vice-président Recherche de la structure, Barret Zoph, et le Chief Research Officer Bob McGrew, ont tous deux allongé la longue liste des responsables d’OpenAI qui ont décidé de partir récemment.

L’ambigu rapport aux sciences du nouveau ministre de la Recherche, Patrick Hetzel

24 septembre 2024 à 12:37
Excès d'Hetzel
L’ambigu rapport aux sciences du nouveau ministre de la Recherche, Patrick Hetzel

Député de droite (UMP puis LR) depuis 2012, le nouveau ministre de l’Enseignement supérieur et de la recherche (ESR), Patrick Hetzel s’intéresse aux questions couvertes par son ministère depuis son entrée en politique. Pourtant, il prend des positions en contradiction avec les connaissances scientifiques : hydroxychloroquine, homéopathie, « wokisme », vaccins, et dérives sectaires…

Succédant à Sylvie Retailleau qui aura passé deux ans au ministère de l’Enseignement supérieur et la recherche (ESR), Patrick Hetzel arrive dans un lieu qu’il connait. Lors de la passation de pouvoir ce lundi 23 septembre, cet enseignant-chercheur en sciences de gestion s’est dit « attaché à cette maison » qu’il avait déjà rejointe en 2008, alors sous la responsabilité de Valérie Pécresse.

Cerveau de la loi d’autonomie des universités

« Les politiques publiques en matière d’ESR et de sciences ne peuvent s’inscrire que dans la durée, il faut savoir rester modeste », ajoutait-il lors de cette passation. Il peut quand même revendiquer d’être le « cerveau » de la loi Libertés et responsabilités des universités (LRU, dite aussi loi d’autonomie des universités) en ayant jeté les bases dans un rapport rendu en 2006 au premier ministre d’alors, Dominique de Villepin. Elle est depuis devenue le socle de la politique universitaire de la droite française et n’a jamais été remise en question par les gouvernements qui se sont succédé.

Cette loi a transféré la responsabilité du budget et des ressources humaines des universités des mains de l’État à celles des directions d’établissements. Mais seize ans après son vote, Virginie Dupont, la vice-présidente du lobby des présidents d’universités France Universités, déplorait la semaine dernière qu’ « en 2022, 15 universités étaient en déficit sur leurs comptes financiers. En 2023, il y en avait 30. Pour 2024, il y en a 60 sur 74 qui ont voté un budget initial en déficit ».

Critique de la loi de programmation pour la recherche

En tant que député, Patrick Hetzel ne s’est pas éloigné des questions budgétaires de l’ESR. En 2020, lors du débat sur la loi de programmation pour la recherche (LPPR) pour 2021 à 2030, il dénonçait une « juxtaposition de mesures technocratiques […] qui ne rassemble pas, ne crée pas de vision partagée » et l’ « inexistence d’une vision stratégique ». Il dénonçait un problème de calendrier dans le budget de cette loi pluriannuelle étalée sur 10 ans et non sur 7 et demandait que la recherche française ait « des moyens conséquents dès à présent ».

Il devra pourtant, sans doute, défendre une baisse de ce budget, à moins que le gouvernement ne revienne fortement sur les pistes de dépenses prévues par son prédécesseur. En effet, selon le tiré à part finalement transmis au Parlement et obtenu par nos confrères de Politico la semaine dernière, le budget de l’Enseignement supérieur et de la recherche pourrait perdre 400 millions d’euros (ESR hors LPPR  :- 600 millions d’euros, ESR LPPR : 200 millions d’euros).

Lors de la passation de pouvoir avec Sylvie Retailleau, Patrick Hertzel a aussi rappelé son passage à l’office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST) de 2017 à 2022, montrant son attachement au débat sur les questions scientifiques. Mais ce n’est pas parce qu’il est lui-même universitaire et passionné des questions de l’ESR qu’il en épouse les consensus scientifiques.

Des positions obscurantistes

Au contraire, sur certaines questions, le nouveau ministre de l’Enseignement supérieur et de la recherche a parfois pris des positions obscurantistes. Comme l’ont souligné nos confrères de Libération, plusieurs d’entre elles ont été exhumées récemment.

Le 2 avril 2020, par exemple, Patrick Hetzel avait demandé l’autorisation de l’utilisation de l’hydroxychloroquine de l’azithromycine et du Zinc « dans le traitement précoce du COVID et ceci jusqu’à ce que soient connus les résultats des essais cliniques en cours ». Sans aucune preuve d’efficacité à l’époque, le ministre de la Recherche actuel voulait donc autoriser des traitements qui ont depuis été invalidés. Dans cette lettre, comme le pointe Fabrice Frank sur Twitter, il accusait aussi de manière erronée (voir le travail de nos collègues de l’AFP) le Clonazépam, substance active de l’anticonvulsivant Rivotril servant à alléger les souffrances, d’avoir « mis fin » à la vie de patients.

Mi-2021, le nouveau ministre de l’ESR a aussi décrié l’obligation vaccinale en s’appuyant sur la non-finalisation des essais de « phase III ». Comme le rappelle Libération, le ministre de la Santé de l’époque, Olivier Véran s’était exaspéré :

« Ressortir les arguments sur un vaccin qui est en phase III, comme si c’était un vaccin [pour lequel il n’y a] pas de recul… je vous le dis, c’est votre droit parlementaire, [mais] je ne trouve pas ça très responsable. Le vaccin est éprouvé. […] On entend tout et n’importe quoi sur ce vaccin : regardez ce que dit la science, regardez ce que disent les données des laboratoires, les données des organismes publics français, européens, américains et internationaux sur ces vaccins ».

Pourtant, lors de la passation de pouvoir au ministère, Patrick Hetzel a regretté les manquements de l’industrie française en matière de vaccins : « nous avons été collectivement face à une frustration très grande lorsqu’en 2020 nous avons vu d’autres pays avancer sur l’élaboration de vaccins pour lutter à l’époque contre cette pandémie et de nous retrouver au sein du pays de Pasteur sans être en mesure de jouer dans cette cour des grands ».

Contre le déremboursement de l’homéopathie

En 2020, Patrick Hetzel a aussi voulu mettre des bâtons dans les roues du déremboursement de l’homéopathie en co-signant une proposition de loi proposant un moratoire de deux ans. Ce texte justifiait cette mesure par le besoin de continuer « les négociations des plans de sauvegarde de l’emploi des entreprises pharmaceutiques spécialisées dans la production de médicaments homéopathiques ».

En 2021, il faisait aussi partie des députés proposant « l’insertion des médecines complémentaires et plus spécifiquement des médicaments non-conventionnels au sein des nomenclatures de l’assurance maladie » qui « permettrait donc de mieux orienter les patients ». Ce processus de déremboursement avait pourtant été initié suite à la publication en 2018 dans le Figaro d’une tribune de 124 professionnels de la santé.

Comme l’indique l’Express, le nouveau ministre s’est aussi récemment opposé à la loi contre les dérives sectaires.

Patrick Hetzel s’est aussi illustré en signant une proposition de résolution proposant la création d’une commission d’enquête « relative à l’entrisme idéologique et aux dérives islamo-gauchistes dans l’enseignement supérieur ». Ce texte reprochait notamment à ses désormais prédécesseures Frédérique Vidal et Sylvie Retailleau d’avoir renoncé à la commande d’un rapport au CNRS sur le « wokisme » à l’université : « l’impuissance politique n’est pas acceptable et le renoncement n’est pas une option », dénonçait-il.

Enfin, sur les questions de numérique et d’IA, qui intéressent plus particulièrement Next et dont il assure de façon inhabituelle la tutelle du secrétariat d’État, Patrick Hetzel semble laisser pour l’instant le dossier complet à Clara Chappaz, n’abordant le sujet dans son discours de passation qu’en le qualifiant de « domaine passionnant ».

L’ambigu rapport aux sciences du nouveau ministre de la Recherche, Patrick Hetzel

24 septembre 2024 à 12:37
Excès d'Hetzel
L’ambigu rapport aux sciences du nouveau ministre de la Recherche, Patrick Hetzel

Député de droite (UMP puis LR) depuis 2012, le nouveau ministre de l’Enseignement supérieur et de la recherche (ESR), Patrick Hetzel s’intéresse aux questions couvertes par son ministère depuis son entrée en politique. Pourtant, il prend des positions en contradiction avec les connaissances scientifiques : hydroxychloroquine, homéopathie, « wokisme », vaccins, et dérives sectaires…

Succédant à Sylvie Retailleau qui aura passé deux ans au ministère de l’Enseignement supérieur et la recherche (ESR), Patrick Hetzel arrive dans un lieu qu’il connait. Lors de la passation de pouvoir ce lundi 23 septembre, cet enseignant-chercheur en sciences de gestion s’est dit « attaché à cette maison » qu’il avait déjà rejointe en 2008, alors sous la responsabilité de Valérie Pécresse.

Cerveau de la loi d’autonomie des universités

« Les politiques publiques en matière d’ESR et de sciences ne peuvent s’inscrire que dans la durée, il faut savoir rester modeste », ajoutait-il lors de cette passation. Il peut quand même revendiquer d’être le « cerveau » de la loi Libertés et responsabilités des universités (LRU, dite aussi loi d’autonomie des universités) en ayant jeté les bases dans un rapport rendu en 2006 au premier ministre d’alors, Dominique de Villepin. Elle est depuis devenue le socle de la politique universitaire de la droite française et n’a jamais été remise en question par les gouvernements qui se sont succédé.

Cette loi a transféré la responsabilité du budget et des ressources humaines des universités des mains de l’État à celles des directions d’établissements. Mais seize ans après son vote, Virginie Dupont, la vice-présidente du lobby des présidents d’universités France Universités, déplorait la semaine dernière qu’ « en 2022, 15 universités étaient en déficit sur leurs comptes financiers. En 2023, il y en avait 30. Pour 2024, il y en a 60 sur 74 qui ont voté un budget initial en déficit ».

Critique de la loi de programmation pour la recherche

En tant que député, Patrick Hetzel ne s’est pas éloigné des questions budgétaires de l’ESR. En 2020, lors du débat sur la loi de programmation pour la recherche (LPPR) pour 2021 à 2030, il dénonçait une « juxtaposition de mesures technocratiques […] qui ne rassemble pas, ne crée pas de vision partagée » et l’ « inexistence d’une vision stratégique ». Il dénonçait un problème de calendrier dans le budget de cette loi pluriannuelle étalée sur 10 ans et non sur 7 et demandait que la recherche française ait « des moyens conséquents dès à présent ».

Il devra pourtant, sans doute, défendre une baisse de ce budget, à moins que le gouvernement ne revienne fortement sur les pistes de dépenses prévues par son prédécesseur. En effet, selon le tiré à part finalement transmis au Parlement et obtenu par nos confrères de Politico la semaine dernière, le budget de l’Enseignement supérieur et de la recherche pourrait perdre 400 millions d’euros (ESR hors LPPR  :- 600 millions d’euros, ESR LPPR : 200 millions d’euros).

Lors de la passation de pouvoir avec Sylvie Retailleau, Patrick Hertzel a aussi rappelé son passage à l’office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST) de 2017 à 2022, montrant son attachement au débat sur les questions scientifiques. Mais ce n’est pas parce qu’il est lui-même universitaire et passionné des questions de l’ESR qu’il en épouse les consensus scientifiques.

Des positions obscurantistes

Au contraire, sur certaines questions, le nouveau ministre de l’Enseignement supérieur et de la recherche a parfois pris des positions obscurantistes. Comme l’ont souligné nos confrères de Libération, plusieurs d’entre elles ont été exhumées récemment.

Le 2 avril 2020, par exemple, Patrick Hetzel avait demandé l’autorisation de l’utilisation de l’hydroxychloroquine de l’azithromycine et du Zinc « dans le traitement précoce du COVID et ceci jusqu’à ce que soient connus les résultats des essais cliniques en cours ». Sans aucune preuve d’efficacité à l’époque, le ministre de la Recherche actuel voulait donc autoriser des traitements qui ont depuis été invalidés. Dans cette lettre, comme le pointe Fabrice Frank sur Twitter, il accusait aussi de manière erronée (voir le travail de nos collègues de l’AFP) le Clonazépam, substance active de l’anticonvulsivant Rivotril servant à alléger les souffrances, d’avoir « mis fin » à la vie de patients.

Mi-2021, le nouveau ministre de l’ESR a aussi décrié l’obligation vaccinale en s’appuyant sur la non-finalisation des essais de « phase III ». Comme le rappelle Libération, le ministre de la Santé de l’époque, Olivier Véran s’était exaspéré :

« Ressortir les arguments sur un vaccin qui est en phase III, comme si c’était un vaccin [pour lequel il n’y a] pas de recul… je vous le dis, c’est votre droit parlementaire, [mais] je ne trouve pas ça très responsable. Le vaccin est éprouvé. […] On entend tout et n’importe quoi sur ce vaccin : regardez ce que dit la science, regardez ce que disent les données des laboratoires, les données des organismes publics français, européens, américains et internationaux sur ces vaccins ».

Pourtant, lors de la passation de pouvoir au ministère, Patrick Hetzel a regretté les manquements de l’industrie française en matière de vaccins : « nous avons été collectivement face à une frustration très grande lorsqu’en 2020 nous avons vu d’autres pays avancer sur l’élaboration de vaccins pour lutter à l’époque contre cette pandémie et de nous retrouver au sein du pays de Pasteur sans être en mesure de jouer dans cette cour des grands ».

Contre le déremboursement de l’homéopathie

En 2020, Patrick Hetzel a aussi voulu mettre des bâtons dans les roues du déremboursement de l’homéopathie en co-signant une proposition de loi proposant un moratoire de deux ans. Ce texte justifiait cette mesure par le besoin de continuer « les négociations des plans de sauvegarde de l’emploi des entreprises pharmaceutiques spécialisées dans la production de médicaments homéopathiques ».

En 2021, il faisait aussi partie des députés proposant « l’insertion des médecines complémentaires et plus spécifiquement des médicaments non-conventionnels au sein des nomenclatures de l’assurance maladie » qui « permettrait donc de mieux orienter les patients ». Ce processus de déremboursement avait pourtant été initié suite à la publication en 2018 dans le Figaro d’une tribune de 124 professionnels de la santé.

Comme l’indique l’Express, le nouveau ministre s’est aussi récemment opposé à la loi contre les dérives sectaires.

Patrick Hetzel s’est aussi illustré en signant une proposition de résolution proposant la création d’une commission d’enquête « relative à l’entrisme idéologique et aux dérives islamo-gauchistes dans l’enseignement supérieur ». Ce texte reprochait notamment à ses désormais prédécesseures Frédérique Vidal et Sylvie Retailleau d’avoir renoncé à la commande d’un rapport au CNRS sur le « wokisme » à l’université : « l’impuissance politique n’est pas acceptable et le renoncement n’est pas une option », dénonçait-il.

Enfin, sur les questions de numérique et d’IA, qui intéressent plus particulièrement Next et dont il assure de façon inhabituelle la tutelle du secrétariat d’État, Patrick Hetzel semble laisser pour l’instant le dossier complet à Clara Chappaz, n’abordant le sujet dans son discours de passation qu’en le qualifiant de « domaine passionnant ».

❌
❌