Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

☕️ La gendarmerie aurait mis « plus d’un an » à craquer le cryptophone Ghost

L’enquête ayant mené au démantèlement du cryptophone australien Ghost avait débuté en 2021. Des enquêteurs suédois avaient découvert, dans le cadre d’une enquête sur un réseau criminel, que les suspects utilisaient cette messagerie chiffrée, raconte GendInfo, le site d’information de la gendarmerie.

Le Centre de lutte contre les criminalités numériques (C3N) du Commandement de la gendarmerie dans le cyberespace (COMCYBERGEND) avait alors « rapidement » été sollicité, « à la fois parce que l’un des serveurs de cette application est localisé en France, mais aussi et surtout parce que la gendarmerie nationale est identifiée comme un pôle d’excellence dans ce domaine, depuis le démantèlement d’Encrochat en 2020 », souligne Gendinfo.

#BellesAffaires 🌏 Coup d'arrêt pour l'application criminelle téléphonique #Ghost !
En analysant l'un de ces appareils, les experts du @ComCyberMI et du @CyberGEND sont parvenus à pirater le réseau, permettant ainsi aux enquêteurs de lire en direct les messages échangés par les… pic.twitter.com/b3H5DqBZFb

— Gendarmerie nationale (@Gendarmerie) September 19, 2024

À l’époque, la gendarmerie avait en effet réussi à intercepter, analyser et décrypter plus d’une centaine de millions de messages chiffrés, grâce à trois « dispositifs techniques ». Deux étaient couverts par le secret défense, probablement développés par le service spécialisé de la Direction générale de la sécurité intérieure (DGSI). Ce qui avait alors permis des centaines d’arrestations, et la saisie de millions d’euros et de milliers de tonnes de drogues.

Pour parvenir à craquer Ghost, les experts cyber du Centre national d’expertise numérique (CNENUM) du COMCYBER-MI – plus précisément son laboratoire de rétro-conception situé à Pontoise, composé de militaires dont les profils vont du technicien au docteur en informatique – ont mené « un travail similaire à celui réalisé sur Encrochat », « très technique » et qui a duré « plus d’un an ».

Collaborant avec d’autres laboratoires européens, dans le cadre du projet Overclock de décryptage des données chiffrées, « cette unité très spécialisée va analyser la structure de l’application, exploiter les vulnérabilités identifiées, et tester des dispositifs de captation et d’interception », précise GendInfo :

« Cette très belle opération a été le fruit d’une coopération internationale, avec notamment la constitution d’une Équipe commune d’enquête (ECE) entre la gendarmerie et le Federal bureau of investigation (FBI) américain, note le colonel Michel. Ce n’est que la seconde fois que cela se produit, et cela prouve bien la reconnaissance de la compétence et de l’efficacité de la gendarmerie et du COMCYBER-MI aux yeux de tous les acteurs mondiaux. »

☕️ Le prix de YouTube Premium s’envole dans certains pays

Mauvaise nouvelle pour les personnes abonnées à YouTube Premium dans certains pays. Google y procède actuellement à un ajustement des tarifs et certaines augmentations sont très significatives.

C’est le cas notamment pour la Belgique, l’Irlande, l’Italie et les Pays-Bas, puisque l’offre classique passe de 11,99 à 13,99 euros, et surtout le forfait familial de 17,99 à 25,99 euros par mois. Évolutions similaires en Suisse, avec un forfait classique à 17,90 CHF (contre 15,90) et une formule familiale à 33,90 CHF (contre 23,90).

Le forfait familial est celui qui reçoit les plus importantes augmentations, avec souvent dans les 50 % supplémentaires. Au Danemark, le forfait passe ainsi de 177 à 259 DKK. En Suède, il passe de 179 à 279 SEK. En République tchèque, le tarif s’envole de 269 à 389 CZK.

Comme on peut le voir sur Reddit, de nombreuses personnes reçoivent actuellement un email les avertissant du changement. Plusieurs déclarent se désabonner en conséquence.

Clara Chappaz, de la French Tech au secrétariat d’État à l’IA et au numérique

Clara Chappaz, de la French Tech au secrétariat d’État à l’IA et au numérique

Directrice de la mission French Tech depuis trois ans, Clara Chappaz a été nommée samedi secrétaire d’État à l’Intelligence artificielle et au Numérique. Traditionnellement sous tutelle de Bercy, son portefeuille est désormais rattaché au ministère de l’Enseignement supérieur et de la Recherche.

Sept mois après la nomination de Marina Ferrari, c’est désormais Clara Chappaz qui portera les enjeux liés au numérique au sein du gouvernement Barnier, avec la responsabilité d’un portefeuille remanié à deux égards. D’abord, son périmètre, qui couvre désormais « l’Intelligence artificielle et le Numérique ». Ensuite, son ministère de tutelle : alors que le numérique était traditionnellement rattaché à l’Économie, Clara Chappaz se voit placée sous la houlette de Patrick Hetzel, nouveau ministre de l’Enseignement supérieur et de la Recherche.

« Après 3 années à diriger La French Tech au sein du Ministère de l’Économie, des Finances et de la Souveraineté industrielle et numérique, je suis ravie de poursuivre mon engagement au service de l’action publique sur ces sujets majeurs que sont le numérique et l’intelligence artificielle », s’est réjouie l’intéressée dimanche sur LinkedIn, dans un post dont les commentaires, nombreux, soulignent à quel point Clara Chappaz est bien identifiée dans l’écosystème des startups et de l’entreprenariat.  

Un profil « startup nation »

À 35 ans, Clara Chappaz dirigeait en effet depuis trois ans la « mission French Tech », un établissement de 25 agents, rattaché à la Direction Générale des Entreprises et chargé d’animer l’ensemble du réseau French Tech en France et à l’international. Fille de l’entrepreneur à succès Pierre Chappaz (Kelkoo, Teads), elle a précédemment passé trois ans au sein du comité de direction de Vestiaire Collective, une plateforme en ligne dédiée à la mode de seconde main, auréolée du statut de licorne (valorisation supérieure à un milliard d’euros) en 2021.

À la différence de ses prédécesseurs, Clara Chappaz est nouvelle en politique, même si son poste à la French Tech dépendait de Bercy. Elle affiche dans le même temps un profil très « startup nation », qui rappelle plus Mounir Mahjoubi et Cédric O que Marina Ferrari ou Jean-Noël Barrot, alors même que son portefeuille change de ministère de tutelle. C’est d’ailleurs Cédric O qui l’avait choisie en 2021 pour diriger la Mission French Tech.

Quelle sera la portée de ce transfert ? Il faudra attendre les décrets fixant les attributions précises des membres du gouvernement Barnier, mais la démarche interroge, tout comme l’adjonction du terme Intelligence artificielle au maroquin du Numérique. « C’est curieux, comme si l’on pouvait penser un outil d’intelligence artificielle extrinsèque au numérique. Cet intitulé ne rend pas compte de l’importance du continuum cloud, data, IA, que toute politique publique sérieuse en la matière se doit d’embrasser », remarque Henri d’Agrain, délégué général du Cigref.

IA : un impact environnemental conséquent mais toujours difficile à mesurer

IA : un impact environnemental conséquent mais toujours difficile à mesurer

Trois chercheuses de la plateforme d’hébergement de projets d’IA Hugging Face, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont rassemblé les connaissances disponibles actuellement à propos de l’impact de l’IA sur l’environnement. Elles constatent encore trop peu de transparence sur les besoins énergétiques de chaque application d’IA, elles parcourent l’ensemble des connaissances actuellement disponibles.

La question de la consommation d’énergie de l’IA, et donc de son impact sur l’environnement, n’est généralement pas le premier problème sur lequel les entreprises d’IA sont les plus prolixes. Elles parlent plus volontiers des éventuels « risques existentiels » que leurs outils pourraient, un jour, provoquer.

Des estimations à revoir

Et quand elles en parlent, elles sous-estiment leurs émissions : d’après une étude du Guardian, « de 2020 à 2022, les émissions réelles des centres de données internes ou appartenant aux entreprises Google, Microsoft, Meta et Apple sont probablement environ 662 % – ou 7,62 fois – plus élevées que ce qui est officiellement déclaré ».

Le journal britannique explique que ces entreprises « comptent de façon créative » leurs émissions de CO2 notamment en comptabilisant les « certificats d’énergie renouvelable » (Renewable energy certificates, REC) qu’elles achètent. Elles font donc des estimations « basées sur le marché ». Mais, le Guardian explique qu’en faisant des estimations des émissions basées sur le lieu où sont réellement les centres de données, les chiffres explosent.

Le journal s’appuie notamment sur l’avis de Jay Dietrich, du consortium d’entreprise Uptime Institute qui travaille sur l’efficacité des centres de traitement de données. Selon lui, les estimations « basées sur la localisation donnent une image précise des émissions associées à l’énergie réellement consommée pour faire fonctionner le centre de données. Et Uptime estime qu’il s’agit de la bonne mesure ».

Si ces entreprises ne livrent pas les données les plus utiles pour mesurer les émissions de CO2 liées à leurs centres de données en général, elles donnent encore moins d’information quand il s’agit de parler spécifiquement de la consommation de l’IA.

Pour cela, il faut plutôt compter sur d’autres acteurs qui essayent d’évaluer tout ça. En l’occurrence des chercheuses de la startup franco-américaine Hugging Face. Début septembre, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont publié sur le blog de l’entreprise un long récapitulatif de ce qu’on sait sur les conséquences environnementales de l’IA et des politiques actuellement mises en place à travers le monde à ce propos.

Elles expliquent qu’ « il peut être difficile de comprendre l’ampleur de l’impact de l’IA sur l’environnement étant donné la séparation entre l’endroit où vous interagissez avec un système d’IA et la manière dont cette interaction s’est faite – la plupart des modèles d’IA fonctionnent dans des centres de données qui sont physiquement situés loin de leurs utilisateurs, qui n’interagissent qu’avec leurs résultats ».

Mais, elles affirment que « la réalité est que les capacités impressionnantes de l’IA ont un coût substantiel en termes de ressources naturelles, y compris l’énergie, l’eau et les minéraux, et des quantités non négligeables d’émissions de gaz à effet de serre ».

Une consommation importante signalée dès 2020

Elles rappellent que, dès 2020, la chercheuse du laboratoire Facebook AI Research Emma Strubell et deux de ses collègues de l’Université du Massachusetts Amherst montraient que l’entrainement d’un grand modèle de langage de 213 millions de paramètres était responsable de 284 tonnes de CO2.

Sasha Luccioni travaille depuis pas mal de temps sur le sujet et est citée, cette année, pour cette raison parmi les 100 personnalités importantes de l’IA par le magazine américain Time. Elle a notamment évalué les émissions de CO2 du grand modèle de langage BLOOM. Celui-ci est, depuis l’exposition des modèles de langage dans le grand public, l’un des seuls à respecter les critères de l’open science, ce qui permet d’avoir beaucoup d’informations et de travailler sereinement sur sa consommation.

Les plus consommateurs : les images et la génération de contenus

Avec ses collègues, elle a montré que ce modèle de 176 milliards de paramètres, déployé sur le cloud de Google et ayant reçu 230 768 requêtes pendant 18 jours, a consommé 40,32 kWh par jour et, « compte tenu du mix énergétique utilisé par l’instance informatique », émettait environ 19 kg de CO2eq par jour, expliquent-elles dans leur billet de blog. D’après les trois chercheuses, on peut considérer que ce chiffre reflète ce que consommait un modèle d’IA déployé à la pointe des connaissances en 2023.

Une autre étude, publiée en 2024 encore par Sasha Luccioni et ses collègues, montrent que les modèles de langage consomment plus quand ils sont utilisés sur des images ou quand on leur demande de générer des nouveaux contenus (plutôt que, par exemple, résumer un texte).

Une requête ChatGPT de 6 à 10 fois supérieure à celle d’une recherche traditionnelle

Si on connait quelques bases sur la consommation de l’IA génératives grâce à ces études, les chercheuses de Hugging Face insistent : « il existe actuellement peu de transparence sur les demandes énergétiques des applications spécifiques de l’IA, bien que, selon une estimation récente, la quantité d’énergie utilisée pour une requête ChatGPT soit de 6 à 10 fois supérieure à celle d’une recherche traditionnelle sur le web (0,3 Wh contre 2,9 Wh) », en citant une analyse (PDF) du cabinet Goldman Sachs.

Un besoin de consensus sur la définition de l’IA et de transparence

Elles expliquent que pour avoir une vue d’ensemble de l’impact environnemental de l’IA, « nous avons besoin à la fois d’un consensus sur ce qu’il faut considérer comme faisant partie de l' »IA », et de beaucoup plus de transparence et d’informations de la part des entreprises impliquées dans la création de l’IA ».

Elles rappellent d’ailleurs que l’IA n’est pas uniquement le machine learning, mais désigne aussi les systèmes experts. Le flou qui constitue sa définition en entraine un autre dans la définition de sa consommation. « L’élément central de ce défi est le fait que l’IA est souvent une partie, et non la totalité, d’un système donné – par exemple, les appareils intelligents, les véhicules autonomes, les systèmes de recommandation, la recherche sur le web, etc », expliquent-elles.

Elles rappellent aussi qu’on ne possède que peu ou pas d’informations sur les émissions intrinsèques de la fabrication de matériel informatique, la consommation de carbone de l’infrastructure utilisée par l’IA elle-même, les effets de rebond et conséquences involontaires, les émissions qui sont émises par d’autres technologies qui se développent grâce à l’IA et enfin les atteintes à l’écosystème.

L’Europe première régulatrice, le projet de loi états-unien arrive

Dans le trio d’analystes de Hugging Face, la juriste Bruna Trevelin a plutôt dû collaborer à la dernière partie, celle sur l’analyse des régulations mises en place à travers le monde.

Le fait que cette analyse commence par l’Europe n’est pas anodin. Elles soulignent l’existence du « Green deal » qui fixe des objectifs juridiquement contraignants pour la neutralité carbone d’ici 2050. « Les systèmes d’IA utilisés dans la gestion de l’énergie, les réseaux intelligents et la surveillance de l’environnement devront être conformes à cette loi », expliquent-elles. Elles comptent aussi sur la directive européenne relative à l’efficacité énergétique pour quantifier et réguler la consommation d’eau.

Elles rappellent que l’AI Act impose « que les fournisseurs de modèles d’IA à usage général (IAG) doivent spécifiquement partager la consommation d’énergie connue ou estimée de leurs modèles ».

Il prévoit aussi « que les systèmes d’IA à haut risque rendent compte des performances en matière de ressources, telles que la consommation d’énergie et d' »autres ressources » au cours du cycle de vie des systèmes d’IA, qui pourraient inclure l’eau et les minéraux en fonction du niveau de détail des normes qui guideront le respect de cette obligation de rendre compte ».

De l’autre côté de l’Atlantique, « le décret sur le développement et l’utilisation sûrs, sécurisés et dignes de confiance de l’intelligence artificielle publié par la Maison Blanche en octobre 2023, bien que très complet à d’autres égards, n’aborde pas directement les impacts environnementaux des modèles d’IA, bien qu’il mentionne le développement d’applications de l’IA positives pour le climat » déplorent-elles.

Mais, si les États-Unis sont en retard par rapport à l’UE sur le sujet, l’Artificial Intelligence Environmental Impacts Act est actuellement en cours d’examen. Il serait « la première pierre d’une législation qui traite de ce sujet ». Joe Biden a récemment essayé de reprendre la main sur le sujet en demandant aux différentes agences fédérales d’accélérer l’évaluation des projets d’énergie « propre ».

Les trois chercheuses de Hugging Face citent aussi les initiatives de l’Espagne, du Canada et la feuille de route intelligence artificielle et transition écologique de la France.

☕️ Qualcomm aurait approché Intel pour un rachat

Qualcomm aurait approché Intel pour un rachat

Selon le Wall Street Journal, Qualcomm aurait approché Intel en vue d’un rachat. Il existerait une grande incertitude autour de l’opération, le Journal précisant qu’aucun détail financier n’a filtré. Ce n’est d’ailleurs pas la première fois qu’une telle opération fait l’objet de rumeurs. Au début du mois, Reuters rapportait ainsi que Qualcomm était intéressée par une partie des activités d’Intel, celles liées à la conception de puces.

Que la rumeur soit fondée ou non, elle est représentative d’une période troublée pour Intel. La société, grande spécialiste des puces x86, peine à maintenir ses marges et ses parts de marché entre un AMD qui s’est largement développé sous la houlette de Lisa Su et un marché Arm en pleine expansion, dopé par l’IA.

Il faut dire que l’année 2024 a été riche en mauvaises nouvelles pour Intel. Plus tôt dans l’année, la firme avait ainsi annoncé un plan d’économies. Il doit notamment aboutir au licenciement de 15 % de son personnel d’ici la fin de l’année.

Plus récemment, la société a annoncé que ses activités de fonderie (Intel Foundry) allaient être transférées à une entité indépendante et que deux projets de construction d’usines étaient suspendus. Intel pourrait également se séparer d’Altera, un spécialiste de puces PGA qu’elle avait racheté en 2015.

Qualcomm, pendant ce temps, ne connait pas vraiment la crise. Le géant américain, dont les puces alimentent une grande partie des smartphones Android, n’oublie pas l’IA et améliore graduellement ses NPU. Parallèlement, la société propose ses Snapdragon X dans les PC Copilot+, avec des performances globalement convaincantes.

Un tel rachat serait-il envisageable ? Rien d’impossible, même si cette opération serait examinée de très près par les autorités compétentes. Le rachat d’un géant par un autre accoucherait d’un puissant mastodonte, doté d’une force de frappe en x86 comme en Arm, et assez bien positionné en IA.

Parallèlement, Bloomberg rapporte qu’Apollo Global Management, spécialisée dans la gestion d’actifs, aurait aussi approché Intel. Le but serait tout autre : un investissement de 5 milliards de dollars, sous forme d’une prise de participation. L’examen de la proposition n’en serait qu’au stade préliminaire. Ce ne serait pas la première fois qu’Apollo investit dans Intel, puisqu’elle va prendre une participation de 49 % dans une coentreprise qui doit aboutir à une nouvelle usine en Irlande.

☕️ Google crée un fonds de 120 millions de dollars pour l’IA dans l’éducation

Google crée un fonds de 120 millions de dollars pour l’IA dans l’éducation

Samedi 21 septembre, au Sommet de l’avenir de l’ONU, le CEO de Google, Sundar Pichai, a annoncé la création par son entreprise d’un fonds de financement lié à l’IA dans l’éducation et la formation à hauteur de 120 millions de dollars. Ce fonds, appelé Global AI Opportunity Fund, est censé aider les pays émergents à se saisir des « opportunités » que leur offre l’IA.

Selon Pichai, cette technologie permettrait à ces pays d’accéder à une information et des connaissances mondiales dans leur propre langue, d’accélérer les découvertes scientifiques, d’ « aider les personnes qui se trouvent sur le chemin d’une catastrophe liée au climat » et enfin de contribuer au progrès économique.

Il ajoute que ces formations se feront dans la langue locale et en partenariat avec des associations et organisations non gouvernementales.

Bien que Sundar Pichai ait évoqué aussi certains risques de l’IA comme les « problèmes d’exactitude », les biais et les deep fakes, il n’a fait qu’euphémiser les conséquences possibles de cette technologie sur le monde du travail. Comme le remarque TechCrunch, il n’a pas évoqué l’impact de l’IA sur le climat.

☕️ La gendarmerie aurait mis « plus d’un an » à craquer le cryptophone Ghost

L’enquête ayant mené au démantèlement du cryptophone australien Ghost avait débuté en 2021. Des enquêteurs suédois avaient découvert, dans le cadre d’une enquête sur un réseau criminel, que les suspects utilisaient cette messagerie chiffrée, raconte GendInfo, le site d’information de la gendarmerie.

Le Centre de lutte contre les criminalités numériques (C3N) du Commandement de la gendarmerie dans le cyberespace (COMCYBERGEND) avait alors « rapidement » été sollicité, « à la fois parce que l’un des serveurs de cette application est localisé en France, mais aussi et surtout parce que la gendarmerie nationale est identifiée comme un pôle d’excellence dans ce domaine, depuis le démantèlement d’Encrochat en 2020 », souligne Gendinfo.

#BellesAffaires 🌏 Coup d'arrêt pour l'application criminelle téléphonique #Ghost !
En analysant l'un de ces appareils, les experts du @ComCyberMI et du @CyberGEND sont parvenus à pirater le réseau, permettant ainsi aux enquêteurs de lire en direct les messages échangés par les… pic.twitter.com/b3H5DqBZFb

— Gendarmerie nationale (@Gendarmerie) September 19, 2024

À l’époque, la gendarmerie avait en effet réussi à intercepter, analyser et décrypter plus d’une centaine de millions de messages chiffrés, grâce à trois « dispositifs techniques ». Deux étaient couverts par le secret défense, probablement développés par le service spécialisé de la Direction générale de la sécurité intérieure (DGSI). Ce qui avait alors permis des centaines d’arrestations, et la saisie de millions d’euros et de milliers de tonnes de drogues.

Pour parvenir à craquer Ghost, les experts cyber du Centre national d’expertise numérique (CNENUM) du COMCYBER-MI – plus précisément son laboratoire de rétro-conception situé à Pontoise, composé de militaires dont les profils vont du technicien au docteur en informatique – ont mené « un travail similaire à celui réalisé sur Encrochat », « très technique » et qui a duré « plus d’un an ».

Collaborant avec d’autres laboratoires européens, dans le cadre du projet Overclock de décryptage des données chiffrées, « cette unité très spécialisée va analyser la structure de l’application, exploiter les vulnérabilités identifiées, et tester des dispositifs de captation et d’interception », précise GendInfo :

« Cette très belle opération a été le fruit d’une coopération internationale, avec notamment la constitution d’une Équipe commune d’enquête (ECE) entre la gendarmerie et le Federal bureau of investigation (FBI) américain, note le colonel Michel. Ce n’est que la seconde fois que cela se produit, et cela prouve bien la reconnaissance de la compétence et de l’efficacité de la gendarmerie et du COMCYBER-MI aux yeux de tous les acteurs mondiaux. »

☕️ Le prix de YouTube Premium s’envole dans certains pays

Mauvaise nouvelle pour les personnes abonnées à YouTube Premium dans certains pays. Google y procède actuellement à un ajustement des tarifs et certaines augmentations sont très significatives.

C’est le cas notamment pour la Belgique, l’Irlande, l’Italie et les Pays-Bas, puisque l’offre classique passe de 11,99 à 13,99 euros, et surtout le forfait familial de 17,99 à 25,99 euros par mois. Évolutions similaires en Suisse, avec un forfait classique à 17,90 CHF (contre 15,90) et une formule familiale à 33,90 CHF (contre 23,90).

Le forfait familial est celui qui reçoit les plus importantes augmentations, avec souvent dans les 50 % supplémentaires. Au Danemark, le forfait passe ainsi de 177 à 259 DKK. En Suède, il passe de 179 à 279 SEK. En République tchèque, le tarif s’envole de 269 à 389 CZK.

Comme on peut le voir sur Reddit, de nombreuses personnes reçoivent actuellement un email les avertissant du changement. Plusieurs déclarent se désabonner en conséquence.

Clara Chappaz, de la French Tech au secrétariat d’État à l’IA et au numérique

Clara Chappaz, de la French Tech au secrétariat d’État à l’IA et au numérique

Directrice de la mission French Tech depuis trois ans, Clara Chappaz a été nommée samedi secrétaire d’État à l’Intelligence artificielle et au Numérique. Traditionnellement sous tutelle de Bercy, son portefeuille est désormais rattaché au ministère de l’Enseignement supérieur et de la Recherche.

Sept mois après la nomination de Marina Ferrari, c’est désormais Clara Chappaz qui portera les enjeux liés au numérique au sein du gouvernement Barnier, avec la responsabilité d’un portefeuille remanié à deux égards. D’abord, son périmètre, qui couvre désormais « l’Intelligence artificielle et le Numérique ». Ensuite, son ministère de tutelle : alors que le numérique était traditionnellement rattaché à l’Économie, Clara Chappaz se voit placée sous la houlette de Patrick Hetzel, nouveau ministre de l’Enseignement supérieur et de la Recherche.

« Après 3 années à diriger La French Tech au sein du Ministère de l’Économie, des Finances et de la Souveraineté industrielle et numérique, je suis ravie de poursuivre mon engagement au service de l’action publique sur ces sujets majeurs que sont le numérique et l’intelligence artificielle », s’est réjouie l’intéressée dimanche sur LinkedIn, dans un post dont les commentaires, nombreux, soulignent à quel point Clara Chappaz est bien identifiée dans l’écosystème des startups et de l’entreprenariat.  

Un profil « startup nation »

À 35 ans, Clara Chappaz dirigeait en effet depuis trois ans la « mission French Tech », un établissement de 25 agents, rattaché à la Direction Générale des Entreprises et chargé d’animer l’ensemble du réseau French Tech en France et à l’international. Fille de l’entrepreneur à succès Pierre Chappaz (Kelkoo, Teads), elle a précédemment passé trois ans au sein du comité de direction de Vestiaire Collective, une plateforme en ligne dédiée à la mode de seconde main, auréolée du statut de licorne (valorisation supérieure à un milliard d’euros) en 2021.

À la différence de ses prédécesseurs, Clara Chappaz est nouvelle en politique, même si son poste à la French Tech dépendait de Bercy. Elle affiche dans le même temps un profil très « startup nation », qui rappelle plus Mounir Mahjoubi et Cédric O que Marina Ferrari ou Jean-Noël Barrot, alors même que son portefeuille change de ministère de tutelle. C’est d’ailleurs Cédric O qui l’avait choisie en 2021 pour diriger la Mission French Tech.

Quelle sera la portée de ce transfert ? Il faudra attendre les décrets fixant les attributions précises des membres du gouvernement Barnier, mais la démarche interroge, tout comme l’adjonction du terme Intelligence artificielle au maroquin du Numérique. « C’est curieux, comme si l’on pouvait penser un outil d’intelligence artificielle extrinsèque au numérique. Cet intitulé ne rend pas compte de l’importance du continuum cloud, data, IA, que toute politique publique sérieuse en la matière se doit d’embrasser », remarque Henri d’Agrain, délégué général du Cigref.

Un nouveau boitier Project Zéro chez MSI avec le MAG Pano 110R PZ

Un nouveau boitier Project Zéro va donc arriver chez MSI avec le MAG Pano 110R PZ, un modèle qui sera donc dans la gamme accessible de la marque. Un boitier de type panoramique, qui sera compatible avec les cartes mères Micro-ATX et ATX équipées de connecteurs placés à l'arrière du PCB. Nous aurons aussi deux panneaux en verre trempé et le boitier sera livré de base avec trois ventilateurs 120 mm ARGB Reverse dans le fond du boitier et un 120 mm ARGB à l'arrière. […]

Lire la suite

CORSAIR et Activision signent un partenariat pour des produits Call of Duty

La sortie du prochain Call of Duty, toujours attendue au 25 octobre prochain, devrait s'accompagner de nombreux produits sous licence, notamment avec CORSAIR qui a frappé un grand coup en signant un accord d'exclusivité pour plusieurs années. Une annonce surprenante après la sortie des manettes PDP, mais les choses sont ainsi. Sont concernées de nombreux gammes puisque CORSAIR aura tout un attirail, mais également Elgato, Drop, SCUF Gaming ou encore ORIGIN PC. Du PC assemblé au petit accessoire pour le streaming, tout le monde aura son produit Call of Duty: Black Ops 6 ! […]

Lire la suite

MSI : 5 nouvelles cartes mères Project Zéro à venir

On peut le dire, les cartes mères avec des connecteurs sur l'arrière du PCB ne sont pas légion pour le moment. Et durant la présentation des nouvelles cartes mères Intel Z890 et AMD X870 de MSI durant notre visite d'usine, nous étions surpris de ne pas voir de nouveaux modèles Project Zéro, alors même que la marque présentait des nouveaux boitiers disposant de la prise en charge de cette fonctionnalité. Pour en savoir plus à propos de ces produits, il fallait donc faire attention aux différentes slides de présentation de la marque. […]

Lire la suite

Kodlix : des Intel Alder Lake dans une nouvelle gamme de MiniPC

Disponible en trois parfums Intel, le Minisforum Kodlix GD90 est également proposé en GD50 et GD70 suivant les puces embarquées. Du Core i5-12450H en passant par le Core i7-12650H et pour finir le plus performante en Core i9-12900H. Toutes trois sont intégrées dans le même boitier.

Les Kodlix proposent une bonne synthèse materielle de ce que l’on peut intégrer dans un boitier compact. On retrouve donc un processeur Alder Lake puissant, tels que ceux que l’on trouvait dans les portables Intel les plus rapides en 2022. Le Core i9-12900HK propose par exemple ici 14 cœurs décomposés en 6 cœurs P et 8 cœurs E associés à 24 Mo de mémoire cache et un circuit graphique Intel Iris Xe avec 96 EU cadencé à 1.45 GHZ.

Sur cette base on retrouve deux slots de mémoire vive SODIMM DDR4 peuplés en 32 Go. Le stockage est un SSD de M.2 2280 PCIe 4.0 x4 en 512 Go. Un emplacement 2.5″ SATA 3.0 est également disponible. On pourra donc faire évoluer l’engin assez facilement en stockage et accéder à tous ses composants.

Cet ensemble est très complet, plutôt cohérent avec un large éventail d’usages possibles. Mis à part des tâches exigeant un temps réel rapide comme le jeu vidéo très récent et très lourde en haute définition, tout devrait être parfaitement géré par le materiel embarqué. Avec 32 Go de mémoire vive par exemple, la minimachine sera très réactive et capable d’un multitâche complexe. La ventilation active se fait autour d’un système d’ailettes associé à un caloduc qui transportera la chaleur du processeur.

A 449€ dans cette configuration Core i9 le Kodlix GD90 se pose comme un engin assez compétent et évolutif, sa connectique offrant en prime de belles possibilités. On retrouve le classique Wi-Fi6E et Bluetooth 5.2, un HDMI 2.0, un DisplayPort, un port USB3.2 Type-C avec DisplayPort et PowerDelivery, une paire de port USB 3.2 Type-A, deux USB 2.0 Type-A, un Ethernet 2.5 Gigabit et un jack audio combo 3.5 mm. Le MiniPC pourra donc s’adresser à trois écrans différents, piloter un réseau filaire et Wi-Fi rapidement et s’arrimer facilement à un support grâce à un port antivol type Kensington Lock.

Trois modèles de puces Intel sont donc intégrées dans cette gamme.

Kodlix GD50 : Intel Core i5-12450H (8 cœurs/12 threads, 12M de cache, jusqu’à 4,40 GHz) – Intel 12e Gen UHD Graphics (1,20 GHz)
Kodlix GD70 : Intel Core i7-12650H (10 cœurs/16 threads, 24M Cache, jusqu’à 4,70 GHz) -Intel 12e Gen UHD Graphics (1,40 GHz)
Kodlix GD90 : Intel Core i9-12900HK (14 cœurs/20 threads, 24M de cache, jusqu’à 5,0 GHz) – Intel Iris Xe (1,45 GHz)

Minisforum propose toute une gamme de modèles avec les trois puces.
Ainsi le modèle Core i9 Kodlix GD90 est vendu à 449.99€ en version 32/512 Go chez Amazon.
Le modèle 32 Go/1 To toujours en Core i9 est à 471€.

Le Kodlix GD70 en Core i7-12650H est à quand à lui 449€ mais en version 32 Go/1To.
Ou à 425€ en version 32/512 Go.

Le Kodlix GD50 sous Core i5-12450H débute à 325€ en 16/512 Go
Il monte à 355€ en 32/512 Go.

Minimachines.net en partenariat avec Geekbuying.com
Kodlix : des Intel Alder Lake dans une nouvelle gamme de MiniPC © MiniMachines.net. 2024.

'Forget ChatGPT: Why Researchers Now Run Small AIs On Their Laptops'

Nature published an introduction to running an LLM locally, starting with the example of a bioinformatician who's using AI to generate readable summaries for his database of immune-system protein structures. "But he doesn't use ChatGPT, or any other web-based LLM." He just runs the AI on his Mac... Two more recent trends have blossomed. First, organizations are making 'open weights' versions of LLMs, in which the weights and biases used to train a model are publicly available, so that users can download and run them locally, if they have the computing power. Second, technology firms are making scaled-down versions that can be run on consumer hardware — and that rival the performance of older, larger models. Researchers might use such tools to save money, protect the confidentiality of patients or corporations, or ensure reproducibility... As computers get faster and models become more efficient, people will increasingly have AIs running on their laptops or mobile devices for all but the most intensive needs. Scientists will finally have AI assistants at their fingertips — but the actual algorithms, not just remote access to them. The article's list of small open-weights models includes Meta's Llama, Google DeepMind's Gemma, Alibaba's Qwen, Apple's DCLM, Mistral's NeMo, and OLMo from the Allen Institute for AI. And then there's Microsoft: Although the California tech firm OpenAI hasn't open-weighted its current GPT models, its partner Microsoft in Redmond, Washington, has been on a spree, releasing the small language models Phi-1, Phi-1.5 and Phi-2 in 2023, then four versions of Phi-3 and three versions of Phi-3.5 this year. The Phi-3 and Phi-3.5 models have between 3.8 billion and 14 billion active parameters, and two models (Phi-3-vision and Phi-3.5-vision) handle images1. By some benchmarks, even the smallest Phi model outperforms OpenAI's GPT-3.5 Turbo from 2023, rumoured to have 20 billion parameters... Microsoft used LLMs to write millions of short stories and textbooks in which one thing builds on another. The result of training on this text, says Sébastien Bubeck, Microsoft's vice-president for generative AI, is a model that fits on a mobile phone but has the power of the initial 2022 version of ChatGPT. "If you are able to craft a data set that is very rich in those reasoning tokens, then the signal will be much richer," he says... Sharon Machlis, a former editor at the website InfoWorld, who lives in Framingham, Massachusetts, wrote a guide to using LLMs locally, covering a dozen options. The bioinformatician shares another benefit: you don't have to worry about the company updating their models (leading to different outputs). "In most of science, you want things that are reproducible. And it's always a worry if you're not in control of the reproducibility of what you're generating." And finally, the article reminds readers that "Researchers can build on these tools to create custom applications..." Whichever approach you choose, local LLMs should soon be good enough for most applications, says Stephen Hood, who heads open-source AI at the tech firm Mozilla in San Francisco. "The rate of progress on those over the past year has been astounding," he says. As for what those applications might be, that's for users to decide. "Don't be afraid to get your hands dirty," Zakka says. "You might be pleasantly surprised by the results."

Read more of this story at Slashdot.

IA : un impact environnemental conséquent mais toujours difficile à mesurer

IA : un impact environnemental conséquent mais toujours difficile à mesurer

Trois chercheuses de la plateforme d’hébergement de projets d’IA Hugging Face, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont rassemblé les connaissances disponibles actuellement à propos de l’impact de l’IA sur l’environnement. Elles constatent encore trop peu de transparence sur les besoins énergétiques de chaque application d’IA, elles parcourent l’ensemble des connaissances actuellement disponibles.

La question de la consommation d’énergie de l’IA, et donc de son impact sur l’environnement, n’est généralement pas le premier problème sur lequel les entreprises d’IA sont les plus prolixes. Elles parlent plus volontiers des éventuels « risques existentiels » que leurs outils pourraient, un jour, provoquer.

Des estimations à revoir

Et quand elles en parlent, elles sous-estiment leurs émissions : d’après une étude du Guardian, « de 2020 à 2022, les émissions réelles des centres de données internes ou appartenant aux entreprises Google, Microsoft, Meta et Apple sont probablement environ 662 % – ou 7,62 fois – plus élevées que ce qui est officiellement déclaré ».

Le journal britannique explique que ces entreprises « comptent de façon créative » leurs émissions de CO2 notamment en comptabilisant les « certificats d’énergie renouvelable » (Renewable energy certificates, REC) qu’elles achètent. Elles font donc des estimations « basées sur le marché ». Mais, le Guardian explique qu’en faisant des estimations des émissions basées sur le lieu où sont réellement les centres de données, les chiffres explosent.

Le journal s’appuie notamment sur l’avis de Jay Dietrich, du consortium d’entreprise Uptime Institute qui travaille sur l’efficacité des centres de traitement de données. Selon lui, les estimations « basées sur la localisation donnent une image précise des émissions associées à l’énergie réellement consommée pour faire fonctionner le centre de données. Et Uptime estime qu’il s’agit de la bonne mesure ».

Si ces entreprises ne livrent pas les données les plus utiles pour mesurer les émissions de CO2 liées à leurs centres de données en général, elles donnent encore moins d’information quand il s’agit de parler spécifiquement de la consommation de l’IA.

Pour cela, il faut plutôt compter sur d’autres acteurs qui essayent d’évaluer tout ça. En l’occurrence des chercheuses de la startup franco-américaine Hugging Face. Début septembre, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont publié sur le blog de l’entreprise un long récapitulatif de ce qu’on sait sur les conséquences environnementales de l’IA et des politiques actuellement mises en place à travers le monde à ce propos.

Elles expliquent qu’ « il peut être difficile de comprendre l’ampleur de l’impact de l’IA sur l’environnement étant donné la séparation entre l’endroit où vous interagissez avec un système d’IA et la manière dont cette interaction s’est faite – la plupart des modèles d’IA fonctionnent dans des centres de données qui sont physiquement situés loin de leurs utilisateurs, qui n’interagissent qu’avec leurs résultats ».

Mais, elles affirment que « la réalité est que les capacités impressionnantes de l’IA ont un coût substantiel en termes de ressources naturelles, y compris l’énergie, l’eau et les minéraux, et des quantités non négligeables d’émissions de gaz à effet de serre ».

Une consommation importante signalée dès 2020

Elles rappellent que, dès 2020, la chercheuse du laboratoire Facebook AI Research Emma Strubell et deux de ses collègues de l’Université du Massachusetts Amherst montraient que l’entrainement d’un grand modèle de langage de 213 millions de paramètres était responsable de 284 tonnes de CO2.

Sasha Luccioni travaille depuis pas mal de temps sur le sujet et est citée, cette année, pour cette raison parmi les 100 personnalités importantes de l’IA par le magazine américain Time. Elle a notamment évalué les émissions de CO2 du grand modèle de langage BLOOM. Celui-ci est, depuis l’exposition des modèles de langage dans le grand public, l’un des seuls à respecter les critères de l’open science, ce qui permet d’avoir beaucoup d’informations et de travailler sereinement sur sa consommation.

Les plus consommateurs : les images et la génération de contenus

Avec ses collègues, elle a montré que ce modèle de 176 milliards de paramètres, déployé sur le cloud de Google et ayant reçu 230 768 requêtes pendant 18 jours, a consommé 40,32 kWh par jour et, « compte tenu du mix énergétique utilisé par l’instance informatique », émettait environ 19 kg de CO2eq par jour, expliquent-elles dans leur billet de blog. D’après les trois chercheuses, on peut considérer que ce chiffre reflète ce que consommait un modèle d’IA déployé à la pointe des connaissances en 2023.

Une autre étude, publiée en 2024 encore par Sasha Luccioni et ses collègues, montrent que les modèles de langage consomment plus quand ils sont utilisés sur des images ou quand on leur demande de générer des nouveaux contenus (plutôt que, par exemple, résumer un texte).

Une requête ChatGPT de 6 à 10 fois supérieure à celle d’une recherche traditionnelle

Si on connait quelques bases sur la consommation de l’IA génératives grâce à ces études, les chercheuses de Hugging Face insistent : « il existe actuellement peu de transparence sur les demandes énergétiques des applications spécifiques de l’IA, bien que, selon une estimation récente, la quantité d’énergie utilisée pour une requête ChatGPT soit de 6 à 10 fois supérieure à celle d’une recherche traditionnelle sur le web (0,3 Wh contre 2,9 Wh) », en citant une analyse (PDF) du cabinet Goldman Sachs.

Un besoin de consensus sur la définition de l’IA et de transparence

Elles expliquent que pour avoir une vue d’ensemble de l’impact environnemental de l’IA, « nous avons besoin à la fois d’un consensus sur ce qu’il faut considérer comme faisant partie de l' »IA », et de beaucoup plus de transparence et d’informations de la part des entreprises impliquées dans la création de l’IA ».

Elles rappellent d’ailleurs que l’IA n’est pas uniquement le machine learning, mais désigne aussi les systèmes experts. Le flou qui constitue sa définition en entraine un autre dans la définition de sa consommation. « L’élément central de ce défi est le fait que l’IA est souvent une partie, et non la totalité, d’un système donné – par exemple, les appareils intelligents, les véhicules autonomes, les systèmes de recommandation, la recherche sur le web, etc », expliquent-elles.

Elles rappellent aussi qu’on ne possède que peu ou pas d’informations sur les émissions intrinsèques de la fabrication de matériel informatique, la consommation de carbone de l’infrastructure utilisée par l’IA elle-même, les effets de rebond et conséquences involontaires, les émissions qui sont émises par d’autres technologies qui se développent grâce à l’IA et enfin les atteintes à l’écosystème.

L’Europe première régulatrice, le projet de loi états-unien arrive

Dans le trio d’analystes de Hugging Face, la juriste Bruna Trevelin a plutôt dû collaborer à la dernière partie, celle sur l’analyse des régulations mises en place à travers le monde.

Le fait que cette analyse commence par l’Europe n’est pas anodin. Elles soulignent l’existence du « Green deal » qui fixe des objectifs juridiquement contraignants pour la neutralité carbone d’ici 2050. « Les systèmes d’IA utilisés dans la gestion de l’énergie, les réseaux intelligents et la surveillance de l’environnement devront être conformes à cette loi », expliquent-elles. Elles comptent aussi sur la directive européenne relative à l’efficacité énergétique pour quantifier et réguler la consommation d’eau.

Elles rappellent que l’AI Act impose « que les fournisseurs de modèles d’IA à usage général (IAG) doivent spécifiquement partager la consommation d’énergie connue ou estimée de leurs modèles ».

Il prévoit aussi « que les systèmes d’IA à haut risque rendent compte des performances en matière de ressources, telles que la consommation d’énergie et d' »autres ressources » au cours du cycle de vie des systèmes d’IA, qui pourraient inclure l’eau et les minéraux en fonction du niveau de détail des normes qui guideront le respect de cette obligation de rendre compte ».

De l’autre côté de l’Atlantique, « le décret sur le développement et l’utilisation sûrs, sécurisés et dignes de confiance de l’intelligence artificielle publié par la Maison Blanche en octobre 2023, bien que très complet à d’autres égards, n’aborde pas directement les impacts environnementaux des modèles d’IA, bien qu’il mentionne le développement d’applications de l’IA positives pour le climat » déplorent-elles.

Mais, si les États-Unis sont en retard par rapport à l’UE sur le sujet, l’Artificial Intelligence Environmental Impacts Act est actuellement en cours d’examen. Il serait « la première pierre d’une législation qui traite de ce sujet ». Joe Biden a récemment essayé de reprendre la main sur le sujet en demandant aux différentes agences fédérales d’accélérer l’évaluation des projets d’énergie « propre ».

Les trois chercheuses de Hugging Face citent aussi les initiatives de l’Espagne, du Canada et la feuille de route intelligence artificielle et transition écologique de la France.

☕️ Qualcomm aurait approché Intel pour un rachat

Qualcomm aurait approché Intel pour un rachat

Selon le Wall Street Journal, Qualcomm aurait approché Intel en vue d’un rachat. Il existerait une grande incertitude autour de l’opération, le Journal précisant qu’aucun détail financier n’a filtré. Ce n’est d’ailleurs pas la première fois qu’une telle opération fait l’objet de rumeurs. Au début du mois, Reuters rapportait ainsi que Qualcomm était intéressée par une partie des activités d’Intel, celles liées à la conception de puces.

Que la rumeur soit fondée ou non, elle est représentative d’une période troublée pour Intel. La société, grande spécialiste des puces x86, peine à maintenir ses marges et ses parts de marché entre un AMD qui s’est largement développé sous la houlette de Lisa Su et un marché Arm en pleine expansion, dopé par l’IA.

Il faut dire que l’année 2024 a été riche en mauvaises nouvelles pour Intel. Plus tôt dans l’année, la firme avait ainsi annoncé un plan d’économies. Il doit notamment aboutir au licenciement de 15 % de son personnel d’ici la fin de l’année.

Plus récemment, la société a annoncé que ses activités de fonderie (Intel Foundry) allaient être transférées à une entité indépendante et que deux projets de construction d’usines étaient suspendus. Intel pourrait également se séparer d’Altera, un spécialiste de puces PGA qu’elle avait racheté en 2015.

Qualcomm, pendant ce temps, ne connait pas vraiment la crise. Le géant américain, dont les puces alimentent une grande partie des smartphones Android, n’oublie pas l’IA et améliore graduellement ses NPU. Parallèlement, la société propose ses Snapdragon X dans les PC Copilot+, avec des performances globalement convaincantes.

Un tel rachat serait-il envisageable ? Rien d’impossible, même si cette opération serait examinée de très près par les autorités compétentes. Le rachat d’un géant par un autre accoucherait d’un puissant mastodonte, doté d’une force de frappe en x86 comme en Arm, et assez bien positionné en IA.

Parallèlement, Bloomberg rapporte qu’Apollo Global Management, spécialisée dans la gestion d’actifs, aurait aussi approché Intel. Le but serait tout autre : un investissement de 5 milliards de dollars, sous forme d’une prise de participation. L’examen de la proposition n’en serait qu’au stade préliminaire. Ce ne serait pas la première fois qu’Apollo investit dans Intel, puisqu’elle va prendre une participation de 49 % dans une coentreprise qui doit aboutir à une nouvelle usine en Irlande.

☕️ Google crée un fonds de 120 millions de dollars pour l’IA dans l’éducation

Google crée un fonds de 120 millions de dollars pour l’IA dans l’éducation

Samedi 21 septembre, au Sommet de l’avenir de l’ONU, le CEO de Google, Sundar Pichai, a annoncé la création par son entreprise d’un fonds de financement lié à l’IA dans l’éducation et la formation à hauteur de 120 millions de dollars. Ce fonds, appelé Global AI Opportunity Fund, est censé aider les pays émergents à se saisir des « opportunités » que leur offre l’IA.

Selon Pichai, cette technologie permettrait à ces pays d’accéder à une information et des connaissances mondiales dans leur propre langue, d’accélérer les découvertes scientifiques, d’ « aider les personnes qui se trouvent sur le chemin d’une catastrophe liée au climat » et enfin de contribuer au progrès économique.

Il ajoute que ces formations se feront dans la langue locale et en partenariat avec des associations et organisations non gouvernementales.

Bien que Sundar Pichai ait évoqué aussi certains risques de l’IA comme les « problèmes d’exactitude », les biais et les deep fakes, il n’a fait qu’euphémiser les conséquences possibles de cette technologie sur le monde du travail. Comme le remarque TechCrunch, il n’a pas évoqué l’impact de l’IA sur le climat.

MAG Coreliquid A15 : Uni Bracket et mode OFFSET pour le nouvel AIO MSI

Chez MSI, nous aurons prochainement un nouveau watercooling, avec le MAG Coreliquid A15, qui sera disponible en 240 ou 360 mm. Un watercooling qui fait la part belle au RGB sur son top et ses ventilateurs de 120 mm.Ce nouveau modèle s'offre la dernière pompe de la marque, une base en cuivre plus grande pour une meilleure efficacité avec les derniers processeurs, des micro-canaux qui ont été revus et améliorés, mais aussi la fixation Uni Bracket qui marche en AM4, AM5, S1700 et S1851. Il embarque aussi le système OFFSET qui permet de décaler le centre du watercooling sur le point chaud des derniers processeurs Intel à venir, pour un gain de l'ordre de 3 %. […]

Lire la suite

La série Two Point s'attaquera aux musées le 4 mars 2025

Après les hôpitaux et les écoles, la célèbre franchise Two Point de SEGA et Two Point Studios donne rendez-vous le 4 mars 2025 à tous les amateurs d'art pour la sortie de Two Point Museum. Et sans surprise, on peut s'attendre à des choses plus ou moins loufoques dans un environnement original. Gérer un musée devrait ouvrir de nouvelles possibilités au gameplay tout en restant assez éloigné de ce qu'on peut trouver avec un zoo ou un parc d'attraction. Après tout, on reste essentiellement dans un bâtiment ! […]

Lire la suite
❌