Le directeur de l’information d’une agence fédérale états-unienne a adressé à ses employés une directive pour qu’ils cessent d’utiliser des téléphones non sécurisés dans le cadre de leur travail. Cette injonction fait suite au récent piratage par la Chine de l’infrastructure de télécommunications américaine, révèle le Wall Street Journal.
« Ne travaillez PAS en utilisant des appels vocaux mobiles ou des messages texte », indique le courriel, qui demande à l’ensemble des employés du Consumer Financial Protection Bureau (CFPB, ou Bureau de protection des consommateurs en matière financière en français) que les réunions et conversations « impliquant des données non publiques » ne se tiennent plus que sur des plateformes telles que Microsoft Teams et Cisco WebEx, et non plus via des téléphones personnels ou professionnels.
L’alerte ajoute que les employés ne doivent pas non plus passer d’appels vers des téléphones portables, même en passant par une autre plateforme de communication, telle que Microsoft Teams :
« Bien qu’il n’y ait aucune preuve que le CFPB ait été ciblé par cet accès non autorisé, je vous demande de vous conformer à ces directives afin de réduire le risque de compromission. »
Les pirates informatiques du groupe Salt Typhoon, lié à un service de renseignement chinois, auraient en effet compromis des données relatives aux appels et, souligne le WSJ, « dans certains cas, enregistré les conversations téléphoniques de certaines cibles particulièrement importantes [« High-value target », en VO], notamment des personnes affiliées aux campagnes présidentielles de M. Trump et de M. Harris ».
Les enquêteurs américains pensent que les cyberespions ont ciblé « au moins plusieurs dizaines de hauts responsables » de la sécurité nationale et de la politique au sein du gouvernement américain, ainsi que des personnalités politiques, relève le WSJ.
L’accès dont disposaient les pirates leur aurait permis d’exfiltrer des journaux d’appels, des textes non chiffrés « et quelques enregistrements audio de milliers d’Américains et d’autres personnes avec lesquelles les cibles étaient en contact ».
À défaut de savoir si d’autres agences fédérales auraient, elles aussi, pris des mesures similaires ou prévoyaient de le faire, de nombreux fonctionnaires américains « ont déjà réduit l’utilisation de leur téléphone » en raison du piratage, selon un ancien fonctionnaire, qui relève désormais « une réticence générale à utiliser nos téléphones portables ».
Le directeur de l’information d’une agence fédérale états-unienne a adressé à ses employés une directive pour qu’ils cessent d’utiliser des téléphones non sécurisés dans le cadre de leur travail. Cette injonction fait suite au récent piratage par la Chine de l’infrastructure de télécommunications américaine, révèle le Wall Street Journal.
« Ne travaillez PAS en utilisant des appels vocaux mobiles ou des messages texte », indique le courriel, qui demande à l’ensemble des employés du Consumer Financial Protection Bureau (CFPB, ou Bureau de protection des consommateurs en matière financière en français) que les réunions et conversations « impliquant des données non publiques » ne se tiennent plus que sur des plateformes telles que Microsoft Teams et Cisco WebEx, et non plus via des téléphones personnels ou professionnels.
L’alerte ajoute que les employés ne doivent pas non plus passer d’appels vers des téléphones portables, même en passant par une autre plateforme de communication, telle que Microsoft Teams :
« Bien qu’il n’y ait aucune preuve que le CFPB ait été ciblé par cet accès non autorisé, je vous demande de vous conformer à ces directives afin de réduire le risque de compromission. »
Les pirates informatiques du groupe Salt Typhoon, lié à un service de renseignement chinois, auraient en effet compromis des données relatives aux appels et, souligne le WSJ, « dans certains cas, enregistré les conversations téléphoniques de certaines cibles particulièrement importantes [« High-value target », en VO], notamment des personnes affiliées aux campagnes présidentielles de M. Trump et de M. Harris ».
Les enquêteurs américains pensent que les cyberespions ont ciblé « au moins plusieurs dizaines de hauts responsables » de la sécurité nationale et de la politique au sein du gouvernement américain, ainsi que des personnalités politiques, relève le WSJ.
L’accès dont disposaient les pirates leur aurait permis d’exfiltrer des journaux d’appels, des textes non chiffrés « et quelques enregistrements audio de milliers d’Américains et d’autres personnes avec lesquelles les cibles étaient en contact ».
À défaut de savoir si d’autres agences fédérales auraient, elles aussi, pris des mesures similaires ou prévoyaient de le faire, de nombreux fonctionnaires américains « ont déjà réduit l’utilisation de leur téléphone » en raison du piratage, selon un ancien fonctionnaire, qui relève désormais « une réticence générale à utiliser nos téléphones portables ».
Non content de ficher 24 millions de personnes, le fichier des Traitement d’antécédents judiciaires (TAJ) n’est pas suffisamment mis à jour, avec des « conséquences concrètes et graves ». Ce n’est pas le seul problème de ce qui se révèle être une véritable usine à gaz. La CNIL relève de nombreux manquements, mais (re)donne deux ans aux ministères pour se conformer à la loi Informatique et libertés de 1978. Les premières mises en garde de la CNIL remontent à… 2012.
La délibération de la CNIL sur le rappel à l’ordre des ministères de l’Intérieur et de la Justice a permis d’apprendre que le fichier de Traitement d’antécédents judiciaires (TAJ), sorte de « casier judiciaire bis », était passé de 9 à 24 millions de personnes « défavorablement connues » des services de police et de gendarmerie.
Mais la Commission pointe aussi du doigt de nombreux manquements des ministères. Certains remontent à plusieurs années, voire au début de la création du fichier, en 2012. La CNIL rappelle que cela peut avoir « des conséquences considérables dans la vie des personnes », mais elle redonne tout de même deux ans aux ministères pour rentrer dans les rangs… avant de redonner deux ans si besoin ? On vous explique cette affaire en détail.
Présumés suspects : moins du tiers des affaires judiciaires sont mises à jour
Le Code de procédure pénale prévoit que certaines mises à jour du fichier « sont obligatoires en fonction de la suite judiciaire donnée à l’affaire », relève la CNIL. Dès lors, souligne (en gras) sa formation restreinte, en charge des sanctions, « les données doivent être rectifiées lors d’une requalification judiciaire et elles doivent être effacées par principe en cas de décision de relaxe ou d’acquittement », sauf si le procureur de la République, ou le magistrat référent, en demande le maintien.
Il reste 91% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
12 ans après sa création controversée, le Traitement d’antécédents judiciaires (TAJ), sorte de « casier judiciaire bis », a vu le nombre de fiches de personnes ayant été « mises en cause » par la Police ou la Gendarmerie passer de 9 à 24 millions (+ 167 %), dont 16 millions qui le sont encore nominativement. En cause notamment, le fait que moins de 30 % seulement des décisions de Justice « à décharge » y sont répertoriées, au mépris de la présomption d’innocence.
MàJ, 9/11 : titre et chapô modifiés pour préciser, comme expliqué dans l’article, qu’il s’agit de 24 millions de fiches de personnes ayant été« mises en cause », et non de 24 millions de personnes fichées comme ayant été « mises en cause », certaines y figurant sous plusieurs identités.
La formation restreinte de la Commission de l’informatique et des libertés (CNIL), chargée d’en prononcer les sanctions, vient de rappeler à l’ordre les ministères de l’Intérieur et de la Justice « pour leur mauvaise gestion » du fichier de traitement d’antécédents judiciaires (TAJ).
La CNIL a publié un communiqué pour l’occasion, largement repris dans la presse, mais ce dernier ne reprend pas les chiffres qui permettent de prendre la pleine teneur du phénomène, qui figurent pourtant dans la délibération associée.
En France, le nombre de fiches de personnes ayant été « mises en cause » par la Police ou la Gendarmerie depuis les années 90 est passé de 9 millions (en 2012) à pas moins de 24 millions, dont 16 millions le sont encore nominativement, et donc « défavorablement connues », pour reprendre l’expression médiatique consacrée (sans que jamais, cela dit, les journalistes ne précisent que l’équivalent du tiers de la population française serait donc concerné).
Cette « précision » importante à nos yeux – et passée relativement sous les radars dans la presse – est pourtant totalement absente du communiqué de presse de la CNIL. Nous avons évidemment contacté la Commission sur ce point (et d’autres), et mis nos questions et ses réponses dans la seconde partie de notre décryptage : 12 ans que la CNIL dénonce le fichier TAJ des personnes « défavorablement connues »… en vain. Plongée dans les méandres d’un fichier qui ne cesse ainsi de grandir, alors même que ses manquements sont connus depuis plus de dix ans.
Il reste 86% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Après avoir privilégié le métavers à la lutte contre la désinformation, ce qui aurait fait perdre à Meta 50 milliards de dollars depuis fin 2020, Mark Zuckerberg semble vouloir faire un nouvel « all in » en tablant sur le fait que les utilisateurs de ses réseaux sociaux voudraient être abreuvés de contenus générés par des IA.
« Nous avons d’abord eu des amis. Puis nous avons eu les influenceurs. Et si Mark Zuckerberg a raison, la prochaine grande nouveauté dans nos flux de médias sociaux sera le contenu généré par l’IA », décrite comme une « évolution naturelle », résume Fortune.
Le PDG de Meta a en effet évoqué cette banalisation lors de la présentation (.pdf) de ses résultats trimestriels, se disant enthousiaste à l’idée que « l’IA puisse aider les gens à créer des contenus qui améliorent l’expérience des internautes », relève 404 Media :
« Je pense que nous allons ajouter une toute nouvelle catégorie de contenus générés par l’IA ou résumés par l’IA, ou encore des contenus existants rassemblés par l’IA d’une manière ou d’une autre. Et je pense que cela sera très intéressant pour Facebook et Instagram et peut-être Threads, ou d’autres types d’expériences de flux au fil du temps ».
« C’est quelque chose que nous commençons à tester. Je ne sais pas encore si nous savons exactement ce qui fonctionnera vraiment bien, mais certaines choses sont très prometteuses », a-t-il ajouté : « Je suis convaincu qu’au cours des prochaines années, il s’agira d’une des tendances et d’une des applications les plus importantes » :
« Si vous regardez les grandes tendances des fils d’actualité au cours de l’histoire de l’entreprise, il s’agissait au départ d’amis, n’est-ce pas ? Toutes les mises à jour qui s’y trouvaient provenaient donc essentiellement de vos amis qui publiaient des choses. Puis nous sommes entrés dans une ère où nous avons ajouté le contenu des créateurs, ce qui fait qu’aujourd’hui un très grand pourcentage du contenu d’Instagram et de Facebook ne provient pas de vos amis. Il peut même ne pas provenir de personnes que vous suivez directement. Il peut s’agir simplement de contenus recommandés par des créateurs dont nous pouvons déterminer algorithmiquement qu’ils seront intéressants, engageants et utiles pour vous. »
Il reste 82% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Vendredi, on apprenait que des chercheurs chinois liés à l’Armée populaire de libération avaient entrainé le modèle de langage Llama à des fins militaires, en violation des règles d’utilisation de Meta. Ce lundi, le président des affaires internationales de Meta révèle de son côté que des prestataires de l’armée états-unienne utilisent déjà Llama à des fins militaires, et qu’elle va autoriser les « Five Eyes » à faire de même.
Meta autorisera les agences gouvernementales américaines et les sous-traitants travaillant dans le domaine de la sécurité nationale à utiliser ses modèles d’intelligence artificielle à des fins militaires, rapporte le New York Times.
Et ce, à rebours de sa politique qui interdisait jusque-là l’utilisation de sa technologie à de telles fins. La décision de Meta constitue à ce titre une exception à sa « politique d’utilisation acceptable », qui interdisait l’utilisation de ses logiciels d’intelligence artificielle à des fins « militaires, de guerre ou nucléaires », entre autres.
Une « norme mondiale » pour l’IA open source, à l’instar de Linux et Android
Nick Clegg, président des affaires internationales de Meta, a en effet publié ce lundi un billet de blog intitulé « L’IA Open Source peut aider l’Amérique à dominer l’IA et à renforcer la sécurité mondiale ». Il y explique que l’entreprise soutient désormais les « utilisations responsables et éthiques » de la technologie qui soutiennent les États-Unis et les « valeurs démocratiques » dans la course mondiale à la suprématie de l’IA.
« Meta veut jouer son rôle pour soutenir la sûreté, la sécurité et la prospérité économique de l’Amérique, ainsi que de ses alliés les plus proches », précise Nick Clegg : « l’adoption généralisée des modèles d’IA open source américains sert à la fois les intérêts économiques et sécuritaires » :
« Nous pensons qu’il est dans l’intérêt de l’Amérique et de l’ensemble du monde démocratique que les modèles open source américains excellent et réussissent par rapport aux modèles chinois et autres. Au fur et à mesure que les modèles open source deviennent plus performants et plus largement adoptés, une norme mondiale open source pour les modèles d’IA est susceptible d’émerger, comme cela a été le cas pour des technologies telles que Linux et Android. Cela se produira, que les États-Unis s’engagent ou non. »
Le leadership américain et son engagement en faveur de la paix
« Il est essentiel que la norme open source sur laquelle le monde s’appuie soit fondée sur des normes élevées d’ouverture, de transparence et de responsabilité », poursuit Nick Clegg :
« C’est pourquoi le leadership américain et son engagement en faveur du droit international sont si importants pour la paix et la sécurité dans le monde. Il incombe aux pays qui exploitent l’IA pour leur sécurité nationale de déployer l’IA de manière éthique, responsable et conforme au droit international et aux principes fondamentaux applicables, principes que les États-Unis et nombre de leurs alliés se sont engagés à respecter dans la Déclaration politique sur l’utilisation militaire responsable de l’intelligence artificielle et de l’autonomie. »
Un porte-parole de Meta a précisé que l’entreprise partagerait aussi sa technologie avec les membres de l’alliance de renseignement Five Eyes : Canada, Grande-Bretagne, Australie et Nouvelle-Zélande, confirmant une information de Bloomberg.
Un revirement de posture qui ne date probablement pas d’hier
L’entreprise a précisé qu’elle mettrait ses modèles d’IA Llama à la disposition des agences fédérales et qu’elle travaillait aussi avec des entreprises de défense telles que Lockheed Martin et Booz Allen, ainsi qu’avec des entreprises technologiques axées sur la défense, notamment Palantir et Anduril, et des prestataires d’agences gouvernementales, telles qu’Amazon Web Services, IBM, Oracle et Microsoft.
Oracle, par exemple, s’appuie sur Llama pour synthétiser les documents de maintenance des avions, afin que les techniciens puissent diagnostiquer les problèmes plus rapidement et avec plus de précision, « ce qui accélère les délais de réparation et permet de remettre en service les avions les plus importants ».
Scale AI affine pour sa part Llama afin de soutenir la planification des opérations et l’identification des vulnérabilités des adversaires. Lockheed Martin a de son côté intégré Llama dans son usine d’IA, accélérant la génération de code, l’analyse de données et l’amélioration des processus d’affaires. La solution watsonx d’IBM met Llama à la disposition des agences de sécurité nationale dans leurs centres de données et leurs nuages autogérés.
Ces cas d’usage, énumérés dans le billet de blog de Nick Clegg, laissent entendre que le revirement de posture de Meta ne date pas d’hier, même si son annonce pourrait avoir été précipitée par l’enquête de l’agence de presse Reuters, publiée vendredi dernier.
Elle y révélait en effet avoir repéré le travail de chercheurs chinois, dont deux travaillent pour l’Académie des sciences militaires de l’Armée populaire de libération, s’appuyant sur un modèle de langage de la famille Llama pour créer un outil d’IA. Baptisé ChatBIT (sic), il serait destiné à améliorer la prise de décisions opérationnelles de l’armée chinoise.
Le revirement de Meta « risque de faire l’objet d’un examen minutieux », relève le New York Times, qui rappelle que les applications militaires des produits technologiques de la Silicon Valley ont été contestées ces dernières années. De nombreux employés de Microsoft, Google et Amazon avaient ainsi bruyamment protesté contre certains des accords conclus par leur entreprise avec des entreprises militaires et des agences de défense.
Meta fait en outre l’objet d’un examen minutieux en raison de son approche « open source » de l’IA, souligne le Times. OpenAI et Google avancent en effet que la technologie qui sous-tend leurs IA serait trop puissante et susceptible d’être utilisée à mauvais escient pour être diffusée dans la nature. A contrario, Meta estime que l’IA ne peut être améliorée et rendue plus sûre qu’en permettant à des millions de personnes d’examiner le code et de l’analyser.
Les dirigeants de Meta craignent également que le gouvernement américain et d’autres pays réglementent sévèrement l’intelligence artificielle open source, ont déclaré aux Times deux personnes familières de l’entreprise.
Fin août, Meta indiquait par ailleurs que son logiciel avait été téléchargé près de 350 millions de fois, faisant de Llama « la première famille de modèles open source », et que l’utilisation mensuelle (en volume de jetons) de Llama avait été multipliée par 10 de janvier à juillet 2024.
Vendredi, on apprenait que des chercheurs chinois liés à l’Armée populaire de libération avaient entrainé le modèle de langage Llama à des fins militaires, en violation des règles d’utilisation de Meta. Ce lundi, le président des affaires internationales de Meta révèle de son côté que des prestataires de l’armée états-unienne utilisent déjà Llama à des fins militaires, et qu’elle va autoriser les « Five Eyes » à faire de même.
Meta autorisera les agences gouvernementales américaines et les sous-traitants travaillant dans le domaine de la sécurité nationale à utiliser ses modèles d’intelligence artificielle à des fins militaires, rapporte le New York Times.
Et ce, à rebours de sa politique qui interdisait jusque-là l’utilisation de sa technologie à de telles fins. La décision de Meta constitue à ce titre une exception à sa « politique d’utilisation acceptable », qui interdisait l’utilisation de ses logiciels d’intelligence artificielle à des fins « militaires, de guerre ou nucléaires », entre autres.
Une « norme mondiale » pour l’IA open source, à l’instar de Linux et Android
Nick Clegg, président des affaires internationales de Meta, a en effet publié ce lundi un billet de blog intitulé « L’IA Open Source peut aider l’Amérique à dominer l’IA et à renforcer la sécurité mondiale ». Il y explique que l’entreprise soutient désormais les « utilisations responsables et éthiques » de la technologie qui soutiennent les États-Unis et les « valeurs démocratiques » dans la course mondiale à la suprématie de l’IA.
« Meta veut jouer son rôle pour soutenir la sûreté, la sécurité et la prospérité économique de l’Amérique, ainsi que de ses alliés les plus proches », précise Nick Clegg : « l’adoption généralisée des modèles d’IA open source américains sert à la fois les intérêts économiques et sécuritaires » :
« Nous pensons qu’il est dans l’intérêt de l’Amérique et de l’ensemble du monde démocratique que les modèles open source américains excellent et réussissent par rapport aux modèles chinois et autres. Au fur et à mesure que les modèles open source deviennent plus performants et plus largement adoptés, une norme mondiale open source pour les modèles d’IA est susceptible d’émerger, comme cela a été le cas pour des technologies telles que Linux et Android. Cela se produira, que les États-Unis s’engagent ou non. »
Le leadership américain et son engagement en faveur de la paix
« Il est essentiel que la norme open source sur laquelle le monde s’appuie soit fondée sur des normes élevées d’ouverture, de transparence et de responsabilité », poursuit Nick Clegg :
« C’est pourquoi le leadership américain et son engagement en faveur du droit international sont si importants pour la paix et la sécurité dans le monde. Il incombe aux pays qui exploitent l’IA pour leur sécurité nationale de déployer l’IA de manière éthique, responsable et conforme au droit international et aux principes fondamentaux applicables, principes que les États-Unis et nombre de leurs alliés se sont engagés à respecter dans la Déclaration politique sur l’utilisation militaire responsable de l’intelligence artificielle et de l’autonomie. »
Un porte-parole de Meta a précisé que l’entreprise partagerait aussi sa technologie avec les membres de l’alliance de renseignement Five Eyes : Canada, Grande-Bretagne, Australie et Nouvelle-Zélande, confirmant une information de Bloomberg.
Un revirement de posture qui ne date probablement pas d’hier
L’entreprise a précisé qu’elle mettrait ses modèles d’IA Llama à la disposition des agences fédérales et qu’elle travaillait aussi avec des entreprises de défense telles que Lockheed Martin et Booz Allen, ainsi qu’avec des entreprises technologiques axées sur la défense, notamment Palantir et Anduril, et des prestataires d’agences gouvernementales, telles qu’Amazon Web Services, IBM, Oracle et Microsoft.
Oracle, par exemple, s’appuie sur Llama pour synthétiser les documents de maintenance des avions, afin que les techniciens puissent diagnostiquer les problèmes plus rapidement et avec plus de précision, « ce qui accélère les délais de réparation et permet de remettre en service les avions les plus importants ».
Scale AI affine pour sa part Llama afin de soutenir la planification des opérations et l’identification des vulnérabilités des adversaires. Lockheed Martin a de son côté intégré Llama dans son usine d’IA, accélérant la génération de code, l’analyse de données et l’amélioration des processus d’affaires. La solution watsonx d’IBM met Llama à la disposition des agences de sécurité nationale dans leurs centres de données et leurs nuages autogérés.
Ces cas d’usage, énumérés dans le billet de blog de Nick Clegg, laissent entendre que le revirement de posture de Meta ne date pas d’hier, même si son annonce pourrait avoir été précipitée par l’enquête de l’agence de presse Reuters, publiée vendredi dernier.
Elle y révélait en effet avoir repéré le travail de chercheurs chinois, dont deux travaillent pour l’Académie des sciences militaires de l’Armée populaire de libération, s’appuyant sur un modèle de langage de la famille Llama pour créer un outil d’IA. Baptisé ChatBIT (sic), il serait destiné à améliorer la prise de décisions opérationnelles de l’armée chinoise.
Le revirement de Meta « risque de faire l’objet d’un examen minutieux », relève le New York Times, qui rappelle que les applications militaires des produits technologiques de la Silicon Valley ont été contestées ces dernières années. De nombreux employés de Microsoft, Google et Amazon avaient ainsi bruyamment protesté contre certains des accords conclus par leur entreprise avec des entreprises militaires et des agences de défense.
Meta fait en outre l’objet d’un examen minutieux en raison de son approche « open source » de l’IA, souligne le Times. OpenAI et Google avancent en effet que la technologie qui sous-tend leurs IA serait trop puissante et susceptible d’être utilisée à mauvais escient pour être diffusée dans la nature. A contrario, Meta estime que l’IA ne peut être améliorée et rendue plus sûre qu’en permettant à des millions de personnes d’examiner le code et de l’analyser.
Les dirigeants de Meta craignent également que le gouvernement américain et d’autres pays réglementent sévèrement l’intelligence artificielle open source, ont déclaré aux Times deux personnes familières de l’entreprise.
Fin août, Meta indiquait par ailleurs que son logiciel avait été téléchargé près de 350 millions de fois, faisant de Llama « la première famille de modèles open source », et que l’utilisation mensuelle (en volume de jetons) de Llama avait été multipliée par 10 de janvier à juillet 2024.
Environ 7 % des articles publiés sur des sites d’information seraient en fait générés par des IA. Sur la plateforme de publication d’articles et de billets Medium, ce taux serait de plus de 40 %. Une pollution que relativise le PDG de l’entreprise, estimant que personne ne les lit.
À l’origine, le slop désigne l’amas de boues qui tapisse au fur et à mesure le fond des citernes des navires, notamment pétroliers, écrivait le Courrier International en juin dernier. Le terme est aussi depuis quelques mois utilisé pour désigner les contenus bas de gamme générés par des IA et qui inondent de plus en plus le web.
Non content de polluer Amazon Books et Youtube (jusque et y compris les chaînes de philosophie, constatait récemment Monsieur Phi), le slop envahirait aussi la plateforme de blogs Medium. WIRED raconte en effet avoir demandé à la société Pangram Labs, spécialisée dans la détection de l’intelligence artificielle, d’analyser un échantillon de 274 466 articles récents, publiés sur une période de six semaines sur la plateforme.
La start-up, qui présente sa technologie comme « la plus précise pour détecter les contenus générés par l’IA à grande échelle », avec un taux de précision de « plus de 99,98 % », a estimé que plus de 47 % d’entre eux étaient probablement générés par l’IA (GenAI).
WIRED a demandé à une seconde start-up, elle aussi dédiée à la détection des contenus GenAI, Originality AI, de comparer deux échantillons de posts Medium, l’un datant de 2018, l’autre de cette année. 3,4 % du premier avaient probablement été générés par IA.
Un pourcentage qui correspond au taux de faux positifs de l’entreprise, précise son PDG, John Gillham, d’autant que les outils d’IA n’étaient pas encore largement utilisés. A contrario, un peu plus de 40 % de l’échantillon de 2024 étaient probablement générés par l’IA.
7 % des articles d’actualité seraient générés par des IA
« C’est deux ordres de grandeur de plus que ce que je vois sur le reste de l’internet », explique Max Spero, PDG de Pangram, à WIRED. En août, la start-up avait en effet analysé 857 434 articles publiés sur 26 675 sites web d’information sur une seule journée de juillet dernier, et découvert que 59 653 d’entre eux, soit 6,96 %, avaient été, en tout ou partie (de 50 à 100 %), rédigés par des IA.
Le Ghana arrivait en tête des pays ayant le plus recours aux IA, avec près de 33 % des articles GenAI, suivi par le Pérou (plus de 20 %), le Brésil, la Colombie et le Pakistan (16 %). Si la France (8 %) arrivait en avant-dernière position du classement, juste derrière Singapour et l’Espagne, ce dernier mentionnait principalement des pays d’Amérique du Sud, d’Afrique de l’Ouest et d’Asie du Sud, et aucun autre pays européen, ni nord américain.
La Tech arrivait en tête des thématiques les plus polluées par les contenus GenAI, devant la beauté (du fait des articles sponsorisés), le business, le jeu, la finance et la science, notamment en rapport avec des escroqueries liées aux crypto-actifs.
Appeaux putaclics à pubs et escroqueries aux cryptos
Pangram avait identifié plusieurs types d’articles GenAI. Certains n’ont que pour objectif de remplir des « sites conçus pour la publicité » (made-for-advertising sites, ou MFAs) afin d’attirer des lecteurs, et de les exposer à des publicités bas de gamme.
Leurs contenus ne sont dès lors « pas vraiment destinés à être lus », mais juste à attirer le chaland, via des titres « putaclics » notamment. Les annonceurs ne sont, eux non plus, pas conscients d’afficher leurs publicités sur ces sites bas de gamme. Pangram estime que les MFAs représentent environ 50 % des contenus GenAI.
L’entreprise a aussi constaté qu’une « grande partie » des articles sur le thème de la beauté était en fait « sponsorisés », et donc écrits par des communicants et rédacteurs sous-traitant la rédaction de tels contenus à des IA. De même, de nombreux modes d’emploi liés à de nouveaux crypto-actifs s’avèrent être des escroqueries, dont la rédaction est là aussi sous-traitée à des IA.
78 % des articles taggués NFT, web3 et Ethereum étaient GenAI
Sur Medium, 4 492 des 5 712 articles (soit 78 %) taggués NFT avait eux aussi probablement été générés par IA. Une proportion démesurée que Pangram a aussi constaté du côté des articles estampillés web3, Ethereum, « AI » et… pets (animaux de compagnie).
McKenzie Sadeghi, rédacteur chez NewsGuard, une société de surveillance de la désinformation en ligne qui a de son côté identifié plus de 1 000 sites web d’information GenAI, a de son côté constaté que la plupart de ce type de contenus portaient sur les cryptoactifs, le marketing et l’optimisation des moteurs de recherche (SEO).
Les nombreux comptes semblant avoir publié des volumes importants de documents générés par l’IA semblent par ailleurs ne concerner qu’un lectorat faible, voire inexistant, relève WIRED. Un compte signalé par Pangram Labs comme ayant rédigé plusieurs articles consacrés à des cryptos avait ainsi publié six d’entre eux en une journée seulement, mais sans aucune interaction, suggérant un impact négligeable.
À l’inverse, WIRED a aussi constaté que d’autres articles signalés par Pangram, Originality et la société de détection de l’IA Reality Defender comme étant probablement générés par l’IA, avaient des centaines de « claps », similaires aux « likes » que l’on trouve sur d’autres plateformes, mais sans que l’on sache s’ils émanent d’être humains, ou de bots.
Medium est fait pour le storytelling humain, pas pour les articles GenAI
« Medium fonctionne essentiellement grâce à la curation humaine », rétorque Tony Stubblebine, le PDG de la plateforme, évoquant les 9 000 rédacteurs en chef des publications de Medium, ainsi que l’évaluation humaine supplémentaire des articles susceptibles d’être artificiellement « boostés ».
S’il reconnaît que les contenus GenAI publiés sur Medium « a probablement décuplé depuis le début de l’année », il s’oppose néanmoins à l’utilisation de détecteurs d’IA pour évaluer la portée du problème, en partie parce qu’il estime qu’ils ne peuvent pas faire la différence entre les messages entièrement générés par l’IA et les messages dans lesquels l’IA est utilisée de manière plus légère (ce que rejette le PDG de Pangram, au demeurant).
Contrairement à LinkedIn et Facebook, qui encouragent explicitement l’utilisation de l’IA, Medium n’autorise plus d’articles GenAI. « Medium est destiné à la narration humaine, pas à l’écriture générée par l’IA », avait souligné la plateforme sur son blog, l’an passé. « La grande majorité des histoires détectables générées par l’IA dans les flux bruts pour ces sujets font zéro vue », renchérit Stubblebine.
« À mesure que les outils d’IA générative se banalisent, les plateformes qui renoncent à essayer d’éliminer les bots incuberont un monde en ligne dans lequel le travail créé par les humains deviendra de plus en plus difficile à trouver sur les plateformes submergées par l’IA », conclut WIRED, en écho à la théorie de l’Internet mort.
Estampillée complotiste, elle avance qu’Internet ne serait pratiquement plus peuplé que par des bots et que la majorité du contenu est généré par des algorithmes, marginalisant l’activité humaine.
Environ 7 % des articles publiés sur des sites d’information seraient en fait générés par des IA. Sur la plateforme de publication d’articles et de billets Medium, ce taux serait de plus de 40 %. Une pollution que relativise le PDG de l’entreprise, estimant que personne ne les lit.
À l’origine, le slop désigne l’amas de boues qui tapisse au fur et à mesure le fond des citernes des navires, notamment pétroliers, écrivait le Courrier International en juin dernier. Le terme est aussi depuis quelques mois utilisé pour désigner les contenus bas de gamme générés par des IA et qui inondent de plus en plus le web.
Non content de polluer Amazon Books et Youtube (jusque et y compris les chaînes de philosophie, constatait récemment Monsieur Phi), le slop envahirait aussi la plateforme de blogs Medium. WIRED raconte en effet avoir demandé à la société Pangram Labs, spécialisée dans la détection de l’intelligence artificielle, d’analyser un échantillon de 274 466 articles récents, publiés sur une période de six semaines sur la plateforme.
La start-up, qui présente sa technologie comme « la plus précise pour détecter les contenus générés par l’IA à grande échelle », avec un taux de précision de « plus de 99,98 % », a estimé que plus de 47 % d’entre eux étaient probablement générés par l’IA (GenAI).
WIRED a demandé à une seconde start-up, elle aussi dédiée à la détection des contenus GenAI, Originality AI, de comparer deux échantillons de posts Medium, l’un datant de 2018, l’autre de cette année. 3,4 % du premier avaient probablement été générés par IA.
Un pourcentage qui correspond au taux de faux positifs de l’entreprise, précise son PDG, John Gillham, d’autant que les outils d’IA n’étaient pas encore largement utilisés. A contrario, un peu plus de 40 % de l’échantillon de 2024 étaient probablement générés par l’IA.
7 % des articles d’actualité seraient générés par des IA
« C’est deux ordres de grandeur de plus que ce que je vois sur le reste de l’internet », explique Max Spero, PDG de Pangram, à WIRED. En août, la start-up avait en effet analysé 857 434 articles publiés sur 26 675 sites web d’information sur une seule journée de juillet dernier, et découvert que 59 653 d’entre eux, soit 6,96 %, avaient été, en tout ou partie (de 50 à 100 %), rédigés par des IA.
Le Ghana arrivait en tête des pays ayant le plus recours aux IA, avec près de 33 % des articles GenAI, suivi par le Pérou (plus de 20 %), le Brésil, la Colombie et le Pakistan (16 %). Si la France (8 %) arrivait en avant-dernière position du classement, juste derrière Singapour et l’Espagne, ce dernier mentionnait principalement des pays d’Amérique du Sud, d’Afrique de l’Ouest et d’Asie du Sud, et aucun autre pays européen, ni nord américain.
La Tech arrivait en tête des thématiques les plus polluées par les contenus GenAI, devant la beauté (du fait des articles sponsorisés), le business, le jeu, la finance et la science, notamment en rapport avec des escroqueries liées aux crypto-actifs.
Appeaux putaclics à pubs et escroqueries aux cryptos
Pangram avait identifié plusieurs types d’articles GenAI. Certains n’ont que pour objectif de remplir des « sites conçus pour la publicité » (made-for-advertising sites, ou MFAs) afin d’attirer des lecteurs, et de les exposer à des publicités bas de gamme.
Leurs contenus ne sont dès lors « pas vraiment destinés à être lus », mais juste à attirer le chaland, via des titres « putaclics » notamment. Les annonceurs ne sont, eux non plus, pas conscients d’afficher leurs publicités sur ces sites bas de gamme. Pangram estime que les MFAs représentent environ 50 % des contenus GenAI.
L’entreprise a aussi constaté qu’une « grande partie » des articles sur le thème de la beauté était en fait « sponsorisés », et donc écrits par des communicants et rédacteurs sous-traitant la rédaction de tels contenus à des IA. De même, de nombreux modes d’emploi liés à de nouveaux crypto-actifs s’avèrent être des escroqueries, dont la rédaction est là aussi sous-traitée à des IA.
78 % des articles taggués NFT, web3 et Ethereum étaient GenAI
Sur Medium, 4 492 des 5 712 articles (soit 78 %) taggués NFT avait eux aussi probablement été générés par IA. Une proportion démesurée que Pangram a aussi constaté du côté des articles estampillés web3, Ethereum, « AI » et… pets (animaux de compagnie).
McKenzie Sadeghi, rédacteur chez NewsGuard, une société de surveillance de la désinformation en ligne qui a de son côté identifié plus de 1 000 sites web d’information GenAI, a de son côté constaté que la plupart de ce type de contenus portaient sur les cryptoactifs, le marketing et l’optimisation des moteurs de recherche (SEO).
Les nombreux comptes semblant avoir publié des volumes importants de documents générés par l’IA semblent par ailleurs ne concerner qu’un lectorat faible, voire inexistant, relève WIRED. Un compte signalé par Pangram Labs comme ayant rédigé plusieurs articles consacrés à des cryptos avait ainsi publié six d’entre eux en une journée seulement, mais sans aucune interaction, suggérant un impact négligeable.
À l’inverse, WIRED a aussi constaté que d’autres articles signalés par Pangram, Originality et la société de détection de l’IA Reality Defender comme étant probablement générés par l’IA, avaient des centaines de « claps », similaires aux « likes » que l’on trouve sur d’autres plateformes, mais sans que l’on sache s’ils émanent d’être humains, ou de bots.
Medium est fait pour le storytelling humain, pas pour les articles GenAI
« Medium fonctionne essentiellement grâce à la curation humaine », rétorque Tony Stubblebine, le PDG de la plateforme, évoquant les 9 000 rédacteurs en chef des publications de Medium, ainsi que l’évaluation humaine supplémentaire des articles susceptibles d’être artificiellement « boostés ».
S’il reconnaît que les contenus GenAI publiés sur Medium « a probablement décuplé depuis le début de l’année », il s’oppose néanmoins à l’utilisation de détecteurs d’IA pour évaluer la portée du problème, en partie parce qu’il estime qu’ils ne peuvent pas faire la différence entre les messages entièrement générés par l’IA et les messages dans lesquels l’IA est utilisée de manière plus légère (ce que rejette le PDG de Pangram, au demeurant).
Contrairement à LinkedIn et Facebook, qui encouragent explicitement l’utilisation de l’IA, Medium n’autorise plus d’articles GenAI. « Medium est destiné à la narration humaine, pas à l’écriture générée par l’IA », avait souligné la plateforme sur son blog, l’an passé. « La grande majorité des histoires détectables générées par l’IA dans les flux bruts pour ces sujets font zéro vue », renchérit Stubblebine.
« À mesure que les outils d’IA générative se banalisent, les plateformes qui renoncent à essayer d’éliminer les bots incuberont un monde en ligne dans lequel le travail créé par les humains deviendra de plus en plus difficile à trouver sur les plateformes submergées par l’IA », conclut WIRED, en écho à la théorie de l’Internet mort.
Estampillée complotiste, elle avance qu’Internet ne serait pratiquement plus peuplé que par des bots et que la majorité du contenu est généré par des algorithmes, marginalisant l’activité humaine.
Le président de Google Europe, Moyen-Orient et Afrique (EMEA), Matt Brittin, vient d’annoncer sur LinkedIn son intention de quitter l’entreprise, qu’il avait rejointe il y a 18 ans :
« Lorsque j’ai rejoint Google, moins d’une personne sur cinq était en ligne. Aujourd’hui, près de 70 % d’entre elles ont les informations du monde entre leurs mains et les opportunités qui en découlent. […] La région EMEA représente environ un tiers du chiffre d’affaires global de Google et nous l’avons multiplié par plusieurs fois. »
« C’est un moment charnière pour passer le relais », a-t-il ajouté : « Nous commençons à peine à entrevoir les effets transformateurs que l’IA aura sur des milliards de vies – et les gens de notre région du monde montrent la voie ».
Britin rappelle en effet que Google DeepMind est dirigé depuis Londres, et qu’il est à l’origine de percées telles qu’AlphaFold de prédiction de la structure des protéines à partir de leur séquence en acides aminés, qui vient de valoir à deux de ses développeurs d’être désignés co-lauréats du prix Nobel de chimie.
Matt Brittin avait d’abord rejoint Google en tant que responsable des opérations au Royaume-Uni et en Irlande en 2007, avant de gravir les échelons pour devenir vice-président de l’Europe du Nord et centrale, puis président de la région EMEA en 2014, relève Reuters.
Avant de travailler pour Google, Brittin avait travaillé plusieurs années en tant que consultant pour McKinsey & Co. Il a précisé qu’il continuerait à diriger les activités de Google dans la région EMEA jusqu’à ce qu’un successeur soit choisi.
Le président de Google Europe, Moyen-Orient et Afrique (EMEA), Matt Brittin, vient d’annoncer sur LinkedIn son intention de quitter l’entreprise, qu’il avait rejointe il y a 18 ans :
« Lorsque j’ai rejoint Google, moins d’une personne sur cinq était en ligne. Aujourd’hui, près de 70 % d’entre elles ont les informations du monde entre leurs mains et les opportunités qui en découlent. […] La région EMEA représente environ un tiers du chiffre d’affaires global de Google et nous l’avons multiplié par plusieurs fois. »
« C’est un moment charnière pour passer le relais », a-t-il ajouté : « Nous commençons à peine à entrevoir les effets transformateurs que l’IA aura sur des milliards de vies – et les gens de notre région du monde montrent la voie ».
Britin rappelle en effet que Google DeepMind est dirigé depuis Londres, et qu’il est à l’origine de percées telles qu’AlphaFold de prédiction de la structure des protéines à partir de leur séquence en acides aminés, qui vient de valoir à deux de ses développeurs d’être désignés co-lauréats du prix Nobel de chimie.
Matt Brittin avait d’abord rejoint Google en tant que responsable des opérations au Royaume-Uni et en Irlande en 2007, avant de gravir les échelons pour devenir vice-président de l’Europe du Nord et centrale, puis président de la région EMEA en 2014, relève Reuters.
Avant de travailler pour Google, Brittin avait travaillé plusieurs années en tant que consultant pour McKinsey & Co. Il a précisé qu’il continuerait à diriger les activités de Google dans la région EMEA jusqu’à ce qu’un successeur soit choisi.
Une artiste a découvert qu’un système de reconnaissance automatisé des plaques d’immatriculation reconnaissait également les textes affichés sur les stickers collés sur les pare-chocs des véhicules, ainsi que les slogans politiques arborés aux frontons des maisons. Et permettait donc d’identifier les véhicules, et logements, des personnes pro ou anti-Trump, Biden, avortement, etc.
Des documents obtenus et examinés par WIRED révèlent qu’un système de reconnaissance automatisée des plaques d’immatriculation, initialement prévu pour le contrôle de la circulation, est également capable d’identifier voire de « surveiller des discours protégés par la Constitution américaine ».
Les photographies consultées par WIRED montrent en effet des pancartes pro-Trump ou en faveur du tandem formé par Kamala Harris et Tim Walz affichées au fronton de maisons, sur les portes de garages ou plantées dans des jardins de domiciles privés, ou encore des autocollants politiques (tels que « Fuck Biden ») à l’arrière de camions et de voitures, « dans toute l’Amérique ».
Ces images, explique WIRED, « générées par des caméras à intelligence artificielle » montées sur des voitures et des camions, initialement conçues pour saisir les plaques d’immatriculation, enregistrent aussi l’emplacement précis des endroits où ont été prises ces photographies.
Elles sont consultables dans les résultats de recherche produits par les systèmes de DRN Data, une filiale de Motorola spécialisée dans la reconnaissance de plaques d’immatriculation (LPR, pour license-plate-recognition en anglais, et LAPI, pour lecture automatisée de plaques d’immatriculation, en français). Parmi ses clients figurent des enquêteurs privés, des agents de recouvrement et des compagnies d’assurance, ainsi que des policiers.
DRN propose en effet d’obtenir des « alertes en temps réel pour les véhicules en fourrière et les véhicules volés », de « vérifier les sinistres, détecter les irrégularités », d’ « identifier l’utilisation commerciale et le covoiturage », d’ « améliorer le recouvrement des créances grâce à l’analyse prédictive », de « localiser les débiteurs grâce aux données de localisation des véhicules », d’ « accéder aux données de localisation des véhicules en direct » ou encore de « trouver les véhicules difficiles à trouver ». Elle propose même de « convertir le trafic automobile en clients grâce aux informations LAPI » :
« Identifiez les visiteurs de passage, générez des prospects de haute qualité et développez votre activité grâce à notre base de données marketing LAPI. Élargissez votre marché, personnalisez vos messages et augmentez vos conversions. Créez des profils de clients avec des informations détaillées. Découvrez des signaux d’achat et des données démographiques cachés. Exportez des listes de contacts avec des attributs marketing. Conduisez les clients vers votre entreprise. »
Plus de 20 milliards de scans de plaques d’immatriculation
Il reste 82% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Le groupe de fabrication électronique taïwanais Foxconn construit au Mexique la plus grande usine du monde fabriquant les serveurs d’intelligence artificielle les plus avancés de NVIDIA, Blackwell AI, rapporte le Financial Times. Le FT voit dans cette délocalisation une illustration « frappante » du découplage des chaînes d’approvisionnement technologiques mondiales par rapport à la Chine.
Gouvernements et entreprises occidentaux cherchent en effet depuis des années à rapprocher de leurs territoires la fabrication de produits technologiques sensibles et de fournitures essentielles, afin de réduire leur dépendance à l’égard de la Chine, compte tenu des tensions géopolitiques croissantes et des perturbations de la chaîne d’approvisionnement.
Young Liu, président de Foxconn, a déclaré à ses clients et partenaires, lors de la présentation annuelle de Foxconn à Taipei, que le poids de la Chine dans l’empreinte manufacturière mondiale du groupe allait diminuer pour atteindre un peu plus de 70 %.
La plateforme Blackwell fait l’objet d’une demande « folle », a précisé Young Liu lors de cet événement auquel participait également Deepu Talla, vice-président de NVIDIA, qui n’a donné que peu de détails sur l’usine de 450 mètres de long. L’usine, située dans la ville de Guadalajara, au centre du Mexique, assemblera les serveurs d’intelligence artificielle GB200 Blackwell.
Foxconn est déjà très présent au Mexique et a investi plus de 500 millions de dollars à ce jour dans l’État de Chihuahua, relève l’agence Reuters. Samedi, Foxconn a en outre enregistré le chiffre d’affaires le plus élevé de son histoire pour le troisième trimestre, grâce à la forte demande de serveurs AI.
L’autre objectif de Foxconn est de se diversifier et de s’éloigner de son rôle de fabricant d’électronique grand public pour Apple, dans l’espoir d’utiliser son savoir-faire technologique pour proposer la fabrication à façon de véhicules électriques et produire des véhicules utilisant des modèles construits par la marque Foxtron.
Liu a également prédit que la montée de « l’IA souveraine » – la nécessité pour les nations de développer leur propre intelligence artificielle pour s’aligner sur leurs intérêts de sécurité nationale – conduirait également à une production de plus en plus localisée des serveurs nécessaires.
En plus de l’IA souveraine, « je proposerais un concept de « serveur de souveraineté » », a-t-il déclaré. « À l’avenir, les serveurs seront produits dans les pays qui en ont besoin. C’est la direction que nous prenons actuellement ».
Article mis à jour à 16h55 avec le communiqué du directeur du nouvel Appeals Centre Europe.
Les utilisateurs de réseaux sociaux de l’Union européenne pourront bientôt déposer des plaintes contre Facebook, TikTok et YouTube concernant la modération des contenus auprès d’un nouvel organisme indépendant créé en Irlande, rapporte l’agence Reuters.
Cet organisme, soutenu par le Conseil de surveillance (Oversight Board) de Meta et certifié par l’autorité irlandaise de régulation des médias, servira d’organe de règlement extrajudiciaire des litiges en vertu de la loi européenne sur les services numériques (DSA).
Jusqu’à présent, les particuliers et organisations ne disposaient que d’options limitées pour contester les décisions des entreprises de médias sociaux en matière de contenu sans passer par les tribunaux, souligne Reuters.
Un service rapide, économique et impartial, assuré par des experts
L’Appeals Centre Europe (ACE) entrera en fonction avant la fin de l’année, et inclura d’autres plateformes de médias sociaux au fil du temps. Son site web précise qu’il « propose un service rapide, économique et impartial, assuré par des experts, pour prendre des décisions conformes aux politiques de contenu des plateformes ».
Il sera financé par les frais facturés aux entreprises de médias sociaux, et sera géré par un Conseil de sept administrateurs indépendants, dont trois des membres de l’Oversight Board : Cherine Chalaby, Catherine O’Regan et Marie Wieck, « tous experts reconnus dans leur domaine ».
À ces trois premiers administrateurs indépendants viendront s’ajouter quatre autres administrateurs « sans lien avec une entreprise de réseaux sociaux ni relation avec une entité financée par une entreprise de réseaux sociaux », précise son site web :
« En conjuguant leur expérience des droits de l’Homme, de la gouvernance de l’internet et de la technologie, les administrateurs indépendants seront chargés de superviser la constitution de ce nouvel organe indépendant afin qu’il se conforme aux normes les plus strictes dès ses premières interventions. »
Un organisme indépendant des gouvernements et des entreprises
« Nous voulons que les utilisateurs aient le choix de soumettre un litige à un organisme indépendant des gouvernements et des entreprises, qui veille à ce que les politiques de contenu des plateformes soient appliquées de manière équitable et impartiale », a déclaré Thomas Hughes, premier directeur général du Centre d’appel, ancien directeur exécutif de l’association de défense des droits de la liberté d’expression Article 19 et ex-directeur de l’Oversight Board.
Aidé d’une équipe d’experts, il devra examiner chaque cas dans un délai de 90 jours, et décider si les décisions des plateformes sont cohérentes avec leurs politiques de contenu, ainsi qu’à toute règle ou exception qui font référence aux droits de l’Homme. Les cas complexes seront quant à eux confiés à des spécialistes qui possèdent de l’expertise dans des régions, des langues ou des domaines de politique spécifiques.
Une redevance nominale, remboursée en cas de décision favorable
Les utilisateurs qui soulèvent un litige devront payer une somme symbolique, qui leur sera remboursée si la décision est en leur faveur, précise Reuters. L’agence souligne que, toutefois, selon les règles de la DSA, les plateformes en ligne peuvent également refuser de s’engager avec un tel organisme de règlement des litiges, et que celui-ci n’aura pas non plus le pouvoir d’imposer un règlement contraignant aux parties.
« Nous nous félicitons de la certification de nouveaux organismes indépendants par le régulateur irlandais », a déclaré Thomas Regnier, porte-parole de la Commission européenne. « Nous soutiendrons le développement efficace et uniforme de ce système dans l’ensemble de l’UE afin de renforcer les droits en ligne de tous les utilisateurs de l’UE ».
Une alternative à l' »appropriation des tâches » par les agences gouvernementales
Coimisiún na Meán, le régulateur irlandais des médias, précise que l’ACE a obtenu une certification pour une période de cinq ans, du 26 septembre 2024 au 26 septembre 2029.
Dans un communiqué, Thomas Hugues précise que« comme aucune autre législation avant elle, la loi sur les services numériques (DSA) de l’UE a le potentiel de rétablir l’équilibre des pouvoirs entre les individus, les entreprises et les gouvernements sur ce que les gens voient et publient en ligne » :
« Cela dit, si elle est mal exécutée, cette législation pourrait être monopolisée par des organismes publics, ce qui entraînerait une « appropriation des tâches » par les agences gouvernementales à une échelle industrielle et une censure de la parole en ligne. Les plateformes pourraient être incitées à tort à supprimer de grandes quantités de contenus, et la diversité des compétences et des normes de ces organismes pourrait aboutir à des décisions médiocres, voire préjudiciables. Le Centre d’appel vise à maximiser ces opportunités et à minimiser ces risques. »
Le groupe de fabrication électronique taïwanais Foxconn construit au Mexique la plus grande usine du monde fabriquant les serveurs d’intelligence artificielle les plus avancés de NVIDIA, Blackwell AI, rapporte le Financial Times. Le FT voit dans cette délocalisation une illustration « frappante » du découplage des chaînes d’approvisionnement technologiques mondiales par rapport à la Chine.
Gouvernements et entreprises occidentaux cherchent en effet depuis des années à rapprocher de leurs territoires la fabrication de produits technologiques sensibles et de fournitures essentielles, afin de réduire leur dépendance à l’égard de la Chine, compte tenu des tensions géopolitiques croissantes et des perturbations de la chaîne d’approvisionnement.
Young Liu, président de Foxconn, a déclaré à ses clients et partenaires, lors de la présentation annuelle de Foxconn à Taipei, que le poids de la Chine dans l’empreinte manufacturière mondiale du groupe allait diminuer pour atteindre un peu plus de 70 %.
La plateforme Blackwell fait l’objet d’une demande « folle », a précisé Young Liu lors de cet événement auquel participait également Deepu Talla, vice-président de NVIDIA, qui n’a donné que peu de détails sur l’usine de 450 mètres de long. L’usine, située dans la ville de Guadalajara, au centre du Mexique, assemblera les serveurs d’intelligence artificielle GB200 Blackwell.
Foxconn est déjà très présent au Mexique et a investi plus de 500 millions de dollars à ce jour dans l’État de Chihuahua, relève l’agence Reuters. Samedi, Foxconn a en outre enregistré le chiffre d’affaires le plus élevé de son histoire pour le troisième trimestre, grâce à la forte demande de serveurs AI.
L’autre objectif de Foxconn est de se diversifier et de s’éloigner de son rôle de fabricant d’électronique grand public pour Apple, dans l’espoir d’utiliser son savoir-faire technologique pour proposer la fabrication à façon de véhicules électriques et produire des véhicules utilisant des modèles construits par la marque Foxtron.
Liu a également prédit que la montée de « l’IA souveraine » – la nécessité pour les nations de développer leur propre intelligence artificielle pour s’aligner sur leurs intérêts de sécurité nationale – conduirait également à une production de plus en plus localisée des serveurs nécessaires.
En plus de l’IA souveraine, « je proposerais un concept de « serveur de souveraineté » », a-t-il déclaré. « À l’avenir, les serveurs seront produits dans les pays qui en ont besoin. C’est la direction que nous prenons actuellement ».
Article mis à jour à 16h55 avec le communiqué du directeur du nouvel Appeals Centre Europe.
Les utilisateurs de réseaux sociaux de l’Union européenne pourront bientôt déposer des plaintes contre Facebook, TikTok et YouTube concernant la modération des contenus auprès d’un nouvel organisme indépendant créé en Irlande, rapporte l’agence Reuters.
Cet organisme, soutenu par le Conseil de surveillance (Oversight Board) de Meta et certifié par l’autorité irlandaise de régulation des médias, servira d’organe de règlement extrajudiciaire des litiges en vertu de la loi européenne sur les services numériques (DSA).
Jusqu’à présent, les particuliers et organisations ne disposaient que d’options limitées pour contester les décisions des entreprises de médias sociaux en matière de contenu sans passer par les tribunaux, souligne Reuters.
Un service rapide, économique et impartial, assuré par des experts
L’Appeals Centre Europe (ACE) entrera en fonction avant la fin de l’année, et inclura d’autres plateformes de médias sociaux au fil du temps. Son site web précise qu’il « propose un service rapide, économique et impartial, assuré par des experts, pour prendre des décisions conformes aux politiques de contenu des plateformes ».
Il sera financé par les frais facturés aux entreprises de médias sociaux, et sera géré par un Conseil de sept administrateurs indépendants, dont trois des membres de l’Oversight Board : Cherine Chalaby, Catherine O’Regan et Marie Wieck, « tous experts reconnus dans leur domaine ».
À ces trois premiers administrateurs indépendants viendront s’ajouter quatre autres administrateurs « sans lien avec une entreprise de réseaux sociaux ni relation avec une entité financée par une entreprise de réseaux sociaux », précise son site web :
« En conjuguant leur expérience des droits de l’Homme, de la gouvernance de l’internet et de la technologie, les administrateurs indépendants seront chargés de superviser la constitution de ce nouvel organe indépendant afin qu’il se conforme aux normes les plus strictes dès ses premières interventions. »
Un organisme indépendant des gouvernements et des entreprises
« Nous voulons que les utilisateurs aient le choix de soumettre un litige à un organisme indépendant des gouvernements et des entreprises, qui veille à ce que les politiques de contenu des plateformes soient appliquées de manière équitable et impartiale », a déclaré Thomas Hughes, premier directeur général du Centre d’appel, ancien directeur exécutif de l’association de défense des droits de la liberté d’expression Article 19 et ex-directeur de l’Oversight Board.
Aidé d’une équipe d’experts, il devra examiner chaque cas dans un délai de 90 jours, et décider si les décisions des plateformes sont cohérentes avec leurs politiques de contenu, ainsi qu’à toute règle ou exception qui font référence aux droits de l’Homme. Les cas complexes seront quant à eux confiés à des spécialistes qui possèdent de l’expertise dans des régions, des langues ou des domaines de politique spécifiques.
Une redevance nominale, remboursée en cas de décision favorable
Les utilisateurs qui soulèvent un litige devront payer une somme symbolique, qui leur sera remboursée si la décision est en leur faveur, précise Reuters. L’agence souligne que, toutefois, selon les règles de la DSA, les plateformes en ligne peuvent également refuser de s’engager avec un tel organisme de règlement des litiges, et que celui-ci n’aura pas non plus le pouvoir d’imposer un règlement contraignant aux parties.
« Nous nous félicitons de la certification de nouveaux organismes indépendants par le régulateur irlandais », a déclaré Thomas Regnier, porte-parole de la Commission européenne. « Nous soutiendrons le développement efficace et uniforme de ce système dans l’ensemble de l’UE afin de renforcer les droits en ligne de tous les utilisateurs de l’UE ».
Une alternative à l' »appropriation des tâches » par les agences gouvernementales
Coimisiún na Meán, le régulateur irlandais des médias, précise que l’ACE a obtenu une certification pour une période de cinq ans, du 26 septembre 2024 au 26 septembre 2029.
Dans un communiqué, Thomas Hugues précise que« comme aucune autre législation avant elle, la loi sur les services numériques (DSA) de l’UE a le potentiel de rétablir l’équilibre des pouvoirs entre les individus, les entreprises et les gouvernements sur ce que les gens voient et publient en ligne » :
« Cela dit, si elle est mal exécutée, cette législation pourrait être monopolisée par des organismes publics, ce qui entraînerait une « appropriation des tâches » par les agences gouvernementales à une échelle industrielle et une censure de la parole en ligne. Les plateformes pourraient être incitées à tort à supprimer de grandes quantités de contenus, et la diversité des compétences et des normes de ces organismes pourrait aboutir à des décisions médiocres, voire préjudiciables. Le Centre d’appel vise à maximiser ces opportunités et à minimiser ces risques. »
Après avoir démantelé un botnet attribué à un groupe de pirates informatiques étatiques chinois composé de 260 000 terminaux infectés, les autorités états-uniennes viennent d’identifier une seconde campagne, elle aussi massive, à des fins de collecte de renseignements.
Article mis à jour le 9/10 à 9h10 avec un passage sur le CALEA.
Le Wall Street Journal révèle qu’une cyberattaque, liée aux autorités chinoises, aurait permis aux pirates informatiques d’espionner « pendant des mois, voire plus longtemps » des systèmes utilisés pour répondre à des demandes d’écoutes téléphoniques et de données de communication autorisées par les tribunaux des États-Unis et liées à des enquêtes criminelles ou de sécurité nationale.
La compromission, qualifiée par le WSJ de « généralisée », est considérée comme une faille de sécurité « potentiellement catastrophique » et a été réalisée, à des fins de collecte de renseignements, par un groupe APT (pour Advanced Persistent Threat, menace persistante avancée) de pirates chinois gouvernemental baptisé Salt Typhoon.
Une personne au fait de l’attaque a déclaré que le gouvernement américain considérait ces intrusions comme « historiquement significatives et inquiétantes ». La semaine passée, le WSJ avait déjà révélé que Salt Typhoon s’était introduit ces derniers mois dans les systèmes d’une poignée de fournisseurs d’accès internet états-uniens à la recherche d’informations sensibles.
Les attaques, découvertes au cours des dernières semaines, font toujours l’objet d’une enquête active de la part du gouvernement et d’analystes du secteur privé. Les enquêteurs travaillent encore à confirmer l’ampleur de l’attaque et la mesure dans laquelle les pirates ont accédé aux données et en ont exfiltré une partie, ont indiqué au WSJ des personnes au fait du dossier.
Salt Typhoon serait actif depuis 2020
Les pirates sembleraient s’être livrés à « une vaste collecte » de trafic Internet auprès de FAI qui comptent parmi leurs clients des entreprises, grandes et petites, et des millions d’Américains. En outre, précise le WSJ, il semblerait que la campagne ait aussi ciblé un petit nombre de fournisseurs d’accès en dehors des États-Unis.
Il reste 76% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Interrogé sur la capacité des industriels à répondre aux besoins énergétiques de l’IA « sans faire exploser les objectifs climatiques », Eric Schmidt, l’ex-PDG de Google, explique que « nous n’y parviendrons pas en économisant l’énergie », rapporte Tom’s Hardware :
« Mon avis est que nous n’atteindrons pas les objectifs climatiques de toute façon parce que nous ne sommes pas organisés pour le faire […] et oui les besoins dans ce domaine seront problématiques mais je préfère parier sur l’IA pour résoudre le problème plutôt que de la contraindre et d’avoir le problème. »
Former Google CEO Eric Schmidt says energy demand for AI is infinite and we are never going to meet our climate goals anyway, so we may as well bet on building AI to solve the problem pic.twitter.com/USCDKBVsbh
Il précise qu’à Deep Mind, les IA auraient « battu nos meilleurs ingénieurs de 15 % en termes d’efficacité énergétique totale et dans certains cas, c’était 50 % parce que les systèmes d’IA voient des choses que les humains ne voient pas ».
Évoquant « une demande infinie » en matière d’énergie, et le fait que « la plupart des gens avec qui j’ai parlé disent que la facture d’électricité est devenue un élément très important de leurs dépenses », il reconnaît cela dit que « nous allons peut-être faire des erreurs » face à la survenue de cette « intelligence inconnue que nous ne comprenons pas » :
« Mais je peux vous assurer que nous n’y parviendrons pas par la prudence, c’est le point clé et l’économie sera de toute façon le moteur de cette technologie. »
Tom’s Hardware souligne que la demande pourrait également augmenter avec la baisse des prix de l’énergie, du fait des améliorations technologiques, en termes d’efficacité, un phénomène appelé paradoxe de Jevons, cas le plus extrême de l’effet rebond.
Les émissions de gaz à effet de serre de Google ont d’ailleurs augmenté de 48 % depuis 2019, principalement en raison de la demande d’énergie de ses centres de données. Selon McKinsey, relève Business Insider, les besoins des centres de données de Google aux États-Unis devraient passer de 17 à 35 GW d’ici 2030.
Interrogé sur la capacité des industriels à répondre aux besoins énergétiques de l’IA « sans faire exploser les objectifs climatiques », Eric Schmidt, l’ex-PDG de Google, explique que « nous n’y parviendrons pas en économisant l’énergie », rapporte Tom’s Hardware :
« Mon avis est que nous n’atteindrons pas les objectifs climatiques de toute façon parce que nous ne sommes pas organisés pour le faire […] et oui les besoins dans ce domaine seront problématiques mais je préfère parier sur l’IA pour résoudre le problème plutôt que de la contraindre et d’avoir le problème. »
Former Google CEO Eric Schmidt says energy demand for AI is infinite and we are never going to meet our climate goals anyway, so we may as well bet on building AI to solve the problem pic.twitter.com/USCDKBVsbh
Il précise qu’à Deep Mind, les IA auraient « battu nos meilleurs ingénieurs de 15 % en termes d’efficacité énergétique totale et dans certains cas, c’était 50 % parce que les systèmes d’IA voient des choses que les humains ne voient pas ».
Évoquant « une demande infinie » en matière d’énergie, et le fait que « la plupart des gens avec qui j’ai parlé disent que la facture d’électricité est devenue un élément très important de leurs dépenses », il reconnaît cela dit que « nous allons peut-être faire des erreurs » face à la survenue de cette « intelligence inconnue que nous ne comprenons pas » :
« Mais je peux vous assurer que nous n’y parviendrons pas par la prudence, c’est le point clé et l’économie sera de toute façon le moteur de cette technologie. »
Tom’s Hardware souligne que la demande pourrait également augmenter avec la baisse des prix de l’énergie, du fait des améliorations technologiques, en termes d’efficacité, un phénomène appelé paradoxe de Jevons, cas le plus extrême de l’effet rebond.
Les émissions de gaz à effet de serre de Google ont d’ailleurs augmenté de 48 % depuis 2019, principalement en raison de la demande d’énergie de ses centres de données. Selon McKinsey, relève Business Insider, les besoins des centres de données de Google aux États-Unis devraient passer de 17 à 35 GW d’ici 2030.
Le développement des télécommunications a de tout temps été suivi par celui de l’interception et du décryptage de ces mêmes télécommunications. Une exposition, partiellement consultable en ligne, revient sur les techniques et procédures développées par l’armée française ces 110 dernières années.
L’exposition « 110 ans d’écoutes au service de la Nation », proposée par l’Association de la guerre électronique de l’armée de terre (AGEAT), « relate les origines des services d’écoutes et leur engagement sur plus d’un siècle dans tous les conflits et dans toutes les opérations extérieures dans lesquels la France a été impliquée, de la Grande Guerre jusqu’au Sahel ».
Présentée à Haguenau, la ville alsacienne qui accueille la garnison des « traqueurs d’ondes » du 54e régiment de transmissions (54e RT), la composante « Guerre électronique de théâtre » du commandement du renseignement, l’exposition se clôturera le 13 octobre.
Un membre de l’AGEAT a cela dit pris le soin d’en proposer une visite virtuelle, afin de permettre aux personnes qui ne pourraient se rendre à Haguenau de découvrir cette exposition qui « soulève une partie du voile sur l’action de ces hommes et femmes de l’ombre ».
On y apprend notamment que c’est François Cartier, le chef de la section du chiffre et du bureau central de la télégraphie sans fil (TSF) qui avait proposé, en 1911, d’utiliser la tour Eiffel et les postes TSF des places-fortes du nord et de l’est afin d’écouter les communications radio allemandes. Ce qui avait permis à la France de « disposer d’un service d’écoutes organisé et opérationnel » aux tous débuts de la Première Guerre mondiale de 14 - 18 :
« Dès leur invention en mai 1915 par le sous-lieutenant Delavie, les postes d’écoutes téléphoniques des communications allemandes de 1° ligne mettent en échec les tentatives d’attaque, les bombardements et les réglages d’artillerie, les relèves. »
Il reste 86% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.