Vue normale

Aujourd’hui — 5 novembre 2024Actualités numériques

Meta retourne sa veste et autorise l’usage militaire de son IA par les États-Unis

5 novembre 2024 à 15:45
Docteur FoLlama
Meta retourne sa veste et autorise l’usage militaire de son IA par les États-Unis

Vendredi, on apprenait que des chercheurs chinois liés à l’Armée populaire de libération avaient entrainé le modèle de langage Llama à des fins militaires, en violation des règles d’utilisation de Meta. Ce lundi, le président des affaires internationales de Meta révèle de son côté que des prestataires de l’armée états-unienne utilisent déjà Llama à des fins militaires, et qu’elle va autoriser les « Five Eyes » à faire de même.

Meta autorisera les agences gouvernementales américaines et les sous-traitants travaillant dans le domaine de la sécurité nationale à utiliser ses modèles d’intelligence artificielle à des fins militaires, rapporte le New York Times.

Et ce, à rebours de sa politique qui interdisait jusque-là l’utilisation de sa technologie à de telles fins. La décision de Meta constitue à ce titre une exception à sa « politique d’utilisation acceptable », qui interdisait l’utilisation de ses logiciels d’intelligence artificielle à des fins « militaires, de guerre ou nucléaires », entre autres.

Une « norme mondiale » pour l’IA open source, à l’instar de Linux et Android

Nick Clegg, président des affaires internationales de Meta, a en effet publié ce lundi un billet de blog intitulé « L’IA Open Source peut aider l’Amérique à dominer l’IA et à renforcer la sécurité mondiale ». Il y explique que l’entreprise soutient désormais les « utilisations responsables et éthiques » de la technologie qui soutiennent les États-Unis et les « valeurs démocratiques » dans la course mondiale à la suprématie de l’IA.

« Meta veut jouer son rôle pour soutenir la sûreté, la sécurité et la prospérité économique de l’Amérique, ainsi que de ses alliés les plus proches », précise Nick Clegg : « l’adoption généralisée des modèles d’IA open source américains sert à la fois les intérêts économiques et sécuritaires » :

« Nous pensons qu’il est dans l’intérêt de l’Amérique et de l’ensemble du monde démocratique que les modèles open source américains excellent et réussissent par rapport aux modèles chinois et autres. Au fur et à mesure que les modèles open source deviennent plus performants et plus largement adoptés, une norme mondiale open source pour les modèles d’IA est susceptible d’émerger, comme cela a été le cas pour des technologies telles que Linux et Android. Cela se produira, que les États-Unis s’engagent ou non. »

Le leadership américain et son engagement en faveur de la paix

« Il est essentiel que la norme open source sur laquelle le monde s’appuie soit fondée sur des normes élevées d’ouverture, de transparence et de responsabilité », poursuit Nick Clegg :

« C’est pourquoi le leadership américain et son engagement en faveur du droit international sont si importants pour la paix et la sécurité dans le monde. Il incombe aux pays qui exploitent l’IA pour leur sécurité nationale de déployer l’IA de manière éthique, responsable et conforme au droit international et aux principes fondamentaux applicables, principes que les États-Unis et nombre de leurs alliés se sont engagés à respecter dans la Déclaration politique sur l’utilisation militaire responsable de l’intelligence artificielle et de l’autonomie. »

Un porte-parole de Meta a précisé que l’entreprise partagerait aussi sa technologie avec les membres de l’alliance de renseignement Five Eyes : Canada, Grande-Bretagne, Australie et Nouvelle-Zélande, confirmant une information de Bloomberg.

Un revirement de posture qui ne date probablement pas d’hier

L’entreprise a précisé qu’elle mettrait ses modèles d’IA Llama à la disposition des agences fédérales et qu’elle travaillait aussi avec des entreprises de défense telles que Lockheed Martin et Booz Allen, ainsi qu’avec des entreprises technologiques axées sur la défense, notamment Palantir et Anduril, et des prestataires d’agences gouvernementales, telles qu’Amazon Web Services, IBM, Oracle et Microsoft.

Oracle, par exemple, s’appuie sur Llama pour synthétiser les documents de maintenance des avions, afin que les techniciens puissent diagnostiquer les problèmes plus rapidement et avec plus de précision, « ce qui accélère les délais de réparation et permet de remettre en service les avions les plus importants ».

Scale AI affine pour sa part Llama afin de soutenir la planification des opérations et l’identification des vulnérabilités des adversaires. Lockheed Martin a de son côté intégré Llama dans son usine d’IA, accélérant la génération de code, l’analyse de données et l’amélioration des processus d’affaires. La solution watsonx d’IBM met Llama à la disposition des agences de sécurité nationale dans leurs centres de données et leurs nuages autogérés.

Ces cas d’usage, énumérés dans le billet de blog de Nick Clegg, laissent entendre que le revirement de posture de Meta ne date pas d’hier, même si son annonce pourrait avoir été précipitée par l’enquête de l’agence de presse Reuters, publiée vendredi dernier.

Elle y révélait en effet avoir repéré le travail de chercheurs chinois, dont deux travaillent pour l’Académie des sciences militaires de l’Armée populaire de libération, s’appuyant sur un modèle de langage de la famille Llama pour créer un outil d’IA. Baptisé ChatBIT (sic), il serait destiné à améliorer la prise de décisions opérationnelles de l’armée chinoise.

Llama a déjà été téléchargé 350 millions de fois

Le revirement de Meta « risque de faire l’objet d’un examen minutieux », relève le New York Times, qui rappelle que les applications militaires des produits technologiques de la Silicon Valley ont été contestées ces dernières années. De nombreux employés de Microsoft, Google et Amazon avaient ainsi bruyamment protesté contre certains des accords conclus par leur entreprise avec des entreprises militaires et des agences de défense.

Meta fait en outre l’objet d’un examen minutieux en raison de son approche « open source » de l’IA, souligne le Times. OpenAI et Google avancent en effet que la technologie qui sous-tend leurs IA serait trop puissante et susceptible d’être utilisée à mauvais escient pour être diffusée dans la nature. A contrario, Meta estime que l’IA ne peut être améliorée et rendue plus sûre qu’en permettant à des millions de personnes d’examiner le code et de l’analyser.

Les dirigeants de Meta craignent également que le gouvernement américain et d’autres pays réglementent sévèrement l’intelligence artificielle open source, ont déclaré aux Times deux personnes familières de l’entreprise.

Fin août, Meta indiquait par ailleurs que son logiciel avait été téléchargé près de 350 millions de fois, faisant de Llama « la première famille de modèles open source », et que l’utilisation mensuelle (en volume de jetons) de Llama avait été multipliée par 10 de janvier à juillet 2024.

Meta retourne sa veste et autorise l’usage militaire de son IA par les États-Unis

5 novembre 2024 à 15:45
Docteur FoLlama
Meta retourne sa veste et autorise l’usage militaire de son IA par les États-Unis

Vendredi, on apprenait que des chercheurs chinois liés à l’Armée populaire de libération avaient entrainé le modèle de langage Llama à des fins militaires, en violation des règles d’utilisation de Meta. Ce lundi, le président des affaires internationales de Meta révèle de son côté que des prestataires de l’armée états-unienne utilisent déjà Llama à des fins militaires, et qu’elle va autoriser les « Five Eyes » à faire de même.

Meta autorisera les agences gouvernementales américaines et les sous-traitants travaillant dans le domaine de la sécurité nationale à utiliser ses modèles d’intelligence artificielle à des fins militaires, rapporte le New York Times.

Et ce, à rebours de sa politique qui interdisait jusque-là l’utilisation de sa technologie à de telles fins. La décision de Meta constitue à ce titre une exception à sa « politique d’utilisation acceptable », qui interdisait l’utilisation de ses logiciels d’intelligence artificielle à des fins « militaires, de guerre ou nucléaires », entre autres.

Une « norme mondiale » pour l’IA open source, à l’instar de Linux et Android

Nick Clegg, président des affaires internationales de Meta, a en effet publié ce lundi un billet de blog intitulé « L’IA Open Source peut aider l’Amérique à dominer l’IA et à renforcer la sécurité mondiale ». Il y explique que l’entreprise soutient désormais les « utilisations responsables et éthiques » de la technologie qui soutiennent les États-Unis et les « valeurs démocratiques » dans la course mondiale à la suprématie de l’IA.

« Meta veut jouer son rôle pour soutenir la sûreté, la sécurité et la prospérité économique de l’Amérique, ainsi que de ses alliés les plus proches », précise Nick Clegg : « l’adoption généralisée des modèles d’IA open source américains sert à la fois les intérêts économiques et sécuritaires » :

« Nous pensons qu’il est dans l’intérêt de l’Amérique et de l’ensemble du monde démocratique que les modèles open source américains excellent et réussissent par rapport aux modèles chinois et autres. Au fur et à mesure que les modèles open source deviennent plus performants et plus largement adoptés, une norme mondiale open source pour les modèles d’IA est susceptible d’émerger, comme cela a été le cas pour des technologies telles que Linux et Android. Cela se produira, que les États-Unis s’engagent ou non. »

Le leadership américain et son engagement en faveur de la paix

« Il est essentiel que la norme open source sur laquelle le monde s’appuie soit fondée sur des normes élevées d’ouverture, de transparence et de responsabilité », poursuit Nick Clegg :

« C’est pourquoi le leadership américain et son engagement en faveur du droit international sont si importants pour la paix et la sécurité dans le monde. Il incombe aux pays qui exploitent l’IA pour leur sécurité nationale de déployer l’IA de manière éthique, responsable et conforme au droit international et aux principes fondamentaux applicables, principes que les États-Unis et nombre de leurs alliés se sont engagés à respecter dans la Déclaration politique sur l’utilisation militaire responsable de l’intelligence artificielle et de l’autonomie. »

Un porte-parole de Meta a précisé que l’entreprise partagerait aussi sa technologie avec les membres de l’alliance de renseignement Five Eyes : Canada, Grande-Bretagne, Australie et Nouvelle-Zélande, confirmant une information de Bloomberg.

Un revirement de posture qui ne date probablement pas d’hier

L’entreprise a précisé qu’elle mettrait ses modèles d’IA Llama à la disposition des agences fédérales et qu’elle travaillait aussi avec des entreprises de défense telles que Lockheed Martin et Booz Allen, ainsi qu’avec des entreprises technologiques axées sur la défense, notamment Palantir et Anduril, et des prestataires d’agences gouvernementales, telles qu’Amazon Web Services, IBM, Oracle et Microsoft.

Oracle, par exemple, s’appuie sur Llama pour synthétiser les documents de maintenance des avions, afin que les techniciens puissent diagnostiquer les problèmes plus rapidement et avec plus de précision, « ce qui accélère les délais de réparation et permet de remettre en service les avions les plus importants ».

Scale AI affine pour sa part Llama afin de soutenir la planification des opérations et l’identification des vulnérabilités des adversaires. Lockheed Martin a de son côté intégré Llama dans son usine d’IA, accélérant la génération de code, l’analyse de données et l’amélioration des processus d’affaires. La solution watsonx d’IBM met Llama à la disposition des agences de sécurité nationale dans leurs centres de données et leurs nuages autogérés.

Ces cas d’usage, énumérés dans le billet de blog de Nick Clegg, laissent entendre que le revirement de posture de Meta ne date pas d’hier, même si son annonce pourrait avoir été précipitée par l’enquête de l’agence de presse Reuters, publiée vendredi dernier.

Elle y révélait en effet avoir repéré le travail de chercheurs chinois, dont deux travaillent pour l’Académie des sciences militaires de l’Armée populaire de libération, s’appuyant sur un modèle de langage de la famille Llama pour créer un outil d’IA. Baptisé ChatBIT (sic), il serait destiné à améliorer la prise de décisions opérationnelles de l’armée chinoise.

Llama a déjà été téléchargé 350 millions de fois

Le revirement de Meta « risque de faire l’objet d’un examen minutieux », relève le New York Times, qui rappelle que les applications militaires des produits technologiques de la Silicon Valley ont été contestées ces dernières années. De nombreux employés de Microsoft, Google et Amazon avaient ainsi bruyamment protesté contre certains des accords conclus par leur entreprise avec des entreprises militaires et des agences de défense.

Meta fait en outre l’objet d’un examen minutieux en raison de son approche « open source » de l’IA, souligne le Times. OpenAI et Google avancent en effet que la technologie qui sous-tend leurs IA serait trop puissante et susceptible d’être utilisée à mauvais escient pour être diffusée dans la nature. A contrario, Meta estime que l’IA ne peut être améliorée et rendue plus sûre qu’en permettant à des millions de personnes d’examiner le code et de l’analyser.

Les dirigeants de Meta craignent également que le gouvernement américain et d’autres pays réglementent sévèrement l’intelligence artificielle open source, ont déclaré aux Times deux personnes familières de l’entreprise.

Fin août, Meta indiquait par ailleurs que son logiciel avait été téléchargé près de 350 millions de fois, faisant de Llama « la première famille de modèles open source », et que l’utilisation mensuelle (en volume de jetons) de Llama avait été multipliée par 10 de janvier à juillet 2024.

Hier — 4 novembre 2024Actualités numériques

La plateforme Medium est, elle aussi, inondée par les contenus générés par IA

4 novembre 2024 à 15:07
MedIAm
La plateforme Medium est, elle aussi, inondée par les contenus générés par IA

Environ 7 % des articles publiés sur des sites d’information seraient en fait générés par des IA. Sur la plateforme de publication d’articles et de billets Medium, ce taux serait de plus de 40 %. Une pollution que relativise le PDG de l’entreprise, estimant que personne ne les lit.

À l’origine, le slop désigne l’amas de boues qui tapisse au fur et à mesure le fond des citernes des navires, notamment pétroliers, écrivait le Courrier International en juin dernier. Le terme est aussi depuis quelques mois utilisé pour désigner les contenus bas de gamme générés par des IA et qui inondent de plus en plus le web.

Non content de polluer Amazon Books et Youtube (jusque et y compris les chaînes de philosophie, constatait récemment Monsieur Phi), le slop envahirait aussi la plateforme de blogs Medium. WIRED raconte en effet avoir demandé à la société Pangram Labs, spécialisée dans la détection de l’intelligence artificielle, d’analyser un échantillon de 274 466 articles récents, publiés sur une période de six semaines sur la plateforme.

La start-up, qui présente sa technologie comme « la plus précise pour détecter les contenus générés par l’IA à grande échelle », avec un taux de précision de « plus de 99,98 % », a estimé que plus de 47 % d’entre eux étaient probablement générés par l’IA (GenAI).

WIRED a demandé à une seconde start-up, elle aussi dédiée à la détection des contenus GenAI, Originality AI, de comparer deux échantillons de posts Medium, l’un datant de 2018, l’autre de cette année. 3,4 % du premier avaient probablement été générés par IA.

Un pourcentage qui correspond au taux de faux positifs de l’entreprise, précise son PDG, John Gillham, d’autant que les outils d’IA n’étaient pas encore largement utilisés. A contrario, un peu plus de 40 % de l’échantillon de 2024 étaient probablement générés par l’IA.

7 % des articles d’actualité seraient générés par des IA

« C’est deux ordres de grandeur de plus que ce que je vois sur le reste de l’internet », explique Max Spero, PDG de Pangram, à WIRED. En août, la start-up avait en effet analysé 857 434 articles publiés sur 26 675 sites web d’information sur une seule journée de juillet dernier, et découvert que 59 653 d’entre eux, soit 6,96 %, avaient été, en tout ou partie (de 50 à 100 %), rédigés par des IA.

Le Ghana arrivait en tête des pays ayant le plus recours aux IA, avec près de 33 % des articles GenAI, suivi par le Pérou (plus de 20 %), le Brésil, la Colombie et le Pakistan (16 %). Si la France (8 %) arrivait en avant-dernière position du classement, juste derrière Singapour et l’Espagne, ce dernier mentionnait principalement des pays d’Amérique du Sud, d’Afrique de l’Ouest et d’Asie du Sud, et aucun autre pays européen, ni nord américain.

La Tech arrivait en tête des thématiques les plus polluées par les contenus GenAI, devant la beauté (du fait des articles sponsorisés), le business, le jeu, la finance et la science, notamment en rapport avec des escroqueries liées aux crypto-actifs.

Appeaux putaclics à pubs et escroqueries aux cryptos

Pangram avait identifié plusieurs types d’articles GenAI. Certains n’ont que pour objectif de remplir des « sites conçus pour la publicité » (made-for-advertising sites, ou MFAs) afin d’attirer des lecteurs, et de les exposer à des publicités bas de gamme.

Leurs contenus ne sont dès lors « pas vraiment destinés à être lus », mais juste à attirer le chaland, via des titres « putaclics » notamment. Les annonceurs ne sont, eux non plus, pas conscients d’afficher leurs publicités sur ces sites bas de gamme. Pangram estime que les MFAs représentent environ 50 % des contenus GenAI.

L’entreprise a aussi constaté qu’une « grande partie » des articles sur le thème de la beauté était en fait « sponsorisés », et donc écrits par des communicants et rédacteurs sous-traitant la rédaction de tels contenus à des IA. De même, de nombreux modes d’emploi liés à de nouveaux crypto-actifs s’avèrent être des escroqueries, dont la rédaction est là aussi sous-traitée à des IA.

78 % des articles taggués NFT, web3 et Ethereum étaient GenAI

Sur Medium, 4 492 des 5 712 articles (soit 78 %) taggués NFT avait eux aussi probablement été générés par IA. Une proportion démesurée que Pangram a aussi constaté du côté des articles estampillés web3, Ethereum, « AI » et… pets (animaux de compagnie).

McKenzie Sadeghi, rédacteur chez NewsGuard, une société de surveillance de la désinformation en ligne qui a de son côté identifié plus de 1 000 sites web d’information GenAI, a de son côté constaté que la plupart de ce type de contenus portaient sur les cryptoactifs, le marketing et l’optimisation des moteurs de recherche (SEO).

Les nombreux comptes semblant avoir publié des volumes importants de documents générés par l’IA semblent par ailleurs ne concerner qu’un lectorat faible, voire inexistant, relève WIRED. Un compte signalé par Pangram Labs comme ayant rédigé plusieurs articles consacrés à des cryptos avait ainsi publié six d’entre eux en une journée seulement, mais sans aucune interaction, suggérant un impact négligeable.

À l’inverse, WIRED a aussi constaté que d’autres articles signalés par Pangram, Originality et la société de détection de l’IA Reality Defender comme étant probablement générés par l’IA, avaient des centaines de « claps », similaires aux « likes » que l’on trouve sur d’autres plateformes, mais sans que l’on sache s’ils émanent d’être humains, ou de bots.

Medium est fait pour le storytelling humain, pas pour les articles GenAI

« Medium fonctionne essentiellement grâce à la curation humaine », rétorque Tony Stubblebine, le PDG de la plateforme, évoquant les 9 000 rédacteurs en chef des publications de Medium, ainsi que l’évaluation humaine supplémentaire des articles susceptibles d’être artificiellement « boostés ».

S’il reconnaît que les contenus GenAI publiés sur Medium « a probablement décuplé depuis le début de l’année », il s’oppose néanmoins à l’utilisation de détecteurs d’IA pour évaluer la portée du problème, en partie parce qu’il estime qu’ils ne peuvent pas faire la différence entre les messages entièrement générés par l’IA et les messages dans lesquels l’IA est utilisée de manière plus légère (ce que rejette le PDG de Pangram, au demeurant).

Contrairement à LinkedIn et Facebook, qui encouragent explicitement l’utilisation de l’IA, Medium n’autorise plus d’articles GenAI. « Medium est destiné à la narration humaine, pas à l’écriture générée par l’IA », avait souligné la plateforme sur son blog, l’an passé. « La grande majorité des histoires détectables générées par l’IA dans les flux bruts pour ces sujets font zéro vue », renchérit Stubblebine.

« À mesure que les outils d’IA générative se banalisent, les plateformes qui renoncent à essayer d’éliminer les bots incuberont un monde en ligne dans lequel le travail créé par les humains deviendra de plus en plus difficile à trouver sur les plateformes submergées par l’IA », conclut WIRED, en écho à la théorie de l’Internet mort.

Estampillée complotiste, elle avance qu’Internet ne serait pratiquement plus peuplé que par des bots et que la majorité du contenu est généré par des algorithmes, marginalisant l’activité humaine.

La plateforme Medium est, elle aussi, inondée par les contenus générés par IA

4 novembre 2024 à 15:07
MedIAm
La plateforme Medium est, elle aussi, inondée par les contenus générés par IA

Environ 7 % des articles publiés sur des sites d’information seraient en fait générés par des IA. Sur la plateforme de publication d’articles et de billets Medium, ce taux serait de plus de 40 %. Une pollution que relativise le PDG de l’entreprise, estimant que personne ne les lit.

À l’origine, le slop désigne l’amas de boues qui tapisse au fur et à mesure le fond des citernes des navires, notamment pétroliers, écrivait le Courrier International en juin dernier. Le terme est aussi depuis quelques mois utilisé pour désigner les contenus bas de gamme générés par des IA et qui inondent de plus en plus le web.

Non content de polluer Amazon Books et Youtube (jusque et y compris les chaînes de philosophie, constatait récemment Monsieur Phi), le slop envahirait aussi la plateforme de blogs Medium. WIRED raconte en effet avoir demandé à la société Pangram Labs, spécialisée dans la détection de l’intelligence artificielle, d’analyser un échantillon de 274 466 articles récents, publiés sur une période de six semaines sur la plateforme.

La start-up, qui présente sa technologie comme « la plus précise pour détecter les contenus générés par l’IA à grande échelle », avec un taux de précision de « plus de 99,98 % », a estimé que plus de 47 % d’entre eux étaient probablement générés par l’IA (GenAI).

WIRED a demandé à une seconde start-up, elle aussi dédiée à la détection des contenus GenAI, Originality AI, de comparer deux échantillons de posts Medium, l’un datant de 2018, l’autre de cette année. 3,4 % du premier avaient probablement été générés par IA.

Un pourcentage qui correspond au taux de faux positifs de l’entreprise, précise son PDG, John Gillham, d’autant que les outils d’IA n’étaient pas encore largement utilisés. A contrario, un peu plus de 40 % de l’échantillon de 2024 étaient probablement générés par l’IA.

7 % des articles d’actualité seraient générés par des IA

« C’est deux ordres de grandeur de plus que ce que je vois sur le reste de l’internet », explique Max Spero, PDG de Pangram, à WIRED. En août, la start-up avait en effet analysé 857 434 articles publiés sur 26 675 sites web d’information sur une seule journée de juillet dernier, et découvert que 59 653 d’entre eux, soit 6,96 %, avaient été, en tout ou partie (de 50 à 100 %), rédigés par des IA.

Le Ghana arrivait en tête des pays ayant le plus recours aux IA, avec près de 33 % des articles GenAI, suivi par le Pérou (plus de 20 %), le Brésil, la Colombie et le Pakistan (16 %). Si la France (8 %) arrivait en avant-dernière position du classement, juste derrière Singapour et l’Espagne, ce dernier mentionnait principalement des pays d’Amérique du Sud, d’Afrique de l’Ouest et d’Asie du Sud, et aucun autre pays européen, ni nord américain.

La Tech arrivait en tête des thématiques les plus polluées par les contenus GenAI, devant la beauté (du fait des articles sponsorisés), le business, le jeu, la finance et la science, notamment en rapport avec des escroqueries liées aux crypto-actifs.

Appeaux putaclics à pubs et escroqueries aux cryptos

Pangram avait identifié plusieurs types d’articles GenAI. Certains n’ont que pour objectif de remplir des « sites conçus pour la publicité » (made-for-advertising sites, ou MFAs) afin d’attirer des lecteurs, et de les exposer à des publicités bas de gamme.

Leurs contenus ne sont dès lors « pas vraiment destinés à être lus », mais juste à attirer le chaland, via des titres « putaclics » notamment. Les annonceurs ne sont, eux non plus, pas conscients d’afficher leurs publicités sur ces sites bas de gamme. Pangram estime que les MFAs représentent environ 50 % des contenus GenAI.

L’entreprise a aussi constaté qu’une « grande partie » des articles sur le thème de la beauté était en fait « sponsorisés », et donc écrits par des communicants et rédacteurs sous-traitant la rédaction de tels contenus à des IA. De même, de nombreux modes d’emploi liés à de nouveaux crypto-actifs s’avèrent être des escroqueries, dont la rédaction est là aussi sous-traitée à des IA.

78 % des articles taggués NFT, web3 et Ethereum étaient GenAI

Sur Medium, 4 492 des 5 712 articles (soit 78 %) taggués NFT avait eux aussi probablement été générés par IA. Une proportion démesurée que Pangram a aussi constaté du côté des articles estampillés web3, Ethereum, « AI » et… pets (animaux de compagnie).

McKenzie Sadeghi, rédacteur chez NewsGuard, une société de surveillance de la désinformation en ligne qui a de son côté identifié plus de 1 000 sites web d’information GenAI, a de son côté constaté que la plupart de ce type de contenus portaient sur les cryptoactifs, le marketing et l’optimisation des moteurs de recherche (SEO).

Les nombreux comptes semblant avoir publié des volumes importants de documents générés par l’IA semblent par ailleurs ne concerner qu’un lectorat faible, voire inexistant, relève WIRED. Un compte signalé par Pangram Labs comme ayant rédigé plusieurs articles consacrés à des cryptos avait ainsi publié six d’entre eux en une journée seulement, mais sans aucune interaction, suggérant un impact négligeable.

À l’inverse, WIRED a aussi constaté que d’autres articles signalés par Pangram, Originality et la société de détection de l’IA Reality Defender comme étant probablement générés par l’IA, avaient des centaines de « claps », similaires aux « likes » que l’on trouve sur d’autres plateformes, mais sans que l’on sache s’ils émanent d’être humains, ou de bots.

Medium est fait pour le storytelling humain, pas pour les articles GenAI

« Medium fonctionne essentiellement grâce à la curation humaine », rétorque Tony Stubblebine, le PDG de la plateforme, évoquant les 9 000 rédacteurs en chef des publications de Medium, ainsi que l’évaluation humaine supplémentaire des articles susceptibles d’être artificiellement « boostés ».

S’il reconnaît que les contenus GenAI publiés sur Medium « a probablement décuplé depuis le début de l’année », il s’oppose néanmoins à l’utilisation de détecteurs d’IA pour évaluer la portée du problème, en partie parce qu’il estime qu’ils ne peuvent pas faire la différence entre les messages entièrement générés par l’IA et les messages dans lesquels l’IA est utilisée de manière plus légère (ce que rejette le PDG de Pangram, au demeurant).

Contrairement à LinkedIn et Facebook, qui encouragent explicitement l’utilisation de l’IA, Medium n’autorise plus d’articles GenAI. « Medium est destiné à la narration humaine, pas à l’écriture générée par l’IA », avait souligné la plateforme sur son blog, l’an passé. « La grande majorité des histoires détectables générées par l’IA dans les flux bruts pour ces sujets font zéro vue », renchérit Stubblebine.

« À mesure que les outils d’IA générative se banalisent, les plateformes qui renoncent à essayer d’éliminer les bots incuberont un monde en ligne dans lequel le travail créé par les humains deviendra de plus en plus difficile à trouver sur les plateformes submergées par l’IA », conclut WIRED, en écho à la théorie de l’Internet mort.

Estampillée complotiste, elle avance qu’Internet ne serait pratiquement plus peuplé que par des bots et que la majorité du contenu est généré par des algorithmes, marginalisant l’activité humaine.

À partir d’avant-hierActualités numériques

☕️ Le président de Google EMEA annonce son intention de quitter l’entreprise

11 octobre 2024 à 15:08
Le président de Google EMEA annonce son intention de quitter l’entreprise

Le président de Google Europe, Moyen-Orient et Afrique (EMEA), Matt Brittin, vient d’annoncer sur LinkedIn son intention de quitter l’entreprise, qu’il avait rejointe il y a 18 ans :

« Lorsque j’ai rejoint Google, moins d’une personne sur cinq était en ligne. Aujourd’hui, près de 70 % d’entre elles ont les informations du monde entre leurs mains et les opportunités qui en découlent. […] La région EMEA représente environ un tiers du chiffre d’affaires global de Google et nous l’avons multiplié par plusieurs fois. »

« C’est un moment charnière pour passer le relais », a-t-il ajouté : « Nous commençons à peine à entrevoir les effets transformateurs que l’IA aura sur des milliards de vies – et les gens de notre région du monde montrent la voie ».

Britin rappelle en effet que Google DeepMind est dirigé depuis Londres, et qu’il est à l’origine de percées telles qu’AlphaFold de prédiction de la structure des protéines à partir de leur séquence en acides aminés, qui vient de valoir à deux de ses développeurs d’être désignés co-lauréats du prix Nobel de chimie.

Matt Brittin avait d’abord rejoint Google en tant que responsable des opérations au Royaume-Uni et en Irlande en 2007, avant de gravir les échelons pour devenir vice-président de l’Europe du Nord et centrale, puis président de la région EMEA en 2014, relève Reuters.

Avant de travailler pour Google, Brittin avait travaillé plusieurs années en tant que consultant pour McKinsey & Co. Il a précisé qu’il continuerait à diriger les activités de Google dans la région EMEA jusqu’à ce qu’un successeur soit choisi.

☕️ Le président de Google EMEA annonce son intention de quitter l’entreprise

11 octobre 2024 à 15:08
Le président de Google EMEA annonce son intention de quitter l’entreprise

Le président de Google Europe, Moyen-Orient et Afrique (EMEA), Matt Brittin, vient d’annoncer sur LinkedIn son intention de quitter l’entreprise, qu’il avait rejointe il y a 18 ans :

« Lorsque j’ai rejoint Google, moins d’une personne sur cinq était en ligne. Aujourd’hui, près de 70 % d’entre elles ont les informations du monde entre leurs mains et les opportunités qui en découlent. […] La région EMEA représente environ un tiers du chiffre d’affaires global de Google et nous l’avons multiplié par plusieurs fois. »

« C’est un moment charnière pour passer le relais », a-t-il ajouté : « Nous commençons à peine à entrevoir les effets transformateurs que l’IA aura sur des milliards de vies – et les gens de notre région du monde montrent la voie ».

Britin rappelle en effet que Google DeepMind est dirigé depuis Londres, et qu’il est à l’origine de percées telles qu’AlphaFold de prédiction de la structure des protéines à partir de leur séquence en acides aminés, qui vient de valoir à deux de ses développeurs d’être désignés co-lauréats du prix Nobel de chimie.

Matt Brittin avait d’abord rejoint Google en tant que responsable des opérations au Royaume-Uni et en Irlande en 2007, avant de gravir les échelons pour devenir vice-président de l’Europe du Nord et centrale, puis président de la région EMEA en 2014, relève Reuters.

Avant de travailler pour Google, Brittin avait travaillé plusieurs années en tant que consultant pour McKinsey & Co. Il a précisé qu’il continuerait à diriger les activités de Google dans la région EMEA jusqu’à ce qu’un successeur soit choisi.

États-Unis : de la surveillance des plaques d’immatriculation à celle des slogans politiques

11 octobre 2024 à 14:26
I feel LAPI
États-Unis : de la surveillance des plaques d’immatriculation à celle des slogans politiques

Une artiste a découvert qu’un système de reconnaissance automatisé des plaques d’immatriculation reconnaissait également les textes affichés sur les stickers collés sur les pare-chocs des véhicules, ainsi que les slogans politiques arborés aux frontons des maisons. Et permettait donc d’identifier les véhicules, et logements, des personnes pro ou anti-Trump, Biden, avortement, etc.

Des documents obtenus et examinés par WIRED révèlent qu’un système de reconnaissance automatisée des plaques d’immatriculation, initialement prévu pour le contrôle de la circulation, est également capable d’identifier voire de « surveiller des discours protégés par la Constitution américaine ».

Les photographies consultées par WIRED montrent en effet des pancartes pro-Trump ou en faveur du tandem formé par Kamala Harris et Tim Walz affichées au fronton de maisons, sur les portes de garages ou plantées dans des jardins de domiciles privés, ou encore des autocollants politiques (tels que « Fuck Biden ») à l’arrière de camions et de voitures, « dans toute l’Amérique ».

Ces images, explique WIRED, « générées par des caméras à intelligence artificielle » montées sur des voitures et des camions, initialement conçues pour saisir les plaques d’immatriculation, enregistrent aussi l’emplacement précis des endroits où ont été prises ces photographies.

Elles sont consultables dans les résultats de recherche produits par les systèmes de DRN Data, une filiale de Motorola spécialisée dans la reconnaissance de plaques d’immatriculation (LPR, pour license-plate-recognition en anglais, et LAPI, pour lecture automatisée de plaques d’immatriculation, en français). Parmi ses clients figurent des enquêteurs privés, des agents de recouvrement et des compagnies d’assurance, ainsi que des policiers.

DRN propose en effet d’obtenir des « alertes en temps réel pour les véhicules en fourrière et les véhicules volés », de « vérifier les sinistres, détecter les irrégularités », d’ « identifier l’utilisation commerciale et le covoiturage », d’ « améliorer le recouvrement des créances grâce à l’analyse prédictive », de « localiser les débiteurs grâce aux données de localisation des véhicules », d’ « accéder aux données de localisation des véhicules en direct » ou encore de « trouver les véhicules difficiles à trouver ». Elle propose même de « convertir le trafic automobile en clients grâce aux informations LAPI » :

« Identifiez les visiteurs de passage, générez des prospects de haute qualité et développez votre activité grâce à notre base de données marketing LAPI. Élargissez votre marché, personnalisez vos messages et augmentez vos conversions. Créez des profils de clients avec des informations détaillées. Découvrez des signaux d’achat et des données démographiques cachés. Exportez des listes de contacts avec des attributs marketing. Conduisez les clients vers votre entreprise. »

Plus de 20 milliards de scans de plaques d’immatriculation


Il reste 82% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Le taïwanais Foxconn délocalise au Mexique son usine de serveurs NVIDIA Blackwell AI

8 octobre 2024 à 14:33
Le taïwanais Foxconn délocalise au Mexique son usine de serveurs NVIDIA Blackwell AI

Le groupe de fabrication électronique taïwanais Foxconn construit au Mexique la plus grande usine du monde fabriquant les serveurs d’intelligence artificielle les plus avancés de NVIDIA, Blackwell AI, rapporte le Financial Times. Le FT voit dans cette délocalisation une illustration « frappante » du découplage des chaînes d’approvisionnement technologiques mondiales par rapport à la Chine.

Gouvernements et entreprises occidentaux cherchent en effet depuis des années à rapprocher de leurs territoires la fabrication de produits technologiques sensibles et de fournitures essentielles, afin de réduire leur dépendance à l’égard de la Chine, compte tenu des tensions géopolitiques croissantes et des perturbations de la chaîne d’approvisionnement.

Young Liu, président de Foxconn, a déclaré à ses clients et partenaires, lors de la présentation annuelle de Foxconn à Taipei, que le poids de la Chine dans l’empreinte manufacturière mondiale du groupe allait diminuer pour atteindre un peu plus de 70 %.

La plateforme Blackwell fait l’objet d’une demande « folle », a précisé Young Liu lors de cet événement auquel participait également Deepu Talla, vice-président de NVIDIA, qui n’a donné que peu de détails sur l’usine de 450 mètres de long. L’usine, située dans la ville de Guadalajara, au centre du Mexique, assemblera les serveurs d’intelligence artificielle GB200 Blackwell.

Foxconn est déjà très présent au Mexique et a investi plus de 500 millions de dollars à ce jour dans l’État de Chihuahua, relève l’agence Reuters. Samedi, Foxconn a en outre enregistré le chiffre d’affaires le plus élevé de son histoire pour le troisième trimestre, grâce à la forte demande de serveurs AI.

L’autre objectif de Foxconn est de se diversifier et de s’éloigner de son rôle de fabricant d’électronique grand public pour Apple, dans l’espoir d’utiliser son savoir-faire technologique pour proposer la fabrication à façon de véhicules électriques et produire des véhicules utilisant des modèles construits par la marque Foxtron.

Liu a également prédit que la montée de « l’IA souveraine » – la nécessité pour les nations de développer leur propre intelligence artificielle pour s’aligner sur leurs intérêts de sécurité nationale – conduirait également à une production de plus en plus localisée des serveurs nécessaires.

En plus de l’IA souveraine, « je proposerais un concept de « serveur de souveraineté » », a-t-il déclaré. « À l’avenir, les serveurs seront produits dans les pays qui en ont besoin. C’est la direction que nous prenons actuellement ».

Un nouvel organisme traitera les litiges entre les utilisateurs européens, Meta, TikTok et YouTube

8 octobre 2024 à 14:19
alt.moderation
Un nouvel organisme traitera les litiges entre les utilisateurs européens, Meta, TikTok et YouTube

Article mis à jour à 16h55 avec le communiqué du directeur du nouvel Appeals Centre Europe.

Les utilisateurs de réseaux sociaux de l’Union européenne pourront bientôt déposer des plaintes contre Facebook, TikTok et YouTube concernant la modération des contenus auprès d’un nouvel organisme indépendant créé en Irlande, rapporte l’agence Reuters.

Cet organisme, soutenu par le Conseil de surveillance (Oversight Board) de Meta et certifié par l’autorité irlandaise de régulation des médias, servira d’organe de règlement extrajudiciaire des litiges en vertu de la loi européenne sur les services numériques (DSA).

Jusqu’à présent, les particuliers et organisations ne disposaient que d’options limitées pour contester les décisions des entreprises de médias sociaux en matière de contenu sans passer par les tribunaux, souligne Reuters.

Un service rapide, économique et impartial, assuré par des experts

L’Appeals Centre Europe (ACE) entrera en fonction avant la fin de l’année, et inclura d’autres plateformes de médias sociaux au fil du temps. Son site web précise qu’il « propose un service rapide, économique et impartial, assuré par des experts, pour prendre des décisions conformes aux politiques de contenu des plateformes ».

Users of @facebook , @tiktok_uk and @YouTube in the EU can now raise content disputes to a new body.

The Appeals Centre Europe empowers you to challenge content decisions on social media.

For more information please visit https://t.co/jvSLVqXMyE pic.twitter.com/p37Xh0oEI3

— appealscentre (@AppealsCentre) October 8, 2024

Il sera financé par les frais facturés aux entreprises de médias sociaux, et sera géré par un Conseil de sept administrateurs indépendants, dont trois des membres de l’Oversight Board : Cherine Chalaby, Catherine O’Regan et Marie Wieck, « tous experts reconnus dans leur domaine ».

À ces trois premiers administrateurs indépendants viendront s’ajouter quatre autres administrateurs « sans lien avec une entreprise de réseaux sociaux ni relation avec une entité financée par une entreprise de réseaux sociaux », précise son site web :

« En conjuguant leur expérience des droits de l’Homme, de la gouvernance de l’internet et de la technologie, les administrateurs indépendants seront chargés de superviser la constitution de ce nouvel organe indépendant afin qu’il se conforme aux normes les plus strictes dès ses premières interventions. »

Un organisme indépendant des gouvernements et des entreprises

« Nous voulons que les utilisateurs aient le choix de soumettre un litige à un organisme indépendant des gouvernements et des entreprises, qui veille à ce que les politiques de contenu des plateformes soient appliquées de manière équitable et impartiale », a déclaré Thomas Hughes, premier directeur général du Centre d’appel, ancien directeur exécutif de l’association de défense des droits de la liberté d’expression Article 19 et ex-directeur de l’Oversight Board.

Aidé d’une équipe d’experts, il devra examiner chaque cas dans un délai de 90 jours, et décider si les décisions des plateformes sont cohérentes avec leurs politiques de contenu, ainsi qu’à toute règle ou exception qui font référence aux droits de l’Homme. Les cas complexes seront quant à eux confiés à des spécialistes qui possèdent de l’expertise dans des régions, des langues ou des domaines de politique spécifiques.

Une redevance nominale, remboursée en cas de décision favorable

Les utilisateurs qui soulèvent un litige devront payer une somme symbolique, qui leur sera remboursée si la décision est en leur faveur, précise Reuters. L’agence souligne que, toutefois, selon les règles de la DSA, les plateformes en ligne peuvent également refuser de s’engager avec un tel organisme de règlement des litiges, et que celui-ci n’aura pas non plus le pouvoir d’imposer un règlement contraignant aux parties.

« Nous nous félicitons de la certification de nouveaux organismes indépendants par le régulateur irlandais », a déclaré Thomas Regnier, porte-parole de la Commission européenne. « Nous soutiendrons le développement efficace et uniforme de ce système dans l’ensemble de l’UE afin de renforcer les droits en ligne de tous les utilisateurs de l’UE ».

Une alternative à l' »appropriation des tâches » par les agences gouvernementales

Coimisiún na Meán, le régulateur irlandais des médias, précise que l’ACE a obtenu une certification pour une période de cinq ans, du 26 septembre 2024 au 26 septembre 2029.

Dans un communiqué, Thomas Hugues précise que« comme aucune autre législation avant elle, la loi sur les services numériques (DSA) de l’UE a le potentiel de rétablir l’équilibre des pouvoirs entre les individus, les entreprises et les gouvernements sur ce que les gens voient et publient en ligne » :

« Cela dit, si elle est mal exécutée, cette législation pourrait être monopolisée par des organismes publics, ce qui entraînerait une « appropriation des tâches » par les agences gouvernementales à une échelle industrielle et une censure de la parole en ligne. Les plateformes pourraient être incitées à tort à supprimer de grandes quantités de contenus, et la diversité des compétences et des normes de ces organismes pourrait aboutir à des décisions médiocres, voire préjudiciables. Le Centre d’appel vise à maximiser ces opportunités et à minimiser ces risques. »

☕️ Le taïwanais Foxconn délocalise au Mexique son usine de serveurs NVIDIA Blackwell AI

8 octobre 2024 à 14:33
Le taïwanais Foxconn délocalise au Mexique son usine de serveurs NVIDIA Blackwell AI

Le groupe de fabrication électronique taïwanais Foxconn construit au Mexique la plus grande usine du monde fabriquant les serveurs d’intelligence artificielle les plus avancés de NVIDIA, Blackwell AI, rapporte le Financial Times. Le FT voit dans cette délocalisation une illustration « frappante » du découplage des chaînes d’approvisionnement technologiques mondiales par rapport à la Chine.

Gouvernements et entreprises occidentaux cherchent en effet depuis des années à rapprocher de leurs territoires la fabrication de produits technologiques sensibles et de fournitures essentielles, afin de réduire leur dépendance à l’égard de la Chine, compte tenu des tensions géopolitiques croissantes et des perturbations de la chaîne d’approvisionnement.

Young Liu, président de Foxconn, a déclaré à ses clients et partenaires, lors de la présentation annuelle de Foxconn à Taipei, que le poids de la Chine dans l’empreinte manufacturière mondiale du groupe allait diminuer pour atteindre un peu plus de 70 %.

La plateforme Blackwell fait l’objet d’une demande « folle », a précisé Young Liu lors de cet événement auquel participait également Deepu Talla, vice-président de NVIDIA, qui n’a donné que peu de détails sur l’usine de 450 mètres de long. L’usine, située dans la ville de Guadalajara, au centre du Mexique, assemblera les serveurs d’intelligence artificielle GB200 Blackwell.

Foxconn est déjà très présent au Mexique et a investi plus de 500 millions de dollars à ce jour dans l’État de Chihuahua, relève l’agence Reuters. Samedi, Foxconn a en outre enregistré le chiffre d’affaires le plus élevé de son histoire pour le troisième trimestre, grâce à la forte demande de serveurs AI.

L’autre objectif de Foxconn est de se diversifier et de s’éloigner de son rôle de fabricant d’électronique grand public pour Apple, dans l’espoir d’utiliser son savoir-faire technologique pour proposer la fabrication à façon de véhicules électriques et produire des véhicules utilisant des modèles construits par la marque Foxtron.

Liu a également prédit que la montée de « l’IA souveraine » – la nécessité pour les nations de développer leur propre intelligence artificielle pour s’aligner sur leurs intérêts de sécurité nationale – conduirait également à une production de plus en plus localisée des serveurs nécessaires.

En plus de l’IA souveraine, « je proposerais un concept de « serveur de souveraineté » », a-t-il déclaré. « À l’avenir, les serveurs seront produits dans les pays qui en ont besoin. C’est la direction que nous prenons actuellement ».

Un nouvel organisme traitera les litiges entre les utilisateurs européens, Meta, TikTok et YouTube

8 octobre 2024 à 14:19
alt.moderation
Un nouvel organisme traitera les litiges entre les utilisateurs européens, Meta, TikTok et YouTube

Article mis à jour à 16h55 avec le communiqué du directeur du nouvel Appeals Centre Europe.

Les utilisateurs de réseaux sociaux de l’Union européenne pourront bientôt déposer des plaintes contre Facebook, TikTok et YouTube concernant la modération des contenus auprès d’un nouvel organisme indépendant créé en Irlande, rapporte l’agence Reuters.

Cet organisme, soutenu par le Conseil de surveillance (Oversight Board) de Meta et certifié par l’autorité irlandaise de régulation des médias, servira d’organe de règlement extrajudiciaire des litiges en vertu de la loi européenne sur les services numériques (DSA).

Jusqu’à présent, les particuliers et organisations ne disposaient que d’options limitées pour contester les décisions des entreprises de médias sociaux en matière de contenu sans passer par les tribunaux, souligne Reuters.

Un service rapide, économique et impartial, assuré par des experts

L’Appeals Centre Europe (ACE) entrera en fonction avant la fin de l’année, et inclura d’autres plateformes de médias sociaux au fil du temps. Son site web précise qu’il « propose un service rapide, économique et impartial, assuré par des experts, pour prendre des décisions conformes aux politiques de contenu des plateformes ».

Users of @facebook , @tiktok_uk and @YouTube in the EU can now raise content disputes to a new body.

The Appeals Centre Europe empowers you to challenge content decisions on social media.

For more information please visit https://t.co/jvSLVqXMyE pic.twitter.com/p37Xh0oEI3

— appealscentre (@AppealsCentre) October 8, 2024

Il sera financé par les frais facturés aux entreprises de médias sociaux, et sera géré par un Conseil de sept administrateurs indépendants, dont trois des membres de l’Oversight Board : Cherine Chalaby, Catherine O’Regan et Marie Wieck, « tous experts reconnus dans leur domaine ».

À ces trois premiers administrateurs indépendants viendront s’ajouter quatre autres administrateurs « sans lien avec une entreprise de réseaux sociaux ni relation avec une entité financée par une entreprise de réseaux sociaux », précise son site web :

« En conjuguant leur expérience des droits de l’Homme, de la gouvernance de l’internet et de la technologie, les administrateurs indépendants seront chargés de superviser la constitution de ce nouvel organe indépendant afin qu’il se conforme aux normes les plus strictes dès ses premières interventions. »

Un organisme indépendant des gouvernements et des entreprises

« Nous voulons que les utilisateurs aient le choix de soumettre un litige à un organisme indépendant des gouvernements et des entreprises, qui veille à ce que les politiques de contenu des plateformes soient appliquées de manière équitable et impartiale », a déclaré Thomas Hughes, premier directeur général du Centre d’appel, ancien directeur exécutif de l’association de défense des droits de la liberté d’expression Article 19 et ex-directeur de l’Oversight Board.

Aidé d’une équipe d’experts, il devra examiner chaque cas dans un délai de 90 jours, et décider si les décisions des plateformes sont cohérentes avec leurs politiques de contenu, ainsi qu’à toute règle ou exception qui font référence aux droits de l’Homme. Les cas complexes seront quant à eux confiés à des spécialistes qui possèdent de l’expertise dans des régions, des langues ou des domaines de politique spécifiques.

Une redevance nominale, remboursée en cas de décision favorable

Les utilisateurs qui soulèvent un litige devront payer une somme symbolique, qui leur sera remboursée si la décision est en leur faveur, précise Reuters. L’agence souligne que, toutefois, selon les règles de la DSA, les plateformes en ligne peuvent également refuser de s’engager avec un tel organisme de règlement des litiges, et que celui-ci n’aura pas non plus le pouvoir d’imposer un règlement contraignant aux parties.

« Nous nous félicitons de la certification de nouveaux organismes indépendants par le régulateur irlandais », a déclaré Thomas Regnier, porte-parole de la Commission européenne. « Nous soutiendrons le développement efficace et uniforme de ce système dans l’ensemble de l’UE afin de renforcer les droits en ligne de tous les utilisateurs de l’UE ».

Une alternative à l' »appropriation des tâches » par les agences gouvernementales

Coimisiún na Meán, le régulateur irlandais des médias, précise que l’ACE a obtenu une certification pour une période de cinq ans, du 26 septembre 2024 au 26 septembre 2029.

Dans un communiqué, Thomas Hugues précise que« comme aucune autre législation avant elle, la loi sur les services numériques (DSA) de l’UE a le potentiel de rétablir l’équilibre des pouvoirs entre les individus, les entreprises et les gouvernements sur ce que les gens voient et publient en ligne » :

« Cela dit, si elle est mal exécutée, cette législation pourrait être monopolisée par des organismes publics, ce qui entraînerait une « appropriation des tâches » par les agences gouvernementales à une échelle industrielle et une censure de la parole en ligne. Les plateformes pourraient être incitées à tort à supprimer de grandes quantités de contenus, et la diversité des compétences et des normes de ces organismes pourrait aboutir à des décisions médiocres, voire préjudiciables. Le Centre d’appel vise à maximiser ces opportunités et à minimiser ces risques. »

Des pirates chinois auraient espionné des systèmes d’écoutes téléphoniques américains

8 octobre 2024 à 13:30
Typhon salé
Des pirates chinois auraient espionné des systèmes d’écoutes téléphoniques américains

Après avoir démantelé un botnet attribué à un groupe de pirates informatiques étatiques chinois composé de 260 000 terminaux infectés, les autorités états-uniennes viennent d’identifier une seconde campagne, elle aussi massive, à des fins de collecte de renseignements.

Article mis à jour le 9/10 à 9h10 avec un passage sur le CALEA.

Le Wall Street Journal révèle qu’une cyberattaque, liée aux autorités chinoises, aurait permis aux pirates informatiques d’espionner « pendant des mois, voire plus longtemps » des systèmes utilisés pour répondre à des demandes d’écoutes téléphoniques et de données de communication autorisées par les tribunaux des États-Unis et liées à des enquêtes criminelles ou de sécurité nationale.

La compromission, qualifiée par le WSJ de « généralisée », est considérée comme une faille de sécurité « potentiellement catastrophique » et a été réalisée, à des fins de collecte de renseignements, par un groupe APT (pour Advanced Persistent Threat, menace persistante avancée) de pirates chinois gouvernemental baptisé Salt Typhoon.

Une personne au fait de l’attaque a déclaré que le gouvernement américain considérait ces intrusions comme « historiquement significatives et inquiétantes ». La semaine passée, le WSJ avait déjà révélé que Salt Typhoon s’était introduit ces derniers mois dans les systèmes d’une poignée de fournisseurs d’accès internet états-uniens à la recherche d’informations sensibles.

Les attaques, découvertes au cours des dernières semaines, font toujours l’objet d’une enquête active de la part du gouvernement et d’analystes du secteur privé. Les enquêteurs travaillent encore à confirmer l’ampleur de l’attaque et la mesure dans laquelle les pirates ont accédé aux données et en ont exfiltré une partie, ont indiqué au WSJ des personnes au fait du dossier.

Salt Typhoon serait actif depuis 2020

Les pirates sembleraient s’être livrés à « une vaste collecte » de trafic Internet auprès de FAI qui comptent parmi leurs clients des entreprises, grandes et petites, et des millions d’Américains. En outre, précise le WSJ, il semblerait que la campagne ait aussi ciblé un petit nombre de fournisseurs d’accès en dehors des États-Unis.


Il reste 76% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Eric Schmidt estime les objectifs climatiques inatteignables, et propose de les confier à des IA

8 octobre 2024 à 08:45

Interrogé sur la capacité des industriels à répondre aux besoins énergétiques de l’IA « sans faire exploser les objectifs climatiques », Eric Schmidt, l’ex-PDG de Google, explique que « nous n’y parviendrons pas en économisant l’énergie », rapporte Tom’s Hardware :

« Mon avis est que nous n’atteindrons pas les objectifs climatiques de toute façon parce que nous ne sommes pas organisés pour le faire […] et oui les besoins dans ce domaine seront problématiques mais je préfère parier sur l’IA pour résoudre le problème plutôt que de la contraindre et d’avoir le problème. »

Former Google CEO Eric Schmidt says energy demand for AI is infinite and we are never going to meet our climate goals anyway, so we may as well bet on building AI to solve the problem pic.twitter.com/USCDKBVsbh

— Tsarathustra (@tsarnick) October 5, 2024

Il précise qu’à Deep Mind, les IA auraient « battu nos meilleurs ingénieurs de 15 % en termes d’efficacité énergétique totale et dans certains cas, c’était 50 % parce que les systèmes d’IA voient des choses que les humains ne voient pas ».

Évoquant « une demande infinie » en matière d’énergie, et le fait que « la plupart des gens avec qui j’ai parlé disent que la facture d’électricité est devenue un élément très important de leurs dépenses », il reconnaît cela dit que « nous allons peut-être faire des erreurs » face à la survenue de cette « intelligence inconnue que nous ne comprenons pas » :

« Mais je peux vous assurer que nous n’y parviendrons pas par la prudence, c’est le point clé et l’économie sera de toute façon le moteur de cette technologie. »

Tom’s Hardware souligne que la demande pourrait également augmenter avec la baisse des prix de l’énergie, du fait des améliorations technologiques, en termes d’efficacité, un phénomène appelé paradoxe de Jevons, cas le plus extrême de l’effet rebond.

Les émissions de gaz à effet de serre de Google ont d’ailleurs augmenté de 48 % depuis 2019, principalement en raison de la demande d’énergie de ses centres de données. Selon McKinsey, relève Business Insider, les besoins des centres de données de Google aux États-Unis devraient passer de 17 à 35 GW d’ici 2030.

☕️ Eric Schmidt estime les objectifs climatiques inatteignables, et propose de les confier à des IA

8 octobre 2024 à 08:45

Interrogé sur la capacité des industriels à répondre aux besoins énergétiques de l’IA « sans faire exploser les objectifs climatiques », Eric Schmidt, l’ex-PDG de Google, explique que « nous n’y parviendrons pas en économisant l’énergie », rapporte Tom’s Hardware :

« Mon avis est que nous n’atteindrons pas les objectifs climatiques de toute façon parce que nous ne sommes pas organisés pour le faire […] et oui les besoins dans ce domaine seront problématiques mais je préfère parier sur l’IA pour résoudre le problème plutôt que de la contraindre et d’avoir le problème. »

Former Google CEO Eric Schmidt says energy demand for AI is infinite and we are never going to meet our climate goals anyway, so we may as well bet on building AI to solve the problem pic.twitter.com/USCDKBVsbh

— Tsarathustra (@tsarnick) October 5, 2024

Il précise qu’à Deep Mind, les IA auraient « battu nos meilleurs ingénieurs de 15 % en termes d’efficacité énergétique totale et dans certains cas, c’était 50 % parce que les systèmes d’IA voient des choses que les humains ne voient pas ».

Évoquant « une demande infinie » en matière d’énergie, et le fait que « la plupart des gens avec qui j’ai parlé disent que la facture d’électricité est devenue un élément très important de leurs dépenses », il reconnaît cela dit que « nous allons peut-être faire des erreurs » face à la survenue de cette « intelligence inconnue que nous ne comprenons pas » :

« Mais je peux vous assurer que nous n’y parviendrons pas par la prudence, c’est le point clé et l’économie sera de toute façon le moteur de cette technologie. »

Tom’s Hardware souligne que la demande pourrait également augmenter avec la baisse des prix de l’énergie, du fait des améliorations technologiques, en termes d’efficacité, un phénomène appelé paradoxe de Jevons, cas le plus extrême de l’effet rebond.

Les émissions de gaz à effet de serre de Google ont d’ailleurs augmenté de 48 % depuis 2019, principalement en raison de la demande d’énergie de ses centres de données. Selon McKinsey, relève Business Insider, les besoins des centres de données de Google aux États-Unis devraient passer de 17 à 35 GW d’ici 2030.

Une expo retrace 110 ans d’écoutes et de guerre électronique militaires françaises

4 octobre 2024 à 14:51
Hacking 4 mili
Une expo retrace 110 ans d’écoutes et de guerre électronique militaires françaises

Le développement des télécommunications a de tout temps été suivi par celui de l’interception et du décryptage de ces mêmes télécommunications. Une exposition, partiellement consultable en ligne, revient sur les techniques et procédures développées par l’armée française ces 110 dernières années.

L’exposition « 110 ans d’écoutes au service de la Nation », proposée par l’Association de la guerre électronique de l’armée de terre (AGEAT), « relate les origines des services d’écoutes et leur engagement sur plus d’un siècle dans tous les conflits et dans toutes les opérations extérieures dans lesquels la France a été impliquée, de la Grande Guerre jusqu’au Sahel ».

Présentée à Haguenau, la ville alsacienne qui accueille la garnison des « traqueurs d’ondes » du 54e régiment de transmissions (54e RT), la composante « Guerre électronique de théâtre » du commandement du renseignement, l’exposition se clôturera le 13 octobre.

Un membre de l’AGEAT a cela dit pris le soin d’en proposer une visite virtuelle, afin de permettre aux personnes qui ne pourraient se rendre à Haguenau de découvrir cette exposition qui « soulève une partie du voile sur l’action de ces hommes et femmes de l’ombre ».

On y apprend notamment que c’est François Cartier, le chef de la section du chiffre et du bureau central de la télégraphie sans fil (TSF) qui avait proposé, en 1911, d’utiliser la tour Eiffel et les postes TSF des places-fortes du nord et de l’est afin d’écouter les communications radio allemandes. Ce qui avait permis à la France de « disposer d’un service d’écoutes organisé et opérationnel » aux tous débuts de la Première Guerre mondiale de 14 - 18 :

« Dès leur invention en mai 1915 par le sous-lieutenant Delavie, les postes d’écoutes téléphoniques des communications allemandes de 1° ligne mettent en échec les tentatives d’attaque, les bombardements et les réglages d’artillerie, les relèves. »


Il reste 86% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ OpenAI obtient 4 milliards de dollars de crédit, s’ajoutant aux 6,6 milliards de sa levée de fonds

4 octobre 2024 à 12:25
OpenAI obtient 4 milliards de dollars de crédit, s’ajoutant aux 6,6 milliards de sa levée de fonds

Dans la foulée de sa levée de fonds de 6,6 milliards de dollars, OpenAI vient d’annoncer dans un communiqué avoir obtenu une facilité de crédits de 4 milliards de dollars auprès de JPMorgan Chase, Citi, Goldman Sachs, Morgan Stanley, Santander, Wells Fargo, SMBC, UBS, et HSBC :

« Cela signifie que nous avons désormais accès à plus de 10 milliards de dollars de liquidités, ce qui nous donne la flexibilité nécessaire pour investir dans de nouvelles initiatives et opérer avec une agilité totale au fur et à mesure que nous nous développons. Cela réaffirme également notre partenariat avec un groupe exceptionnel d’institutions financières, dont beaucoup sont également des clients d’OpenAI. »

« Cette facilité de crédit renforce notre bilan et nous donne la flexibilité nécessaire pour saisir les opportunités de croissance futures », précise Sarah Friar, directrice financière d’OpenAI.

La ligne de crédit, qui n’est pas garantie et peut être utilisée sur une période de trois ans, comporte en outre une option pour l’augmenter de 2 milliards de dollars supplémentaires, souligne CNBC, pour un taux d’intérêt d’environ 6 %.

OpenAI a généré 300 millions de dollars de revenus le mois dernier, soit une hausse de 1 700 % depuis le début de l’année dernière, relève CNBC. Elle prévoit de réaliser un chiffre d’affaires de 11,6 milliards de dollars l’année prochaine, contre 3,7 milliards de dollars en 2024, mais s’attend à perdre environ 5 milliards de dollars cette année, selon une personne proche d’OpenAI qui a demandé à ne pas être nommée.

☕️ OpenAI obtient 4 milliards de dollars de crédit, s’ajoutant aux 6,6 milliards de sa levée de fonds

4 octobre 2024 à 12:25
OpenAI obtient 4 milliards de dollars de crédit, s’ajoutant aux 6,6 milliards de sa levée de fonds

Dans la foulée de sa levée de fonds de 6,6 milliards de dollars, OpenAI vient d’annoncer dans un communiqué avoir obtenu une facilité de crédits de 4 milliards de dollars auprès de JPMorgan Chase, Citi, Goldman Sachs, Morgan Stanley, Santander, Wells Fargo, SMBC, UBS, et HSBC :

« Cela signifie que nous avons désormais accès à plus de 10 milliards de dollars de liquidités, ce qui nous donne la flexibilité nécessaire pour investir dans de nouvelles initiatives et opérer avec une agilité totale au fur et à mesure que nous nous développons. Cela réaffirme également notre partenariat avec un groupe exceptionnel d’institutions financières, dont beaucoup sont également des clients d’OpenAI. »

« Cette facilité de crédit renforce notre bilan et nous donne la flexibilité nécessaire pour saisir les opportunités de croissance futures », précise Sarah Friar, directrice financière d’OpenAI.

La ligne de crédit, qui n’est pas garantie et peut être utilisée sur une période de trois ans, comporte en outre une option pour l’augmenter de 2 milliards de dollars supplémentaires, souligne CNBC, pour un taux d’intérêt d’environ 6 %.

OpenAI a généré 300 millions de dollars de revenus le mois dernier, soit une hausse de 1 700 % depuis le début de l’année dernière, relève CNBC. Elle prévoit de réaliser un chiffre d’affaires de 11,6 milliards de dollars l’année prochaine, contre 3,7 milliards de dollars en 2024, mais s’attend à perdre environ 5 milliards de dollars cette année, selon une personne proche d’OpenAI qui a demandé à ne pas être nommée.

☕️ Ligue du LOL : Libé reconnaît avoir licencié ses journalistes sans cause réelle et de façon vexatoire

4 octobre 2024 à 07:44
Ligue du LOL : Libé reconnaît avoir licencié ses journalistes sans cause réelle et de façon vexatoire

Cinq ans et demi après avoir fait la « Une » des médias, l’affaire dite de la Ligue du LOL est juridiquement close, a appris l’Agence France-Presse (AFP) « de sources concordantes » : la dernière procédure a en effet pris fin cet été après un accord entre Libération et Vincent Glad, un de ses anciens journalistes licencié à l’époque.

Le 12 juillet 2022, les prud’hommes avaient condamné Libé à verser près de 52 000 euros à Vincent Glad pour « licenciement sans cause réelle et sérieuse et de façon vexatoire ». Or, en vertu de cet accord, Libération a renoncé à son appel après une décision du conseil des prud’hommes de Paris en 2022 favorable à M. Glad, « laquelle devient donc définitive », souligne l’AFP.

Libération avait déjà conclu un accord avec un autre journaliste licencié, Alexandre Hervaud, afin là aussi de clôre le contentieux aux prud’hommes. Et le magazine Les Inrockuptibles avait, lui aussi, été condamné à payer 44 000 euros à l’un de ses ex-rédacteur en chef pour licenciement sans « faute réelle et sérieuse ».

L’AFP souligne que l’enquête du parquet de Paris pour harcèlement avait quant à elle été classée sans suite en février 2022, pour « infraction insuffisamment caractérisée ».

Les trois journalistes ont été licenciés après qu’un article de CheckNews, la rubrique de fact-checking de Libé, eut accusé les membres du groupe Facebook privé éponyme créé par Vincent Glad d’avoir cyberharcelé des féministes sur les réseaux sociaux au début des années 2010.

À l’époque, le scandale avait entraîné une vague de cyberharcèlement particulièrement violent de l’ensemble de la trentaine de membres identifiés du groupe Facebook, pour la plupart journalistes ou communicants, et le licenciement de 14 d’entre eux.

Or, comme l’AFP l’avait déjà relevé en février dernier, à l’occasion des cinq ans de ce scandale, « des enquêtes menées par les sites L’ADN et Next INpact début 2020, puis Marianne en 2021 », avaient conclu à un « emballement médiatique inédit » dans cette affaire.

« En réalité, seuls quelques membres (…) ont été accusés de plaisanteries obscènes, photomontages grossiers ou moqueries répétées, et non le groupe dans son ensemble », avait ainsi reconnu le New York Times dans un rectificatif publié en avril 2021.

Arrêt sur images avait, lui aussi, procédé à son aggiornamento, fin 2021, évoquant une couverture médiatique « quasi-uniformément à charge », et un « torrent médiatique disproportionné » ayant « porté un préjudice parfois grave et pas forcément justifié à une partie de celles et ceux qui furent rattachés au groupe Facebook ».

ASI reconnaissait aussi avoir relayé « une importante erreur factuelle » au sujet de notre contre-enquête, et décidé de rajouter un encadré « signalant l’existence d’éventuelles erreurs ou approximations » sur chacun de ses articles consacrés à cette polémique.

« La fin des procédures est une grande étape mais les traces qui restent en ligne sont un boulet monstrueux pour la réputation de personnes dont l’honneur a été souillé en 2019 », a assuré l’un des mis en cause à l’AFP mercredi, en pointant notamment la page Wikipedia consacrée à l’affaire.

Un boulet d’autant plus préjudiciable qu’elle apparaît en tête des requêtes Google, alors qu’elle relaie surtout les articles à charge qui avaient alors été consacrés à l’affaire, et qu’elle est dès lors truffée d’ « accusations complotistes infondées » et « d’amalgames calomnieux », comme le déplore Alexandre Hervaud depuis 2021, en vain.

« C’était impossible d’imaginer les conséquences que ce papier allait avoir », confiait en février dernier à l’AFP le journaliste de CheckNews auteur de l’article qui allait déclencher la polémique. Il vient d’être nommé rédacteur en chef d’Arrêt sur images.

Le démantèlement du rançongiciel LockBit révèle ses liens avec des membres du gang Evil Corp

3 octobre 2024 à 14:29
FSB connection
Le démantèlement du rançongiciel LockBit révèle ses liens avec des membres du gang Evil Corp

La saisie, en février dernier, de serveurs du ransomware LockBit lors de l’opération Cronos a permis aux autorités d’identifier de nouveaux affiliés, dont des membres du gang de cybercriminels russophone « le plus important de tous les temps », Evil Corp, « autrefois considéré comme la menace cybercriminelle la plus importante au monde ».

« Coupure de courant chez LockBit », du nom du célèbre gang de « ransomware as a service » russophone, titre Europol, qui se félicite de l’arrestation de quatre de ses membres, et de la saisie de serveurs « essentiels » pour son infrastructure. Des opérations réalisées dans le cadre de la troisième phase de l’opération Cronos de démantèlement coordonné de l’infrastructure du rançongiciel LockBit, impliquant les services répressifs de 12 pays, d’Europol et d’Eurojust :

« Les capacités de démixage avancées du centre de cybercriminalité d’Europol ont permis d’identifier plusieurs cibles. À la suite des opérations de lancement contre l’infrastructure de LockBit au début de l’année 2024, Europol a organisé sept sprints techniques, dont trois étaient entièrement consacrés au traçage des crypto-monnaies. »

Un développeur présumé de LockBit a ainsi été arrêté « à la demande des autorités françaises », tandis que les autorités britanniques ont arrêté deux personnes ayant contribué à l’activité d’un affilié de LockBit. Les agents espagnols ont de leur côté saisi neuf serveurs, et arrêté un administrateur d’un service d’hébergement « bulletproof » utilisé par le groupe.

Contrairement à sa promesse, LockBit archivait les données volées

L’individu arrêté en France l’aurait été alors qu’il était en vacances dans le pays, d’après Risky Biz News, qui ironise sur le fait qu’ « apparemment, certains opérateurs de ransomware n’ont pas compris qu’il ne fallait pas partir en vacances dans les pays de l’OTAN après avoir passé des années à rançonner leurs hôpitaux, leurs gouvernements et leurs entreprises privées ».


Il reste 89% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Le gouvernement Barnier veut généraliser la vidéosurveillance algorithmique (VSA)

2 octobre 2024 à 11:28
Le gouvernement Barnier veut généraliser la vidéosurveillance algorithmique (VSA)

La vidéosurveillance algorithmique (VSA) « va être généralisée par le gouvernement de Michel Barnier », selon les informations obtenues par franceinfo, et confirmées par le ministère de l’Intérieur au Figaro.

« C’est bien l’intention du ministre [de l’Intérieur, Bruno Retailleau, ndlr] de tirer les enseignements des JO. Ce point en fait partie et la nécessité d’une loi est incontournable » précise le ministère de l’Intérieur à Tech&Co.

Cette généralisation « devrait être autorisée par une loi spécifique qui, à l’issue d’un débat démocratique, fixerait des cas d’usages précis avec des garanties au bénéfice des personnes », soulignait la CNIL en 2022. « Une généralisation non maîtrisée de ces dispositifs, par nature intrusifs, conduirait à un risque de surveillance et d’analyse généralisée dans l’espace public » prévenait la Commission, rappelant que l’adoption d’une nouvelle loi était indispensable.

Ce mardi après-midi, dans sa déclaration de politique générale, le Premier ministre Michel Barnier avait en effet dit souhaiter, au moment d’évoquer les enjeux sécuritaires, une « généralisation de la méthode expérimentée pendant les Jeux olympiques », mais « sans préciser quel serait cet énigmatique nouveau procédé », relevait l’AFP.

Selon les informations de franceinfo, il s’agirait bien de « développer l’utilisation de la vidéosurveillance algorithmique ». Jusqu’ici, le ministère de l’Intérieur « assurait que l’expérimentation n’irait pas au-delà de la période des Jeux olympiques, même si dans les faits, le texte de la loi prévoyait déjà une prolongation jusqu’au 31 mars 2025 », rappelle franceinfo.

Sans donner réellement de chiffre ni de compte-rendu aux députés, le préfet de police de Paris, avait de son côté affirmé que « le bilan de l’expérimentation, pour nous, est positif », appelant lui aussi à prolonger l’expérimentation.

Pour rappel, les logiciels d’analyse d’images associées aux caméras « ont pour finalité de détecter en temps réel des événements prédéterminés » dans « huit situations, notamment pour repérer des départs de feu, des mouvements de foule, des objets abandonnés, la présence d’un véhicule ou d’une personne dans une zone interdite en vue d’alerter pompiers, policiers ou gendarmes ».

La loi JOP précise en outre qu’ils ne devaient être expérimentés qu’à l’occasion de « manifestations sportives, récréatives ou culturelles » qui seraient « particulièrement exposées à des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes », tout en excluant le recours à la reconnaissance biométrique faciale.

Le comité d’évaluation des caméras algorithmiques doit remettre un rapport d’ici la fin de l’année. Mais selon les autorités, le bilan de cette expérimentation serait positif, « même si le dispositif est à améliorer sur la détection d’armes, les départs de feu ou la détection d’objets abandonnés », souligne franceinfo.

❌
❌