Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Pédocriminalité : l’usine à gaz européenne pour scanner photos et vidéos dans les messageries

Pedo barred
Hommage aux Shadoks pompant une machine par Flock

Le texte de « compromis » proposé par la Belgique pour lutter contre les « abus sexuels concernant les enfants » propose de scanner l’ensemble des photos, vidéos et URL avant qu’elles soient envoyées dans les messageries, y compris chiffrées de bout en bout.

La Belgique, qui préside le Conseil de l’Union européenne jusqu’au 30 juin, a proposé un « compromis » pour la proposition de règlement « établissant des règles pour prévenir et combattre les abus sexuels concernant les enfants ».

Surnommé #ChatControl par ses opposants, le projet vise à créer un système de détection et de signalement des contenus pédosexuels (ou CSAM, pour « child sexual abuse material »), y compris dans les messageries chiffrées. Ce qui pourrait contrevenir au respect de la correspondance et de la vie privée, mais également relever d’une forme de « surveillance de masse ».

Le nouveau texte propose d’exclure les communications audio des injonctions de détection. Dans ses versions précédentes, « seules les communications audio en temps réel étaient exclues des nouvelles règles », rappelle Euractiv.

Ne seraient désormais concernés que les contenus visuels (images, photos et vidéos) et URL partagés via un service de communication interpersonnelle, « y compris ceux dotés d’un système de chiffrement de bout en bout (E2EE) », souligne le média européen.

Un consentement imposé, en mode chantage…


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ X autorise officiellement le contenu pornographique « consensuel »

X (ex-Twitter) a changé ses conditions pour accepter officiellement le contenu pornographique « produit et diffusé de façon consensuelle ». Seules restrictions : « qu’il soit correctement étiqueté et pas mis en évidence », sur les photos de profil ou les bannières.

Sont désormais clairement acceptés les contenus présentant de la « nudité partielle ou complète », et des « actes sexuels explicites ou implicites », y compris sous la forme de contenu généré par IA, de dessinés ou d’animés (type hentai).

La plateforme indique que les utilisateurs de moins de 18 ans ou qui n’indiquent pas de date de naissance dans leur profil ne pourront pas voir les contenus en question. 


De fait, l’évolution de politique a lieu dans un contexte de pression grandissante des régulateurs en matière d’obligation de protection des mineurs.

☕️ Européennes : TikTok accepte des publicités de désinformation politique

Le mot TikTok tapé sur une machine à écrire

En amont des élections législatives européennes, l’ONG Global Witness a soumis plusieurs réseaux sociaux à un test : soumettre 16 publicités contenant de la désinformation politique pour observer la réaction de YouTube, TikTok et X.

Toutes les publications étaient pensées pour le public irlandais, et contenaient des éléments évoquant une fermeture des bureaux de vote provoquée par une épidémie de maladie infectieuse, de fausses informations sur la manière de voter ou des incitations à la violence.

Résultat des courses, X a bloqué toutes les publicités et suspendu le compte qui les publiait pour « violation de ses conditions d’utilisation », YouTube a bloqué 14 publications, et TikTok les a toutes acceptées.

L’ONG a bloqué la publication de ces éléments avant qu’ils n’atteignent réellement le grand public.

En parallèle, la BBC a réalisé ses propres expérimentations et constaté que la plateforme de vidéos présentait une nette propension à la diffusion de contenus politiques faux, générés par intelligence artificielle et/ou incitant à la violence.

Même le Raspberry Pi 5 succombe à l’IA…

Magie, le PCIe 2.0 devient du PCIe 3.0

Le Computex est le théâtre d’une multitude d’annonces autour de l’IA, aussi bien chez AMD, Intel, Microsoft que NVIDIA. Mais ce ne sont pas les seuls et la Fondation Raspberry Pi ne compte pas rester sur le bord de la route. Elle présente un NPU externe à ajouter à son Raspberry Pi 5 pour 70 dollars.

13 TOPS pour le Raspberry Pi 5

C’est via un communiqué sur son site que la fondation annonce l’arrivée d’un module AI pour le Raspberry Pi 5. Ce « NPU externe » propose, selon le fabricant, des performances jusqu’à 13 TOPS pour de l’intelligence artificielle. Il est construit à partir de la puce Hailo-8L, dont la fiche technique se trouve par ici.

On est loin des 48 et 50 TOPS des derniers processeurs Intel et AMD. Mais la puce est au niveau des 11,5 TOPS du NPU de Meteor Lake d’Intel, des 16 TOPS des Ryzen 8040 et des 11 TOPS de la puce M1 d’Apple (15,8 TOPS pour M2).

78,60 euros pour le M.2 HAT+ avec la puce Hailo-8L

Le kit comprend donc une carte M.2 HAT+ (avec un connecteur M.2 key M) à installer sur le Raspberry Pi 5, ainsi que la carte M.2 (format 2242) équipée de la puce Hailo-8L.

Le prix annoncé est de 70 dollars et on trouve le kit à 78,60 euros chez Kubii. Chez le même revendeur, le M.2 HAT+ seul est vendu 13,5 euros. Cela donne environ 65 euros pour la carte M.2 avec le NPU si l’on tente de séparer les deux.

Passer son Raspberry Pi 5 en PCIe 3.0… à vos risques et périls ?

Le Raspberry Pi 5 propose pour rappel une ligne PCIe 2.0, tandis que la puce de Hailo utilise jusqu’à deux lignes PCIe 3.0. Soit un rapport de 1 à 4 ? En théorie, oui. En pratique, c’est plus compliqué…

Dans son communiqué, Raspberry Pi indique que son kit AI fonctionne avec une « connexion PCIe 3.0 x1 à 8 Gb/s ». Mais comment donc, alors que les caractéristiques techniques du mini-PC indiquent une seule ligne PCIe 2.0 ?

Comme l’explique Jeff Geerling sur son blog, on peut passer du PCIe 2.0 au 3.0 sur le Raspberry Pi 5 avec une petite modification dans un fichier de configuration. D’ailleurs, cette étape est décrite dans le guide de démarrage du kit AI : « Suivez les instructions pour activer le PCIe Gen 3.0. Cette étape est facultative, mais fortement recommandée pour obtenir les meilleures performances ».

Mais alors pourquoi ne pas livrer directement le Raspberry Pi 5 en PCIe 3.0 ? Sur cette autre page, il est indiqué que « le Raspberry Pi 5 n’est pas certifié » pour les débits du PCIe 3.0 et que les connexions « peuvent être instables ».

Dans tous les cas, le puce Hailo exploitant deux lignes, elle peut se retrouver bridée par l’interface avec le Raspberry Pi, limitée à une seule ligne. De plus, le kit AI utilisant la seule ligne PCIe externe disponible, il ne sera plus possible d’utiliser un SSD M.2 par exemple.

Une intégration logicielle déjà prête

Quoi qu’il en soit, ce kit « vous permet de créer rapidement des applications complexes de vision par IA, fonctionnant en temps réel, avec de faibles latences et besoins en énergie », explique le fabricant. Un atout de taille est d’ailleurs « l’intégration complète avec le sous-système de gestion des images du Raspberry Pi ».

« Les étapes d’installation du logiciel sont très simples : installez quelques paquets via apt, redémarrez », et c’est tout. Vous pouvez alors « essayer certaines démos d’IA en quelques minutes ». Hailo propose aussi de la documentation et des exemples d’applications sur GitHub.

La fondation ajoute que ce kit est compatible avec les caméras officielles, mais aussi avec celles de ces partenaires. Il est également possible d’utiliser le NPU sur des vidéos déjà enregistrées.

Plusieurs vidéos de présentation ont été mises en ligne :

Intel présente Lunar Lake (CPU, GPU, NPU), lance ses Xeon 6 E-core et Gaudi 3 pour l’IA

J’ai demandé à la Lune…
Un processeur lunaire par Flock

Après NVIDIA et AMD, c’était au tour d’Intel de présenter ses nouveautés lors du Computex. Il y était question de la nouvelle génération de CPU Lunar Lake, des processeurs Xeon 6 (E et P) pour les serveurs et de l’accélérateur Gaudi 3.

Attaquons avec Lunar Lake, la prochaine gamme de processeurs pour les ordinateurs portables. Intel annonce de nouveaux cœurs P-core (pour les performances) et E-core (pour l’efficacité énergétique) : les Lion Cove et Skymont respectivement, gravés par… TSMC.

Avant d’entrer dans le détail, quelques grandes lignes. Le fabricant affirme que la consommation peut baisser « jusqu’à 40 % » par rapport à la génération précédente. D’autres fonctionnalités sont de la partie, notamment la décompression H.266 (VVC), un NPU pour l’IA à 48 TOPS et un iGPU plus performant. Adieu toutefois la possibilité d’augmenter la mémoire vive de sa machine.

Lion Cove (P-core) et Skymont en (E-core)


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Google : des milliers de problèmes concernant des données personnelles entre 2013 et 2018

404 Media a eu accès à une base de données interne à Google répertoriant des problèmes sur des données personnelles entre 2013 et 2018.

Cette base de données fait la liste de tous les incidents que Google a rencontrés sur le traitement de données personnelles.

Le média explique lui-même qu’ « individuellement, les incidents, dont la plupart n’ont pas été rendus publics auparavant, peuvent n’avoir affecté qu’un nombre relativement restreint de personnes, ou ont été résolus rapidement ». Mais il ajoute que, « prise dans son ensemble, la base de données interne montre comment l’une des entreprises les plus puissantes et les plus importantes au monde gère, et souvent mal, une quantité stupéfiante de données personnelles et sensibles sur la vie des gens ».

Et, en effet, 404 Media relève que cette base de données contient des milliers de problèmes reportés en interne par des employés de Google.

La liste va de l’enregistrement de plaques d’immatriculation de voitures par Street View à celui d’un millier de voix d’enfants par un service vocal de Google, en passant par l’accès rendu public pendant un an à un million d’emails d’utilisateurs de Socratic, startup achetée par Google, dans le code source du site lui-même.

404 Media explique que certains incidents sont marqués comme réparés dans la base de données. Dans une sous-liste de 30 éléments envoyée par le média à Google, tous étaient résolus selon l’entreprise.

L’entreprise a aussi répondu au média que « chez Google, les employés peuvent rapidement signaler des problèmes potentiels liés aux produits pour qu’ils soient examinés par les équipes concernées. Lorsqu’un employé soumet un signalement, il suggère le niveau de priorité à l’examinateur. Les rapports obtenus par 404 datent d’il y a plus de six ans et sont des exemples de ces signalements – chacun d’entre eux a été examiné et résolu à l’époque. Dans certains cas, les signalements d’employés se sont avérés ne pas être des problèmes du tout ou étaient des problèmes venant de services tiers ».

La surveillance Windows Recall permet en l’état un pillage des données sensibles

Buffet à volonté

Depuis sa présentation lors de l’annonce des PC Copilot+, la fonction Recall fait beaucoup parler d’elle. Désormais, on sait non seulement qu’elle ne nécessite pas obligatoirement une puce Snapdragon X pour fonctionner, mais que le potentiel de nuisance est élevé.

Windows Recall est une fonction dont l’objectif est de permettre la récupération d’une information vue au cours des trois derniers mois écoulés au moins. Ponctionnant une partie du stockage, elle prend des captures d’écran à intervalles réguliers. Le mécanisme analyse le contenu de ces images (OCR) pour en extraire des informations.

En utilisant Recall, via une requête en langage naturel, on peut ainsi retrouver des éléments de conversation, une page visitée, un document sur lequel on travaillait et ainsi de suite. La réponse est fournie avec le contexte et la capture correspondante.

Quelques jours après l’annonce, Microsoft a publié une page résumant les attributs de Recall. On y trouvait notamment des éléments de réponse à plusieurs questions évidentes. C’était le cas de la vie privée, l’entreprise précisant que tout était calculé localement et qu’aucune capture n’était transférée à ses serveurs.

Cela ne changeait rien au danger inhérent d’un réservoir aussi important de données sensibles, comme nous l’indiquions alors. Et la situation est loin d’être aussi idyllique que Microsoft la présente, surtout pour une fonction activée par défaut (opt-out). Mais ce point pourrait changer.

Recall n’est pas forcément une spécificité des PC Copilot+


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Mozilla lance son fonds Builders, l’IA locale ouvre le bal

Logo de la fondation Mozilla

La fondation a présenté hier son accélérateur Mozilla Builders, destiné à « donner aux ingénieurs indépendants en IA et en apprentissage automatique les ressources et le soutien dont ils ont besoin pour prospérer ».

Le premier thème de ce programme est l’IA locale, donc pouvant fonctionner directement sur les appareils des utilisateurs, sans passer par des serveurs. Mozilla évoque les multiples avantages : confidentialité, contrôle, rentabilité ou encore fiabilité. Le potentiel de puissance n’est pas comparable, mais Mozilla n’aborde pas ce point.

Les programmes sélectionnés pourront recevoir un financement jusqu’à 100 000 dollars. En outre, les participants « s’engageront dans un programme structuré de 12 semaines axé sur les phases de conception, de construction et de test de leurs projets, suivi d’une phase d’accompagnement par les anciens étudiants ».

Ce programme aura également des sessions de formations, des ateliers guidés et des travaux pratiques. Les différents canaux de communication de Mozilla pourront être mis à contribution pour présenter les projets. Les participants pourront aussi participer à des évènements et organiser une journée de démonstration.

☕️ Nouvelle vague de licenciements chez Microsoft, HoloLens et Azure touchés

Microsoft a annoncé hier de nouveaux licenciements. 1 000 personnes vont devoir quitter l’entreprise. Selon CNBC, la division Mixed Reality est touchée. Selon Business Insider, des départs sont également à signaler dans Azure for Operators and Mission Engineering.

« Plus tôt dans la journée, nous avons annoncé une restructuration de l’organisation Microsoft Mixed Reality. Nous restons pleinement engagés dans le programme IVAS du ministère de la Défense et continuerons à fournir une technologie de pointe pour soutenir nos soldats », a confirmé Microsoft à The Verge.

Cette restructuration n’est pas une surprise. La plateforme Mixed Reality avait été créée aux débuts de Windows 10, mais n’a jamais rencontré le succès escompté. L’entreprise avait annoncé son abandon en décembre dernier.

Le HoloLens 2 continuera cependant d’être vendu et de recevoir du support technique. Le système Windows Holographic a d’ailleurs reçu sa mise à jour 24H1 il y a quelques semaines. Pour rappel, le casque HoloLens 2 est toujours testé par le ministère américain de la Défense pour une utilisation sur le terrain.

☕️ Microsoft va investir 3 milliards d’euros dans le cloud et l’IA en Suède

Dans le cadre de cet investissement, la société va déployer pas moins de 20 000 GPU dans trois datacenters où elle est déjà présente : Sandviken, Gävle et Staffanstorp, comme le rapporte Reuters. Des puces NVIDIA sont évidemment au programme, mais également d’AMD et des modèles maison, ajoutent nos confrères.

Ils rappellent que Microsoft a récemment annoncé des investissements au Royaume-Uni, en Allemagne, en Espagne et en France. Dans l’Hexagone, il est question de 4 milliards d’euros d’investissement « au service de l’intelligence artificielle ».

« L’entreprise prévoit de former 250 000 Suédois dans l’IA » dans tous les secteurs (privés, écoles…). Elle prévoit aussi d’investir « dans les énergies renouvelables et a acheté près de 1 000 MW d’énergie renouvelable en Suède ».

« Vous verrez d’autres annonces, probablement plus à l’automne », a ajouté le président de Microsoft, Brad Smith.

☕️ Stockage, IA : le Français Kalray et l’Israélien Pliops veulent fusionner

Via un communiqué commun, les deux entreprises annoncent « être entrées en négociation exclusive en vue d’un rapprochement […] par voie d’apport des actions de Pliops à Kalray ».

Le partage donnerait aux actionnaires de Kalray 65 % du capital du nouvel ensemble et 35 % pour ceux de Pliops. Le contrat prévoit « une possibilité de monter à 40 % pour Pliops, contre 60 % pour Kalray, en cas de réalisation d’objectifs stratégiques prédéfinis ».

Pliops se définit comme une société « spécialisée dans le développement de technologies avancées et de solutions d’accélération pour les serveurs de stockage et l’IA dans les data centers ». Chez Kalray, il est question de « technologies matérielles et logicielles dédiées à la gestion et au traitement intensif des données du Cloud au Edge ».

But de l’opération : « devenir le leader mondial des solutions d’accélération de données pour le stockage et les GPU d’IA », selon Eric Baissus, président du directoire de Kalray. Ido Bukspan, CEO de Pliops, parle aussi de devenir « un leader mondial » et ajoute que cette fusion permettrait d’accélérer la mise sur le marché de sa solution, « avec un nouveau paradigme de stockage pour les solutions d’accélération de données d’IA ».

Cette fusion apporterait de nouvelles opportunités commerciales, avec une présence renforcée en Europe et en Chine, mais aussi aux États-Unis avec l’intégration des « hyperscalers » pour renforcer « la portée et l’influence du groupe ».

Rien n’est encore fait pour autant, il faut attendre les approbations des autorités compétentes, la consultation du comité social et économique de Kalray et l’approbation des assemblées générales des actionnaires des deux entreprises.

Les discussions sont dans une phase « avancée avec une période d’exclusivité conclue jusqu’à mi-juillet 2024 ».

Kalray a pour rappel récemment lancé sa carte Turbocard4 avec quatre DPU (Data Processing Unit) maison Coolidge 2. Elle est « conçue pour assurer aux clients la possibilité de fusionner des technologies de traitement classiques et de traitement basés sur l’IA, un enjeu majeur pour bâtir les applications IA les plus exigeantes ». La société mettait en avant son côté « made in France ».

AMD : Zen 5 à tous les étages (Ryzen AI, 9000, Epyc), roadmap des GPU Instinct jusqu’en 2026

Instinct de survie

Après NVIDIA, c’est au tour d’AMD de présenter ses nouveautés. Cette fois-ci, le mot d’ordre est Zen 5, avec les processeurs Ryzen 9000 et Epyc de 5ᵉ génération, ainsi que les Ryzen AI 300 pour des portables Copilot+. AMD dévoile aussi sa feuille de route jusqu’en 2026 sur les GPU Instinct pour entrainer les IA, à commencer par le MI325X cette année, avec 288 Go de HBM3e.

On attaque tout de suite avec les processeurs grand public. AMD a présenté deux nouvelles gammes de CPU Ryzen exploitant la nouvelle architecture : les AI 300 pour des PC portables « Copilot+ » ainsi que les Ryzen 9000 pour les ordinateurs de bureau.

Zen 5 : circulez, il n’y a (presque) rien à voir

Tous deux profitent de la nouvelle architecture Zen 5, avec « 50 % de mémoire cache L3 sur puce supplémentaire par rapport aux processeurs Zen 4 de la génération précédente pour les portables fins et légers ».

Si le Computex est l’occasion d’annoncer les premiers processeurs Zen 5, AMD ne donne pas vraiment de détail sur cette nouvelle architecture. Comme on peut le voir sur les captures ci-dessous, il est notamment question d’une meilleure prédiction de branche, d’une bande passante améliorée entre les différents niveaux de cache et de meilleures performances avec le jeu d’instructions AVX-512.

Dans sa présentation sur les ordinateurs de bureau (Ryzen 9000), AMD annonce que Zen 5 propose « des performances moyennes sur l’IPC [instructions par cycle d’horloge, ndlr] de 16 % supérieures à celles de la génération précédente Zen 4 ». On grimpe jusqu’à 35 % sur Geekbench 5.4 et on dépasse les 20 % sur League of Legends et Blender (toujours sur l’IPC seulement).

Ryzen AI 300 pour des ordinateurs portables Copilot+


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Ticketmaster : une fuite de données de 560 millions d’utilisateurs

Hacked out

La semaine dernière, le groupe de pirates ShinyHunters a revendiqué la récupération de données de 560 millions d’utilisateurs de Ticketmaster. Vendredi, le leader mondial de la vente de billets a confirmé auprès des autorités américaines avoir été victime d’une « activité non autorisée ».

Mardi 28 mai, le média Hackread a repéré l’annonce du piratage des données de Ticketmaster par le groupe ShinyHunters. Celui-ci revendiquait avoir récupéré les données de 560 millions d’utilisateurs de la plateforme de vente de billets (1, 3 Téraoctet de données) et proposait de les revendre pour 500 000 dollars.

Dans cette base de données volée se trouveraient, selon ShinyHunters, des données privées comme les noms, prénoms, adresses, emails, numéro de téléphone, les billets et le détail des concerts et autres événements des utilisateurs de Ticketmaster. Mais elle contiendrait aussi des informations partielles sur la carte de paiement utilisée dont les quatre derniers chiffres du numéro de la carte et la date d’expiration.

Confirmation à la SEC

Vendredi 31 mai, Live Nation, l’entreprise propriétaire de Ticketmaster, a signalé une fuite de données à la Securities and Exchange Commission (SEC), confirmant ainsi au moins partiellement la revendication de ShinyHunters, explique le Time.

L’entreprise y explique avoir identifié une « activité non autorisée dans un environnement de base de données tiers dans le cloud contenant des données de l’entreprise ». Elle affirme avoir lancé à ce moment-là une enquête avec des spécialistes de la sécurité.

Mais Live Nation ne va pas jusqu’à confirmer l’authenticité des données mises en ventes par ShinyHunters : « le 27 mai 2024, un acteur criminel a mis en vente sur le dark web ce qu’il prétendait être des données d’utilisateurs de l’entreprise. Nous nous efforçons de réduire les risques pour nos utilisateurs et pour l’entreprise, et nous avons informé les forces de l’ordre et coopérons avec elles », déclare-t-elle aux autorités américaines.

Live Nation ose même expliquer à la SEC qu’ « à la date du présent document, l’incident n’a pas eu, et nous ne pensons pas qu’il soit raisonnablement susceptible d’avoir, un impact significatif sur l’ensemble de nos activités, notre situation financière ou nos résultats d’exploitation. Nous continuons à évaluer les risques et nos efforts de remédiation sont en cours ».

Si la fuite est d’ampleur aussi importante que ce que revendique ShinyHunters, elle pourrait tout de même avoir des conséquences significatives pour Ticketmaster et Live Nation.

Ticketmaster en position de monopole

D’autant qu’elle arrive alors que le ministère de la Justice américain vient de les attaquer en justice mardi 23 mai dernier, les accusant d’avoir créé un monopole sur la vente de tickets en ligne.

« Du fait de leur comportement, les fans de musique aux États-Unis sont privés de l’innovation en matière de billetterie et contraints d’utiliser une technologie dépassée tout en payant leurs billets plus cher que les fans d’autres pays », explique le communiqué du ministère :

« Dans le même temps, Live Nation-Ticketmaster exerce son pouvoir sur les artistes, les salles et les promoteurs indépendants d’une manière qui nuit à la concurrence. Live Nation-Ticketmaster impose également des barrières à la concurrence qui limitent l’entrée et l’expansion de ses rivaux. »

La plainte du ministère affirme qu’aux États-Unis, « en 2022, Ticketmaster représentait au moins 70 % de la valeur faciale totale associée à tous les billets vendus dans les grandes arènes et amphithéâtres. Aucun autre concurrent n’a vendu plus de 14 % des billets ».

Enquête en cours en Australie

Concernant le piratage de Ticketmaster, une enquête a déjà été lancée en Australie dès le mercredi 29 mai, expliquait le site Cyberdaily. Elle rejoint les nombreuses enquêtes internationales sur le groupe ShinyHunters.

En août 2022, trois français avaient été accusés par le FBI de faire partie de ce groupe. L’un d’eux, Sébastien Raoult, extradé aux États-Unis depuis le Maroc, a été condamné en janvier dernier à trois ans de prison et à rembourser cinq millions de dollars (4,5 millions d’euros) aux sociétés victimes.

Européennes : les dons des Big Tech favorisent les candidats libéraux

Follow the money
Drapeaux de l’Union européenne

En amont des élections législatives européennes, les géants numériques financent les partis libéraux.

Les élections européennes commenceront le 6 juin aux Pays-Bas et se poursuivront jusqu’au 9 juin, mais les géants de la tech sont déjà sur les rangs pour se trouver des soutiens.

Selon les données de l’Autorité pour les partis politiques européens et les fondations politiques européennes, Google, Apple et Microsoft ont tous versé des dons aux principaux think-tanks politiques, voire aux partis politiques européens eux-mêmes. Cumulées, ces dons font de la tech l’industrie qui a le plus contribué en amont des élections parlementaires, relève Politico.

L’alliance des libéraux et démocrates et son think tank, principaux bénéficiaires

Dans le détail, c’est l’Alliance des libéraux et démocrates pour l’Europe (ALDE) et son think tank European Liberal Forum (ELF) qui ont attiré le plus de financement. Microsoft et Qualcomm (via sa branche française) ont respectivement versé 18 000 euros, soit le maximum légal, à l’ALDE. L’ELF a reçu 5 000 euros supplémentaires de Microsoft et 18 000 euros d’Apple et de la branche irlandaise de Google respectivement.

Autre bénéficiaire : le Wilfried Martens Centre du Parti populaire européen (PPE) a reçu 8 000 euros de la branche belge de Google ainsi que d’Intel et d’Apple.

Lobbying par financement

Si ces dons sont parfaitement légaux, ils restent une manière d’influencer le champ politique européen. Divers travaux, dont l’ouvrage The Misinformation Age de Cailin O’Connor et James Weatherall (Yale University, 2019), ont souligné à répétition la propension des grandes entreprises en général – et des géants du numérique en particulier – à influencer la recherche académique et les décisions politiques par la simple orientation de leurs moyens financiers.

Une autre manière de faire, toujours en s’aidant de fonds, consiste à utiliser des relais locaux. En mars, l’association Corporate Europe Observatory regrettait ainsi publiquement que des start-ups européennes comme Mistral AI ou Aleph Alpha aient, chacune, œuvré pour orienter la rédaction de l’AI Act en faveur des intérêts des géants états-uniens.

En amont des élections parlementaires européennes, Corporate Europe Observatory a d’ailleurs publié un guide à destination des candidats aux européennes pour les aider à identifier et manœuvrer le lobbying des grandes entreprises.

[Édito] IA : il nous faut un traitement plus nuancé

IA quoi ?

Alors que la machine médiatique participe à amplifier le buzz autour de l’intelligence artificielle, Next se demande comment traiter le sujet à sa juste mesure.

Mise à jour du 4 juin 2024 : ajout de la mention de Shaping AI

Comment parler correctement d’intelligence artificielle ? Il y a quelques semaines, auprès de la BBC, le professeur d’intelligence artificielle à la Liverpool Hope University David Reid déclarait : « je situerais la couverture médiatique de l’IA quelque part autour de 2 sur 10 ». Sa critique principale : le monde médiatique parle du champ comme d’une entité unique, alors qu’il ne l’est pas. Et d’appeler à une couverture plus nuancée.

La critique n’est ni neuve, ni cantonnée au monde britannique. À en croire Emily Bell, directrice du Tow Center for Digital Journalism de l’Université de Columbia, aux États-Unis, elle peut même s’expliquer par l’accélération du cycle de l’actualité, qui rend plus complexe, encore, la couverture de l’explosion de l’IA générative que ne l’a été celle de l’explosion d’internet en 2000 ou celle des smartphones en 2007.

Quoi qu’il en soit, les chiffres sont là : au Royaume-Uni, 60 % des articles relatifs à l’intelligence artificielle concernaient en 2018 des produits, des initiatives et des annonces de l’industrie technologiques. 33 % des sources identifiables venaient du secteur privé, soit deux fois plus que celles issues du monde académique. Pour certains chercheurs cités par le Reuters Institue, une partie du traitement du domaine s’apparente carrément à une « épidémie de mésinformation », dans laquelle les médias se contentent d’amplifier un buzz alimenté par les constructeurs.

La problématique se traduit, aussi, dans le type de sources relevées dans les articles de presse tech comme généralistes : dans l’ultra-majorité des cas, il s’agit d’une poignée d’informaticiens, d’entrepreneurs et de politiciens aux positions quasi unanimes, en faveur du développement et du déploiement de ces technologies.

Sauf qu’au Canada comme ailleurs, les liens entre intérêts universitaires, industriels et politiques, en matière d’IA, sont finement intriqués, les premiers cherchant financement chez les deux autres, qui interagissent par ailleurs pour la création d’un écosystème favorable à la promotion de l’IA. Ce qu’il manque, dans tout cela, ce sont les voix de ceux qui s’intéressent au reste, aux externalités sociales, environnementales, aux effets concrets et présents de l’expansion de cette industrie.

Côté francophone, on trouve des chiffres sur le succès médiatique du champ technologique : depuis 2022, selon la plateforme de veille Tagaday, le volume d’articles relatifs à l’IA a été multiplié par trois, sachant qu’au 1er trimestre 2023, un article sur 100 était consacré au sujet. Selon l’entreprise, une telle visibilité médiatique a quelque chose de comparable… « au conflit Israël – Hamas ». Si bien qu’entre 70 % et 80 % de la population interrogée par le Reuters Institute dans six pays (dont la France) a entendu parler de l‘IA générative… alors qu’à peine 15 % des Français utilisent un outil comme ChatGPT au moins une fois par mois.

Sur un corpus d’articles de presse produits sur dix ans, entre 2011 et 2021, le projet Shaping AI du médialab de SciencesPo relève 19,05 % d’articles « associés à un discours de promesse technologique » et 9,5 % « associés à un discours critique ou de menace lié à ces technologies ». En éliminant les articles catégorisés « neutres », l’équipe de recherche constate une constante de deux tiers d’articles optimistes pour un tiers d’articles critiques. Un nombre croissant d’articles se penchent aussi sur le casse-tête que l’intelligence artificielle, générative ou non, pose dans les rédactions (pour, contre, ou les deux ? Quels types de modèles ? Pour quels types d’usages ? De la modération ? De l’enquête ? Du bâtonnage de dépêche chiffrée ?). Quant à Tagaday , sur les plus de 162 000 articles ou sujets audiovisuels analysés, elle rapporte une surreprésentation très nette de ChatGPT parmi les noms de modèles génératifs évoqués.

En 2023, nous revenions aussi sur le travail des sociologues Anne Bellon et Julia Velkovska, qui rapportait une évolution globale du traitement de l’IA en France (moins d’utilisation du terme « robot » à partir de 2016, plus d’occurrence de l’expression « IA » depuis). Comme d’autres, elles soulignent qu’une petite poignée de personnalités (Yann Le Cun, Ray Kurzweil ou, plus franco-français, Cédric Villani) est très largement citée, dont certains présentent une expertise débattue. Ainsi de Stephen Hawking, qui n’était pas expert de l’IA, et surtout de Laurent Alexandre, cinquième personnalité la plus présente dans leur corpus.

Les enjeux sont multiples, pourtant, et les seuls représentants de l’industrie numérique ne permettront pas de les décortiquer avec la nuance nécessaire. Il y a à peine six mois, ces leaders appelaient eux-mêmes à une pause dans le développement de l’IA. De pause, il n’y a pas eu. À la place, pointe la journaliste Julia Angwin, nous voilà aux prises avec des technologies génératives instables, qui inondent le web de contenus de faible qualité, mais peinent à prouver leur utilité.

Ça n’est pas la première fois que le monde médiatique se fait avoir par les promesses délirantes des industriels de la tech. Avons-nous seulement appris du passé ? De la bulle internet ? De celle des cryptos ? Du métavers ?

Il ne s’agit pas de tout jeter. Les technologies déployées par le champ de l’intelligence artificielle sont multiples, pour certaines anciennes, et sont là pour rester. Il s’agit de reconnaître, en revanche, que les questions auxquelles il nous faut chercher des réponses sont multiples.

Sur les modèles eux-mêmes, pour commencer : GPT-4 a-t-il réellement réussi haut la main l’examen du barreau, comme le clamait OpenAI en mars 2023 ? Un réexamen du chercheur Eric Martínez laisse penser qu’il s’est plutôt trompé pour une question sur deux. Quid de la capacité de ces modèles à répondre à des questions simples ? En contexte médical, une étude de Stanford montre que si un médecin sur dix utilise déjà ChatGPT au quotidien aux États-Unis, le grand modèle de langage produit trop d’erreurs pour être utilisable.

Les cadrages économiques aussi demandent de la nuance : quand Emmanuel Macron promeut l’intelligence artificielle en France, quelles mesures proposent-ils concernant les emplois qui seront touchés, forcés à muter ? Quelle évolution des cadres de travail, outre la réduction de l’assurance-chômage ?

Dans un autre domaine, la conférence Vivatech fait le plein de tables rondes sur les intérêts du nucléaire. Le président de la République joue, lui aussi, de cet argument pour attirer les géants numériques. Et c’est vrai, l’électricité française peut se targuer d’être peu carbonée.

Mais quid des autres effets du numérique sur l’environnement ? Sur quels terrains seront construits les data centers ? Avec quelle eau les refroidira-t-on ? En cas de canicule, comment l’arbitrage entre les usages des entreprises et ceux des citoyens sera-t-il organisé ?

Chez Next, on essaie d’aborder l’intelligence artificielle en gardant ce type de questions en tête. On s’interroge aussi sur l’utilité des technologies que l’on croise avant de s’y attarder. Notre problème, évidemment, est qu’il est matériellement impossible de traiter la totalité des applications concrètes de l’IA. Chaque jour, il nous faut donc faire des choix.

Et vous, comment voudriez-vous entendre parler d’intelligence artificielle ?

☕️ Investissements dans l’IA : l’Union européenne à la traîne, faute de suivi

Malgré d’importants travaux pour faciliter le développement de l’intelligence artificielle, l’Union européenne reste à la traîne sur la scène mondiale avec des investissements inférieurs à ceux des États-Unis et de la Chine, selon un rapport de la Cour des Comptes européenne.


Quand bien même des mesures ont été prises pour développer un écosystème d’IA au tournant des années 2020, l’entité souligne un manque d’outils de gouvernance et de suivi des objectifs d’investissements comme de leurs résultats.

Elle appelle à des actions mieux ciblées, pour que les dépenses réalisées par l’Union européenne donnent un réel coup d’accélérateur au milieu.

☕️ Hugging Face : la sécurité de certains « espaces » compromise

La semaine dernière, la plateforme d’hébergement spécialisée dans le machine learning a détecté des « accès non autorisés » à des « Spaces », nom donné aux espaces utilisateurs sur Hugging Face.

Dans un billet publié vendredi soir, la startup franco-américaine soupçonne que ces intrusions auraient été possibles grâce à la récupération d’un sous-ensemble de secrets. Hugging Face ne donne pas le nombre de secrets touchés. Elle explique avoir révoqué les jetons présents dans ces secrets et informé les utilisateurs concernés.

Hugging Face recommande d’actualiser toute clé ou jeton. Elle pousse aussi ses utilisateurs à envisager de remplacer les jetons Hugging Face par des jetons d’accès à granularité fine (« fine-grained tokens ») mis en place sur la plateforme depuis un mois. L’entreprise a mis en ligne un petit tuto vidéo pour montrer comment créer un « fine-grained tokens » :

Interrogée par TechCrunch, Hugging Face a répondu : « nous avons vu le nombre de cyberattaques augmenter considérablement au cours des derniers mois, probablement parce que l’utilisation de nos services a augmenté de manière significative et que l’IA devient de plus en plus courante. Il est techniquement difficile de savoir combien de secrets d’espaces ont été compromis ».

NVIDIA : IA, IA, GPU Rubin, IA, IA, SFF-Ready, IA, IA…

Huang et Macron sont-ils une seule et même personne ?

La conférence de NVIDIA au Computex était évidemment tournée vers l’IA : « nous sommes à l’aube d’un changement majeur dans l’informatique », déclare le patron de l’entreprise Jensen Huang. « L’intersection de l’IA et de l’informatique accélérée est sur le point de redéfinir l’avenir ».

L’IA est partout : dans les cartes graphiques, les datacenters, les portables, les jeux, les applications… Bref, partout et pour tous, exactement comme le veut Emmanuel Macron.

Mais NVIDIA n’oublie pas (complètement) la partie hardware. S’il n’y a pas de grosses annonces, le patron de l’entreprise donne des détails sur la feuille de route des prochaines années, avec la prochaine génération de GPU pour les datacenters et l’IA. Il en profite aussi pour venir jouer les arbitres dans le domaine des mini-PC et de la compatibilité entre cartes graphiques et boîtiers.

Blackwell : voici GB200 NVL2, avec 2 CPU et 2 GPU


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Ubuntu 24.04 a désormais son noyau temps réel

Fond d'écran par défaut d'Ubuntu 24.04

La dernière mouture LTS (Long Term Support) d’Ubuntu a reçu il y a quelques jours son noyau « temps réel », qui « réduit la latence par rapport à Linux principal et améliore la capacité du système à gérer efficacement les opérations urgentes ».

Comme Ubuntu 22.04 avant elle, ce nouveau noyau Linux est réservé aux personnes inscrites à Ubuntu Pro, gratuit pour une utilisation personnelle ou commerciale si limitée à cinq appareils.

Ce noyau particulier est basé sur la version 6.8 et y ajoute notamment les modifications PREEMPT_RT pour les architectures AMD64 et ARM64. Il contient également des optimisations pour le matériel Raspberry Pi.

« Avec des réponses limitées dans le temps pour les exigences de latence critiques, Real-time Ubuntu 24.04 LTS fournit un traitement déterministe aux charges de travail les plus exigeantes dans tous les secteurs, de la fabrication à l’automobile en passant par l’infrastructure critique des opérateurs télécoms », indique Canonical.

Si vous bénéficiez de l’abonnement Ubuntu Pro, il suffit d’exécuter une commande pour activer le nouveau noyau :

pro attach pro enable realtime-kernel

Si vous souhaitez l’activer sur un Raspberry Pi, il faudra ajouter « –variant=raspi » à cette même commande.

Notez que ce noyau est conçu pour des besoins spécifiques. Il n’est pas utile pour un usage standard.

❌