La fuite évitée du carnet d'adresse du monde entier
Des chercheurs en sécurité autrichiens ont identifié et pu exploiter une faille de sécurité dans WhatsApp leur permettant de récupérer des informations personnelles liées à 3,5 milliards de numéros via l’API XMPP de l’application. Informée de la possibilité d’une faille en septembre 2024, l’entreprise a mis plus d’un an à leur répondre et à y remédier.
Quand on ajoute un contact dans WhatsApp, on se rend compte rapidement que l’application permet, avec juste le numéro de téléphone, de connaitre le nom de la personne liée ainsi que sa photo de profil. Jusque là, rien de nouveau même si ça pose des questions de confidentialité des données. Mais Gabriel K. Gegenhuber, chercheur en sécurité à l’université de Vienne, et ses collègues se sont aperçus qu’il était possible d’automatiser massivement cette récupération d’information jusqu’à obtenir une base de données de plus de 3,5 milliards de profils avec au moins le nom associé au numéro.
56,7 % de ces comptes avaient des photos de profils associées et les chercheurs ont donc pu les récupérer. De la même façon, ils ont pu connaître le « statut » de 29,3 % des utilisateurs qui l’avaient rempli et savoir que 9 % étaient des profils « business ». Leur accès leur a permis de constater que 8,8 % des profils WhatsApp utilisaient le mode « compagnon » qui permet d’utiliser l’application sur plusieurs appareils. Enfin, les chercheurs soulignent qu’ils ont pu récupérer des informations d’utilisateurs situés en Birmanie, en Chine et en Corée du Nord, « où WhatsApp est officiellement interdit et où les utilisateurs s’exposent à de lourdes sanctions s’ils l’utilisent ».
WhatsApp a échappé à la « plus grande fuite de données de l’histoire »
Dans leur article (mis en ligne sur GitHub et accepté à la conférence scientifique Network and Distributed System Security, ou NDSS, qui se déroulera en février 2026), les chercheurs affichent d’emblée qu’avec ces 3,5 milliards de comptes actifs concernés, leur découverte aurait été « la plus grande fuite de données de l’histoire, si elle n’avait pas été collectée dans le cadre d’une étude menée de manière responsable ».
Il reste 81% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Thibaut vous parlait ce matin du teasing fait par Noctua ce lundi 17 novembre, annonçant le lancement proche du NH-D15 G2 chromax.black. L'attente aura été extrêmement courte puisque l'énorme ventirad de Noctua est déjà là en ce mercredi 19 novembre ! Il n'est de plus pas seul, puisque la firme l'ac...
Il semblerait qu'il soit toujours possible de profiter du FSR4 sur les cartes graphiques Radeon RX 6000, comme le relaie Computerbase.
Pour ce faire, une "petite" manipulation est à effectuer, avec un mix entre les derniers drivers d'AMD et la version 23.9.1 datant de septembre 2023. […]
Philips continue sur sa lancée avec ses écrans équipés de l'Ambiglow, un système d'éclairage positionné à l'arrière de la dalle permettant de projeter différentes couleurs sur le mur en fonction du contenu affiché, tout en reposant les yeux. […]
Sur la scène de l’Unite 25 à Barcelone, Unity et Epic Games ont scellé une collaboration. Ses ressorts sont exposés dans un communiqué dont le titre annonce la couleur : Unity and Epic Games Together Advance the Open, Interoperable Future for Video Gaming... [Tout lire]
Anthropic, Microsoft et NVIDIA ont annoncé ce 18 novembre un nouvel accord tripartite d’investissements croisés, avec différents engagements.
Les investissements circulaires dans le monde de l’intelligence artificielle générative continuent de plus belle, avec comme acteur permanent NVIDIA et ses GPU dont la tech ne se passe décidément plus. Les deux nouveaux partenaires sont cette fois Anthropic et Microsoft, avec des engagements sur l’utilisation de services, la fourniture de capacités de calcul et ainsi de suite.
L’accord, officialisé le 18 novembre, débloque de nombreuses possibilités pour Anthropic et Microsoft. Il débute par un investissement de 15 milliards de dollars dans Anthropic, NVIDIA injectant 10 milliards et Microsoft les 5 milliards restants.
En contrepartie, Anthropic s’engage à acheter des services cloud à Microsoft (via Azure) à hauteur de 30 milliards d’euros. Sans surprise, l’accord vise à fournir les capacités de calcul nécessaires au développement des prochains modèles Claude d’Anthropic. La startup indique d’ailleurs qu’elle accèdera ainsi à « une capacité de calcul supplémentaire jusqu’à un gigawatt ». On ne sait pas grand-chose de plus, sinon que cette capacité passera par des systèmes Grace Blackwell et Vera Rubin, comme chez pratiquement tous les concurrents.
Dans un billet, Anthropic indique également avoir établi « pour la première fois » un partenariat technologique avec NVIDIA. Les deux entreprises vont collaborer « sur la conception et l’ingénierie, dans le but d’optimiser les modèles Anthropic pour les meilleures performances, efficacité et TCO [coût total de possession, ndlr] possibles, et d’optimiser les futures architectures NVIDIA pour les charges de travail Anthropic ».
Même le PDG de NVIDIA, Jensen Huang, semble extatique dans la vidéo de l’annonce : « C’est un rêve devenu réalité pour nous. Vous savez, nous admirons le travail d’Anthropic et Dario [Amodei, CEO d’Anthropic, ndlr] depuis longtemps, et c’est la première fois que nous allons nous associer profondément à Anthropic pour accélérer Claude ».
Les modèles Claude débarquent en force chez Microsoft
Les liens entre Anthropic et Microsoft se renforcent aussi nettement. Les modèles Claude Sonnet 4.5, Sonnet 4.1 et Haiku 4.5 déboulent dans presque tous les produits Microsoft, et pas uniquement à destination des développeurs. On les retrouve ainsi dans Microsoft Foundry et dans toutes les déclinaisons de la gamme Copilot, par exemple GitHub et Microsoft 365. Pour la clientèle, cela signifie donc la possibilité d’utiliser les modèles Claude plutôt que GPT.
En dépit de cette annonce importante, Anthropic précise en fin de billet qu’Amazon reste son « principal fournisseur cloud et partenaire de formation ».
Si les investissements circulaires sont nombreux depuis plusieurs semaines, avec toujours NVIDIA au centre de la toile (même si AMD commence à se manifester un peu plus), on observe désormais une volonté de réduire la dépendance à OpenAI et une renégociation des exclusivités, comme dans le cas d’OpenAI avec Microsoft. L’accord avec Anthropic était attendu, car il s’agissait d’une conséquence évidente à l’indépendance d’OpenAI. Une approche multi-modèles qui assure de ne pas mettre tous ses œufs dans le même panier, même si les milliards de dollars investis concernent toujours la même petite poignée de sociétés.
Pour OpenAI, cela signifie également qu’Anthropic est confirmé dans sa position de concurrent direct, même si le lancement de Gemini 3 Pro pourrait rebattre les cartes. Avec 800 millions d’utilisateurs, ChatGPT reste cependant en tête. En attendant, les modèles Claude sont maintenant disponibles chez les trois grands fournisseurs de solutions cloud : AWS, Microsoft Azure et Google Cloud Platform.
Anthropic, Microsoft et NVIDIA ont annoncé ce 18 novembre un nouvel accord tripartite d’investissements croisés, avec différents engagements.
Les investissements circulaires dans le monde de l’intelligence artificielle générative continuent de plus belle, avec comme acteur permanent NVIDIA et ses GPU dont la tech ne se passe décidément plus. Les deux nouveaux partenaires sont cette fois Anthropic et Microsoft, avec des engagements sur l’utilisation de services, la fourniture de capacités de calcul et ainsi de suite.
L’accord, officialisé le 18 novembre, débloque de nombreuses possibilités pour Anthropic et Microsoft. Il débute par un investissement de 15 milliards de dollars dans Anthropic, NVIDIA injectant 10 milliards et Microsoft les 5 milliards restants.
En contrepartie, Anthropic s’engage à acheter des services cloud à Microsoft (via Azure) à hauteur de 30 milliards d’euros. Sans surprise, l’accord vise à fournir les capacités de calcul nécessaires au développement des prochains modèles Claude d’Anthropic. La startup indique d’ailleurs qu’elle accèdera ainsi à « une capacité de calcul supplémentaire jusqu’à un gigawatt ». On ne sait pas grand-chose de plus, sinon que cette capacité passera par des systèmes Grace Blackwell et Vera Rubin, comme chez pratiquement tous les concurrents.
Dans un billet, Anthropic indique également avoir établi « pour la première fois » un partenariat technologique avec NVIDIA. Les deux entreprises vont collaborer « sur la conception et l’ingénierie, dans le but d’optimiser les modèles Anthropic pour les meilleures performances, efficacité et TCO [coût total de possession, ndlr] possibles, et d’optimiser les futures architectures NVIDIA pour les charges de travail Anthropic ».
Même le PDG de NVIDIA, Jensen Huang, semble extatique dans la vidéo de l’annonce : « C’est un rêve devenu réalité pour nous. Vous savez, nous admirons le travail d’Anthropic et Dario [Amodei, CEO d’Anthropic, ndlr] depuis longtemps, et c’est la première fois que nous allons nous associer profondément à Anthropic pour accélérer Claude ».
Les modèles Claude débarquent en force chez Microsoft
Les liens entre Anthropic et Microsoft se renforcent aussi nettement. Les modèles Claude Sonnet 4.5, Sonnet 4.1 et Haiku 4.5 déboulent dans presque tous les produits Microsoft, et pas uniquement à destination des développeurs. On les retrouve ainsi dans Microsoft Foundry et dans toutes les déclinaisons de la gamme Copilot, par exemple GitHub et Microsoft 365. Pour la clientèle, cela signifie donc la possibilité d’utiliser les modèles Claude plutôt que GPT.
En dépit de cette annonce importante, Anthropic précise en fin de billet qu’Amazon reste son « principal fournisseur cloud et partenaire de formation ».
Si les investissements circulaires sont nombreux depuis plusieurs semaines, avec toujours NVIDIA au centre de la toile (même si AMD commence à se manifester un peu plus), on observe désormais une volonté de réduire la dépendance à OpenAI et une renégociation des exclusivités, comme dans le cas d’OpenAI avec Microsoft. L’accord avec Anthropic était attendu, car il s’agissait d’une conséquence évidente à l’indépendance d’OpenAI. Une approche multi-modèles qui assure de ne pas mettre tous ses œufs dans le même panier, même si les milliards de dollars investis concernent toujours la même petite poignée de sociétés.
Pour OpenAI, cela signifie également qu’Anthropic est confirmé dans sa position de concurrent direct, même si le lancement de Gemini 3 Pro pourrait rebattre les cartes. Avec 800 millions d’utilisateurs, ChatGPT reste cependant en tête. En attendant, les modèles Claude sont maintenant disponibles chez les trois grands fournisseurs de solutions cloud : AWS, Microsoft Azure et Google Cloud Platform.
Jusqu'à présent, les noms des processeurs refresh d'Arrow Lake étaient des noms sortis souvent sur X, mais rien de concret ou de fiable. AIDA64 a lancé la bêta de son logiciel indiscret estampillée 8.00.8026 datée d'hier, et le changelog confirme bien des choses. La première, c'est le support des Xe...
When it comes to GPU virtualization we have seen AMD engineers carry out a lot of work in recent years around the Xen hypervisor even when it hasn't seen as much interest from other vendors. We found out that much of their interest in Xen for GPU virtualization is due to automotive / in-vehicle infotainment demands and it remains that way. They continue cooking some new features and they say "the best is yet to come" in a new presentation on their Xen virtualization efforts...
Alice Ryhl of Google sent out the main set of Rust language code changes for the Direct Rendering Manager (DRM) graphics/display driver subsystem ahead of Linux 6.19. Notable is continued DRM core infrastructure work for Rust plus the open-source NVIDIA "Nova" driver continues taking shape albeit isn't yet ready for end-user usage...
Intel's ISA documentation was updated last week to confirm Nova Lake processors will support AVX10.2 and APX extensions after they were not officially acknowledged in prior versions of the spec and the initial open-source compiler enablement with -march=novalake also left them without those prominent ISA capabilities. Following that documentation update, a few days ago LLVM Clang updated their Nova Lake compiler support for the new ISA capabilities and now the GCC compiler has received similar treatment...
Sent out today was likely the last batch of HID subsystem fixes ahead of the Linux 6.18 kernel releasing as stable around the end of the month. With it are some new device-specific quirks for fixing hardware support for a mouse and keyboard...
Le XeSS Frame Generation fait partie de cette panoplie d’outils lancés par les constructeurs de puces graphiques ces dernières années qui servent à fluidifier les jeux vidéo par IA. Une utilisation plutôt sympathique de l’Intelligence Artificielle qui exploite en local les capacités des circuits modernes.
L’idée de base du XeSS chez Intel comme du DLSS chez Nvidia ou du FSR chez AMD est la même. Les compétences d’IA spécialisées savent aujourd’hui très bien prendre une image en définition classique et l’agrandir pour l’afficher en plus haute définition. C’est fait couramment sur les téléviseurs qui savent ainsi basculer un contenu en définition FullHD pour l’adapter à un écran UltraHD.
Le XeSS exploite le NPU des puces Intel pour arriver à ses fins. Un exemple simple, un jeu est calculé en 960 x 540 pixels par le circuit graphique avant d’être « upscalé » en 1920 x 1080 pixels. Là où la puce graphique afficherait 25 images par seconde en 1920 x 1080 pixels, elle atteint 35 images par seconde en 960 x 540 pixels. L’intérêt est donc simple, pour afficher 30 images par seconde dans un jeu en basse définition, il faut beaucoup moins de puissance de calcul que pour afficher la même fluidité en haute définition. Un ordinateur peut donc utiliser cette technologie XeSS pour afficher un jeu rapidement en basse définition avant que l’IA XeSS se charge de convertir en temps réel le rendu en plus haute définition. Comme les deux éléments sont séparés, que les calculs de rendu en basse définition et les calculs d’IA utilisent des tuyaux différents, l’affichage global est plus fluide.
Cette technologie XeSS était ouverte aux puces mobiles Intel Arrow Lake et Lunar Lake jusqu’à aujourd’hui. Elle existe également pour les circuits graphique Intel indépendants Alchemist et Battlemage. Mais la première génération de processeurs mobiles Intel Ultra, les Meteor Lake, n’y avaient pas encore droit. C’est désormais chose faite et si votre portable ou votre MiniPC embarque une ces puces, vous allez donc pouvoir la tester.
Je vous encourage d’ailleurs à le faire, car les réglages possibles sont assez variés et sur certains titres cela fait toute une différence de basculer en XeSS d’un point de vue jouabilité. On dépasse le nombre d’images seconde minimal pour une session de jeu agréable. N’oubliez pas non plus que le XeSS propose des réglages assez complets avec quatre profils différents de qualité correspondant à quatre « étirements » de l’image : 30%, 50%, 70% et 100% . Plus vous étirez l’image, plus vous gagnez en fluidité mais plus vous dégradez le signal. Augmenter une image de 100% en temps réel aura pour effet de réduire la qualité de celle-ci avec différents artefacts. Cela peut avoir du sens pour certains jeux mais des réglages moins agressifs permettent souvent de composer entre la qualité et la fluidité.
Le XeSS n’est pas automatique !
Attention, la technologie XeSS n’est pas magique. Il faut que les jeux soient compatibles pour que cela fonctionne. Steam propose une liste de plus de 600 titres compatibles Intel XeSS bien mise à jour qui permet de voir l’étendue du catalogue. Une page à mettre en favori si votre minimachine est équipée d’une puce Intel Ultra.
C’est en tout cas un des rares usages de l’IA local qui a véritablement du sens aujourd’hui. C’est notamment une excellente nouvelle pour le marché de seconde main. Les portables Core Ultra Meteor Lake se sont particulièrement bien vendus en entreprises et ne devraient pas tarder à se retrouver bradés en masse chez des revendeurs spécialisés comme AFBshop.
Microsoft a officiellement mis fin au support de Windows 10. Il est donc plus que temps de passer à Windows 11.
Bonne nouvelle : grâce à notre partenaire GVGMALL, pas besoin de vous ruiner pour obtenir une licence authentique, ni d'endurer le fameux message Windows non activé en bas de l'écran. Pourquoi ? Parce que GVGMALL.com propose des clés OEM authentiques à des tarifs ultra-avantageux :
- Windows 11 dès 20 U+20AC
- Licences Office dès 27 U+20AC
Avec le code promo CCVIP, profitez en plus de -30 % de réduction sur vos achats. Et malin : pour économiser quelques euros supplémentaires, vous pouvez aussi acheter une licence Windows 10 puis faire l'upgrade gratuit vers Windows 11 .
Offres spéciales avec le code promo CCVIP
Voici les meilleurs deals disponibles chez GVGMALL :
- Windows 11 Pro OEM Lifetime - 20 U+20AC
- Windows 10 Pro OEM Lifetime - 15 U+20AC
- Windows 11 Home OEM Lifetime - 19 U+20AC
- Windows 10 Home OEM Lifetime - 13 U+20AC
- Microsoft Office 2016 Lifetime - 27 U+20AC
- Microsoft Office 2019 Lifetime - 52 U+20AC
- Windows 10 Enterprise LTSC 2021 - 11 U+20AC
- Windows 10 Pro OEM + Office 2016 - 34 U+20AC
- Windows 10 Pro OEM + Office 2019 - 52 U+20AC
- Windows 11 Home + Office 2021 Pro Plus - 88 U+20AC
- Windows 11 Pro OEM + Office 2021 Pro Plus - 87 U+20AC
[…]
Le Typeframe PX-88 rappellera sans doute aux plus anciens des ordinateurs de la moitié des années 80. Son inspiration principale est une minimachine Espon, le PX-4. Un engin très condensé dans un clavier avec un tout petit écran et une assez généreuse connectique pour l’époque. Pour avoir rencontré un ingénieur ayant travaillé avec ce type d’engin dans les années 80, il m’a confié combien celui-ci avait pu lui faciliter la vie.
Le Espon PX-4, écran rabattu.
Le Typeframe PX-88 écran rabattu
Le Typeframe PX-88 reprend donc une partie de cette esthétique particulière avec, évidemment, des postes remis au goût du jour. Alors que la machine d’Epson est aujourd’hui mise à l’amende par une calculatrice de Lycéen, le CyberDeck est piloté par un Raspberry Pi 4 qui lui offre plus de possibilités.
Mais au delà de sa matière grise, ce qui fait tout l’attrait de cette minimachine, c’est son esthétique. Son petit écran tout en longueur est tactile, profite d’une dalle IPS et se déploie en 1280 x 400 pixels sur 7.9 pouces. Son clavier est de type mécanique avec une taille correspondant à 65% de celle d’un clavier standard. L’auteur a exploité un circuit imprimé commercial MK Point65 monté avec des mécanismes Cherry MX. Une batterie interne de 10 000 mAh en 3.7 v alimente le tout.
L’ensemble de la documentation pour fabriquer son propre Typeframe PX-88 est disponible. L’auteur, un certain Jeff Merrick, propose un site complet et extrêmement bien documenté, pour aider les internautes à construire leur propre minimachine ou s’en inspirer. Au vu de l’esapce libre, il semble possible d’en faire un PC classique avec des cartes mères de MiniPC type Intel N100/N150 qui ont de tailles réduites.
Le Typeframe PX-88 a son petit bouton « Panic »
Tout y passe : les détails techniques pour installer la carte et déporter le bouton de démarrage sur le boitier. L’ajout des LEDs témoins sur le dispositif pour savoir quand le PI 4 est en marche. La manière d’ajouter la batterie et évidemment les fichiers pour réaliser l’impression. Celle-ci est d’ailleurs assez exceptionnelle pour cette réalisation. La finition est superbe et on pourrait croire l’engin sorti d’un moule qui aurait injecté de l’ABS. Le listing des composants est également proposé ainsi que la partie logicielle qui est assez spéciale même si rien ne vous empêche d’en choisir une autre.
Le Typeframe PX-88 a en effet été pensé comme un autre clavier à destination des écrivains facilement distraits par diverses sollicitations. Le système d’exploitation proposé est donc construit pour une interface sobre et coupée de tous réseaux sociaux. Elle sera à même de gérer un traitement de texte dans les nuages comme Google Docs mais sans vous avertir de la décrépitude de vos contemporains.
Que vous soyez séduit par le design de cette minimachine ou simplement curieux, le parcours du site de Jeff est un vrai plaisir. Tout est documenté, bien rangé, photographié et classé. C’est une mine d’or si vous avez envie d’intégrer un circuit de ce type dans un boitier custom. Qu’il s’agisse d’un Rasberry Pi ou d’autre chose, il y a énormément de choses à y apprendre. Si vous avez un projet avec un Pi, les parties logicielles et gestion de l’électronique sont parmi les plus condensées et les mieux documentées que j’ai pu voir depuis un moment. Le tout sur un site sans pub, sans superflu ni autre volonté que le partage. Je tire mon chapeau à l’auteur.
Google a finalement dégainé sa nouvelle famille de LLM, dont le représentant star est Gemini 3 Pro. L’entreprise ne manque pas d’arguments pour propulser son modèle sous les projecteurs. Présenté comme un anti-ChatGPT, Gemini 3 Pro est déjà disponible (presque) partout.
La guerre entre les LLM repart de plus belle avec la nouvelle incarnation de Gemini chez Google. Cette troisième mouture, comme on peut s’y attendre, prend la tête dans tous les benchmarks, avec parfois des marges significatives, en particulier face à GPT-5.1.
Google présente ainsi Gemini 3 Pro comme « une nouvelle étape pour l’intelligence artificielle » et « un autre grand pas vers l’AGI », avec des résultats plus visuels, plus directs et beaucoup moins flatteurs. « Ses réponses sont intelligentes, concises et directes, troquant clichés et flatteries contre une véritable intuition — vous disant ce que vous avez besoin d’entendre, pas seulement ce que vous voulez entendre », déclare Google dans son billet d’annonce.
Google prend la tête du peloton
Gemini 3 Pro affiche des performances d’autant plus intéressantes qu’il se retrouve premier sur nombre de tests face à GPT-5.1 et Claude Sonnet 4.5, et bien sûr face à Gemini 2.5 Pro, largement dépassé par son petit frère.
Google met particulièrement en avant certains résultats car l’écart avec les autres est majeur. Sur Humanity’s Last Exam, qui teste le « raisonnement académique », Gemini 3 Pro affiche un score de 37,5 % sans outils, et de 45,8 % avec la recherche ou l’exécution de code. Des scores très supérieurs à ceux de GPT-5.1 (26,5 %) et surtout de Claude Sonnet 4.5 (13,7 %). Sur ARC-AGI-2, Gemini 3 Pro grimpe à 31,1 %, loin devant GPT-5.1 (17,6 %) et Claude Sonnet 4.5 (13,6 %). Le nouveau LLM affiche également un score de 1 501 points sur LMArena.
La tarification de Gemini 3 Pro est dans la moyenne, avec 2 dollars par million de jetons en entrée et 12 dollars par million de jetons en sortie, mais uniquement pour les requêtes ne dépassant pas 200 000 jetons via l’API Gemini dans Google AI Studio et Vertex AI. Pour les contextes dépassant 200 000 tokens, la tarification passe à 4 dollars en entrée et 18 dollars en sortie par million de jetons.
Google marque également sa différence avec une disponibilité immédiate. Tous les produits intégrant Gemini sont passés hier soir de la version 2.5 Pro à la 3 Pro. Seule exception, les résumés IA dans les résultats de recherche, qui ne seront générés que pour les requêtes « les plus complexes ». Pour le reste, que ce soit dans l’application ou ailleurs, c’est bien le dernier LLM qui est présent, en deux versions.
Deux variantes et des capacités réservées aux comptes payants
Comme chez presque tous les concurrents, Gemini 3 Pro est en effet proposé en version « Rapide » et « Raisonnement ». On s’en doute, le premier donne des résultats plus vite, tandis que le second prend davantage le temps de la « réflexion », augmentant la précision au détriment de la rapidité. Dans le tableau des performances donné par Google, c’est le modèle Thinking qui affiche bien sûr les meilleurs résultats, puisque le modèle contrôle ses réponses au fur et à mesure, dans une démarche devenue typique de raisonnement.
Le modèle Thinking dispose en outre d’une fonction dite de « raisonnement auto-correctif » : il planifie, critique et corrige ses propres réponses avant de les afficher. Selon Google, cette méthode réduit considérablement les hallucinations sur les tâches complexes comme les mathématiques, le code et la logique. L’entreprise vante également sa « multimodalité native fusionnée », ses modèles traitant le texte, l’audio et la vidéo de la même manière, ce qui garantit selon Google une très faible latence dans les conversations vocales notamment.
Crédits : Google
Les deux versions du modèle sont disponibles partout, y compris pour les comptes gratuits. La différence se jouera – comme toujours – sur le nombre de requêtes, le compte gratuit étant rapidement épuisé en Raisonnement, tandis que les formules payantes ont des paliers plus élevés.
En mode raisonnement, les abonnés payants disposent aussi de plusieurs nouveaux modes expérimentaux d’affichage des résultats. Par exemple, le Visual Layout affiche les résultats sous forme de magazine incluant de nombreuses images, que l’on peut faire défiler. Autre possibilité, la Dynamic View, qui utilise les capacités du modèle en développement pour créer des interfaces personnalisées, par exemple une application web pour explorer la vie et l’œuvre d’un(e) artiste.
Google ajoute que Gemini 3 Pro est le premier représentant de la nouvelle famille. Des versions plus réduites arriveront après, mais l’entreprise ne donne aucun calendrier. Ajoutons que Gemini 3 Pro, comme la version 2.5 avant lui, est disponible sous forme de préversion. Là encore, pas d’information sur l’arrivée de la version finale. Dans le cas de Gemini 2.5, il s’était écoulé plusieurs mois.
Google veut frapper fort chez les développeurs
Si Gemini 3 Pro se présente avant tout comme un ChatGPT, notamment avec un ton présenté comme très neutre, Google veut clairement faire tomber Claude de son trône de LLM star chez les développeurs.
Sundar Pichai a ainsi indiqué que le nouveau modèle représentait une nouvelle étape majeure dans le développement agentique. Et pour marquer le coup, la firme lance Antigravity, sa propre solution de développement assisté par IA (vibe coding). Le nouvel outil rassemble sous un même toit une fenêtre de type chatbot, une interface en ligne de commande (bash) et une zone navigateur qui affiche les opérations en cours et l’impact des modifications.
Comme d’autres solutions de type Warp ou Cursor 2.0, Antigravity est clairement un IDE (Integrated Development Environment, que Microsoft s’est amusé récemment à renommer Intelligent Development Environment pour son Visual Studio 2026). Google le présente comme un « centre de contrôle » permettant de surveiller les agents en train de travailler. Toutes les activités sont retransmises aux développeurs par des « Artefacts », des sous-tâches servant à renseigner sur ce qui est fait et devant faciliter la vérification.
Antigravity fonctionne par défaut avec Gemini 3 Pro, mais Google veut rendre son produit « agnostique ». Il prend ainsi en charge Claude Sonnet 4.5 et les agents GPT-OSS. L’entreprise affirme cependant que Gemini 3 Pro est aujourd’hui le meilleur modèle disponible pour le vibe coding.
Le nouveau IDE est disponible pour Windows, macOS et Linux.
Orange prépare un Livebox Store afin de proposer à ses clients des API maison, mais aussi pour permettre à des partenaires d’en publier. Une démonstration avec EDF R&D est présentée pour suivre en direct sa consommation électrique.
Pendant trois jours, Orange organise ses OpenTech 2025, l’occasion pour les équipes du fournisseur d’accès à Internet de présenter ses nouveautés. Nous étions cette année encore sur place. Une des démonstrations tournait sur Prpl OS : un Store d’API pour la Livebox.
Prpl OS se fait encore et toujours attendre
Prpl est un système d’exploitation pour les box Internet développé par une fondation regroupant des opérateurs du monde entier. On y retrouve notamment Orange, Verizon, AT&T, Vodafone ainsi que d’autres entreprises comme Qualcomm et AWS. Cela fait plus d’un an qu’Orange parle de Prpl, avec déjà des démonstrations lors du salon de l’année dernière.
Il reste 89% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Google a finalement dégainé sa nouvelle famille de LLM, dont le représentant star est Gemini 3 Pro. L’entreprise ne manque pas d’arguments pour propulser son modèle sous les projecteurs. Présenté comme un anti-ChatGPT, Gemini 3 Pro est déjà disponible (presque) partout.
La guerre entre les LLM repart de plus belle avec la nouvelle incarnation de Gemini chez Google. Cette troisième mouture, comme on peut s’y attendre, prend la tête dans tous les benchmarks, avec parfois des marges significatives, en particulier face à GPT-5.1.
Google présente ainsi Gemini 3 Pro comme « une nouvelle étape pour l’intelligence artificielle » et « un autre grand pas vers l’AGI », avec des résultats plus visuels, plus directs et beaucoup moins flatteurs. « Ses réponses sont intelligentes, concises et directes, troquant clichés et flatteries contre une véritable intuition — vous disant ce que vous avez besoin d’entendre, pas seulement ce que vous voulez entendre », déclare Google dans son billet d’annonce.
Google prend la tête du peloton
Gemini 3 Pro affiche des performances d’autant plus intéressantes qu’il se retrouve premier sur nombre de tests face à GPT-5.1 et Claude Sonnet 4.5, et bien sûr face à Gemini 2.5 Pro, largement dépassé par son petit frère.
Google met particulièrement en avant certains résultats car l’écart avec les autres est majeur. Sur Humanity’s Last Exam, qui teste le « raisonnement académique », Gemini 3 Pro affiche un score de 37,5 % sans outils, et de 45,8 % avec la recherche ou l’exécution de code. Des scores très supérieurs à ceux de GPT-5.1 (26,5 %) et surtout de Claude Sonnet 4.5 (13,7 %). Sur ARC-AGI-2, Gemini 3 Pro grimpe à 31,1 %, loin devant GPT-5.1 (17,6 %) et Claude Sonnet 4.5 (13,6 %). Le nouveau LLM affiche également un score de 1 501 points sur LMArena.
La tarification de Gemini 3 Pro est dans la moyenne, avec 2 dollars par million de jetons en entrée et 12 dollars par million de jetons en sortie, mais uniquement pour les requêtes ne dépassant pas 200 000 jetons via l’API Gemini dans Google AI Studio et Vertex AI. Pour les contextes dépassant 200 000 tokens, la tarification passe à 4 dollars en entrée et 18 dollars en sortie par million de jetons.
Google marque également sa différence avec une disponibilité immédiate. Tous les produits intégrant Gemini sont passés hier soir de la version 2.5 Pro à la 3 Pro. Seule exception, les résumés IA dans les résultats de recherche, qui ne seront générés que pour les requêtes « les plus complexes ». Pour le reste, que ce soit dans l’application ou ailleurs, c’est bien le dernier LLM qui est présent, en deux versions.
Deux variantes et des capacités réservées aux comptes payants
Comme chez presque tous les concurrents, Gemini 3 Pro est en effet proposé en version « Rapide » et « Raisonnement ». On s’en doute, le premier donne des résultats plus vite, tandis que le second prend davantage le temps de la « réflexion », augmentant la précision au détriment de la rapidité. Dans le tableau des performances donné par Google, c’est le modèle Thinking qui affiche bien sûr les meilleurs résultats, puisque le modèle contrôle ses réponses au fur et à mesure, dans une démarche devenue typique de raisonnement.
Le modèle Thinking dispose en outre d’une fonction dite de « raisonnement auto-correctif » : il planifie, critique et corrige ses propres réponses avant de les afficher. Selon Google, cette méthode réduit considérablement les hallucinations sur les tâches complexes comme les mathématiques, le code et la logique. L’entreprise vante également sa « multimodalité native fusionnée », ses modèles traitant le texte, l’audio et la vidéo de la même manière, ce qui garantit selon Google une très faible latence dans les conversations vocales notamment.
Crédits : Google
Les deux versions du modèle sont disponibles partout, y compris pour les comptes gratuits. La différence se jouera – comme toujours – sur le nombre de requêtes, le compte gratuit étant rapidement épuisé en Raisonnement, tandis que les formules payantes ont des paliers plus élevés.
En mode raisonnement, les abonnés payants disposent aussi de plusieurs nouveaux modes expérimentaux d’affichage des résultats. Par exemple, le Visual Layout affiche les résultats sous forme de magazine incluant de nombreuses images, que l’on peut faire défiler. Autre possibilité, la Dynamic View, qui utilise les capacités du modèle en développement pour créer des interfaces personnalisées, par exemple une application web pour explorer la vie et l’œuvre d’un(e) artiste.
Google ajoute que Gemini 3 Pro est le premier représentant de la nouvelle famille. Des versions plus réduites arriveront après, mais l’entreprise ne donne aucun calendrier. Ajoutons que Gemini 3 Pro, comme la version 2.5 avant lui, est disponible sous forme de préversion. Là encore, pas d’information sur l’arrivée de la version finale. Dans le cas de Gemini 2.5, il s’était écoulé plusieurs mois.
Google veut frapper fort chez les développeurs
Si Gemini 3 Pro se présente avant tout comme un ChatGPT, notamment avec un ton présenté comme très neutre, Google veut clairement faire tomber Claude de son trône de LLM star chez les développeurs.
Sundar Pichai a ainsi indiqué que le nouveau modèle représentait une nouvelle étape majeure dans le développement agentique. Et pour marquer le coup, la firme lance Antigravity, sa propre solution de développement assisté par IA (vibe coding). Le nouvel outil rassemble sous un même toit une fenêtre de type chatbot, une interface en ligne de commande (bash) et une zone navigateur qui affiche les opérations en cours et l’impact des modifications.
Comme d’autres solutions de type Warp ou Cursor 2.0, Antigravity est clairement un IDE (Integrated Development Environment, que Microsoft s’est amusé récemment à renommer Intelligent Development Environment pour son Visual Studio 2026). Google le présente comme un « centre de contrôle » permettant de surveiller les agents en train de travailler. Toutes les activités sont retransmises aux développeurs par des « Artefacts », des sous-tâches servant à renseigner sur ce qui est fait et devant faciliter la vérification.
Antigravity fonctionne par défaut avec Gemini 3 Pro, mais Google veut rendre son produit « agnostique ». Il prend ainsi en charge Claude Sonnet 4.5 et les agents GPT-OSS. L’entreprise affirme cependant que Gemini 3 Pro est aujourd’hui le meilleur modèle disponible pour le vibe coding.
Le nouveau IDE est disponible pour Windows, macOS et Linux.
Le "taupe" marron de Noctua divise autant qu'il rassemble. Les antis y voient la couleur d'une déjection canine et les difficultés d'harmoniser leur setup, les pros y voient une certaine classe et un côté unique. Depuis quelques années, Noctua sort souvent ses meilleurs ventirads en version chromax....
Alors que certaines marques jouent la carte du haut de gamme avec des tarifs toujours plus élevés, d'autres essaient de se démarquer avec des solutions de refroidissement abordables. Et c'est le cas de MONTECH qui a officialisé sa nouvelle gamme NX600, qui comprend quatre ventirads à dual tower avec un positionnement agressif puisque les tarifs vont de 29.90 USD à 34.90 USD seulement.
Et pourtant, on retrouve six caloducs de 6 mm avec une finition nickelée, mais aussi les derniers ventilateurs E28 qui mesurent 28 mm d'épaisseur. La concurrence a-t-elle du souci à se faire ? SI la marque ne donne pas vraiment de chiffres sur les performances, le tarif et le look, avec ou sans RGB, sont déjà là !
[…]