Google's Gemini AI Can Now See Your Search History
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Après l'annonce d'une nouvelle technologie, il est toujours intéressant de suivre si son implémentation se passe à bon rythme. Celle du FSR 3 d'AMD avait par exemple été poussive à ses débuts, avant d'atteindre un rythme plus soutenu et on espère que le FSR 4 restera sur cette lancée. Du côté du XeS...
Read more of this story at Slashdot.
En étudiant huit moteurs de recherche s’appuyant sur l’IA générative, deux chercheuses ont observé qu’en moyenne, ceux-ci ont fourni des réponses incorrectes à plus de 60 % des demandes.
De plus en plus d’internautes utilisent des outils d’IA générative pour chercher de l’information en ligne. Mais sont-ils fiables ? Pas tant que ça apparemment, d’après les chercheuses du Tow Center for Digital Journalism de Columbia, Klaudia Jaźwińska et Aisvarya Chandrasekar. Elles ont évalué huit d’entre eux : ChatGPT Search, Perplexity, Perplexity Pro, DeepSeek Search, Copilot, Grok-2 Search, Grok-3 Search et enfin Gemini.
On savait déjà que les chatbots comme ChatGPT hallucinaient régulièrement des citations, mais on aurait pu espérer que les outils de recherche basés sur l’IA auraient de meilleurs garde-fous dans ce domaine notamment, grâce par exemple au RAG (Retrieval-Augmented Generation).
Elles ont mis en place un protocole assez simple pour contrôler si chacun des outils testés attribuait bien au texte d’un article d’actualité les métadonnées comme l’URL, le titre, l’éditeur original et la date. Ainsi, la méthode vérifierait si, oui ou non, ils étaient au moins fiables dans leur capacité à faire correctement le lien entre une source et son extrait.
Les deux chercheuses ont donc sélectionné aléatoirement 10 articles de 20 sites d’information américains comme TechCrunch, Time, le Wall Street Journal, ProPublica, National Geographic ou encore le Boston Globe. Elles en ont tiré des extraits manuellement, puis ont vérifié qu’en collant ces extraits dans le moteur de recherche traditionnel de Google, la source originale apparaissait bien dans les trois premiers résultats.
Elles ont ensuite fourni à l’outil testé chaque extrait et lui ont demandé d’identifier le titre de l’article correspondant, l’éditeur original, la date de publication et l’URL.
Enfin, elles ont évalué la réponse en six catégories : correcte, correcte mais incomplète, partiellement incorrecte, complètement incorrecte, sans réponse et crawler bloqué (quand le site interdit le crawler du chatbot dans son fichier robots.txt).
Elles ont publié leurs résultats dans un article du magazine Columbia Journalism Review. En moyenne, les outils de recherche ont donc donné plus de 60 % de réponses incorrectes. « Le niveau d’inexactitude varie d’une plateforme à l’autre : Perplexity a répondu de manière incorrecte à 37 % des requêtes, tandis que Grok 3 a enregistré un taux d’erreur beaucoup plus élevé, répondant de manière incorrecte à 94 % des requêtes », expliquent les chercheuses.
Elles font remarquer que Copilot est le seul à avoir décliné plus de questions qu’il n’a apporté de réponses. Pendant ce temps-là, tous les autres ont fourni plus de réponses incorrectes que de non-réponses.
Elles soulignent un élément particulièrement frappant. Lorsque qu’on compare les outils Grok et Perplexity, testés dans leurs versions gratuites et payantes, les tests montrent « que si les deux [modèles payants] ont répondu correctement à un plus grand nombre de questions que leurs équivalents gratuits correspondants, ils ont paradoxalement aussi montré des taux d’erreur plus élevés ». Grok-3 Search et Perplexity Pro ont tendance à livrer une réponse coûte que coûte.
Comme les moteurs de recherche ordinaires, ces outils utilisent des robots d’indexation qui parcourent le web. Trois d’entre eux (DeepSeek, Grok 2, et Grok 3) n’ont pas révélé publiquement le nom de leurs robots. Les éditeurs ne peuvent donc pas bloquer l’indexation de leurs sites par ces outils.
Mais les cinq autres (ChatGPT Search, Perplexity, Perplexity Pro, Copilot et Gemini) les ont rendus publics. Les éditeurs peuvent théoriquement interdire qu’ils parcourent leurs sites en l’indiquant dans le fichier robots.txt.
En analysant les résultats ci-dessous, on remarque que Copilot est le seul à n’être bloqué par aucun des éditeurs. Cela s’explique facilement par le fait que l’outil de Microsoft utilise BingBot, le robot d’indexation du moteur de recherche de l’entreprise. S’ils le bloquent, les éditeurs se coupent donc aussi de l’indexation dans Bing. Paradoxalement, Copilot a le plus haut taux de non-réponse.
Mais les autres ont parfois correctement attribué toutes les métadonnées d’un article alors qu’ils n’étaient pas censés l’indexer.
« Perplexity Pro a été le plus mauvais élève à cet égard, identifiant correctement près d’un tiers des quatre-vingt-dix extraits d’articles auxquels il n’aurait pas dû avoir accès », expliquent les chercheuses. Elles ajoutent : « étonnamment, la version gratuite de Perplexity a correctement identifié les dix extraits d’articles payants du National Geographic que nous avons partagés, bien que l’éditeur ait interdit les robots d’indexation de Perplexity et n’ait aucune relation formelle avec la société d’IA ».
Du côté de Google, qui a créé un robot spécifique pour Gemini, « son crawler a été autorisé par dix des vingt éditeurs que nous avons testés, mais Gemini n’a fourni une réponse totalement correcte qu’à une seule occasion ». Les chercheuses expliquent notamment que, lorsqu’il s’agissait d’extraits d’articles liés à la politique, l’outil donnait des réponses comme : « Je ne peux pas vous aider à répondre aux questions sur les élections et les personnalités politiques pour le moment. Je suis entrainé pour être aussi précise que possible, mais il m’arrive de faire des erreurs. Pendant que je travaille à améliorer la façon dont je peux parler des élections et de la politique, vous pouvez essayer la recherche sur Google ».
Plus en détail, en regardant s’ils ont correctement identifié l’article dont provient la source, les chercheuses ont remarqué que DeepSeek Search se trompait pour 115 des 200 articles présentés.
Même lorsque l’article était bien identifié, l’URL proposée n’était souvent pas la bonne. À certaines occasions, les outils les « ont dirigé vers des versions syndiquées d’articles sur des plateformes telles que Yahoo News ou AOL plutôt que vers les sources originales – souvent même lorsque l’éditeur était connu pour avoir conclu un accord de licence avec la société d’IA ».
Et avoir conclu un accord avec l’entreprise qui édite l’outil de recherche n’augmente pas la qualité des réponses :
Bouygues Telecom accuse Free d’avoir revendiqué la compatibilité de sa Freebox Ultra avec le Wi-Fi 7 alors que cette dernière n’a jamais fait l’objet d’une certification officielle. Une nouvelle passe d’arme entre deux groupes habitués à s’échanger des amabilités par tribunaux interposés.
Nouvelle pomme de discorde judiciaire entre les deux opérateurs : d’après l’Informé, qui a révélé l’information jeudi, Bouygues Telecom a assigné en septembre dernier Free devant le tribunal de commerce de Paris. En cause, une communication de Xavier Niel, largement déclinée depuis par la filiale du groupe Iliad, selon laquelle la Freebox Ultra, présentée en grande pompe le 30 janvier 2024, adoptait le Wi-Fi 7.
Sur scène, Xavier Niel revendiquait alors une box à la pointe de la technologie, avec plusieurs premières sur le marché français, dont la disponibilité nationale d’une connexion fibre à 8 Gb/s symétriques, des accords commerciaux inédits avec de grands réseaux de contenus… et l’intégration du Wi-Fi 7 quad band via deux puces Qualcomm, avec la promesse de débits sans fil capables d’atteindre les 6 Gb/s.
Interrogé par Next, Free avait à l’époque reconnue que la Freebox Ultra n’avait fait l’objet d’aucune certification auprès de la Wi-Fi Alliance. L’opérateur admettait même qu’il n’était même pas certain de se lancer dans le processus de certification, pourtant ouvert quelques jours avant l’annonce de la Freebox Ultra.
Free n’est pas une exception, de nombreux produits ne sont pas « Wi-Fi Certified », notamment car le programme de certification arrive généralement en retard par rapport à la commercialisation des produits. Notez que Free n’a aucune certification pour aucune de ses box, que ce soit en Wi-Fi 7 ou inférieurs.
Alors que les composants intégrés à la box (deux puces identiques Networking Pro 820 de Qualcomm) autorisent théoriquement cette dernière à exploiter l’ensemble des bandes prévues par la norme Wi-Fi 7 (2,4 GHz, 5 GHz et 6 GHz), nous relevions à l’époque que les répéteurs commercialisés par Free aux côtés de la Freebox Ultra se limitaient aux bandes des 2,4 et 5 GHz.
Ce sont ces différents points qui motivent l’action en justice initiée par Bouygues Telecom, lequel estimerait donc que son concurrent a mené une campagne de communication mensongère. Les saillies de Xavier Niel, adressées à ses concurrents pendant la présentation du 30 janvier dernier, auraient contribué à mettre de l’huile sur le feu, rapporte par ailleurs l’Informé.
Une chose est sure : Bouygues Telecom avait bien ces subtilités en tête début janvier, quant il a, à son tour, annoncé sa Box compatible avec le Wi-Fi 7… d’ailleurs baptisée « Bbox Wi-Fi 7 ». Le FAI insistait alors bien sur la première que constituait, en France, le lancement d’une box certifiée par la Wi-Fi Alliance. Nos recherches de l’époque confirmaient la légitimité de cette affirmation, qui se vérifie toujours aujourd’hui : la Bbox et ses répéteurs sont bien référencés par la Wi-Fi Alliance, là où le terme Freebox ne remonte pas dans le programme de certification.
Bouygues devrait dans ce contexte chercher à obtenir réparation du préjudice d’image subi auprès du tribunal de commerce. Cette fois, Xavier Niel n’a pas proposé de régler le différend devant un Lidl, et iliad n’a pas officiellement réagi.
Il faut dire que les deux FAI entretiennent depuis plus de dix ans un complexe passif judiciaire, fait de multiples procédures croisées pour pratiques commerciales trompeuses, concurrence déloyale, manquement à des obligations légales, etc.
En étudiant huit moteurs de recherche s’appuyant sur l’IA générative, deux chercheuses ont observé qu’en moyenne, ceux-ci ont fourni des réponses incorrectes à plus de 60 % des demandes.
De plus en plus d’internautes utilisent des outils d’IA générative pour chercher de l’information en ligne. Mais sont-ils fiables ? Pas tant que ça apparemment, d’après les chercheuses du Tow Center for Digital Journalism de Columbia, Klaudia Jaźwińska et Aisvarya Chandrasekar. Elles ont évalué huit d’entre eux : ChatGPT Search, Perplexity, Perplexity Pro, DeepSeek Search, Copilot, Grok-2 Search, Grok-3 Search et enfin Gemini.
On savait déjà que les chatbots comme ChatGPT hallucinaient régulièrement des citations, mais on aurait pu espérer que les outils de recherche basés sur l’IA auraient de meilleurs garde-fous dans ce domaine notamment, grâce par exemple au RAG (Retrieval-Augmented Generation).
Elles ont mis en place un protocole assez simple pour contrôler si chacun des outils testés attribuait bien au texte d’un article d’actualité les métadonnées comme l’URL, le titre, l’éditeur original et la date. Ainsi, la méthode vérifierait si, oui ou non, ils étaient au moins fiables dans leur capacité à faire correctement le lien entre une source et son extrait.
Les deux chercheuses ont donc sélectionné aléatoirement 10 articles de 20 sites d’information américains comme TechCrunch, Time, le Wall Street Journal, ProPublica, National Geographic ou encore le Boston Globe. Elles en ont tiré des extraits manuellement, puis ont vérifié qu’en collant ces extraits dans le moteur de recherche traditionnel de Google, la source originale apparaissait bien dans les trois premiers résultats.
Elles ont ensuite fourni à l’outil testé chaque extrait et lui ont demandé d’identifier le titre de l’article correspondant, l’éditeur original, la date de publication et l’URL.
Enfin, elles ont évalué la réponse en six catégories : correcte, correcte mais incomplète, partiellement incorrecte, complètement incorrecte, sans réponse et crawler bloqué (quand le site interdit le crawler du chatbot dans son fichier robots.txt).
Elles ont publié leurs résultats dans un article du magazine Columbia Journalism Review. En moyenne, les outils de recherche ont donc donné plus de 60 % de réponses incorrectes. « Le niveau d’inexactitude varie d’une plateforme à l’autre : Perplexity a répondu de manière incorrecte à 37 % des requêtes, tandis que Grok 3 a enregistré un taux d’erreur beaucoup plus élevé, répondant de manière incorrecte à 94 % des requêtes », expliquent les chercheuses.
Elles font remarquer que Copilot est le seul à avoir décliné plus de questions qu’il n’a apporté de réponses. Pendant ce temps-là, tous les autres ont fourni plus de réponses incorrectes que de non-réponses.
Elles soulignent un élément particulièrement frappant. Lorsque qu’on compare les outils Grok et Perplexity, testés dans leurs versions gratuites et payantes, les tests montrent « que si les deux [modèles payants] ont répondu correctement à un plus grand nombre de questions que leurs équivalents gratuits correspondants, ils ont paradoxalement aussi montré des taux d’erreur plus élevés ». Grok-3 Search et Perplexity Pro ont tendance à livrer une réponse coûte que coûte.
Comme les moteurs de recherche ordinaires, ces outils utilisent des robots d’indexation qui parcourent le web. Trois d’entre eux (DeepSeek, Grok 2, et Grok 3) n’ont pas révélé publiquement le nom de leurs robots. Les éditeurs ne peuvent donc pas bloquer l’indexation de leurs sites par ces outils.
Mais les cinq autres (ChatGPT Search, Perplexity, Perplexity Pro, Copilot et Gemini) les ont rendus publics. Les éditeurs peuvent théoriquement interdire qu’ils parcourent leurs sites en l’indiquant dans le fichier robots.txt.
En analysant les résultats ci-dessous, on remarque que Copilot est le seul à n’être bloqué par aucun des éditeurs. Cela s’explique facilement par le fait que l’outil de Microsoft utilise BingBot, le robot d’indexation du moteur de recherche de l’entreprise. S’ils le bloquent, les éditeurs se coupent donc aussi de l’indexation dans Bing. Paradoxalement, Copilot a le plus haut taux de non-réponse.
Mais les autres ont parfois correctement attribué toutes les métadonnées d’un article alors qu’ils n’étaient pas censés l’indexer.
« Perplexity Pro a été le plus mauvais élève à cet égard, identifiant correctement près d’un tiers des quatre-vingt-dix extraits d’articles auxquels il n’aurait pas dû avoir accès », expliquent les chercheuses. Elles ajoutent : « étonnamment, la version gratuite de Perplexity a correctement identifié les dix extraits d’articles payants du National Geographic que nous avons partagés, bien que l’éditeur ait interdit les robots d’indexation de Perplexity et n’ait aucune relation formelle avec la société d’IA ».
Du côté de Google, qui a créé un robot spécifique pour Gemini, « son crawler a été autorisé par dix des vingt éditeurs que nous avons testés, mais Gemini n’a fourni une réponse totalement correcte qu’à une seule occasion ». Les chercheuses expliquent notamment que, lorsqu’il s’agissait d’extraits d’articles liés à la politique, l’outil donnait des réponses comme : « Je ne peux pas vous aider à répondre aux questions sur les élections et les personnalités politiques pour le moment. Je suis entrainé pour être aussi précise que possible, mais il m’arrive de faire des erreurs. Pendant que je travaille à améliorer la façon dont je peux parler des élections et de la politique, vous pouvez essayer la recherche sur Google ».
Plus en détail, en regardant s’ils ont correctement identifié l’article dont provient la source, les chercheuses ont remarqué que DeepSeek Search se trompait pour 115 des 200 articles présentés.
Même lorsque l’article était bien identifié, l’URL proposée n’était souvent pas la bonne. À certaines occasions, les outils les « ont dirigé vers des versions syndiquées d’articles sur des plateformes telles que Yahoo News ou AOL plutôt que vers les sources originales – souvent même lorsque l’éditeur était connu pour avoir conclu un accord de licence avec la société d’IA ».
Et avoir conclu un accord avec l’entreprise qui édite l’outil de recherche n’augmente pas la qualité des réponses :
Bouygues Telecom accuse Free d’avoir revendiqué la compatibilité de sa Freebox Ultra avec le Wi-Fi 7 alors que cette dernière n’a jamais fait l’objet d’une certification officielle. Une nouvelle passe d’arme entre deux groupes habitués à s’échanger des amabilités par tribunaux interposés.
Nouvelle pomme de discorde judiciaire entre les deux opérateurs : d’après l’Informé, qui a révélé l’information jeudi, Bouygues Telecom a assigné en septembre dernier Free devant le tribunal de commerce de Paris. En cause, une communication de Xavier Niel, largement déclinée depuis par la filiale du groupe Iliad, selon laquelle la Freebox Ultra, présentée en grande pompe le 30 janvier 2024, adoptait le Wi-Fi 7.
Sur scène, Xavier Niel revendiquait alors une box à la pointe de la technologie, avec plusieurs premières sur le marché français, dont la disponibilité nationale d’une connexion fibre à 8 Gb/s symétriques, des accords commerciaux inédits avec de grands réseaux de contenus… et l’intégration du Wi-Fi 7 quad band via deux puces Qualcomm, avec la promesse de débits sans fil capables d’atteindre les 6 Gb/s.
Interrogé par Next, Free avait à l’époque reconnue que la Freebox Ultra n’avait fait l’objet d’aucune certification auprès de la Wi-Fi Alliance. L’opérateur admettait même qu’il n’était même pas certain de se lancer dans le processus de certification, pourtant ouvert quelques jours avant l’annonce de la Freebox Ultra.
Free n’est pas une exception, de nombreux produits ne sont pas « Wi-Fi Certified », notamment car le programme de certification arrive généralement en retard par rapport à la commercialisation des produits. Notez que Free n’a aucune certification pour aucune de ses box, que ce soit en Wi-Fi 7 ou inférieurs.
Alors que les composants intégrés à la box (deux puces identiques Networking Pro 820 de Qualcomm) autorisent théoriquement cette dernière à exploiter l’ensemble des bandes prévues par la norme Wi-Fi 7 (2,4 GHz, 5 GHz et 6 GHz), nous relevions à l’époque que les répéteurs commercialisés par Free aux côtés de la Freebox Ultra se limitaient aux bandes des 2,4 et 5 GHz.
Ce sont ces différents points qui motivent l’action en justice initiée par Bouygues Telecom, lequel estimerait donc que son concurrent a mené une campagne de communication mensongère. Les saillies de Xavier Niel, adressées à ses concurrents pendant la présentation du 30 janvier dernier, auraient contribué à mettre de l’huile sur le feu, rapporte par ailleurs l’Informé.
Une chose est sure : Bouygues Telecom avait bien ces subtilités en tête début janvier, quant il a, à son tour, annoncé sa Box compatible avec le Wi-Fi 7… d’ailleurs baptisée « Bbox Wi-Fi 7 ». Le FAI insistait alors bien sur la première que constituait, en France, le lancement d’une box certifiée par la Wi-Fi Alliance. Nos recherches de l’époque confirmaient la légitimité de cette affirmation, qui se vérifie toujours aujourd’hui : la Bbox et ses répéteurs sont bien référencés par la Wi-Fi Alliance, là où le terme Freebox ne remonte pas dans le programme de certification.
Bouygues devrait dans ce contexte chercher à obtenir réparation du préjudice d’image subi auprès du tribunal de commerce. Cette fois, Xavier Niel n’a pas proposé de régler le différend devant un Lidl, et iliad n’a pas officiellement réagi.
Il faut dire que les deux FAI entretiennent depuis plus de dix ans un complexe passif judiciaire, fait de multiples procédures croisées pour pratiques commerciales trompeuses, concurrence déloyale, manquement à des obligations légales, etc.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Pour fêter ses quatre ans de partenariat avec World of Warships, le store d'Epic Games vous offre l'Anniversary Party Favor, ici ! […]
Lire la suiteLe premier jeu offert par le store d'Epic Games est un certain Mortal Shell, l'ajout est possible ici, cela jusqu'au 20 mars, 17 heures. Mortal Shell est un action-RPG riche qui mettra à l'épreuve votre santé mentale et votre résilience dans un monde sens dessus dessous. Vos adversaires ne s'encombrent pas de compassion, inutile à la survie, et misent tout sur acuité mentale et précision. Possédez des guerriers disparus, découvrez des sanctuaires cachés et affrontez des ennemis de taille. […]
Lire la suiteDans le domaine de la cybersécurité, trois textes européens sont particulièrement attendus. Nommés NIS2, REC et DORA, ils doivent entrainer une vaste amélioration générale du niveau de sécurité en Europe. Le travail de transposition a commencé en France, le projet de loi ayant passé l’étape du Sénat. Avec une petite surprise : l’interdiction d’introduire des portes dérobées dans le chiffrement.
Hier, le Sénat a adopté en première lecture le projet de loi relatif à la résilience des infrastructures critiques et au renforcement de la cybersécurité, d’abord en commission spéciale, puis en séance publique. Le texte a la lourde tâche de transposer dans le droit français trois directives européennes adoptées fin 2022 : NIS2, REC et DORA.
Toutes trois doivent provoquer un sursaut européen en matière de cybersécurité, non seulement pour augmenter le niveau général de défense, mais également la résilience, désormais un terme fort. Le calendrier a pris cependant du retard : présenté en conseil des ministres en octobre dernier, il a été repoussé suite à la dissolution de l’Assemblée nationale.
Des trois, la directive NIS2 est souvent considérée comme la plus importante. Elle va entrainer de vastes modifications dans le droit français et déclencher une série de mesures pour de nombreuses entreprises. L’ANSSI, qui sera au cœur du dispositif de contrôle, prévoit d’ailleurs de nombreuses ressources pour l’accompagnement et la formation des entités concernées.
Revenons d’abord sur les grandes lignes des trois directives. NIS2 vient compléter la première directive NIS (Network and Information Systems), comme le rappelait récemment Vincent Strubel, patron de l’ANSSI. Cette dernière venait dresser des obligations pour les sept secteurs jugés essentiels énergie, transport, banques, infrastructures de marché financier, santé, eau (potable et usées) et infrastructures numériques.
Read more of this story at Slashdot.