Vue lecture

☕️ Le cofondateur de Mistral a participé à l’entrainement du modèle Llama de Meta sur LibGen

Médiapart souligne, dans un article publié ce lundi 22 décembre, la participation de Guillaume Lample, cofondateur de Mistral AI, dans l’utilisation de la librairie clandestine Libgen pour entrainer les modèles de Meta en 2022.

En janvier dernier, à l’occasion du procès opposant notamment l’auteur de science-fiction Richard Kadrey à Meta, des documents internes à l’entreprise confirmaient les soupçons de l’utilisation des livres stockés par Libgen pour entrainer les modèles Llama de Meta. Certains montraient d’ailleurs que le CEO Mark Zuckerberg avait donné son accord.

des nuages de données s'échappent des cheminées de petites maisons dessinées en rang d'oignon

L’enquête de Médiapart s’appuie sur des documents sortis un peu plus tard lors du procès. Ceux-ci montrent que Guillaume Lample, alors employé chez Meta, a participé activement aux discussions pour pousser les chercheurs de l’entreprise à utiliser allègrement la bibliothèque clandestine comme source d’entrainement pour les modèles. Alors que l’utilisation de LibGen ne fait pas consensus, Guillaume Lample aurait affirmé que « tout le monde utilise LibGen ».

Dans une autre conversation, une autre salariée lui a demandé si le service légal de Meta avait confirmé la possibilité d’utiliser les archives de LibGen ou si « on n’est pas juste en train d’essayer de ne pas trop poser de question ». Guillaume Lample répond qu’il n’a pas posé de question et que « c’est ce qu’OpenAI fait avec GPT3, ce que Google fait avec Palm, ce que DeepMind fait avec Chinchilla, donc on va le faire aussi ».

Guillaume Lample est maintenant responsable scientifique de Mistral AI, après avoir co-fondé l’entreprise d’IA générative française. Mistral AI, Meta et Guillaume Lample n’ont pas répondu aux diverses relances de Médiapart.

  •  

☕️ Le cofondateur de Mistral a participé à l’entrainement du modèle Llama de Meta sur LibGen

Médiapart souligne, dans un article publié ce lundi 22 décembre, la participation de Guillaume Lample, cofondateur de Mistral AI, dans l’utilisation de la librairie clandestine Libgen pour entrainer les modèles de Meta en 2022.

En janvier dernier, à l’occasion du procès opposant notamment l’auteur de science-fiction Richard Kadrey à Meta, des documents internes à l’entreprise confirmaient les soupçons de l’utilisation des livres stockés par Libgen pour entrainer les modèles Llama de Meta. Certains montraient d’ailleurs que le CEO Mark Zuckerberg avait donné son accord.

des nuages de données s'échappent des cheminées de petites maisons dessinées en rang d'oignon

L’enquête de Médiapart s’appuie sur des documents sortis un peu plus tard lors du procès. Ceux-ci montrent que Guillaume Lample, alors employé chez Meta, a participé activement aux discussions pour pousser les chercheurs de l’entreprise à utiliser allègrement la bibliothèque clandestine comme source d’entrainement pour les modèles. Alors que l’utilisation de LibGen ne fait pas consensus, Guillaume Lample aurait affirmé que « tout le monde utilise LibGen ».

Dans une autre conversation, une autre salariée lui a demandé si le service légal de Meta avait confirmé la possibilité d’utiliser les archives de LibGen ou si « on n’est pas juste en train d’essayer de ne pas trop poser de question ». Guillaume Lample répond qu’il n’a pas posé de question et que « c’est ce qu’OpenAI fait avec GPT3, ce que Google fait avec Palm, ce que DeepMind fait avec Chinchilla, donc on va le faire aussi ».

Guillaume Lample est maintenant responsable scientifique de Mistral AI, après avoir co-fondé l’entreprise d’IA générative française. Mistral AI, Meta et Guillaume Lample n’ont pas répondu aux diverses relances de Médiapart.

  •  

Anna’s Archive revendique la récupération de 300 To de musique de Spotify

Retour au torrent ?
Anna’s Archive revendique la récupération de 300 To de musique de Spotify

La bibliothèque clandestine Anna’s Archive affirme avoir « sauvegardé Spotify (métadonnées et fichiers musicaux) ». Près de 300 To de musique téléchargés au nez et à la barbe de la plateforme de streaming qui explique avoir mis en place « de nouvelles mesures de protection contre ce type d’attaques anti-copyright ».

La bibliothèque clandestine Anna’s Archive semble vouloir aller au-delà de la distribution pirate de livres numériques. Dans un billet de blog publié ce week-end, elle revendique avoir téléchargé environ 300 To de données de musique sur la plateforme de streaming Spotify. Mais plus qu’un téléchargement massif, elle explique vouloir distribuer les fichiers musicaux en torrent dans des archives regroupant les morceaux regroupés en fonction de leur popularité.

« Cette version comprend la plus grande base de données de métadonnées musicales accessible au public, avec 256 millions de titres et 186 millions d’ISRC [International Standard Recording Code, système de standardisation d’identifiants d’enregistrement] uniques », revendique la bibliothèque clandestine.

De fait, les responsables d’Anna’s Archive n’ont pas récupéré l’entièreté des musiques de Spotify, comme pourrait le laisser entendre une lecture rapide. « Seulement » 37 % du répertoire de la plateforme de streaming ont été téléchargés, mais « il s’agit de la première « archive de préservation » au monde pour la musique qui soit entièrement ouverte (ce qui signifie qu’elle peut être facilement reproduite par toute personne disposant d’un espace disque suffisant), avec 86 millions de fichiers musicaux, représentant environ 99,6 % des écoutes » sur Spotify, assurent les responsables d’Anna’s Archive.

Ce sont essentiellement des morceaux de musique qui sont concernés : si le billet d’Anna’s Archive évoque incidemment la récupération de métadonnées concernant les podcasts, la bibliothèque clandestine semble ne pas avoir téléchargé ce genre de médias.

Des « extrémistes anti-copyright » pour Spotify

Sans confirmer la taille de la fuite, Spotify explique avoir identifié un téléchargement de plusieurs fichiers audio sur sa plateforme : « Une enquête sur un accès non autorisé a révélé qu’un tiers avait récupéré des métadonnées publiques et utilisé des tactiques illicites pour contourner le DRM afin d’accéder à certains fichiers audio de la plateforme. Nous menons actuellement une enquête approfondie sur cet incident », a-t-elle expliqué à Musically, qualifiant les responsables d’Anna’s Archive d’ « extrémistes anti-copyright qui ont déjà piraté du contenu sur YouTube et d’autres plateformes ».

« Spotify a identifié et désactivé les comptes d’utilisateurs malveillants qui se livraient à des activités illégales de scraping. Nous avons mis en place de nouvelles mesures de protection contre ce type d’attaques anti-copyright et surveillons activement tout comportement suspect », détaille la plateforme.

Elle assure également aux artistes et à l’industrie musicale avoir toujours soutenu « la communauté artistique dans sa lutte contre le piratage et [travailler] avec [ses] partenaires industriels pour protéger les créateurs et défendre leurs droits ». Spotify devra en effet mettre les bouchées doubles après cette fuite de données pour garder les artistes et les producteurs dans son giron.

La plateforme fait aussi régulièrement face à des annonces de boycott de la part d’artistes comme Deerhoof ou Massive Attack visant notamment les investissements du fondateur et CEO de Spotify,Daniel Ek, dans l’intelligence artificielle de défense. 20 ans après la création de la plateforme, celui-ci va, rappelons-le, lâcher la main sur l’opérationnel de la plateforme tout en restant président exécutif.

Une aubaine pour l’industrie de l’IA générative ?

L’arrivée massive de l’IA pour générer des musiques a attiré certains internautes mais aussi attisé les tensions dans le secteur. Justement, cette fuite pourrait être une aubaine pour l’industrie de l’IA générative. Celle-ci, qui n’a jamais vraiment hésité à entrainer ses modèles sur des archives pirates, pourrait profiter des fichiers torrent pour améliorer la génération de musique.

Le projet Anna’s Archive met déjà en avant l’intérêt de ses collections de données pour l’amélioration des modèles de langage : « Il est bien connu que les grands modèles de langage (LLM) fonctionnent mieux avec des données de haute qualité. Nous disposons de la plus grande collection au monde de livres, d’articles, de magazines, etc., qui constituent certaines des sources textuelles de la plus haute qualité », explique une page. « Nous sommes en mesure de fournir un accès haut débit à l’intégralité de nos collections, ainsi qu’à des collections inédites », ajoutent les responsables.

Comme l’a remarqué ArsTechnica, certains fans d’Anna’s Archive ne sont pas à l’aise avec le nouveau fait d’armes de la bibliothèque clandestine. « C’est dingue. Je ne savais absolument pas que le DRM de Spotify avait été piraté pour permettre des téléchargements à une telle échelle », réagit l’un d’entre eux sur Hacker News. « Je me demande vraiment si cela répondait à une demande des chercheurs/entreprises spécialisés dans l’IA qui souhaitaient disposer de ces données. Ou si les grandes maisons de disques accordent déjà des licences pour l’ensemble de leurs catalogues à des fins de formation à un prix suffisamment bas, de sorte que cela relève uniquement d’un effort de préservation ? », ajoute-t-il.

  •  

Anna’s Archive revendique la récupération de 300 To de musique de Spotify

Retour au torrent ?
Anna’s Archive revendique la récupération de 300 To de musique de Spotify

La bibliothèque clandestine Anna’s Archive affirme avoir « sauvegardé Spotify (métadonnées et fichiers musicaux) ». Près de 300 To de musique téléchargés au nez et à la barbe de la plateforme de streaming qui explique avoir mis en place « de nouvelles mesures de protection contre ce type d’attaques anti-copyright ».

La bibliothèque clandestine Anna’s Archive semble vouloir aller au-delà de la distribution pirate de livres numériques. Dans un billet de blog publié ce week-end, elle revendique avoir téléchargé environ 300 To de données de musique sur la plateforme de streaming Spotify. Mais plus qu’un téléchargement massif, elle explique vouloir distribuer les fichiers musicaux en torrent dans des archives regroupant les morceaux regroupés en fonction de leur popularité.

« Cette version comprend la plus grande base de données de métadonnées musicales accessible au public, avec 256 millions de titres et 186 millions d’ISRC [International Standard Recording Code, système de standardisation d’identifiants d’enregistrement] uniques », revendique la bibliothèque clandestine.

De fait, les responsables d’Anna’s Archive n’ont pas récupéré l’entièreté des musiques de Spotify, comme pourrait le laisser entendre une lecture rapide. « Seulement » 37 % du répertoire de la plateforme de streaming ont été téléchargés, mais « il s’agit de la première « archive de préservation » au monde pour la musique qui soit entièrement ouverte (ce qui signifie qu’elle peut être facilement reproduite par toute personne disposant d’un espace disque suffisant), avec 86 millions de fichiers musicaux, représentant environ 99,6 % des écoutes » sur Spotify, assurent les responsables d’Anna’s Archive.

Ce sont essentiellement des morceaux de musique qui sont concernés : si le billet d’Anna’s Archive évoque incidemment la récupération de métadonnées concernant les podcasts, la bibliothèque clandestine semble ne pas avoir téléchargé ce genre de médias.

Des « extrémistes anti-copyright » pour Spotify

Sans confirmer la taille de la fuite, Spotify explique avoir identifié un téléchargement de plusieurs fichiers audio sur sa plateforme : « Une enquête sur un accès non autorisé a révélé qu’un tiers avait récupéré des métadonnées publiques et utilisé des tactiques illicites pour contourner le DRM afin d’accéder à certains fichiers audio de la plateforme. Nous menons actuellement une enquête approfondie sur cet incident », a-t-elle expliqué à Musically, qualifiant les responsables d’Anna’s Archive d’ « extrémistes anti-copyright qui ont déjà piraté du contenu sur YouTube et d’autres plateformes ».

« Spotify a identifié et désactivé les comptes d’utilisateurs malveillants qui se livraient à des activités illégales de scraping. Nous avons mis en place de nouvelles mesures de protection contre ce type d’attaques anti-copyright et surveillons activement tout comportement suspect », détaille la plateforme.

Elle assure également aux artistes et à l’industrie musicale avoir toujours soutenu « la communauté artistique dans sa lutte contre le piratage et [travailler] avec [ses] partenaires industriels pour protéger les créateurs et défendre leurs droits ». Spotify devra en effet mettre les bouchées doubles après cette fuite de données pour garder les artistes et les producteurs dans son giron.

La plateforme fait aussi régulièrement face à des annonces de boycott de la part d’artistes comme Deerhoof ou Massive Attack visant notamment les investissements du fondateur et CEO de Spotify,Daniel Ek, dans l’intelligence artificielle de défense. 20 ans après la création de la plateforme, celui-ci va, rappelons-le, lâcher la main sur l’opérationnel de la plateforme tout en restant président exécutif.

Une aubaine pour l’industrie de l’IA générative ?

L’arrivée massive de l’IA pour générer des musiques a attiré certains internautes mais aussi attisé les tensions dans le secteur. Justement, cette fuite pourrait être une aubaine pour l’industrie de l’IA générative. Celle-ci, qui n’a jamais vraiment hésité à entrainer ses modèles sur des archives pirates, pourrait profiter des fichiers torrent pour améliorer la génération de musique.

Le projet Anna’s Archive met déjà en avant l’intérêt de ses collections de données pour l’amélioration des modèles de langage : « Il est bien connu que les grands modèles de langage (LLM) fonctionnent mieux avec des données de haute qualité. Nous disposons de la plus grande collection au monde de livres, d’articles, de magazines, etc., qui constituent certaines des sources textuelles de la plus haute qualité », explique une page. « Nous sommes en mesure de fournir un accès haut débit à l’intégralité de nos collections, ainsi qu’à des collections inédites », ajoutent les responsables.

Comme l’a remarqué ArsTechnica, certains fans d’Anna’s Archive ne sont pas à l’aise avec le nouveau fait d’armes de la bibliothèque clandestine. « C’est dingue. Je ne savais absolument pas que le DRM de Spotify avait été piraté pour permettre des téléchargements à une telle échelle », réagit l’un d’entre eux sur Hacker News. « Je me demande vraiment si cela répondait à une demande des chercheurs/entreprises spécialisés dans l’IA qui souhaitaient disposer de ces données. Ou si les grandes maisons de disques accordent déjà des licences pour l’ensemble de leurs catalogues à des fins de formation à un prix suffisamment bas, de sorte que cela relève uniquement d’un effort de préservation ? », ajoute-t-il.

  •  

Epstein Files : la confusion dans la publication de milliers de documents

What's the point?
Epstein Files : la confusion dans la publication de milliers de documents

L’administration de Donald Trump a publié, comme l’y obligeait une loi votée récemment, des milliers de documents émanant de l’affaire Epstein. Mais tout n’y est pas, pointent notamment certaines victimes du pédocriminel.

Ce vendredi 19 décembre, le département de la Justice (DOJ) états-unien devait, selon l’Epstein Files Transparency Act, « publier (dans un format consultable et téléchargeable) tous les dossiers, documents, communications et éléments d’enquête non classifiés en [sa] possession qui se rapportent à l’enquête et aux poursuites judiciaires concernant Jeffrey Epstein ».

Le jour J, le DOJ a bien livré un outil permettant de naviguer dans près de 4 000 documents mis en ligne, même si Donald Trump s’est montré ces derniers mois plus hésitant sur le sujet, étant lui aussi accusé d’avoir été dans le réseau du pédocriminel décédé en prison en 2019. Comme le décrit Wired, les documents publiés en fin de semaine dernière sont un mélange hétéroclite de photos, de notes manuscrites et d’autres documents qui ont servi à l’enquête sur le pédocriminel. L’outil est moins ergonomique que Jmail, cette boîte mail remplie des correspondances de Jeffrey Epstein, créée par deux informaticiens pour mieux naviguer dans les emails qui circulaient déjà.

Quelques documents et des photos de personnalités déjà impliquées

Il permet néanmoins de trouver des documents du dossier, comme l’explique The Guardian, cette note [PDF] du FBI détaillant les instructions que donnait Jeffrey Epstein pour obtenir des femmes mineures. Y figurent aussi des documents nommant des personnalités dont les noms étaient déjà sortis. Ainsi, ce document [PDF] qui parle de Bill « Clinton, Prince Andrew et Richard Branson », ou des photos montrant des personnes connues (Mick Jagger, Michael Jackson ou encore David Copperfield aux côtés de Jeffrey Epstein ou de sa complice Ghislaine Maxwell).

Rappelons que ces documents ne sont pas forcément des preuves que toutes ces personnes ont eu connaissance ou sont impliquées dans le système de pédocriminalité mis en place.

Des photos de Bill Clinton, une de Donald Trump supprimée puis réintégrée

La sphère républicaine et MAGA (Make America Great Again) a cependant souligné nombre de photos où l’on voit Bill Clinton aux côtés de Jeffrey Epstein, dont notamment l’une d’entre elles où il apparait dans un jacuzzi à côté d’une personne dont le visage est volontairement caché par un carré noir. Bill Clinton a nié auparavant avoir été au courant des crimes commis par Jeffrey Epstein. Selon le Boston Globe, un porte-parole de Bill Clinton a accusé l’administration d’avoir publié ces photos de l’ancien président pour détourner l’attention.

De fait, l’attachée de presse de la Maison-Blanche, Abigail Jackson, a insisté par exemple, sur X, sur une photo de Bill Clinton avec Michael Jackson, la présentant comme une « photo de Bill Clinton avec son bras autour de Michael Jackson, et des personnes dont l’identité a été dissimulée ». Pourtant, cette photo n’a rien à voir avec l’affaire, comme l’ont souligné des utilisateurs de X dans les notes de la communauté. Elle est disponible sur Getty Images depuis 2010 sans que les enfants de Michael Jackson et Diana Ross soient cachés.

Donald Trump figure sur au moins une photo [PDF] du dossier. Elle représente un meuble exposant diverses autres photos sur lesquelles apparait Jeffrey Epstein accompagné d’autres personnalités. Le visage du dirigeant actuel des États-Unis apparait sur l’une d’entre elles qui se situe dans le tiroir ouvert du meuble. Ici aussi, ça n’est pas la preuve de la connaissance de crime. Comme l’explique Ici Canada, plusieurs photos (dont celle-ci) ont été supprimées du dossier public samedi.

Finalement, le DOJ a republié la photo en question dimanche, affirmant sur X l’avoir retirée « afin de la soumettre à un examen plus approfondi ». « Après examen, il a été déterminé qu’il n’y avait aucune preuve que des victimes d’Epstein figuraient sur la photographie, et celle-ci a été republiée sans aucune modification ni expurgation », a ajouté l’administration états-unienne.

Pas grand-chose de neuf selon la presse américaine

Selon une lettre du procureur général adjoint Todd Blanche obtenue par Fox News, plus de 1 200 victimes et leurs familles ont été découvertes au cours de cet examen exhaustif. « Sous la direction du président Donald J. Trump et de la procureure générale Pam Bondi, cette divulgation sans précédent souligne notre engagement à respecter la loi, à faire preuve de transparence et à protéger les victimes », affirme le document.

Mais, pour Associated Press, la publication de ces documents n’apporte pas grand chose de neuf. « Les documents les plus révélateurs publiés jusqu’à présent montrent que les procureurs fédéraux disposaient en 2007 d’éléments solides contre Epstein, mais ne l’ont jamais inculpé », explique l’agence de presse. Le New York Times pointe notamment l’existence d’une plainte pour pédopornographie datant de 1996 et que le FBI a ignorée.

Des documents biffés qui n’apportent pas d’information supplémentaire

Dans le dossier figure aussi une liste de 254 masseuses. Mais le fichier [PDF] est illisible puisque tous les noms sont cachés, le document portant une notice expliquant « expurgé afin de protéger les informations relatives aux victimes potentielles ».

D’autres documents apparaissent largement biffés. Ainsi, des internautes ont remarqué qu’un des documents [PDF] dont certaines parties étaient cachées avait déjà été publié [PDF] auparavant par l’administration, montrant le nom de Donald Trump accompagné de celui de Bill Clinton :

Depuis vendredi, le DOJ essaye de se dépatouiller, sur X, des accusations de censure. « Des expurgations ont été apportées à ces documents lorsqu’ils ont été déposés dans le cadre des affaires judiciaires respectives à l’époque. Nous avons reproduit les documents tels qu’ils se trouvaient en notre possession », expliquait l’administration sur X dimanche.

« On nous laisse tomber », explique une victime

« Nous avons découvert que les documents les plus importants ont disparu », affirmait de son côté le représentant du Parti démocrate, Ro Khanna, vendredi à CNN. « Ils ont fait l’objet de caviardages excessifs, et la question centrale que les Américains veulent connaître – qui sont les autres hommes riches et puissants de l’île qui violent ces jeunes filles ou qui couvrent ces faits – n’a pas trouvé de réponse ». Pour la députée démocrate Alexandria Ocasio-Cortez, ces caviardages protègent « une bande de violeurs et de pédophiles parce qu’ils ont de l’argent, du pouvoir et des relations » et elle demande la démission de la procureure générale Pam Bondi.

De leur côté, les victimes expriment aussi leur frustration. « Ils confirment tout ce que nous avons dit au sujet de la corruption et des retards dans la justice », déplore Jess Michaels, l’une des premières victimes connues de Jeffrey Epstein citée par le New York Times. « Que protègent-ils ? La dissimulation continue ». « Si tout est censuré, où est la transparence ? », interroge Marijke Chartouni, qui accuse Epstein de l’avoir agressée sexuellement lorsqu’elle avait 20 ans. « Énormément de photos sont hors de propos », explique Marina Larcerda, qui a témoigné en 2019 d’abus sexuels lorsqu’elle avait 14 ans. « On nous laisse tomber. Nous attendions ce jour-là pour attaquer en justice d’autres hommes qui ont été protégés ».

  •  

Epstein Files : la confusion dans la publication de milliers de documents

What's the point?
Epstein Files : la confusion dans la publication de milliers de documents

L’administration de Donald Trump a publié, comme l’y obligeait une loi votée récemment, des milliers de documents émanant de l’affaire Epstein. Mais tout n’y est pas, pointent notamment certaines victimes du pédocriminel.

Ce vendredi 19 décembre, le département de la Justice (DOJ) états-unien devait, selon l’Epstein Files Transparency Act, « publier (dans un format consultable et téléchargeable) tous les dossiers, documents, communications et éléments d’enquête non classifiés en [sa] possession qui se rapportent à l’enquête et aux poursuites judiciaires concernant Jeffrey Epstein ».

Le jour J, le DOJ a bien livré un outil permettant de naviguer dans près de 4 000 documents mis en ligne, même si Donald Trump s’est montré ces derniers mois plus hésitant sur le sujet, étant lui aussi accusé d’avoir été dans le réseau du pédocriminel décédé en prison en 2019. Comme le décrit Wired, les documents publiés en fin de semaine dernière sont un mélange hétéroclite de photos, de notes manuscrites et d’autres documents qui ont servi à l’enquête sur le pédocriminel. L’outil est moins ergonomique que Jmail, cette boîte mail remplie des correspondances de Jeffrey Epstein, créée par deux informaticiens pour mieux naviguer dans les emails qui circulaient déjà.

Quelques documents et des photos de personnalités déjà impliquées

Il permet néanmoins de trouver des documents du dossier, comme l’explique The Guardian, cette note [PDF] du FBI détaillant les instructions que donnait Jeffrey Epstein pour obtenir des femmes mineures. Y figurent aussi des documents nommant des personnalités dont les noms étaient déjà sortis. Ainsi, ce document [PDF] qui parle de Bill « Clinton, Prince Andrew et Richard Branson », ou des photos montrant des personnes connues (Mick Jagger, Michael Jackson ou encore David Copperfield aux côtés de Jeffrey Epstein ou de sa complice Ghislaine Maxwell).

Rappelons que ces documents ne sont pas forcément des preuves que toutes ces personnes ont eu connaissance ou sont impliquées dans le système de pédocriminalité mis en place.

Des photos de Bill Clinton, une de Donald Trump supprimée puis réintégrée

La sphère républicaine et MAGA (Make America Great Again) a cependant souligné nombre de photos où l’on voit Bill Clinton aux côtés de Jeffrey Epstein, dont notamment l’une d’entre elles où il apparait dans un jacuzzi à côté d’une personne dont le visage est volontairement caché par un carré noir. Bill Clinton a nié auparavant avoir été au courant des crimes commis par Jeffrey Epstein. Selon le Boston Globe, un porte-parole de Bill Clinton a accusé l’administration d’avoir publié ces photos de l’ancien président pour détourner l’attention.

De fait, l’attachée de presse de la Maison-Blanche, Abigail Jackson, a insisté par exemple, sur X, sur une photo de Bill Clinton avec Michael Jackson, la présentant comme une « photo de Bill Clinton avec son bras autour de Michael Jackson, et des personnes dont l’identité a été dissimulée ». Pourtant, cette photo n’a rien à voir avec l’affaire, comme l’ont souligné des utilisateurs de X dans les notes de la communauté. Elle est disponible sur Getty Images depuis 2010 sans que les enfants de Michael Jackson et Diana Ross soient cachés.

Donald Trump figure sur au moins une photo [PDF] du dossier. Elle représente un meuble exposant diverses autres photos sur lesquelles apparait Jeffrey Epstein accompagné d’autres personnalités. Le visage du dirigeant actuel des États-Unis apparait sur l’une d’entre elles qui se situe dans le tiroir ouvert du meuble. Ici aussi, ça n’est pas la preuve de la connaissance de crime. Comme l’explique Ici Canada, plusieurs photos (dont celle-ci) ont été supprimées du dossier public samedi.

Finalement, le DOJ a republié la photo en question dimanche, affirmant sur X l’avoir retirée « afin de la soumettre à un examen plus approfondi ». « Après examen, il a été déterminé qu’il n’y avait aucune preuve que des victimes d’Epstein figuraient sur la photographie, et celle-ci a été republiée sans aucune modification ni expurgation », a ajouté l’administration états-unienne.

Pas grand-chose de neuf selon la presse américaine

Selon une lettre du procureur général adjoint Todd Blanche obtenue par Fox News, plus de 1 200 victimes et leurs familles ont été découvertes au cours de cet examen exhaustif. « Sous la direction du président Donald J. Trump et de la procureure générale Pam Bondi, cette divulgation sans précédent souligne notre engagement à respecter la loi, à faire preuve de transparence et à protéger les victimes », affirme le document.

Mais, pour Associated Press, la publication de ces documents n’apporte pas grand chose de neuf. « Les documents les plus révélateurs publiés jusqu’à présent montrent que les procureurs fédéraux disposaient en 2007 d’éléments solides contre Epstein, mais ne l’ont jamais inculpé », explique l’agence de presse. Le New York Times pointe notamment l’existence d’une plainte pour pédopornographie datant de 1996 et que le FBI a ignorée.

Des documents biffés qui n’apportent pas d’information supplémentaire

Dans le dossier figure aussi une liste de 254 masseuses. Mais le fichier [PDF] est illisible puisque tous les noms sont cachés, le document portant une notice expliquant « expurgé afin de protéger les informations relatives aux victimes potentielles ».

D’autres documents apparaissent largement biffés. Ainsi, des internautes ont remarqué qu’un des documents [PDF] dont certaines parties étaient cachées avait déjà été publié [PDF] auparavant par l’administration, montrant le nom de Donald Trump accompagné de celui de Bill Clinton :

Depuis vendredi, le DOJ essaye de se dépatouiller, sur X, des accusations de censure. « Des expurgations ont été apportées à ces documents lorsqu’ils ont été déposés dans le cadre des affaires judiciaires respectives à l’époque. Nous avons reproduit les documents tels qu’ils se trouvaient en notre possession », expliquait l’administration sur X dimanche.

« On nous laisse tomber », explique une victime

« Nous avons découvert que les documents les plus importants ont disparu », affirmait de son côté le représentant du Parti démocrate, Ro Khanna, vendredi à CNN. « Ils ont fait l’objet de caviardages excessifs, et la question centrale que les Américains veulent connaître – qui sont les autres hommes riches et puissants de l’île qui violent ces jeunes filles ou qui couvrent ces faits – n’a pas trouvé de réponse ». Pour la députée démocrate Alexandria Ocasio-Cortez, ces caviardages protègent « une bande de violeurs et de pédophiles parce qu’ils ont de l’argent, du pouvoir et des relations » et elle demande la démission de la procureure générale Pam Bondi.

De leur côté, les victimes expriment aussi leur frustration. « Ils confirment tout ce que nous avons dit au sujet de la corruption et des retards dans la justice », déplore Jess Michaels, l’une des premières victimes connues de Jeffrey Epstein citée par le New York Times. « Que protègent-ils ? La dissimulation continue ». « Si tout est censuré, où est la transparence ? », interroge Marijke Chartouni, qui accuse Epstein de l’avoir agressée sexuellement lorsqu’elle avait 20 ans. « Énormément de photos sont hors de propos », explique Marina Larcerda, qui a témoigné en 2019 d’abus sexuels lorsqu’elle avait 14 ans. « On nous laisse tomber. Nous attendions ce jour-là pour attaquer en justice d’autres hommes qui ont été protégés ».

  •  

[Offert] Ibou : comment le moteur de recherche « made in France » veut indexer le web

Y aura-t-il des ads ibou ?
[Offert] Ibou : comment le moteur de recherche « made in France » veut indexer le web

Est-il possible de créer aujourd’hui un moteur de recherche sans faire partie des plus grosses entreprises du secteur ? Pour explorer ce thème, nous nous sommes entretenus avec Sylvain Peyronnet, PDG de Babbar.

Pour les fêtes de fin d’année, Next vous offre cet article initialement paru le 24 septembre 2025 et réservé aux abonnés. Pour lire les prochains entretiens dès leur publication, abonnez-vous !


Depuis quelques semaines, Next a repéré sur les réseaux sociaux un nouveau projet français de moteur de recherche (conversationnel, cette fois) porté par l’entreprise Babbar : Ibou. Connaissant un autre projet de moteur de recherche dont les résultats se sont trouvés datés et limités, nous étions curieux de savoir s’il était possible d’en monter un avec un index correct, à jour et qui pourrait profiter des nouvelles technologies comme les LLM pour améliorer son fonctionnement.

Nous avons interrogé Sylvain Peyronnet, PDG de Babbar. Son entreprise est spécialisée dans les outils permettant aux spécialistes du SEO d’améliorer leurs stratégies. Lui est un ancien enseignant-chercheur en intelligence artificielle, mais aussi l’ancien responsable scientifique de Qwant, parti en 2019.

>> Qu’est-ce qu’il y a derrière ce nom d’Ibou à l’apparence très française ?

C’est un projet de moteur de recherche de l’entreprise Babbar. Celle-ci fait, depuis que j’ai quitté Qwant et qu’on l’a montée, des outils qui font tourner en arrière-plan un moteur recherche, pour comprendre ce que fait Google et fournir de la data aux gens qui font du référencement web. Pour différentes raisons, nous avons décidé de pivoter. Nous avons commencé à créer un moteur de recherche conversationnel depuis quelques mois. Et nous l’avons annoncé quasiment dès qu’on a commencé le travail.

Ibou, même si on joue beaucoup avec des logos liés à l’oiseau parce qu’on est en France, ça n’a rien à voir : c’est un mot d’égyptien ancien qui veut dire « les cœurs », car, dans l’Égypte ancienne, le cœur était le siège du raisonnement et de la mémoire.

>> Qu’est-ce qui vous a amenés à imaginer ce projet ?

En travaillant dans le secteur du moteur de recherche depuis longtemps, nous nous sommes rendu compte de plusieurs choses.

Déjà, jusqu’au paradigme conversationnel, les moteurs n’étaient pas vraiment faits pour de la recherche d’information, mais pour de la recherche documentaire : ils renvoyaient des pages web. Pourtant, quand les gens tapent une requête dans un moteur, la plupart du temps, ils s’en fichent un peu. Ce qu’ils attendent, c’est une réponse qui les satisfait et qui leur permet de réaliser les tâches qu’ils veulent réaliser.

« L’émergence des LLM a permis de faire percoler des informations humaines dans des objets mathématiques »

Ensuite, pour faire un bon moteur, le nerf de la guerre était d’avoir beaucoup de données utilisateurs pour comprendre l’être humain et affiner ce que faisaient les algorithmes et qui n’était jamais parfait. Et pour parfaire les résultats d’un moteur, il fallait beaucoup de comportements humains.

L’émergence des LLM, et surtout des LLM alignés, a permis de faire percoler des informations humaines dans des objets mathématiques, les modèles. Maintenant, une partie des choses qui pouvaient être faites grâce à la data humaine peut être faite grâce aux modèles qui existent. Bien sûr, ceux-ci ont été fabriqués avec de la data humaine. Mais, comme c’est à l’intérieur du modèle et que c’est pas très cher de faire tourner des modèles, une partie de la difficulté, et notamment de la barrière à l’entrée, de la création d’un moteur a disparu, parce que le modèle a incorporé cette connaissance des humains.

C’est pour ça qu’on a décidé de se lancer aujourd’hui. En réalité, n’importe quelle équipe de personnes qui sont un peu douées en algorithmique peut faire des moteurs de bonne manière.

>> L’idée est donc de faire un moteur de recherche conversationnel sur quels types de contenus ? Textuels, images, audio ?

Notre moteur a vocation, à terme, à mettre en avant l’information. Et donc la multimodalité fait partie du pack, puisqu’en réalité, l’information n’est pas que textuelle, qu’image, etc. Mais il faut être raisonnable : au début, on ne va avoir que textes et images. Pour la vidéo, ce n’est pas un problème algorithmique, mais nous n’avons juste pas les moyens. Ça arrivera plus tard si on arrive à montrer qu’on est capables d’avoir des résultats de bonne qualité sur textes et images.

Mais nous avons une vision un peu différente des autres de ce que doit être un moteur de recherche, et une vision plus ouverte du web que ce que proposent la plupart des plateformes actuelles. Notamment, nous voulons être un moteur qui répond à l’utilisateur, mais pas comme un LLM classique comme ChatGPT ou autres, avec un texte qui explicite absolument tout. Cela génère souvent une mauvaise qualité de réponse.

« On veut aussi garantir un pluralisme »

Indépendamment des hallucinations ou des mensonges, en réalité, les gens veulent souvent accéder à une source. La bonne réponse, de notre point de vue, est l’explication de pourquoi il faut aller lire une source. Nous voulons nous interposer à un niveau intermédiaire avec toutes les modalités qui permettent d’expliquer, les images, les cartes, etc.

On pense aussi qu’il ne faut pas prendre les gens pour des abrutis. Actuellement, les moteurs ont des biais terribles et ne présentent qu’une seule partie de l’information. On veut aussi garantir un pluralisme. L’actualité est traitée par chaque média depuis son point de vue, et c’est compréhensible, chaque média a sa ligne éditoriale particulière. Mais un moteur de recherche peut tout à fait mettre en avant la diversité de point de vue.

>> Ça fait penser aux vieilles approches de portail d’informations comme Yahoo ou autre. Vous en êtes-vous inspirés ?

Peut-être de façon involontaire : ça correspond à l’image du web qu’on a dans l’équipe, qui est plus composée de vieux barbus que de startupers. Mais la technologie permet de faire des choses beaucoup plus subtiles que ce qu’on faisait avant. Nous allons avoir une verticale qui va se rapprocher fortement d’un portail : Ibou Explorer, un équivalent de Google Discover, mais de qualité. Ici, toutes les sources seront directement présentées dans leur diversité, avec une personnalisation. On sera là plus proche d’une idée de portail, comme ceux de Yahoo, etc. J’espère qu’on va réussir à faire un meilleur travail.

Par contre, sur la partie moteur, il y a une partie de curation. Il va falloir trouver le bon équilibre et savoir où la curation s’arrête : on ne veut pas prendre le pas sur la réflexion de l’humain.

>> Concernant la curation, il y a aussi celle des contenus diffusant des informations volontairement fausses et des contenus générés par IA. Ibou va-t-il prendre en compte ces problématiques ?

Ce sont deux sujets sur lesquels nous travaillons. Le premier, la véracité de l’information, est le plus simple. Nous expliquons dans notre manifeste que nous voulons donner des informations de qualité. La qualité, pour nous, étant la correction de l’information et son utilité. Pour l’utilité, c’est assez clair : à tel type de personne, est-ce que l’information va lui servir pour réaliser sa tâche ?

La correction est de savoir si une chose est vraie ou fausse, sachant qu’il y a toute une gradation et qu’à un moment donné, une chose peut n’être ni vraie ni fausse (une opinion, par exemple). Il y a une vraie difficulté technique à faire ça. Nous avons prévu un processus pour qu’une chose abusivement fausse ne puisse pas passer, avec quelques erreurs de temps en temps. Mais sur l’actualité, il est parfois difficile de repérer le mensonge. La grosse partie de ce qui est de la propagande, qui est de la manipulation, se repère plus sur la qualité intrinsèque des contenus que par rapport à l’information elle-même et sa véracité.

Par rapport aux contenus IA, dans notre prototype Ibou Explorer, ce qui compte, ce n’est pas que le contenu soit généré par IA ou pas, mais s’il a un niveau tel qu’il aurait pu être écrit par un être humain. Nous allons donc plutôt qualifier si un contenu qui s’annonce journalistique s’appuie réellement sur les sources qu’un journaliste aurait utilisées, par exemple. On essaye de vérifier quel est le type de personne qui a écrit (en s’appuyant sur le niveau de langage, le type d’écriture, si la personne a écrit des articles dans des médias de confiance, etc). C’est des choses qu’on arrive à faire et qu’on peut utiliser.

Pour Ibou Explorer, c’est d’autant plus facile à faire qu’on est sur un nombre de sites qui est beaucoup plus petit. Il est donc beaucoup plus facile de comprendre quelles sont les sources de qualité et les autres. Sur le search à très grande échelle, il faut que nous industrialisions ce processus, ce qui coûte très très cher. Nous essayons en ce moment d’en réduire les coûts.

>> Mais il est difficile, pour le public, de comprendre quels paramètres permettront de discriminer…

C’est la vraie problématique. Nous voulons être transparents algorithmiquement. Nous allons donc communiquer certaines choses. Nous faisons des analyses sur le vocabulaire utilisé, on le compare au vocabulaire utilisé sur d’autres sites web, etc. Par exemple, pour le Monde, nous listons les contenus qu’il publie et statistiquement leurs caractéristiques. Ça crée ensuite des empreintes pour des classifieurs qui permettent de facilement repérer si des contenus sont susceptibles d’être les mêmes, s’en approchent, etc. C’est par des artifices statistiques que nous allons faire les choses, c’est le seul moyen d’automatiser.

Bien sûr, nous savons qu’il y a toujours moyen, en travaillant vraiment à publier des choses qui ressemblent à de bons articles. L’avantage, c’est que les gens qui font de la fake news publient en masse et ne travaillent pas bien un article unitairement, et il est donc possible de les repérer.

Les jugements humains d’invalidation, notamment pour la partie Ibou Explorer, ne viendront qu’a posteriori.

Mais il y a des mécanismes algorithmiques en plus sur lesquels nous ne pouvons pas être transparents, sinon les gens pourraient savoir comment passer outre. Par contre, nous allons mettre en place une interface, un peu comme la Google Search Console, où les gens pourront demander pourquoi telle ou telle page n’est pas dans Ibou. Et nous donnerons la qualification que nous en faisons (« il n’est pas de qualité pour telle ou telle raison », par exemple), sans pour autant expliquer comment nous l’avons fait.

Nous avons un système, par exemple, qui donne la probabilité qu’un contenu soit écrit par un humain, une IA ou un humain assisté d’une IA. Bien sûr, ça se trompe : il y a souvent des contenus écrits par des humains qui sont détectés comme générés par des IA parce que les humains ont mal écrit. On se trompe davantage dans ce sens, car il y a assez peu de gens qui font de bons contenus IA. Nous donnerons aussi un outil qui analysera le texte et qui donnera notre conclusion.

>> Ciblez-vous l’indexation du web francophone, anglophone ou carrément tout le web ?

Aujourd’hui, nous crawlons tout le web, même si nous avons priorisé le francophone et quelques langues des pays limitrophes à la France. Nous ferons ensuite toutes les langues qu’on peut faire : pour des raisons algorithmiques, certaines langues (indépendamment des marchés) sont difficiles, comme les langues asiatiques ou le finlandais. Le russe, nous ne l’indexons pas. Même dans Babbar, nous ne le crawlons plus, en ce moment : ça ne sert à rien puisqu’il n’y a plus de marché.

Nous n’avons pas vocation à nous limiter à notre marché domestique. Mais on va mettre une priorité sur les contenus européens, car notre public sera probablement européen, mais ça ne veut pas dire qu’on ne traitera pas les autres langues. On va simplement favoriser des contenus susceptibles d’être cherchés par nos utilisateurs.

>> Concernant la souveraineté, quelle est votre position ? Où seront installés vos serveurs ?

Je n’aime pas cet axe de la souveraineté qui est utilisé par beaucoup de mes camarades. Nous sommes plus souverains que quiconque. Nous avons des machines qui nous appartiennent en propre, physiquement. Nous les maintenons avec nos équipes en France et elles sont à Marcoussis dans le 91.

Nous n’utilisons pas de solution de cloud : nos modèles tourneront « on premise », ne serait-ce que pour des raisons économiques et écologiques. Ça n’a aucun sens d’utiliser du cloud, surtout aux États-Unis, pour faire ça. Nos données sont stockées en France. Enfin, pour garantir notre service, nous avons des machines que nous administrons chez deux opérateurs : OVH (en France et aux Pays-Bas) et Scaleway (en France). Nos capitaux sont tous français. Mais je dis plutôt « made in France » plutôt que « souverain ». Pour nous, ça coule de source, puisqu’on vit et on travaille ici.

>> Quelles ressources en temps et en argent sont nécessaires pour crawler le web maintenant et le sauvegarder ?

Beaucoup moins qu’avant. Moins pour nous que pour d’autres, mais ça demande quand même beaucoup de ressources. Crawler le web, ce n’est pas ce qui va demander le plus de ressources, mais c’est le stocker et l’indexer ensuite. Aujourd’hui, le crawler historique à l’origine de la technologie mise en place pour Babbar tourne sur six à huit serveurs et doit nous coûter pas plus de 15 000 euros par mois pour crawler quatre milliards de pages par jour.

Ce qui coûte très cher, c’est le stockage. Mais avec une infrastructure qui coûte à la louche un million d’euros, on a une infrastructure qui se situe dans les 15 premiers crawlers mondiaux et qui est largement capable de scrawler un index qui peut servir toute l’Europe. On a créé une énorme base de données.

Mais un moteur de recherche, c’est aussi des millions d’utilisateurs et les infrastructures de services coutent cher aussi. Il faut donc faire « scaler » le service, ce qui est uniquement proportionnel au nombre d’utilisateurs.

Tout ça, ce sont quelques millions d’euros maintenant, là où c’étaient des dizaines de millions il y a quelques années.

>> Quelle est modèle économique du projet Ibou ?

C’est le même que tout le monde. Il ne sera pas mis en avant dans un premier temps, mais ce sera un modèle lié à de la monétisation. C’est un modèle B2C, avec monétisation B2C standard et un peu de publicité, un peu d’affiliation, des fiches entreprises… Le nerf de la guerre, pour financer les opérations, ce sera essentiellement d’avoir du trafic. Comme Google, Bing, etc. Pour l’affiliation, la logique ne sera pas d’avoir un deal exclusif avec un programme d’affiliation en particulier, mais de faire des deals avec plusieurs programmes.

« Quelqu’un qui fait 20 ou 30 millions d’euros par an en France peut faire un moteur de recherche très rentable »

Nous débutons et on sait que ça coute cher d’entretenir un moteur, il faut quelques millions par an, mais ça ne coute pas le prix auquel voudraient nous faire croire les GAFAM. Il n’y a pas besoin de faire 10 milliards de bénéfices pour faire tourner un moteur de recherche. Quelqu’un qui fait 20 ou 30 millions d’euros par an en France peut faire un moteur de recherche très rentable.

>> Est-ce que vous assurerez à vos utilisateurs que leurs données seront protégées ?

Ayant travaillé chez Qwant, je ne sais pas qui est capable de donner une telle garantie. Je pense que c’est littéralement impossible. La donnée utilisateur que nous allons garder qui pourra intéresser le plus le RGPD, ce sera la donnée de personnalisation du Ibou Explorer, à travers un compte utilisateur et le consentement pour l’utiliser.

Mais elle ne sera pas utilisée par les algorithmes de pub, car ceux-ci n’en ont finalement pas besoin. Ils ont besoin juste de savoir ce sur quoi ils s’affichent. Et quand une page s’affiche, maintenant avec les LLM, c’est extrêmement simple de comprendre le contexte de la page. Avec des éléments de contexte suffisant, on peut faire de la pub qui est aussi performante que celle qui utilise l’information utilisateur. Donc pour la pub que nous opérerons nous-mêmes, il n’y aura pas de données utilisateur conservées et utilisées. Après quand on envoie quelqu’un chez un tiers, on ignore ce qui s’y passe.

>> Donc pas de système de traqueurs dans le modèle économique de Ibou ?

Non. Déjà, ce n’est pas notre vision. Et je pense que si on fait ça, on devient un aspirateur de données et on ne fait plus le même moteur. Si on devait faire ça, actuellement, on ferait plus un réseau social.

>> Le copyright et les droits voisins sont des questions sensibles quand on parle de moteur de recherche avec IA générative. Comment envisagez-vous la question ?

Nous envisageons la question verticale par verticale. Sur la partie Ibou Explorer, qui est la plus touchy (80 % des contenus viennent de médias), nous n’allons pas faire de résumé IA. Nous ne voulons pas nous approprier les contenus. Nous ne faisons que du renvoi de trafic vers les tiers, avec un mécanisme d’opt-out et des accords partenariaux.

Sur la partie search, il y aura aussi un mécanisme d’opt-out, car il y a des problématiques qu’on ne pourra jamais résoudre. Pour la partie présentation de l’information, nous voulons systématiquement renvoyer vers les sources. Par exemple, si quelqu’un demande « est-ce qu’il faut un visa pour aller dans tel pays ? », notre système va répondre « oui » ou « non », mais ne va pas donner plus d’informations. Il va, par exemple, répondre « Oui et tout est expliqué sur ce site » et c’est seulement si la personne demande d’aller plus loin sans passer par le site qu’on va donner plus d’informations. Nous voulons renvoyer au maximum vers les sources elles-mêmes.

Nous réfléchissons encore à un mécanisme pour reverser une partie des revenus associés aux réponses qui contiennent cette source, mais nous n’avons aucune idée encore de ce qu’on voudrait faire.

« La connaissance, c’est du ressort du moteur de recherche et des sources, pas du LLM »

>> Concernant la possibilité de régurgitation de contenus copyrightés, comment gérerez-vous ?

C’est un problème qui n’existera pas. Venant de l’IA, nous faisons partie des gens qui pensent que les LLM ne sont absolument pas autre chose qu’un outil d’écriture. Nous n’utiliserons pas d’information contenue dans le LLM. Ça change d’ailleurs tout pour nous, parce que nous n’avons pas besoin d’utiliser un LLM de très grande dimension comme ceux d’OpenAI ou à 500 milliards de paramètres. Ça n’a aucun intérêt de s’en servir, car s’ils ont autant de paramètres, c’est pour pouvoir s’en servir sur des questions qui nécessitent de la connaissance. C’est une profonde erreur.

La connaissance, c’est du ressort du moteur de recherche et des sources, pas du LLM. De tous les mastodontes qui existent devant nous, le seul qui est sur une approche à peu près similaire à la nôtre, c’est Perplexity. Mais ChatGPT et les autres font une profonde erreur : ils ne pourront jamais faire des bons outils de recherche, car ils sont persuadés que le LLM peut contenir du savoir et de l’information, ce qui n’est pas vrai. Ils n’ont pas été créés pour ça et on croit qu’ils en contiennent, car ils sont capables de broder un discours sur des bribes d’information qu’ils ont vues. Ce qui n’est pas du tout la même chose que d’avoir de l’information.

Tant qu’on ne va pas au-delà des transformers, la question est réglée par le fait qu’en réalité on a un moteur de recherche avec un index proche de ce qui se faisait avant, mais qui peut être facilement interfacé avec un LLM, qui lui va se contenter d’écrire les réponses. Chacun son rôle : le LLM comprend la langue, le moteur connaît l’information. Le LLM est un documentaliste qui sait utiliser un moteur de recherche et qui peut nous renvoyer vers les contenus pertinents.

C’est aussi le seul moyen de contrôler la véracité d’une information. Sinon, quand on fait confiance à un LLM pour donner une information, il y a toujours 5 à 10 % de taux d’erreur automatiquement.

>> Pourra-t-on utiliser les opérateurs de recherche comme site:, intitle: ou fileformat: ?

Le moteur grand public d’Ibou ne le permettra pas car c’est un moteur conversationnel et que nous n’indexons pas à proprement parler les pages web, mais les informations les plus importantes et une référence à la page. Ainsi, toute une partie des opérateurs devient inopérante, car on peut indexer le titre parce qu’on pense que c’est du contenu important sans pour autant stocker que c’est le titre.

Il y a aussi une API sur l’index qui existe et qu’on utilise pour faire le moteur. Ce n’est pas exclu qu’on permette à d’autres de pouvoir y accéder.

>> Pourquoi, maintenant, pensez-vous que c’est possible d’indexer le web alors que Qwant, pour lequel vous avez travaillé, a essuyé des problèmes pour le faire à l’époque ?

Dans Babbar, on indexe et on crawle déjà beaucoup plus que ce qui est nécessaire pour faire un moteur de recherche, car on vend de la data aux référenceurs. On doit vendre aussi de la data que les moteurs ne prennent pas en compte pour aider les SEO à comprendre pourquoi ils arrivent à se positionner et pourquoi ils n’y arrivent pas.

« Faire un index qui classe les bonnes pages dans les premières, c’est ça qui est difficile »

À Babbar, on a un index qui était de 2 000 milliards de pages, mais qui a beaucoup diminué pour lancer Ibou : on est maintenant à 1 400 milliards de pages sur la partie Babbar. Et même si ce n’est pas tout à fait les mêmes index puisqu’un moteur a besoin de plus de données mais sur moins de pages, on est sur des choses très similaires. Et faire un index, ce n’est pas un problème : on a déjà un index complet qui tourne avec des résultats de recherche. Mais même si on pense qu’on est déjà meilleurs que d’autres ne l’ont été précédemment, pour l’instant, on estime que notre projet n’est pas encore au niveau et on ne veut pas créer une mauvaise image alors qu’on est encore en train de travailler.

La seule vraie difficulté qu’il y avait avant, ce n’était pas la partie index – que nous avons résolue dans Babbar depuis longtemps –, mais qu’il fallait de la data utilisateur pour faire les choses. Faire un index qui contient les bonnes pages, ce n’est pas difficile, faire un index qui classe les bonnes pages dans les premières, c’est ça qui est difficile. Ce sont les fonctions de ranking.

Depuis 2005, ces fonctions n’étaient bonnes que s’il y avait une data utilisateur qui permettait de compenser tous les problèmes que les algorithmes ne sont pas capables d’arbitrer. C’est ce qu’on a vu dans le procès de Google : l’utilisation massive de la data comportementale des utilisateurs au niveau du moteur, c’est ça qui fait la qualité du moteur. Et Google est le plus fort, parce qu’il a beaucoup plus de données que Bing par exemple. Mais avec les LLM, il n’y a plus besoin de cette data pour faire quelque chose de bien, parce que le LLM peut simuler l’humain en grande partie et suffisamment bien pour faire les dernières étapes de tris.

Une fois que les algorithmes ont bien travaillé, il reste des scories : peut-être 10, 20 ou 30 % de l’index sont en tête et ne devraient pas, et c’est le LLM qui en enlève une grosse partie. Et en plus, quand on fait la synthèse des réponses, le LLM prenant plusieurs sources simultanément réussit à donner une réponse qui est bien meilleure que si on prenait chaque source indépendamment les unes des autres, en faisant comme l’être humain qui va lire plusieurs contenus pour faire sa propre opinion.

Pour en revenir à la question, cette dernière étape, qui était plus une étape de coût, est beaucoup plus facile à faire et la barrière de la data massive a complètement disparu.

>> Quelle est l’articulation entre Babbar et Ibou ?

C’est la même boite, les mêmes personnes. Nous espérons que tout va bien se passer pour nous, avec peut-être de l’aide de l’extérieur on ne sait pas encore, et qu’on va pouvoir recruter cette année. Par contre, ce sont des infrastructures techniques séparées parce que ce sont des outils qui n’ont pas du tout le même objectif. Donc algorithmiquement, c’est assez différent pour qu’il n’y ait aucun intérêt pour nous à ce que ce soient les mêmes plateformes.

Le crawler de Babbar est un crawler SEO, le crawler d’Ibou sera un moteur de recherche. Nous n’avons pas vocation à être autorisés à crawler de la même manière tous les sites selon le métier. Si on avait un crawler IA, ce serait encore une autre plateforme, car on ne peut pas mélanger les genres et que, pour être respectueux des gens, c’est ce qu’il faut faire. On veut aussi séparer parce que, aujourd’hui, notre activité est largement soutenue par notre activité SEO, mais on se doute qu’à un moment donné se posera la question de savoir si les deux activités doivent rester côte à côte ou pas.

>> Quand Ibou sera disponible ?

Pas avant un an. Pour les premières verticales, comme la partie Ibou Explorer (ndlr : l’équivalent de Google Discover), ça devrait arriver début 2026.

  •  

[Offert] Ibou : comment le moteur de recherche « made in France » veut indexer le web

Y aura-t-il des ads ibou ?
[Offert] Ibou : comment le moteur de recherche « made in France » veut indexer le web

Est-il possible de créer aujourd’hui un moteur de recherche sans faire partie des plus grosses entreprises du secteur ? Pour explorer ce thème, nous nous sommes entretenus avec Sylvain Peyronnet, PDG de Babbar.

Pour les fêtes de fin d’année, Next vous offre cet article initialement paru le 24 septembre 2025 et réservé aux abonnés. Pour lire les prochains entretiens dès leur publication, abonnez-vous !


Depuis quelques semaines, Next a repéré sur les réseaux sociaux un nouveau projet français de moteur de recherche (conversationnel, cette fois) porté par l’entreprise Babbar : Ibou. Connaissant un autre projet de moteur de recherche dont les résultats se sont trouvés datés et limités, nous étions curieux de savoir s’il était possible d’en monter un avec un index correct, à jour et qui pourrait profiter des nouvelles technologies comme les LLM pour améliorer son fonctionnement.

Nous avons interrogé Sylvain Peyronnet, PDG de Babbar. Son entreprise est spécialisée dans les outils permettant aux spécialistes du SEO d’améliorer leurs stratégies. Lui est un ancien enseignant-chercheur en intelligence artificielle, mais aussi l’ancien responsable scientifique de Qwant, parti en 2019.

>> Qu’est-ce qu’il y a derrière ce nom d’Ibou à l’apparence très française ?

C’est un projet de moteur de recherche de l’entreprise Babbar. Celle-ci fait, depuis que j’ai quitté Qwant et qu’on l’a montée, des outils qui font tourner en arrière-plan un moteur recherche, pour comprendre ce que fait Google et fournir de la data aux gens qui font du référencement web. Pour différentes raisons, nous avons décidé de pivoter. Nous avons commencé à créer un moteur de recherche conversationnel depuis quelques mois. Et nous l’avons annoncé quasiment dès qu’on a commencé le travail.

Ibou, même si on joue beaucoup avec des logos liés à l’oiseau parce qu’on est en France, ça n’a rien à voir : c’est un mot d’égyptien ancien qui veut dire « les cœurs », car, dans l’Égypte ancienne, le cœur était le siège du raisonnement et de la mémoire.

>> Qu’est-ce qui vous a amenés à imaginer ce projet ?

En travaillant dans le secteur du moteur de recherche depuis longtemps, nous nous sommes rendu compte de plusieurs choses.

Déjà, jusqu’au paradigme conversationnel, les moteurs n’étaient pas vraiment faits pour de la recherche d’information, mais pour de la recherche documentaire : ils renvoyaient des pages web. Pourtant, quand les gens tapent une requête dans un moteur, la plupart du temps, ils s’en fichent un peu. Ce qu’ils attendent, c’est une réponse qui les satisfait et qui leur permet de réaliser les tâches qu’ils veulent réaliser.

« L’émergence des LLM a permis de faire percoler des informations humaines dans des objets mathématiques »

Ensuite, pour faire un bon moteur, le nerf de la guerre était d’avoir beaucoup de données utilisateurs pour comprendre l’être humain et affiner ce que faisaient les algorithmes et qui n’était jamais parfait. Et pour parfaire les résultats d’un moteur, il fallait beaucoup de comportements humains.

L’émergence des LLM, et surtout des LLM alignés, a permis de faire percoler des informations humaines dans des objets mathématiques, les modèles. Maintenant, une partie des choses qui pouvaient être faites grâce à la data humaine peut être faite grâce aux modèles qui existent. Bien sûr, ceux-ci ont été fabriqués avec de la data humaine. Mais, comme c’est à l’intérieur du modèle et que c’est pas très cher de faire tourner des modèles, une partie de la difficulté, et notamment de la barrière à l’entrée, de la création d’un moteur a disparu, parce que le modèle a incorporé cette connaissance des humains.

C’est pour ça qu’on a décidé de se lancer aujourd’hui. En réalité, n’importe quelle équipe de personnes qui sont un peu douées en algorithmique peut faire des moteurs de bonne manière.

>> L’idée est donc de faire un moteur de recherche conversationnel sur quels types de contenus ? Textuels, images, audio ?

Notre moteur a vocation, à terme, à mettre en avant l’information. Et donc la multimodalité fait partie du pack, puisqu’en réalité, l’information n’est pas que textuelle, qu’image, etc. Mais il faut être raisonnable : au début, on ne va avoir que textes et images. Pour la vidéo, ce n’est pas un problème algorithmique, mais nous n’avons juste pas les moyens. Ça arrivera plus tard si on arrive à montrer qu’on est capables d’avoir des résultats de bonne qualité sur textes et images.

Mais nous avons une vision un peu différente des autres de ce que doit être un moteur de recherche, et une vision plus ouverte du web que ce que proposent la plupart des plateformes actuelles. Notamment, nous voulons être un moteur qui répond à l’utilisateur, mais pas comme un LLM classique comme ChatGPT ou autres, avec un texte qui explicite absolument tout. Cela génère souvent une mauvaise qualité de réponse.

« On veut aussi garantir un pluralisme »

Indépendamment des hallucinations ou des mensonges, en réalité, les gens veulent souvent accéder à une source. La bonne réponse, de notre point de vue, est l’explication de pourquoi il faut aller lire une source. Nous voulons nous interposer à un niveau intermédiaire avec toutes les modalités qui permettent d’expliquer, les images, les cartes, etc.

On pense aussi qu’il ne faut pas prendre les gens pour des abrutis. Actuellement, les moteurs ont des biais terribles et ne présentent qu’une seule partie de l’information. On veut aussi garantir un pluralisme. L’actualité est traitée par chaque média depuis son point de vue, et c’est compréhensible, chaque média a sa ligne éditoriale particulière. Mais un moteur de recherche peut tout à fait mettre en avant la diversité de point de vue.

>> Ça fait penser aux vieilles approches de portail d’informations comme Yahoo ou autre. Vous en êtes-vous inspirés ?

Peut-être de façon involontaire : ça correspond à l’image du web qu’on a dans l’équipe, qui est plus composée de vieux barbus que de startupers. Mais la technologie permet de faire des choses beaucoup plus subtiles que ce qu’on faisait avant. Nous allons avoir une verticale qui va se rapprocher fortement d’un portail : Ibou Explorer, un équivalent de Google Discover, mais de qualité. Ici, toutes les sources seront directement présentées dans leur diversité, avec une personnalisation. On sera là plus proche d’une idée de portail, comme ceux de Yahoo, etc. J’espère qu’on va réussir à faire un meilleur travail.

Par contre, sur la partie moteur, il y a une partie de curation. Il va falloir trouver le bon équilibre et savoir où la curation s’arrête : on ne veut pas prendre le pas sur la réflexion de l’humain.

>> Concernant la curation, il y a aussi celle des contenus diffusant des informations volontairement fausses et des contenus générés par IA. Ibou va-t-il prendre en compte ces problématiques ?

Ce sont deux sujets sur lesquels nous travaillons. Le premier, la véracité de l’information, est le plus simple. Nous expliquons dans notre manifeste que nous voulons donner des informations de qualité. La qualité, pour nous, étant la correction de l’information et son utilité. Pour l’utilité, c’est assez clair : à tel type de personne, est-ce que l’information va lui servir pour réaliser sa tâche ?

La correction est de savoir si une chose est vraie ou fausse, sachant qu’il y a toute une gradation et qu’à un moment donné, une chose peut n’être ni vraie ni fausse (une opinion, par exemple). Il y a une vraie difficulté technique à faire ça. Nous avons prévu un processus pour qu’une chose abusivement fausse ne puisse pas passer, avec quelques erreurs de temps en temps. Mais sur l’actualité, il est parfois difficile de repérer le mensonge. La grosse partie de ce qui est de la propagande, qui est de la manipulation, se repère plus sur la qualité intrinsèque des contenus que par rapport à l’information elle-même et sa véracité.

Par rapport aux contenus IA, dans notre prototype Ibou Explorer, ce qui compte, ce n’est pas que le contenu soit généré par IA ou pas, mais s’il a un niveau tel qu’il aurait pu être écrit par un être humain. Nous allons donc plutôt qualifier si un contenu qui s’annonce journalistique s’appuie réellement sur les sources qu’un journaliste aurait utilisées, par exemple. On essaye de vérifier quel est le type de personne qui a écrit (en s’appuyant sur le niveau de langage, le type d’écriture, si la personne a écrit des articles dans des médias de confiance, etc). C’est des choses qu’on arrive à faire et qu’on peut utiliser.

Pour Ibou Explorer, c’est d’autant plus facile à faire qu’on est sur un nombre de sites qui est beaucoup plus petit. Il est donc beaucoup plus facile de comprendre quelles sont les sources de qualité et les autres. Sur le search à très grande échelle, il faut que nous industrialisions ce processus, ce qui coûte très très cher. Nous essayons en ce moment d’en réduire les coûts.

>> Mais il est difficile, pour le public, de comprendre quels paramètres permettront de discriminer…

C’est la vraie problématique. Nous voulons être transparents algorithmiquement. Nous allons donc communiquer certaines choses. Nous faisons des analyses sur le vocabulaire utilisé, on le compare au vocabulaire utilisé sur d’autres sites web, etc. Par exemple, pour le Monde, nous listons les contenus qu’il publie et statistiquement leurs caractéristiques. Ça crée ensuite des empreintes pour des classifieurs qui permettent de facilement repérer si des contenus sont susceptibles d’être les mêmes, s’en approchent, etc. C’est par des artifices statistiques que nous allons faire les choses, c’est le seul moyen d’automatiser.

Bien sûr, nous savons qu’il y a toujours moyen, en travaillant vraiment à publier des choses qui ressemblent à de bons articles. L’avantage, c’est que les gens qui font de la fake news publient en masse et ne travaillent pas bien un article unitairement, et il est donc possible de les repérer.

Les jugements humains d’invalidation, notamment pour la partie Ibou Explorer, ne viendront qu’a posteriori.

Mais il y a des mécanismes algorithmiques en plus sur lesquels nous ne pouvons pas être transparents, sinon les gens pourraient savoir comment passer outre. Par contre, nous allons mettre en place une interface, un peu comme la Google Search Console, où les gens pourront demander pourquoi telle ou telle page n’est pas dans Ibou. Et nous donnerons la qualification que nous en faisons (« il n’est pas de qualité pour telle ou telle raison », par exemple), sans pour autant expliquer comment nous l’avons fait.

Nous avons un système, par exemple, qui donne la probabilité qu’un contenu soit écrit par un humain, une IA ou un humain assisté d’une IA. Bien sûr, ça se trompe : il y a souvent des contenus écrits par des humains qui sont détectés comme générés par des IA parce que les humains ont mal écrit. On se trompe davantage dans ce sens, car il y a assez peu de gens qui font de bons contenus IA. Nous donnerons aussi un outil qui analysera le texte et qui donnera notre conclusion.

>> Ciblez-vous l’indexation du web francophone, anglophone ou carrément tout le web ?

Aujourd’hui, nous crawlons tout le web, même si nous avons priorisé le francophone et quelques langues des pays limitrophes à la France. Nous ferons ensuite toutes les langues qu’on peut faire : pour des raisons algorithmiques, certaines langues (indépendamment des marchés) sont difficiles, comme les langues asiatiques ou le finlandais. Le russe, nous ne l’indexons pas. Même dans Babbar, nous ne le crawlons plus, en ce moment : ça ne sert à rien puisqu’il n’y a plus de marché.

Nous n’avons pas vocation à nous limiter à notre marché domestique. Mais on va mettre une priorité sur les contenus européens, car notre public sera probablement européen, mais ça ne veut pas dire qu’on ne traitera pas les autres langues. On va simplement favoriser des contenus susceptibles d’être cherchés par nos utilisateurs.

>> Concernant la souveraineté, quelle est votre position ? Où seront installés vos serveurs ?

Je n’aime pas cet axe de la souveraineté qui est utilisé par beaucoup de mes camarades. Nous sommes plus souverains que quiconque. Nous avons des machines qui nous appartiennent en propre, physiquement. Nous les maintenons avec nos équipes en France et elles sont à Marcoussis dans le 91.

Nous n’utilisons pas de solution de cloud : nos modèles tourneront « on premise », ne serait-ce que pour des raisons économiques et écologiques. Ça n’a aucun sens d’utiliser du cloud, surtout aux États-Unis, pour faire ça. Nos données sont stockées en France. Enfin, pour garantir notre service, nous avons des machines que nous administrons chez deux opérateurs : OVH (en France et aux Pays-Bas) et Scaleway (en France). Nos capitaux sont tous français. Mais je dis plutôt « made in France » plutôt que « souverain ». Pour nous, ça coule de source, puisqu’on vit et on travaille ici.

>> Quelles ressources en temps et en argent sont nécessaires pour crawler le web maintenant et le sauvegarder ?

Beaucoup moins qu’avant. Moins pour nous que pour d’autres, mais ça demande quand même beaucoup de ressources. Crawler le web, ce n’est pas ce qui va demander le plus de ressources, mais c’est le stocker et l’indexer ensuite. Aujourd’hui, le crawler historique à l’origine de la technologie mise en place pour Babbar tourne sur six à huit serveurs et doit nous coûter pas plus de 15 000 euros par mois pour crawler quatre milliards de pages par jour.

Ce qui coûte très cher, c’est le stockage. Mais avec une infrastructure qui coûte à la louche un million d’euros, on a une infrastructure qui se situe dans les 15 premiers crawlers mondiaux et qui est largement capable de scrawler un index qui peut servir toute l’Europe. On a créé une énorme base de données.

Mais un moteur de recherche, c’est aussi des millions d’utilisateurs et les infrastructures de services coutent cher aussi. Il faut donc faire « scaler » le service, ce qui est uniquement proportionnel au nombre d’utilisateurs.

Tout ça, ce sont quelques millions d’euros maintenant, là où c’étaient des dizaines de millions il y a quelques années.

>> Quelle est modèle économique du projet Ibou ?

C’est le même que tout le monde. Il ne sera pas mis en avant dans un premier temps, mais ce sera un modèle lié à de la monétisation. C’est un modèle B2C, avec monétisation B2C standard et un peu de publicité, un peu d’affiliation, des fiches entreprises… Le nerf de la guerre, pour financer les opérations, ce sera essentiellement d’avoir du trafic. Comme Google, Bing, etc. Pour l’affiliation, la logique ne sera pas d’avoir un deal exclusif avec un programme d’affiliation en particulier, mais de faire des deals avec plusieurs programmes.

« Quelqu’un qui fait 20 ou 30 millions d’euros par an en France peut faire un moteur de recherche très rentable »

Nous débutons et on sait que ça coute cher d’entretenir un moteur, il faut quelques millions par an, mais ça ne coute pas le prix auquel voudraient nous faire croire les GAFAM. Il n’y a pas besoin de faire 10 milliards de bénéfices pour faire tourner un moteur de recherche. Quelqu’un qui fait 20 ou 30 millions d’euros par an en France peut faire un moteur de recherche très rentable.

>> Est-ce que vous assurerez à vos utilisateurs que leurs données seront protégées ?

Ayant travaillé chez Qwant, je ne sais pas qui est capable de donner une telle garantie. Je pense que c’est littéralement impossible. La donnée utilisateur que nous allons garder qui pourra intéresser le plus le RGPD, ce sera la donnée de personnalisation du Ibou Explorer, à travers un compte utilisateur et le consentement pour l’utiliser.

Mais elle ne sera pas utilisée par les algorithmes de pub, car ceux-ci n’en ont finalement pas besoin. Ils ont besoin juste de savoir ce sur quoi ils s’affichent. Et quand une page s’affiche, maintenant avec les LLM, c’est extrêmement simple de comprendre le contexte de la page. Avec des éléments de contexte suffisant, on peut faire de la pub qui est aussi performante que celle qui utilise l’information utilisateur. Donc pour la pub que nous opérerons nous-mêmes, il n’y aura pas de données utilisateur conservées et utilisées. Après quand on envoie quelqu’un chez un tiers, on ignore ce qui s’y passe.

>> Donc pas de système de traqueurs dans le modèle économique de Ibou ?

Non. Déjà, ce n’est pas notre vision. Et je pense que si on fait ça, on devient un aspirateur de données et on ne fait plus le même moteur. Si on devait faire ça, actuellement, on ferait plus un réseau social.

>> Le copyright et les droits voisins sont des questions sensibles quand on parle de moteur de recherche avec IA générative. Comment envisagez-vous la question ?

Nous envisageons la question verticale par verticale. Sur la partie Ibou Explorer, qui est la plus touchy (80 % des contenus viennent de médias), nous n’allons pas faire de résumé IA. Nous ne voulons pas nous approprier les contenus. Nous ne faisons que du renvoi de trafic vers les tiers, avec un mécanisme d’opt-out et des accords partenariaux.

Sur la partie search, il y aura aussi un mécanisme d’opt-out, car il y a des problématiques qu’on ne pourra jamais résoudre. Pour la partie présentation de l’information, nous voulons systématiquement renvoyer vers les sources. Par exemple, si quelqu’un demande « est-ce qu’il faut un visa pour aller dans tel pays ? », notre système va répondre « oui » ou « non », mais ne va pas donner plus d’informations. Il va, par exemple, répondre « Oui et tout est expliqué sur ce site » et c’est seulement si la personne demande d’aller plus loin sans passer par le site qu’on va donner plus d’informations. Nous voulons renvoyer au maximum vers les sources elles-mêmes.

Nous réfléchissons encore à un mécanisme pour reverser une partie des revenus associés aux réponses qui contiennent cette source, mais nous n’avons aucune idée encore de ce qu’on voudrait faire.

« La connaissance, c’est du ressort du moteur de recherche et des sources, pas du LLM »

>> Concernant la possibilité de régurgitation de contenus copyrightés, comment gérerez-vous ?

C’est un problème qui n’existera pas. Venant de l’IA, nous faisons partie des gens qui pensent que les LLM ne sont absolument pas autre chose qu’un outil d’écriture. Nous n’utiliserons pas d’information contenue dans le LLM. Ça change d’ailleurs tout pour nous, parce que nous n’avons pas besoin d’utiliser un LLM de très grande dimension comme ceux d’OpenAI ou à 500 milliards de paramètres. Ça n’a aucun intérêt de s’en servir, car s’ils ont autant de paramètres, c’est pour pouvoir s’en servir sur des questions qui nécessitent de la connaissance. C’est une profonde erreur.

La connaissance, c’est du ressort du moteur de recherche et des sources, pas du LLM. De tous les mastodontes qui existent devant nous, le seul qui est sur une approche à peu près similaire à la nôtre, c’est Perplexity. Mais ChatGPT et les autres font une profonde erreur : ils ne pourront jamais faire des bons outils de recherche, car ils sont persuadés que le LLM peut contenir du savoir et de l’information, ce qui n’est pas vrai. Ils n’ont pas été créés pour ça et on croit qu’ils en contiennent, car ils sont capables de broder un discours sur des bribes d’information qu’ils ont vues. Ce qui n’est pas du tout la même chose que d’avoir de l’information.

Tant qu’on ne va pas au-delà des transformers, la question est réglée par le fait qu’en réalité on a un moteur de recherche avec un index proche de ce qui se faisait avant, mais qui peut être facilement interfacé avec un LLM, qui lui va se contenter d’écrire les réponses. Chacun son rôle : le LLM comprend la langue, le moteur connaît l’information. Le LLM est un documentaliste qui sait utiliser un moteur de recherche et qui peut nous renvoyer vers les contenus pertinents.

C’est aussi le seul moyen de contrôler la véracité d’une information. Sinon, quand on fait confiance à un LLM pour donner une information, il y a toujours 5 à 10 % de taux d’erreur automatiquement.

>> Pourra-t-on utiliser les opérateurs de recherche comme site:, intitle: ou fileformat: ?

Le moteur grand public d’Ibou ne le permettra pas car c’est un moteur conversationnel et que nous n’indexons pas à proprement parler les pages web, mais les informations les plus importantes et une référence à la page. Ainsi, toute une partie des opérateurs devient inopérante, car on peut indexer le titre parce qu’on pense que c’est du contenu important sans pour autant stocker que c’est le titre.

Il y a aussi une API sur l’index qui existe et qu’on utilise pour faire le moteur. Ce n’est pas exclu qu’on permette à d’autres de pouvoir y accéder.

>> Pourquoi, maintenant, pensez-vous que c’est possible d’indexer le web alors que Qwant, pour lequel vous avez travaillé, a essuyé des problèmes pour le faire à l’époque ?

Dans Babbar, on indexe et on crawle déjà beaucoup plus que ce qui est nécessaire pour faire un moteur de recherche, car on vend de la data aux référenceurs. On doit vendre aussi de la data que les moteurs ne prennent pas en compte pour aider les SEO à comprendre pourquoi ils arrivent à se positionner et pourquoi ils n’y arrivent pas.

« Faire un index qui classe les bonnes pages dans les premières, c’est ça qui est difficile »

À Babbar, on a un index qui était de 2 000 milliards de pages, mais qui a beaucoup diminué pour lancer Ibou : on est maintenant à 1 400 milliards de pages sur la partie Babbar. Et même si ce n’est pas tout à fait les mêmes index puisqu’un moteur a besoin de plus de données mais sur moins de pages, on est sur des choses très similaires. Et faire un index, ce n’est pas un problème : on a déjà un index complet qui tourne avec des résultats de recherche. Mais même si on pense qu’on est déjà meilleurs que d’autres ne l’ont été précédemment, pour l’instant, on estime que notre projet n’est pas encore au niveau et on ne veut pas créer une mauvaise image alors qu’on est encore en train de travailler.

La seule vraie difficulté qu’il y avait avant, ce n’était pas la partie index – que nous avons résolue dans Babbar depuis longtemps –, mais qu’il fallait de la data utilisateur pour faire les choses. Faire un index qui contient les bonnes pages, ce n’est pas difficile, faire un index qui classe les bonnes pages dans les premières, c’est ça qui est difficile. Ce sont les fonctions de ranking.

Depuis 2005, ces fonctions n’étaient bonnes que s’il y avait une data utilisateur qui permettait de compenser tous les problèmes que les algorithmes ne sont pas capables d’arbitrer. C’est ce qu’on a vu dans le procès de Google : l’utilisation massive de la data comportementale des utilisateurs au niveau du moteur, c’est ça qui fait la qualité du moteur. Et Google est le plus fort, parce qu’il a beaucoup plus de données que Bing par exemple. Mais avec les LLM, il n’y a plus besoin de cette data pour faire quelque chose de bien, parce que le LLM peut simuler l’humain en grande partie et suffisamment bien pour faire les dernières étapes de tris.

Une fois que les algorithmes ont bien travaillé, il reste des scories : peut-être 10, 20 ou 30 % de l’index sont en tête et ne devraient pas, et c’est le LLM qui en enlève une grosse partie. Et en plus, quand on fait la synthèse des réponses, le LLM prenant plusieurs sources simultanément réussit à donner une réponse qui est bien meilleure que si on prenait chaque source indépendamment les unes des autres, en faisant comme l’être humain qui va lire plusieurs contenus pour faire sa propre opinion.

Pour en revenir à la question, cette dernière étape, qui était plus une étape de coût, est beaucoup plus facile à faire et la barrière de la data massive a complètement disparu.

>> Quelle est l’articulation entre Babbar et Ibou ?

C’est la même boite, les mêmes personnes. Nous espérons que tout va bien se passer pour nous, avec peut-être de l’aide de l’extérieur on ne sait pas encore, et qu’on va pouvoir recruter cette année. Par contre, ce sont des infrastructures techniques séparées parce que ce sont des outils qui n’ont pas du tout le même objectif. Donc algorithmiquement, c’est assez différent pour qu’il n’y ait aucun intérêt pour nous à ce que ce soient les mêmes plateformes.

Le crawler de Babbar est un crawler SEO, le crawler d’Ibou sera un moteur de recherche. Nous n’avons pas vocation à être autorisés à crawler de la même manière tous les sites selon le métier. Si on avait un crawler IA, ce serait encore une autre plateforme, car on ne peut pas mélanger les genres et que, pour être respectueux des gens, c’est ce qu’il faut faire. On veut aussi séparer parce que, aujourd’hui, notre activité est largement soutenue par notre activité SEO, mais on se doute qu’à un moment donné se posera la question de savoir si les deux activités doivent rester côte à côte ou pas.

>> Quand Ibou sera disponible ?

Pas avant un an. Pour les premières verticales, comme la partie Ibou Explorer (ndlr : l’équivalent de Google Discover), ça devrait arriver début 2026.

  •  

☕️ La justice ordonne le blocage de WatchPeopleDie par les principaux FAI français

Suite à une demande de l’Arcom faite en novembre dernier, la justice a ordonné aux principaux fournisseurs d’accès internet Orange, Free, Free Mobile, SFR, SFR Fibre et Bouygues Télécom de bloquer le site montrant des vidéos horribles de personnes en train de mourir dans diverses situations.

L’Informé avait révélé le signalement par l’autorité administrative au tribunal judiciaire de Paris, expliquant que « la ligne éditoriale de la plateforme est entièrement dédiée à publication de contenus illicites, violents et attentatoires à la dignité humaine ».

Le tribunal a pris sa décision ce jeudi 18 décembre, selon l’AFP qui a pu consulter le jugement. Le tribunal demande aux FAI de « mettre en œuvre, ou de faire mettre en œuvre, toutes mesures les plus adaptées et les plus efficaces propres à empêcher l’accès, à partir du territoire français et par leurs abonnés situés sur ce territoire » au site et ses miroirs sous quinze jours.

Comme l’expliquait L’Informé, l’Arcom s’appuyait sur l’article 6 - 3 de la loi sur la confiance dans l’économie numérique (LCEN), selon lequel « le président du tribunal judiciaire, statuant selon la procédure accélérée au fond, peut prescrire à toute personne susceptible d’y contribuer toutes les mesures propres à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d’un service de communication au public en ligne ».

Dans son ordonnance, que notre confrère Marc Rees a partagée sur LinkedIn, la juridiction relève que ce site, « non seulement n’est porteur d’aucune information, opinion ou idée (…) mais est à l’inverse entièrement dédié à la diffusion d’images extrêmement violentes, attentatoires à la dignité humaine et susceptibles de toucher et choquer un jeune public et d’avoir sur lui une influence néfaste ».

Non content de ne pas avoir de mentions légales, Watchpeopledie n’a en outre « jamais répondu aux demandes de retrait présentées par les autorités françaises », en particulier l’office anti-cybercriminalité de la direction générale de la police nationale (OFAC), relève Marc Rees.

Il souligne que le blocage du site « devra perdurer tant que durera la diffusion des contenus illicites », mais qu’il pourra être levé en cas de « cessation du dommage, disparition du site ou de désactivation du nom de domaine ».

  •  

☕️ La justice ordonne le blocage de WatchPeopleDie par les principaux FAI français

Suite à une demande de l’Arcom faite en novembre dernier, la justice a ordonné aux principaux fournisseurs d’accès internet Orange, Free, Free Mobile, SFR, SFR Fibre et Bouygues Télécom de bloquer le site montrant des vidéos horribles de personnes en train de mourir dans diverses situations.

L’Informé avait révélé le signalement par l’autorité administrative au tribunal judiciaire de Paris, expliquant que « la ligne éditoriale de la plateforme est entièrement dédiée à publication de contenus illicites, violents et attentatoires à la dignité humaine ».

Le tribunal a pris sa décision ce jeudi 18 décembre, selon l’AFP qui a pu consulter le jugement. Le tribunal demande aux FAI de « mettre en œuvre, ou de faire mettre en œuvre, toutes mesures les plus adaptées et les plus efficaces propres à empêcher l’accès, à partir du territoire français et par leurs abonnés situés sur ce territoire » au site et ses miroirs sous quinze jours.

Comme l’expliquait L’Informé, l’Arcom s’appuyait sur l’article 6 - 3 de la loi sur la confiance dans l’économie numérique (LCEN), selon lequel « le président du tribunal judiciaire, statuant selon la procédure accélérée au fond, peut prescrire à toute personne susceptible d’y contribuer toutes les mesures propres à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d’un service de communication au public en ligne ».

Dans son ordonnance, que notre confrère Marc Rees a partagée sur LinkedIn, la juridiction relève que ce site, « non seulement n’est porteur d’aucune information, opinion ou idée (…) mais est à l’inverse entièrement dédié à la diffusion d’images extrêmement violentes, attentatoires à la dignité humaine et susceptibles de toucher et choquer un jeune public et d’avoir sur lui une influence néfaste ».

Non content de ne pas avoir de mentions légales, Watchpeopledie n’a en outre « jamais répondu aux demandes de retrait présentées par les autorités françaises », en particulier l’office anti-cybercriminalité de la direction générale de la police nationale (OFAC), relève Marc Rees.

Il souligne que le blocage du site « devra perdurer tant que durera la diffusion des contenus illicites », mais qu’il pourra être levé en cas de « cessation du dommage, disparition du site ou de désactivation du nom de domaine ».

  •  

Fuite de données Deezer : 1 million d’euros d’amende pour un sous traitant

C'est la faute de nos salariés
Fuite de données Deezer : 1 million d’euros d’amende pour un sous traitant

Trois ans après la fuite de données concernant des millions d’utilisateurs de Deezer, la CNIL vient d’infliger une amende d’un million d’euros à l’entreprise Mobius Solutions, un prestataire israélien de la plateforme de streaming audio qui édite le logiciel de campagne de marketing personnalisées Optimove.

En novembre 2022, Deezer expliquait dans un message publié sur son site avoir été informé « qu’un de [ses] partenaires avait été victime d’une violation de données en 2019, et qu’un aperçu des informations non sensibles de [ses] utilisateurs a été exposé ». Quelques jours plus tard, RestorePrivacy (depuis devenu cyberinsider.com) apprenait qu’un pirate avait posté sur un forum une archive supposée contenir des données concernant plusieurs millions d’utilisateurs.

La plateforme de streaming audio précisait que « les systèmes de sécurité de Deezer restent efficaces et nos propres bases de données sont sécurisées ». Elle expliquait déjà à RestorePrivacy qu’elle travaillait avec la CNIL « afin de confirmer l’origine de l’incident et de prendre toutes les mesures nécessaires ».

46 millions d’utilisateurs concernés dans le monde, 9 millions en France

Comme l’indique la délibération de l’Autorité de protection des données française du 11 décembre 2025, Deezer lui a envoyé une notification de violation de données complémentaire le 31 janvier 2023 « confirmant que, selon son analyse, l’origine de la violation de données résidait très certainement dans les systèmes de la société MOBIUS SOLUTIONS LTD ». La CNIL a ensuite réalisé plusieurs contrôles sur pièce en 2023 et 2024 auprès de l’entreprise israélienne pour mener son enquête.


Il reste 71% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ TikTok US : accord bouclé

Un mémo interne à TikTok, qu’Axios a pu consulter, confirme que ByteDance et le gouvernement états-unien sont bien arrivés à un accord, comme l’avait annoncé la publication d’un executive order de Donald Trump en septembre dernier.

Selon ce texte envoyé par le CEO Shou Chew aux salariés, l’accord sera signé le 22 janvier et une coentreprise basée aux États-Unis sera créée.

TikTok

Les entreprises américaines Oracle et Silver Lake et l’émiratie MGX auront chacune 15 % de cette coentreprise.

De son côté, ByteDance devrait détenir 19,9 % de la nouvelle entité et 30,1 % seraient possédés par diverses filiales de l’entreprise chinoise.

Ainsi, comme l’explique le Financial Times, cela laisserait à ByteDance le contrôle direct de ses activités commerciales principales aux États-Unis. Selon le journal économique britannique, le mémo interne indique, par contre, que le « conseil d’administration [sera] composé de sept membres, majoritairement américains ».

D’après le mémo, la coentreprise « fonctionnera comme une entité indépendante ayant autorité sur la protection des données, la sécurité des algorithmes, la modération des contenus et l’intégrité logicielle aux États-Unis, tandis que les entités américaines de TikTok Global géreront l’interopérabilité des produits à l’échelle mondiale et certaines activités commerciales, notamment le commerce électronique, la publicité et le marketing ».

L’accord devrait valoriser TikTok US aux alentours de 14 milliards de dollars, selon une source d’Axios.

  •  

☕️ TikTok US : accord bouclé

Un mémo interne à TikTok, qu’Axios a pu consulter, confirme que ByteDance et le gouvernement états-unien sont bien arrivés à un accord, comme l’avait annoncé la publication d’un executive order de Donald Trump en septembre dernier.

Selon ce texte envoyé par le CEO Shou Chew aux salariés, l’accord sera signé le 22 janvier et une coentreprise basée aux États-Unis sera créée.

TikTok

Les entreprises américaines Oracle et Silver Lake et l’émiratie MGX auront chacune 15 % de cette coentreprise.

De son côté, ByteDance devrait détenir 19,9 % de la nouvelle entité et 30,1 % seraient possédés par diverses filiales de l’entreprise chinoise.

Ainsi, comme l’explique le Financial Times, cela laisserait à ByteDance le contrôle direct de ses activités commerciales principales aux États-Unis. Selon le journal économique britannique, le mémo interne indique, par contre, que le « conseil d’administration [sera] composé de sept membres, majoritairement américains ».

D’après le mémo, la coentreprise « fonctionnera comme une entité indépendante ayant autorité sur la protection des données, la sécurité des algorithmes, la modération des contenus et l’intégrité logicielle aux États-Unis, tandis que les entités américaines de TikTok Global géreront l’interopérabilité des produits à l’échelle mondiale et certaines activités commerciales, notamment le commerce électronique, la publicité et le marketing ».

L’accord devrait valoriser TikTok US aux alentours de 14 milliards de dollars, selon une source d’Axios.

  •  

noyb accuse TikTok de récupérer des données venant de Grindr à propos de ses utilisateurs

TikTok tact
noyb accuse TikTok de récupérer des données venant de Grindr à propos de ses utilisateurs

L’association de Max Schrems vient de déposer deux plaintes contre TikTok devant l’autorité de protection autrichienne. Elle accuse notamment le réseau social de récupérer des données de ses utilisateurs venant d’applications extérieures comme Grindr en passant par AppsFlyer, une entreprise de revente de données israélienne.

TikTok accumulerait des données de ses utilisateurs venant d’autres applications et sites. Accompagnant un utilisateur de l’application, noyb a porté plainte, devant l’autorité de protection de données de son pays, la DSB, en accusant TikTok de stocker certaines données qu’il n’a remplies que dans l’application Grindr.

Dans sa plainte [PDF] dans laquelle elle attaque aussi Grindr et l’entreprise israélienne AppsFlyer, l’association autrichienne explique qu’en voulant télécharger les données le concernant stockées par TikTok, l’utilisateur en question a remarqué que l’archive contenait une référence à des données d’activité en dehors de TikTok, alors que la politique de confidentialité ne donne aucune information concernant le stockage de ce genre de données.

Voulant aller plus loin, il a bataillé avec les services de TikTok pour obtenir plus d’informations. Finalement, après plusieurs échanges, l’entreprise lui a fourni deux tableaux contenant des informations sur des données venant d’ailleurs, sans pour autant transmettre les données en question. La plainte explique que ces tableaux contiennent « par exemple […] des informations sur les autres applications utilisées par le plaignant (telles que Grindr), les actions entreprises par le plaignant dans d’autres applications (telles que l’ouverture de l’application ou l’ajout d’un produit au panier), ou si un événement dit de conversion a eu lieu (c’est-à-dire si un utilisateur a effectué l’action souhaitée après l’affichage d’une publicité sur TikTok) ». La plainte insiste sur le fait que les données récoltées sont aussi visibles sur l’application Grindr utilisée par le plaignant.

Grindr et le data broker AppsFlyer aussi visés

Les avocats de noyb et du plaignant accusent donc TikTok d’avoir enfreint le RGPD, et notamment l’article 5(1)(c) qui impose que les données personnelles collectées soit « adéquates, pertinentes et limitées à ce qui est nécessaire au regard des finalités pour lesquelles elles sont traitées ». Mais ils pointent aussi le fait que l’entreprise, en récupérant des données hors TikTok, l’a fait sans aucune base légale. Enfin, ils appuient sur le fait que certaines données venaient de Grindr et concernaient l’orientation sexuelle du plaignant, données particulièrement encadrées par l’article 9 du RGPD.

Pour récupérer ces données, la plainte affirme que « selon les informations fournies, TikTok a probablement obtenu ces informations auprès du courtier en données en ligne « AppsFlyer » ». Cette entreprise israélienne est aussi formellement visée par la plainte de noyb. Elle y est accusée d’avoir transféré à TikTok illégalement les données personnelles de l’utilisateur. Ici aussi la plainte insiste sur le fait que des données protégées par l’article 9 du RGPD sont concernées.

Si les avocats de l’association ne donnent pas d’éléments de preuve dans le document, ils y affirment qu’ « il est factuellement clair que Grindr a partagé les données d’activité du plaignant avec (au moins une) tierce partie (« AppsFlyer »), qui a ensuite partagé ces données (directement ou indirectement) avec TikTok ». Ceci sans que l’utilisateur ne donne son consentement et sans s’appuyer sur aucune autre base légale.

La récupération de données venant de Grindr, « qu’un exemple parmi les plus extrêmes  »

« À l’instar de nombreux de ses homologues américains, TikTok collecte de plus en plus de données provenant d’autres applications et sources », commente Kleanthi Sardeli, avocate spécialisée dans la protection des données chez noyb, dans un communiqué publié sur le site de l’association. « Cela permet à l’application chinoise d’obtenir une image complète de l’activité en ligne des utilisateurs. Le fait que les données provenant d’une autre application aient révélé l’orientation sexuelle et la vie sexuelle de cet utilisateur n’est qu’un exemple parmi les plus extrêmes », ajoute-t-elle.

La deuxième plainte [PDF] de noyb ne concerne que TikTok et découle, de fait, de la première. L’association accuse le réseau social de ne pas partager avec ses utilisateurs toutes les données qu’elle agrège sur eux dans la fonctionnalité de récupération de données personnelles alors que son outil affirme le contraire. Elle lui reproche aussi un manque d’information sur les données partagées à cette occasion.

Next a contacté les trois entreprises dans la matinée. Elles n’avaient pas fourni de réponse à l’heure de publier cet article. Nous actualiserons cette actualité le cas échéant.

  •  

noyb accuse TikTok de récupérer des données venant de Grindr à propos de ses utilisateurs

TikTok tact
noyb accuse TikTok de récupérer des données venant de Grindr à propos de ses utilisateurs

L’association de Max Schrems vient de déposer deux plaintes contre TikTok devant l’autorité de protection autrichienne. Elle accuse notamment le réseau social de récupérer des données de ses utilisateurs venant d’applications extérieures comme Grindr en passant par AppsFlyer, une entreprise de revente de données israélienne.

TikTok accumulerait des données de ses utilisateurs venant d’autres applications et sites. Accompagnant un utilisateur de l’application, noyb a porté plainte, devant l’autorité de protection de données de son pays, la DSB, en accusant TikTok de stocker certaines données qu’il n’a remplies que dans l’application Grindr.

Dans sa plainte [PDF] dans laquelle elle attaque aussi Grindr et l’entreprise israélienne AppsFlyer, l’association autrichienne explique qu’en voulant télécharger les données le concernant stockées par TikTok, l’utilisateur en question a remarqué que l’archive contenait une référence à des données d’activité en dehors de TikTok, alors que la politique de confidentialité ne donne aucune information concernant le stockage de ce genre de données.

Voulant aller plus loin, il a bataillé avec les services de TikTok pour obtenir plus d’informations. Finalement, après plusieurs échanges, l’entreprise lui a fourni deux tableaux contenant des informations sur des données venant d’ailleurs, sans pour autant transmettre les données en question. La plainte explique que ces tableaux contiennent « par exemple […] des informations sur les autres applications utilisées par le plaignant (telles que Grindr), les actions entreprises par le plaignant dans d’autres applications (telles que l’ouverture de l’application ou l’ajout d’un produit au panier), ou si un événement dit de conversion a eu lieu (c’est-à-dire si un utilisateur a effectué l’action souhaitée après l’affichage d’une publicité sur TikTok) ». La plainte insiste sur le fait que les données récoltées sont aussi visibles sur l’application Grindr utilisée par le plaignant.

Grindr et le data broker AppsFlyer aussi visés

Les avocats de noyb et du plaignant accusent donc TikTok d’avoir enfreint le RGPD, et notamment l’article 5(1)(c) qui impose que les données personnelles collectées soit « adéquates, pertinentes et limitées à ce qui est nécessaire au regard des finalités pour lesquelles elles sont traitées ». Mais ils pointent aussi le fait que l’entreprise, en récupérant des données hors TikTok, l’a fait sans aucune base légale. Enfin, ils appuient sur le fait que certaines données venaient de Grindr et concernaient l’orientation sexuelle du plaignant, données particulièrement encadrées par l’article 9 du RGPD.

Pour récupérer ces données, la plainte affirme que « selon les informations fournies, TikTok a probablement obtenu ces informations auprès du courtier en données en ligne « AppsFlyer » ». Cette entreprise israélienne est aussi formellement visée par la plainte de noyb. Elle y est accusée d’avoir transféré à TikTok illégalement les données personnelles de l’utilisateur. Ici aussi la plainte insiste sur le fait que des données protégées par l’article 9 du RGPD sont concernées.

Si les avocats de l’association ne donnent pas d’éléments de preuve dans le document, ils y affirment qu’ « il est factuellement clair que Grindr a partagé les données d’activité du plaignant avec (au moins une) tierce partie (« AppsFlyer »), qui a ensuite partagé ces données (directement ou indirectement) avec TikTok ». Ceci sans que l’utilisateur ne donne son consentement et sans s’appuyer sur aucune autre base légale.

La récupération de données venant de Grindr, « qu’un exemple parmi les plus extrêmes  »

« À l’instar de nombreux de ses homologues américains, TikTok collecte de plus en plus de données provenant d’autres applications et sources », commente Kleanthi Sardeli, avocate spécialisée dans la protection des données chez noyb, dans un communiqué publié sur le site de l’association. « Cela permet à l’application chinoise d’obtenir une image complète de l’activité en ligne des utilisateurs. Le fait que les données provenant d’une autre application aient révélé l’orientation sexuelle et la vie sexuelle de cet utilisateur n’est qu’un exemple parmi les plus extrêmes », ajoute-t-elle.

La deuxième plainte [PDF] de noyb ne concerne que TikTok et découle, de fait, de la première. L’association accuse le réseau social de ne pas partager avec ses utilisateurs toutes les données qu’elle agrège sur eux dans la fonctionnalité de récupération de données personnelles alors que son outil affirme le contraire. Elle lui reproche aussi un manque d’information sur les données partagées à cette occasion.

Next a contacté les trois entreprises dans la matinée. Elles n’avaient pas fourni de réponse à l’heure de publier cet article. Nous actualiserons cette actualité le cas échéant.

  •  

☕️ Une licence collective pour l’utilisation d’images dans les articles scientifiques

Les chercheurs et chercheuses qui travaillent sur des images peuvent dès à présent les inclure dans les articles en open access en se posant moins de questions.

Le ministère de la Recherche a mis en place une « licence collective étendue » qui facilite l’utilisation d’images dans les publications en accès ouvert, explique-t-il.

Cette licence est issue d’une convention passée avec les organismes de gestion collective des droits d’auteur : ADAGP (Société des auteurs dans les arts graphiques et plastiques), SAIF (Société des Auteurs des arts visuels et de l’Image Fixe), Scam (Société civile des auteurs multimédia).

« Cette mesure bénéficie particulièrement aux disciplines où l’image est un objet d’étude essentiel, comme l’Archéologie, la Géographie, l’Histoire, l’Histoire de l’Art ou encore la Sociologie. Elle s’applique également aux Sciences, Technologies et en Médecine, lorsque les images utilisées ne sont pas produites en laboratoire », explique le ministère.

Jusqu’à récemment une telle chose n’était pas possible, mais l’article 28 de la loi de programmation de la recherche de 2020 prévoit que le gouvernement puisse prendre des ordonnances pour modifier le Code de la propriété intellectuelle « aux fins de permettre l’octroi de licences collectives ayant un effet étendu ». Une ordonnance a ensuite été prise en 2021.

Les chercheurs, notamment ceux en sciences humaines et sociales qui travaillent sur des images, devaient effectuer des « démarches complexes image par image : identification des ayants droit, demandes d’autorisation, contractualisation et paiement », explique le ministère. Désormais, ils devront seulement signaler l’image utilisée à l’aide d’un formulaire.

Pour cette licence, le ministère explique assurer « un paiement forfaitaire aux ayants droit » sans donner d’information sur le montant et les diverses conditions de la convention.

  •  

☕️ Une licence collective pour l’utilisation d’images dans les articles scientifiques

Les chercheurs et chercheuses qui travaillent sur des images peuvent dès à présent les inclure dans les articles en open access en se posant moins de questions.

Le ministère de la Recherche a mis en place une « licence collective étendue » qui facilite l’utilisation d’images dans les publications en accès ouvert, explique-t-il.

Cette licence est issue d’une convention passée avec les organismes de gestion collective des droits d’auteur : ADAGP (Société des auteurs dans les arts graphiques et plastiques), SAIF (Société des Auteurs des arts visuels et de l’Image Fixe), Scam (Société civile des auteurs multimédia).

« Cette mesure bénéficie particulièrement aux disciplines où l’image est un objet d’étude essentiel, comme l’Archéologie, la Géographie, l’Histoire, l’Histoire de l’Art ou encore la Sociologie. Elle s’applique également aux Sciences, Technologies et en Médecine, lorsque les images utilisées ne sont pas produites en laboratoire », explique le ministère.

Jusqu’à récemment une telle chose n’était pas possible, mais l’article 28 de la loi de programmation de la recherche de 2020 prévoit que le gouvernement puisse prendre des ordonnances pour modifier le Code de la propriété intellectuelle « aux fins de permettre l’octroi de licences collectives ayant un effet étendu ». Une ordonnance a ensuite été prise en 2021.

Les chercheurs, notamment ceux en sciences humaines et sociales qui travaillent sur des images, devaient effectuer des « démarches complexes image par image : identification des ayants droit, demandes d’autorisation, contractualisation et paiement », explique le ministère. Désormais, ils devront seulement signaler l’image utilisée à l’aide d’un formulaire.

Pour cette licence, le ministère explique assurer « un paiement forfaitaire aux ayants droit » sans donner d’information sur le montant et les diverses conditions de la convention.

  •  

Les jouets boostés à l’IA peuvent interagir de manière inappropriée avec les enfants

Joyeux NoAIl !
Les jouets boostés à l’IA peuvent interagir de manière inappropriée avec les enfants

Les jouets intégrant de l’IA générative arrivent sous les sapins. Une association américaine a testé plusieurs modèles, disponibles aux USA et en Europe. Certains robots peuvent donner des informations risquées et d’autres peuvent parler de sexe comme on ne le ferait pas à un enfant. Leur parole peut aussi pousser à une relation trop addictive et toxique au jouet.

En ces temps de fêtes et de cadeaux qui vont arriver aux pieds des sapins, la peluche qui « répond aux questions encyclopédiques » des enfants, leur « pose des questions sur des sujets scolaires », les « réconforte » et leur tient « simplement compagnie », peut être attrayante. On peut en trouver à foison sur le marché du jouet.

Mattel a annoncé en juin dernier un partenariat avec OpenAI pour de l’IA dans les jouets pour enfants. La MIT Technology Review affirmait que la marque de jouets prévoyait « d’intégrer l’IA conversationnelle à des marques telles que Barbie et Hot Wheels ». « Les premiers produits devraient être annoncés dans le courant de l’année », ajoutait le média. Rappelons que Mattel est aussi derrière la marque de jouets Fisher-Price depuis 1993.

Mais ça n’empêche pas d’autres fabricants d’incorporer de l’IA générative dans leurs jouets au risque de quelques surprises. L’association de protection des consommateurs étatsunienne PIRG vient de publier un rapport [PDF] après avoir acheté et testé plusieurs jouets, dont certains sont aussi disponibles à la livraison en France.

Pas nouveau, mais des changements majeurs avec l’IA générative

Dans ce document, les chercheurs de l’association rappellent que « les jouets intelligents conversationnels ne sont pas une nouveauté » et donnent l’exemple d’une Barbie lancée en 2015 par Mattel.


Il reste 85% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

Législation sur l’IA : Donald Trump tente de préempter le sujet au détriment des États US

One state beyond
Législation sur l’IA : Donald Trump tente de préempter le sujet au détriment des États US

Plusieurs États américains sont en pleine réflexion pour légiférer sur l’IA ou même, comme la Californie, ont déjà voté une loi sur le sujet. La semaine dernière, Donald Trump a signé un décret qui prétend créer un cadre réglementaire fédéral qui prévaudrait sur les lois des États, suivant ainsi les volontés de l’industrie du secteur. La légalité de ce texte est contestée.

Donald Trump veut reprendre la main sur le volet législatif encadrant l’industrie de l’intelligence artificielle aux États-Unis. Dans un décret publié jeudi 11 décembre, le dirigeant des États-Unis assure « garantir un cadre politique national pour l’intelligence artificielle ».

« Il s’agit d’un décret qui ordonne à certains services de votre administration de prendre des mesures décisives pour garantir que l’IA puisse fonctionner dans un cadre national unique dans ce pays, plutôt que d’être soumise à une réglementation au niveau des États qui pourrait potentiellement paralyser le secteur », a affirmé à CNN le conseiller à la Maison Blanche, Will Scharf.

Le fédéral avant l’étatique, concernant l’IA

Dans son texte, Donald Trump insiste : « Mon administration doit agir avec le Congrès pour garantir l’existence d’une norme nationale peu contraignante, et non pas 50 normes étatiques discordantes », ajoutant que « le cadre qui en résulte doit interdire les lois étatiques qui entrent en conflit avec la politique énoncée dans le présent décret. Ce cadre doit également garantir la protection des enfants, empêcher la censure, respecter les droits d’auteur et préserver les communautés ».

Donald Trump vise ici les velléités des cinquante États qui forment son pays de légiférer localement. De fait, comme l’explique le média public NPR, des dizaines d’États ont déjà pris des décisions pour encadrer l’industrie de l’intelligence artificielle et ses conséquences. Ainsi, comme le recense la NCSL (une association non partisane de fonctionnaires composée de législateurs en exercice), « au cours de la session législative de 2025, les 50 États, Porto Rico, les Îles Vierges et Washington, D.C., ont présenté des projets de loi sur ce sujet cette année. Trente-huit États ont adopté ou promulgué une centaine de mesures cette année ».

David Sacks, membre de la « PayPal Mafia » et financeur de Palantir devenu son conseiller IA, affirmait sur X que « cette ordonnance ne signifie pas que l’administration contestera toutes les lois des États relatives à l’IA. Loin de là ». Mais il ajoutait tout de suite après que « l’accent est mis sur les lois étatiques excessives et contraignantes ».

Une demande du secteur et notamment d’OpenAI

Les entreprises étatsuniennes du secteur ont plusieurs fois plaidé en faveur d’une harmonisation des textes au niveau fédéral. Ainsi, OpenAI a, par exemple, envoyé une lettre ouverte au gouverneur californien Gavin Newsom en août dernier pour critiquer la nouvelle loi de l’État sur l’intelligence artificielle et son encadrement. « Les États-Unis sont confrontés à un choix de plus en plus urgent en matière d’IA : établir des normes nationales claires ou risquer un patchwork de réglementations étatiques », affirmait l’entreprise dans le billet de blog qui accompagnait la lettre.

Elle y faisait aussi une comparaison hasardeuse avec l’industrie spatiale dans les années 1960 : « imaginez à quel point il aurait été difficile de remporter la course à l’espace si les industries aérospatiales et technologiques californiennes avaient été empêtrées dans des réglementations étatiques entravant l’innovation dans le domaine des transistors ».

Une contestation possible devant les tribunaux

Mais les capacités législatives du décret pris par Donald Trump pourraient être remises en question. Selon NPR, « il est presque certain que ce décret sera contesté devant les tribunaux, et les chercheurs spécialisés dans les politiques technologiques affirment que l’administration Trump ne peut pas restreindre la réglementation des États de cette manière sans que le Congrès n’adopte une loi ».

Cette volonté de préemption du sujet par le niveau fédéral est critiquée par diverses associations concernées. « Empêcher les États d’adopter leurs propres mesures de protection en matière d’IA porte atteinte à leur droit fondamental de mettre en place des garde-fous suffisants pour protéger leurs résidents », estime Julie Scelfo, l’avocate de l’association Mothers Against Media Addiction, citée par la BBC.

Avec ce décret, « Donald Trump fait tout son possible pour prendre soin de ses amis et donateurs des grandes entreprises technologiques », affirme de son côté Robert Weissman, coprésident de Public Citizen. « Cette récompense accordée aux grandes entreprises technologiques est une invitation honteuse à un comportement irresponsable de la part des plus grandes entreprises mondiales et un mépris total des principes fédéralistes que Trump et MAGA prétendent vénérer », ajoute-t-il. Pour lui, « la bonne nouvelle, c’est que ce décret présidentiel n’est que du vent. Le président ne peut pas passer outre unilatéralement la législation des États ».

  •  

Législation sur l’IA : Donald Trump tente de préempter le sujet au détriment des États US

One state beyond
Législation sur l’IA : Donald Trump tente de préempter le sujet au détriment des États US

Plusieurs États américains sont en pleine réflexion pour légiférer sur l’IA ou même, comme la Californie, ont déjà voté une loi sur le sujet. La semaine dernière, Donald Trump a signé un décret qui prétend créer un cadre réglementaire fédéral qui prévaudrait sur les lois des États, suivant ainsi les volontés de l’industrie du secteur. La légalité de ce texte est contestée.

Donald Trump veut reprendre la main sur le volet législatif encadrant l’industrie de l’intelligence artificielle aux États-Unis. Dans un décret publié jeudi 11 décembre, le dirigeant des États-Unis assure « garantir un cadre politique national pour l’intelligence artificielle ».

« Il s’agit d’un décret qui ordonne à certains services de votre administration de prendre des mesures décisives pour garantir que l’IA puisse fonctionner dans un cadre national unique dans ce pays, plutôt que d’être soumise à une réglementation au niveau des États qui pourrait potentiellement paralyser le secteur », a affirmé à CNN le conseiller à la Maison Blanche, Will Scharf.

Le fédéral avant l’étatique, concernant l’IA

Dans son texte, Donald Trump insiste : « Mon administration doit agir avec le Congrès pour garantir l’existence d’une norme nationale peu contraignante, et non pas 50 normes étatiques discordantes », ajoutant que « le cadre qui en résulte doit interdire les lois étatiques qui entrent en conflit avec la politique énoncée dans le présent décret. Ce cadre doit également garantir la protection des enfants, empêcher la censure, respecter les droits d’auteur et préserver les communautés ».

Donald Trump vise ici les velléités des cinquante États qui forment son pays de légiférer localement. De fait, comme l’explique le média public NPR, des dizaines d’États ont déjà pris des décisions pour encadrer l’industrie de l’intelligence artificielle et ses conséquences. Ainsi, comme le recense la NCSL (une association non partisane de fonctionnaires composée de législateurs en exercice), « au cours de la session législative de 2025, les 50 États, Porto Rico, les Îles Vierges et Washington, D.C., ont présenté des projets de loi sur ce sujet cette année. Trente-huit États ont adopté ou promulgué une centaine de mesures cette année ».

David Sacks, membre de la « PayPal Mafia » et financeur de Palantir devenu son conseiller IA, affirmait sur X que « cette ordonnance ne signifie pas que l’administration contestera toutes les lois des États relatives à l’IA. Loin de là ». Mais il ajoutait tout de suite après que « l’accent est mis sur les lois étatiques excessives et contraignantes ».

Une demande du secteur et notamment d’OpenAI

Les entreprises étatsuniennes du secteur ont plusieurs fois plaidé en faveur d’une harmonisation des textes au niveau fédéral. Ainsi, OpenAI a, par exemple, envoyé une lettre ouverte au gouverneur californien Gavin Newsom en août dernier pour critiquer la nouvelle loi de l’État sur l’intelligence artificielle et son encadrement. « Les États-Unis sont confrontés à un choix de plus en plus urgent en matière d’IA : établir des normes nationales claires ou risquer un patchwork de réglementations étatiques », affirmait l’entreprise dans le billet de blog qui accompagnait la lettre.

Elle y faisait aussi une comparaison hasardeuse avec l’industrie spatiale dans les années 1960 : « imaginez à quel point il aurait été difficile de remporter la course à l’espace si les industries aérospatiales et technologiques californiennes avaient été empêtrées dans des réglementations étatiques entravant l’innovation dans le domaine des transistors ».

Une contestation possible devant les tribunaux

Mais les capacités législatives du décret pris par Donald Trump pourraient être remises en question. Selon NPR, « il est presque certain que ce décret sera contesté devant les tribunaux, et les chercheurs spécialisés dans les politiques technologiques affirment que l’administration Trump ne peut pas restreindre la réglementation des États de cette manière sans que le Congrès n’adopte une loi ».

Cette volonté de préemption du sujet par le niveau fédéral est critiquée par diverses associations concernées. « Empêcher les États d’adopter leurs propres mesures de protection en matière d’IA porte atteinte à leur droit fondamental de mettre en place des garde-fous suffisants pour protéger leurs résidents », estime Julie Scelfo, l’avocate de l’association Mothers Against Media Addiction, citée par la BBC.

Avec ce décret, « Donald Trump fait tout son possible pour prendre soin de ses amis et donateurs des grandes entreprises technologiques », affirme de son côté Robert Weissman, coprésident de Public Citizen. « Cette récompense accordée aux grandes entreprises technologiques est une invitation honteuse à un comportement irresponsable de la part des plus grandes entreprises mondiales et un mépris total des principes fédéralistes que Trump et MAGA prétendent vénérer », ajoute-t-il. Pour lui, « la bonne nouvelle, c’est que ce décret présidentiel n’est que du vent. Le président ne peut pas passer outre unilatéralement la législation des États ».

  •