Vue normale

noyb accuse TikTok de récupérer des données venant de Grindr à propos de ses utilisateurs

18 décembre 2025 à 10:33
TikTok tact
noyb accuse TikTok de récupérer des données venant de Grindr à propos de ses utilisateurs

L’association de Max Schrems vient de déposer deux plaintes contre TikTok devant l’autorité de protection autrichienne. Elle accuse notamment le réseau social de récupérer des données de ses utilisateurs venant d’applications extérieures comme Grindr en passant par AppsFlyer, une entreprise de revente de données israélienne.

TikTok accumulerait des données de ses utilisateurs venant d’autres applications et sites. Accompagnant un utilisateur de l’application, noyb a porté plainte, devant l’autorité de protection de données de son pays, la DSB, en accusant TikTok de stocker certaines données qu’il n’a remplies que dans l’application Grindr.

Dans sa plainte [PDF] dans laquelle elle attaque aussi Grindr et l’entreprise israélienne AppsFlyer, l’association autrichienne explique qu’en voulant télécharger les données le concernant stockées par TikTok, l’utilisateur en question a remarqué que l’archive contenait une référence à des données d’activité en dehors de TikTok, alors que la politique de confidentialité ne donne aucune information concernant le stockage de ce genre de données.

Voulant aller plus loin, il a bataillé avec les services de TikTok pour obtenir plus d’informations. Finalement, après plusieurs échanges, l’entreprise lui a fourni deux tableaux contenant des informations sur des données venant d’ailleurs, sans pour autant transmettre les données en question. La plainte explique que ces tableaux contiennent « par exemple […] des informations sur les autres applications utilisées par le plaignant (telles que Grindr), les actions entreprises par le plaignant dans d’autres applications (telles que l’ouverture de l’application ou l’ajout d’un produit au panier), ou si un événement dit de conversion a eu lieu (c’est-à-dire si un utilisateur a effectué l’action souhaitée après l’affichage d’une publicité sur TikTok) ». La plainte insiste sur le fait que les données récoltées sont aussi visibles sur l’application Grindr utilisée par le plaignant.

Grindr et le data broker AppsFlyer aussi visés

Les avocats de noyb et du plaignant accusent donc TikTok d’avoir enfreint le RGPD, et notamment l’article 5(1)(c) qui impose que les données personnelles collectées soit « adéquates, pertinentes et limitées à ce qui est nécessaire au regard des finalités pour lesquelles elles sont traitées ». Mais ils pointent aussi le fait que l’entreprise, en récupérant des données hors TikTok, l’a fait sans aucune base légale. Enfin, ils appuient sur le fait que certaines données venaient de Grindr et concernaient l’orientation sexuelle du plaignant, données particulièrement encadrées par l’article 9 du RGPD.

Pour récupérer ces données, la plainte affirme que « selon les informations fournies, TikTok a probablement obtenu ces informations auprès du courtier en données en ligne « AppsFlyer » ». Cette entreprise israélienne est aussi formellement visée par la plainte de noyb. Elle y est accusée d’avoir transféré à TikTok illégalement les données personnelles de l’utilisateur. Ici aussi la plainte insiste sur le fait que des données protégées par l’article 9 du RGPD sont concernées.

Si les avocats de l’association ne donnent pas d’éléments de preuve dans le document, ils y affirment qu’ « il est factuellement clair que Grindr a partagé les données d’activité du plaignant avec (au moins une) tierce partie (« AppsFlyer »), qui a ensuite partagé ces données (directement ou indirectement) avec TikTok ». Ceci sans que l’utilisateur ne donne son consentement et sans s’appuyer sur aucune autre base légale.

La récupération de données venant de Grindr, « qu’un exemple parmi les plus extrêmes  »

« À l’instar de nombreux de ses homologues américains, TikTok collecte de plus en plus de données provenant d’autres applications et sources », commente Kleanthi Sardeli, avocate spécialisée dans la protection des données chez noyb, dans un communiqué publié sur le site de l’association. « Cela permet à l’application chinoise d’obtenir une image complète de l’activité en ligne des utilisateurs. Le fait que les données provenant d’une autre application aient révélé l’orientation sexuelle et la vie sexuelle de cet utilisateur n’est qu’un exemple parmi les plus extrêmes », ajoute-t-elle.

La deuxième plainte [PDF] de noyb ne concerne que TikTok et découle, de fait, de la première. L’association accuse le réseau social de ne pas partager avec ses utilisateurs toutes les données qu’elle agrège sur eux dans la fonctionnalité de récupération de données personnelles alors que son outil affirme le contraire. Elle lui reproche aussi un manque d’information sur les données partagées à cette occasion.

Next a contacté les trois entreprises dans la matinée. Elles n’avaient pas fourni de réponse à l’heure de publier cet article. Nous actualiserons cette actualité le cas échéant.

☕️ Une licence collective pour l’utilisation d’images dans les articles scientifiques

16 décembre 2025 à 15:10

Les chercheurs et chercheuses qui travaillent sur des images peuvent dès à présent les inclure dans les articles en open access en se posant moins de questions.

Le ministère de la Recherche a mis en place une « licence collective étendue » qui facilite l’utilisation d’images dans les publications en accès ouvert, explique-t-il.

Cette licence est issue d’une convention passée avec les organismes de gestion collective des droits d’auteur : ADAGP (Société des auteurs dans les arts graphiques et plastiques), SAIF (Société des Auteurs des arts visuels et de l’Image Fixe), Scam (Société civile des auteurs multimédia).

« Cette mesure bénéficie particulièrement aux disciplines où l’image est un objet d’étude essentiel, comme l’Archéologie, la Géographie, l’Histoire, l’Histoire de l’Art ou encore la Sociologie. Elle s’applique également aux Sciences, Technologies et en Médecine, lorsque les images utilisées ne sont pas produites en laboratoire », explique le ministère.

Jusqu’à récemment une telle chose n’était pas possible, mais l’article 28 de la loi de programmation de la recherche de 2020 prévoit que le gouvernement puisse prendre des ordonnances pour modifier le Code de la propriété intellectuelle « aux fins de permettre l’octroi de licences collectives ayant un effet étendu ». Une ordonnance a ensuite été prise en 2021.

Les chercheurs, notamment ceux en sciences humaines et sociales qui travaillent sur des images, devaient effectuer des « démarches complexes image par image : identification des ayants droit, demandes d’autorisation, contractualisation et paiement », explique le ministère. Désormais, ils devront seulement signaler l’image utilisée à l’aide d’un formulaire.

Pour cette licence, le ministère explique assurer « un paiement forfaitaire aux ayants droit » sans donner d’information sur le montant et les diverses conditions de la convention.

Les jouets boostés à l’IA peuvent interagir de manière inappropriée avec les enfants

16 décembre 2025 à 14:10
Joyeux NoAIl !
Les jouets boostés à l’IA peuvent interagir de manière inappropriée avec les enfants

Les jouets intégrant de l’IA générative arrivent sous les sapins. Une association américaine a testé plusieurs modèles, disponibles aux USA et en Europe. Certains robots peuvent donner des informations risquées et d’autres peuvent parler de sexe comme on ne le ferait pas à un enfant. Leur parole peut aussi pousser à une relation trop addictive et toxique au jouet.

En ces temps de fêtes et de cadeaux qui vont arriver aux pieds des sapins, la peluche qui « répond aux questions encyclopédiques » des enfants, leur « pose des questions sur des sujets scolaires », les « réconforte » et leur tient « simplement compagnie », peut être attrayante. On peut en trouver à foison sur le marché du jouet.

Mattel a annoncé en juin dernier un partenariat avec OpenAI pour de l’IA dans les jouets pour enfants. La MIT Technology Review affirmait que la marque de jouets prévoyait « d’intégrer l’IA conversationnelle à des marques telles que Barbie et Hot Wheels ». « Les premiers produits devraient être annoncés dans le courant de l’année », ajoutait le média. Rappelons que Mattel est aussi derrière la marque de jouets Fisher-Price depuis 1993.

Mais ça n’empêche pas d’autres fabricants d’incorporer de l’IA générative dans leurs jouets au risque de quelques surprises. L’association de protection des consommateurs étatsunienne PIRG vient de publier un rapport [PDF] après avoir acheté et testé plusieurs jouets, dont certains sont aussi disponibles à la livraison en France.

Pas nouveau, mais des changements majeurs avec l’IA générative

Dans ce document, les chercheurs de l’association rappellent que « les jouets intelligents conversationnels ne sont pas une nouveauté » et donnent l’exemple d’une Barbie lancée en 2015 par Mattel.


Il reste 85% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Législation sur l’IA : Donald Trump tente de préempter le sujet au détriment des États US

15 décembre 2025 à 15:31
One state beyond
Législation sur l’IA : Donald Trump tente de préempter le sujet au détriment des États US

Plusieurs États américains sont en pleine réflexion pour légiférer sur l’IA ou même, comme la Californie, ont déjà voté une loi sur le sujet. La semaine dernière, Donald Trump a signé un décret qui prétend créer un cadre réglementaire fédéral qui prévaudrait sur les lois des États, suivant ainsi les volontés de l’industrie du secteur. La légalité de ce texte est contestée.

Donald Trump veut reprendre la main sur le volet législatif encadrant l’industrie de l’intelligence artificielle aux États-Unis. Dans un décret publié jeudi 11 décembre, le dirigeant des États-Unis assure « garantir un cadre politique national pour l’intelligence artificielle ».

« Il s’agit d’un décret qui ordonne à certains services de votre administration de prendre des mesures décisives pour garantir que l’IA puisse fonctionner dans un cadre national unique dans ce pays, plutôt que d’être soumise à une réglementation au niveau des États qui pourrait potentiellement paralyser le secteur », a affirmé à CNN le conseiller à la Maison Blanche, Will Scharf.

Le fédéral avant l’étatique, concernant l’IA

Dans son texte, Donald Trump insiste : « Mon administration doit agir avec le Congrès pour garantir l’existence d’une norme nationale peu contraignante, et non pas 50 normes étatiques discordantes », ajoutant que « le cadre qui en résulte doit interdire les lois étatiques qui entrent en conflit avec la politique énoncée dans le présent décret. Ce cadre doit également garantir la protection des enfants, empêcher la censure, respecter les droits d’auteur et préserver les communautés ».

Donald Trump vise ici les velléités des cinquante États qui forment son pays de légiférer localement. De fait, comme l’explique le média public NPR, des dizaines d’États ont déjà pris des décisions pour encadrer l’industrie de l’intelligence artificielle et ses conséquences. Ainsi, comme le recense la NCSL (une association non partisane de fonctionnaires composée de législateurs en exercice), « au cours de la session législative de 2025, les 50 États, Porto Rico, les Îles Vierges et Washington, D.C., ont présenté des projets de loi sur ce sujet cette année. Trente-huit États ont adopté ou promulgué une centaine de mesures cette année ».

David Sacks, membre de la « PayPal Mafia » et financeur de Palantir devenu son conseiller IA, affirmait sur X que « cette ordonnance ne signifie pas que l’administration contestera toutes les lois des États relatives à l’IA. Loin de là ». Mais il ajoutait tout de suite après que « l’accent est mis sur les lois étatiques excessives et contraignantes ».

Une demande du secteur et notamment d’OpenAI

Les entreprises étatsuniennes du secteur ont plusieurs fois plaidé en faveur d’une harmonisation des textes au niveau fédéral. Ainsi, OpenAI a, par exemple, envoyé une lettre ouverte au gouverneur californien Gavin Newsom en août dernier pour critiquer la nouvelle loi de l’État sur l’intelligence artificielle et son encadrement. « Les États-Unis sont confrontés à un choix de plus en plus urgent en matière d’IA : établir des normes nationales claires ou risquer un patchwork de réglementations étatiques », affirmait l’entreprise dans le billet de blog qui accompagnait la lettre.

Elle y faisait aussi une comparaison hasardeuse avec l’industrie spatiale dans les années 1960 : « imaginez à quel point il aurait été difficile de remporter la course à l’espace si les industries aérospatiales et technologiques californiennes avaient été empêtrées dans des réglementations étatiques entravant l’innovation dans le domaine des transistors ».

Une contestation possible devant les tribunaux

Mais les capacités législatives du décret pris par Donald Trump pourraient être remises en question. Selon NPR, « il est presque certain que ce décret sera contesté devant les tribunaux, et les chercheurs spécialisés dans les politiques technologiques affirment que l’administration Trump ne peut pas restreindre la réglementation des États de cette manière sans que le Congrès n’adopte une loi ».

Cette volonté de préemption du sujet par le niveau fédéral est critiquée par diverses associations concernées. « Empêcher les États d’adopter leurs propres mesures de protection en matière d’IA porte atteinte à leur droit fondamental de mettre en place des garde-fous suffisants pour protéger leurs résidents », estime Julie Scelfo, l’avocate de l’association Mothers Against Media Addiction, citée par la BBC.

Avec ce décret, « Donald Trump fait tout son possible pour prendre soin de ses amis et donateurs des grandes entreprises technologiques », affirme de son côté Robert Weissman, coprésident de Public Citizen. « Cette récompense accordée aux grandes entreprises technologiques est une invitation honteuse à un comportement irresponsable de la part des plus grandes entreprises mondiales et un mépris total des principes fédéralistes que Trump et MAGA prétendent vénérer », ajoute-t-il. Pour lui, « la bonne nouvelle, c’est que ce décret présidentiel n’est que du vent. Le président ne peut pas passer outre unilatéralement la législation des États ».

La DGSI renouvelle encore son contrat avec Palantir

15 décembre 2025 à 12:46
Pierre de vision ou Panopticon ?
La DGSI renouvelle encore son contrat avec Palantir

La DGSI vient de signer avec Palantir pour renouveler son contrat relatif à ce que le milieu appelle un « outil de traitement des données hétérogènes » (OTDH). Cette solution a été mise en place après les attentats du 13 novembre 2015. Elle est renouvelée régulièrement tout en étant présentée comme « transitoire » par les services français qui n’ont visiblement pas trouvé adéquates les alternatives développées en France.

Dans un communiqué de presse, Palantir a confirmé lundi le renouvellement « pour trois ans de son contrat avec la DGSI, l’agence française de renseignement intérieur, prolongeant ainsi un partenariat qui dure depuis près d’une décennie ».

L’information avait été annoncée dans Les Échos ce dimanche 14 décembre. Le DG de Palantir France, Pierre Lucotte, se disait heureux de « pouvoir continuer à accompagner dans les prochaines années les renseignements français sur leurs missions critiques incluant le contre-terrorisme, mais pas uniquement ». L’entreprise expliquait à nos confrères que ce contrat avec la DGSI était renouvelé pour les trois prochaines années, après près de dix ans d’existence.

En effet, juste après les attentats du 13 novembre 2015, le service français signait en 2016 son premier contrat avec l’entreprise fondée par Peter Thiel, Joe Lonsdale, Stephen Cohen et Alex Karp. Maintenant, l’agence française scrute aussi les données sur les réseaux pour surveiller les ingérences étrangères ou les menaces concernant la cybersécurité.

Rappelons qu’en parallèle, Palantir a profité à fond du retour de Donald Trump au pouvoir et a notamment accentué son rôle dans la gestion des données des différentes agences fédérales états-uniennes. L’entreprise s’est aussi très bien positionnée parmi d’autres acteurs comme Oracle pour construire l’infrastructure numérique envisagée à Gaza.

Son cofondateur, Peter Thiel, mêle de plus en plus le religieux à ces considérations techno-politiques en transformant les volontés de régulation dans le secteur en supposée fin du monde, faisant des références à l’Antéchrist. Alex Karp, de son côté, a récemment affirmé que les entreprises d’informatique les plus importantes sont celles dont les produits « renforcent la supériorité évidente et innée de l’Occident » et « apportent violence et mort à nos ennemis ».

Un choix « transitoire » très durable et toujours un manque d’alternatives françaises

Le choix de la solution de Palantir par la DGSI ne serait que « transitoire » en attendant une offre française solide. C’était déjà ce que disait le service français en 2019, lors du premier renouvellement du contrat. À l’époque, Thales, Sopra Steria et Dassault Systèmes étaient évoqués comme candidats potentiels.

Depuis, c’était plutôt ChapsVision qui s’était mis sur les rangs. En 2022, l’entreprise française rachetait Deveryware, spécialiste de l’interception légale et de la géolocalisation qui travaillait pour les ministères de l’Intérieur et de la Justice. L’année dernière, elle annonçait une levée de fonds de 85 millions d’euros pour financer l’acquisition de la start-up Sinequa et se montrait confiante sur ses capacités à remplacer Palantir. Mais la DGSI a finalement choisi de ne pas basculer vers cette solution française et de rester liée à l’entreprise états-unienne.

Palantir à l’assaut du monde

Alors que Palantir renforce donc sa position en France, l’entreprise s’étend aussi dans d’autres administrations. Ainsi, comme nous l’évoquions, l’OTAN s’est offert un système d’IA militaire signé Palantir en avril dernier. Mais l’entreprise d’Alex Karp vise aussi d’autres pays d’Europe.

Le ministre de la Défense belge, Theo Francken, vient d’exprimer son souhait d’utiliser ses logiciels : « Si l’Otan et la plupart des pays européens signent des contrats avec cette firme, je ne vois pas où est le problème. Au cours des prochaines années, nous allons construire en Belgique trois centres de données pour un demi-milliard d’euros. Pour être sécurisés, ils doivent pouvoir être débranchés d’internet. Palantir est capable de construire cela », affirme-t-il au média L’Echo.

De leur côté, les autorités suisses, courtisées par Palantir, ne se sont pas laissé séduire. Comme le journal Le Temps l’explique, l’entreprise a été écartée d’un appel d’offres de l’armée suisse en 2020 et est revenue à la charge en 2024, « en s’adressant directement au chef de l’armée Thomas Süssli ». Un rapport de l’armée rendu public [PDF] par Republik a de nouveau fermé la porte.

En France, les liens d’une porte-parole du PS, Julie Martinez, avec l’entreprise (elle y était déléguée mondiale à la Protection des Données) avaient soulevé des questions. Elle a finalement quitté récemment ces deux postes, comme l’expliquait fin novembre Libération. Elle s’est officiellement retirée pour se consacrer aux prochaines municipales à Clichy-la-Garenne en tant que tête de liste le PS.

☕️ X : La géolocalisation des comptes attaquée devant la CNIL

15 décembre 2025 à 08:30

En novembre, le réseau social X a affiché une nouvelle information sur le profil de ses utilisateurs : leur géolocalisation. Si elle a semé le doute à propos de l’origine de certains comptes influents, certains utilisateurs se plaignent de la divulgation d’informations qui serait contraire au RGPD.

Ainsi, comme le rapporte l’Informé, l’avocat Jérémy Roche a adressé une plainte à la CNIL. « Cette divulgation est effectuée sans consentement préalable, sans information claire et préalable, et par défaut sans possibilité de refus initial », affirme-t-il dans le document envoyé à l’autorité que notre confrère, Marc Rees, a pu consulter.

Selon l’avocat, le traitement de la géolocalisation de l’utilisateur par X serait illicite puisqu’il ne s’appuierait pas sur une des bases légales d’autorisation de traitement des données.

X n’a pas explicitement demandé le consentement de ses utilisateurs avant de mettre en place cette fonctionnalité. Si le réseau social pourrait plaider l’intérêt légitime, celui-ci doit être étudié en balance avec les droits des utilisateurs de la plateforme qui doivent être protégés. Or l’avocat met en avant « le risque pour un utilisateur d’être repéré lorsqu’il est en vacances dans un pays étranger ». Enfin, si X s’appuie sur la base légale du contrat, Jérémy Roche considère que la fonctionnalité « ne fait pas partie de la prestation contractuelle fondamentale » puisque le réseau social a fonctionné sans pendant des années.

Puisque le siège social européen de X est situé en Irlande, la CNIL devrait transmettre cette plainte à la Data Protection Commission du pays.

☕️ Plusieurs associations féministes s’insurgent de leur invisibilisation par Meta

12 décembre 2025 à 15:50

Dans une tribune publiée dans le Nouvel Obs, des associations féministes comme le Planning familial tirent la sonnette d’alarme : « sur les réseaux sociaux, nos contenus disparaissent des fils d’actualité, étouffés par des algorithmes opaques, et nos combats sont relégués au rang de « sujets sensibles » indésirables par Meta ».

De vieux ciseaux posés sur une surface en bois
Ciseaux par Ivan Radic, licence Creative Commons By

Elles font le même constat que celui fait sur Next la semaine dernière par l’UNICEF France, la Fondation des femmes, et plusieurs ONG. « 28 % de nos publications ont été rejetées », nous expliquait la directrice Marketing et Développement de l’Unicef France, Marie-Charlotte Brun.

« Aujourd’hui, Meta veut nous faire taire », affirment dans la tribune les associations féministes. « Ses algorithmes, déjà peu enclins à promouvoir les contenus politiques, ciblent désormais [depuis le début du mois d’octobre] spécifiquement les messages féministes. Des comptes sont  » shadow bannés » (invisibilisés sans avertissement), des publications effacées des fils d’actualité, et des mots-clés féministes sont systématiquement pénalisés ».

Comme nous l’expliquions, Meta affirme que ce sont des « conséquences imprévues » du nouveau règlement de l’UE sur la transparence et le ciblage de la publicité à caractère politique (TTPA) entré en application le 10 octobre dernier.

Mais le Guardian rapporte aujourd’hui le même genre de problèmes rencontrés par une cinquantaine d’associations à travers le monde (dont certaines au Brésil ou aux Philippines par exemple), dont des lignes d’assistance téléphonique sur l’avortement.

☕️ Le ministère de l’Intérieur victime d’une cyberattaque

12 décembre 2025 à 13:36

Le soir du jeudi 11 décembre, le ministère de l’Intérieur confirmait à BFMTV avoir découvert l’existence « d’activités suspectes visant ses serveurs de messagerie ». L’Agence nationale de la sécurité des systèmes d’information (ANSSI) a été prévenue et est venue épauler la place Beauvau.

Ce matin, au micro de RTL, Laurent Nuñez a confirmé qu’ « il y a eu effectivement une attaque informatique » ciblant « les messageries » du ministère dans la nuit du jeudi 11 au vendredi 12 décembre.

Le ministre parle d’ « un assaillant qui a pu pénétrer sur un certain nombre de fichiers » (sic), sans préciser si des fichiers auraient été téléchargés. « On a mis en place les procédures habituelles », affirme-t-il.

« On n’a pas de trace de compromission grave, on investigue à la fois au niveau judiciaire et on a renforcé notre niveau de sécurité. Notamment, les modalités d’accès au système d’information de tous nos agents ont été durcies », ajoute Laurent Nuñez.

Le ministre n’a pas précisé s’il s’agissait de serveurs d’emails, de serveurs de messagerie instantanée type Tchap ou d’un autre genre de messagerie.

Réseaux sociaux avant 15 ans : Macron veut une loi en 2026, Reddit attaque en Australie

12 décembre 2025 à 11:10
Laisse pas trainer ton fils
Réseaux sociaux avant 15 ans : Macron veut une loi en 2026, Reddit attaque en Australie

Emmanuel Macron a réinsisté ce mercredi 10 décembre sur sa volonté que la France adopte une loi pour interdire les réseaux sociaux avant 15 ou 16 ans avant son départ de l’Élysée. En parallèle, Reddit attaque la loi mise en place en Australie qui impose cette limitation, montrant que le milieu est prêt à bloquer toute loi qui ne serait pas suffisamment solide.

Emmanuel Macron veut faire savoir qu’il a vraiment envie que les réseaux sociaux soient interdits aux mineurs de moins de 15 ou 16 ans. Lors d’une nouvelle étape, à Saint-Malo cette fois, de son tour de France organisé en collaboration avec la presse quotidienne régionale, le président français a de nouveau insisté sur sa volonté d’« imposer à tous les réseaux sociaux la vérification de l’âge » et de les interdire en dessous de « 15 ou 16 ans ».

Le mois dernier, Emmanuel Macron avait déjà fait part de sa volonté d’interdire les écrans aux enfants de moins de trois ans, de minimiser l’exposition avant six ans et d’imposer une majorité numérique à 15 ans. Selon lui, « toutes nos études montrent que nos enfants, ados, sont de plus en plus perturbés par ces réseaux sociaux ».

Un projet de loi présenté en janvier 2026

« L’objectif, c’est de déposer un texte de loi du gouvernement en début d’année prochaine » a affirmé Emmanuel Macron, pour que cette loi soit votée « avant la fin de [son] mandat ». De fait, le chef de l’État reprend à son compte le calendrier déjà programmé par le parti Renaissance. Gabriel Attal a indiqué sur RTL la semaine dernière que la proposition de loi sur le sujet émanant de son parti sera débattue le 19 janvier 2026.

La députée Renaissance Laure Miller a déposé le mardi 18 novembre 2025 cette proposition de loi « visant à protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux », suite notamment au rapport de la commission d’enquête de l’Assemblée nationale sur les effets psychologiques de TikTok sur les mineurs.

Le texte de Laure Miller propose notamment que « les fournisseurs de services de réseaux sociaux en ligne exerçant leur activité en France refusent l’inscription à leurs services des mineurs de quinze ans ». Et il ajoute qu’ils devront suspendre « également, dans les meilleurs délais, les comptes déjà créés et détenus par des mineurs de quinze ans ». Comme nous l’évoquions fin novembre, il prévoit aussi d’étendre aux lycées l’interdiction de l’utilisation des téléphones portables.

Retour à une loi française après avoir tenté de passer par l’Europe

C’est un sujet qui n’est pas nouveau. En mai dernier, Clara Chappaz, l’alors ministre déléguée chargée du Numérique, espérait « rallier une coalition, avec l’Espagne, la Grèce et maintenant l’Irlande, pour convaincre la Commission européenne » d’aller plus loin que les obligations déjà imposées par le règlement sur les services numériques. Mais les députés Renaissance et le président de la République semblent abandonner l’idée d’une loi européenne et se replient sur une interdiction à l’échelle française.

Pour Emmanuel Macron, néanmoins, « le consensus est en train de se forger » sur la question. Il a ainsi rappelé que « l’Australie vient de le faire ».

Une loi en vigueur en Australie depuis mercredi

En effet, l’Australie a adopté en novembre 2024 l’une des restrictions les plus strictes du monde en interdisant les réseaux sociaux au moins de 16 ans. Celle-ci est entrée en vigueur ce mercredi 10 décembre. Facebook, Instagram, YouTube, TikTok, Snapchat, Reddit, Kick, Twitch, Thread et X sont tous concernés.

La semaine dernière, YouTube a affirmé que cette loi « ne garantira pas la sécurité des adolescents sur Internet ». L’entreprise argue que « comme la loi sur l’âge minimum pour utiliser les réseaux sociaux oblige les enfants à utiliser YouTube sans compte, elle supprime les contrôles parentaux et les filtres de sécurité mis en place pour les protéger, ce qui ne rendra pas les enfants plus en sécurité sur notre plateforme ». Pourtant, la plateforme bloque déjà l’accès sans compte à certaines vidéos.

Reddit attaque

Mais ce jeudi 12 décembre, c’est Reddit qui a passé la vitesse supérieure face à cette loi australienne en l’attaquant devant la Haute Cour d’Australie. Le réseau social argumente dans sa plainte [PDF] en affirmant qu’il ne peut être considéré comme une plateforme de réseau social réservée à certains âges, catégorie encadrée par une loi australienne votée en 2021.

Mais elle remet aussi directement en cause cette nouvelle loi en affirmant qu’elle enfreint celle sur la liberté de communication politique prévue dans le pays et qui défend la possibilité, pour les électeurs, d’être bien informés. Or, selon la plainte, « les opinions politiques des enfants influencent les choix électoraux de nombreux électeurs actuels, notamment leurs parents et leurs enseignants, ainsi que d’autres personnes intéressées par les opinions de ceux qui atteindront bientôt l’âge de la maturité ». Ainsi, pour Reddit, « empêcher les enfants d’exprimer leurs opinions politiques pèse directement sur la communication politique en Australie ».

Enfin, le réseau social affirme que « dans le cours normal des choses, les citoyens australiens âgés de moins de 16 ans deviendront électeurs d’ici quelques années, voire quelques mois. Les choix que feront ces citoyens seront influencés par la communication politique à laquelle ils seront exposés avant l’âge de 18 ans ».

Il n’est pas sûr que la Haute Cour australienne soit convaincue par ces arguments. Mais cette première attaque contre une loi de ce genre montre que, si les législateurs sont de plus en plus convaincus que les réseaux sociaux doivent être interdits aux moins de 15 ou 16 ans, ceux-ci n’hésiteront pas à utiliser toutes les lois sur la liberté d’expression pour annuler de nouvelles mesures.

☕️ OpenAI lance GPT-5.2 pour contrer le succès du nouveau Gemini de Google

12 décembre 2025 à 08:12

OpenAI a annoncé ce jeudi 11 décembre la sortie de son nouveau modèle GPT-5.2. L’entreprise a avancé ce lancement pour faire face à la concurrence du pionnier des modèles de langage qui revient dans la course : Google.

En effet, il y a 10 jours, le Wall Street Journal a obtenu un mémo envoyé par Sam Altman en interne poussant ses salariés en « code rouge » pour augmenter la qualité de ChatGPT quitte à retarder d’autres produits. Selon le journal économique américain, le CEO d’OpenAI s’inquiétait de la pression de la concurrence et notamment de Google qui a lancé son Gemini 3 Pro il y a un peu moins d’un mois. Celui-ci a rencontré un certain succès auprès des utilisateurs d’IA générative, rebattant les cartes sur le marché.

Flock

Dans un point presse, Fidji Simo, la responsable applications et numéro 2 d’OpenAI, a néanmoins nié que ce lancement de GPT-5.2 était le résultat de ce « code rouge », tout en admettant qu’il a pu aider, explique Wired.

Le modèle est dès à présent disponible en trois versions : GPT‑5.2 Instant, Thinking et Pro. Comme on peut s’y attendre, OpenAI les présente comme ses meilleurs modèles, en s’appuyant sur des benchmarks.

Si, sans surprise, l’entreprise affirme que « GPT‑5.2 Thinking hallucine moins que GPT‑5.1 Thinking », le modèle d’OpenAI génère donc toujours des fausses informations.

Elle clame de nouveau que « l’un de nos espoirs concernant l’IA est qu’elle accélère la recherche scientifique au bénéfice du plus grand nombre » et que ses nouveaux modèles sont les « meilleurs au monde pour aider les scientifiques et accélérer leurs travaux ».

Cette fois, l’entreprise veut rassurer les utilisateurs de ses anciens modèles en expliquant n’avoir « actuellement aucun projet de suppression de GPT‑5.1, GPT‑5 ou GPT‑4.1 dans l’API ». Le déploiement est en cours et commence par les formules payantes (Plus, Pro, Business, Enterprise).

La surveillance géolocalisée de l’ICE détourne les femmes enceintes des soins médicaux

11 décembre 2025 à 16:32
Smart ?
La surveillance géolocalisée de l’ICE détourne les femmes enceintes des soins médicaux

Aux États-Unis, les femmes enceintes sans-papiers peuvent être obligées de porter des montres connectées spéciales qui les surveillent en permanence. Certains personnels hospitaliers constatent, avec la massification des poursuites, que des patientes ont peur de les enlever lorsqu’une intervention le nécessite.

Dans le Colorado, des femmes enceintes ayant besoin de soins médicaux urgents ont peur quand le personnel médical des urgences veut leur enlever le dispositif de surveillance qui leur est imposé.

Le Guardian raconte qu’en septembre dernier, une femme enceinte de neuf mois est entrée dans les urgences obstétriques d’un hôpital du Colorado munie d’une montre connectée qu’elle ne voulait surtout pas enlever. Les médecins ont diagnostiqué qu’une césarienne était nécessaire pour que l’accouchement se passe le mieux possible. Mais pour faire cette césarienne, ils ont besoin d’utiliser un outil de cautérisation qui nécessite que la patiente enlève tout bijou ou objet métallique.

Une smartwatch très particulière

Le problème était que la montre connectée n’était pas commune. En effet, le Service de l’immigration et des douanes des États-Unis (ICE) avait imposé à cette femme de porter en permanence une montre VeriWatch de l’entreprise Bi Inc.

Celle-ci permet aux autorités de surveiller en permanence la personne qui la porte. Elle a d’autres fonctionnalités comme la vérification que la personne est encore en vie ou la reconnaissance faciale du porteur à des fins de contrôle.

Elle ne peut pas être retirée facilement mais elle n’est pas accompagnée non plus d’information concernant la sécurité de son port lors d’intervention médicale comme celle évoquée plus haut. De plus, l’ICE ne fournit aux hôpitaux états-uniens aucune information pour la contacter pour savoir quoi faire. Lorsque le personnel hospitalier a expliqué à la femme enceinte qu’il allait sans doute falloir couper le bracelet, elle a paniqué.

En arrivant à l’hôpital, elle avait aussi peur car la batterie était faible. Elle avait besoin de la recharger pour ne pas que les services d’immigration croient qu’elle essayait de se cacher. La notice de la montre, sur le site du fabricant [PDF], indique que la batterie a une durée de vie de 16 heures, avec une possibilité d’aller jusqu’à 32 heures si on utilise la batterie externe adaptée.

Finalement, selon le Guardian, la montre a été enlevée et la femme est repartie avec son bébé sans que l’ICE ne vienne à l’hôpital. Mais le personnel signale que c’est la troisième femme enceinte qui arrive avec ce dispositif de surveillance en quelques mois.

La massification de programmes « plus humains » que l’incarcération

De fait, le système carcéral du pays est saturé depuis longtemps et ce dispositif de surveillance n’est pas nouveau aux États-Unis. En effet, depuis 2004, comme l’explique le média Jezebel, un programme d’ « alternatives à la détention » existe, option « plus humaine » pour les personnes menacées d’expulsion considérées comme « à moindre risque ».

Pour la plupart, l’alternative consiste à mettre en place un bracelet électronique, comme cela existe en France. Depuis 2009, l’ICE n’utilise plus ce genre de bracelet pour les femmes enceintes à cause d’un taux de complication élevé et a penché pour ces montres connectées en 2023.

Mais, depuis son retour la tête des États-Unis, Donald Trump a intensifié la politique de traque massive de personnes étrangères qui ne peuvent pas prouver leur droit d’y résider, et se prépare à muscler encore le budget de l’ICE. Cette politique augmente mécaniquement le nombre de personnes concernées par les dispositifs de coercition mis en place par le système judiciaire étasunien.

Et, même si le taux de complication est moins élevé avec les montres qu’avec les bracelets, leur usage massif se double d’une absence d’information en cas de problème et de la peur des personnes concernées, qui amènent les personnels hospitaliers à constater des problèmes.

« Elle était en larmes à ce sujet. Elle avait cette peur profonde que l’ICE vienne à l’hôpital et lui enlève son bébé », explique l’un d’entre eux au Guardian, en parlant de la femme enceinte en question.

Dans sa guerre contre l’inclusivité, Trump abandonne la police de caractères Calibri

11 décembre 2025 à 11:00
Police de la police
Dans sa guerre contre l’inclusivité, Trump abandonne la police de caractères Calibri

L’administration Biden avait fait de Calibri la police de caractères officielle du gouvernement étatsunien pour des raisons de lisibilité et d’inclusivité. Opposé à toute mesure en ce sens, l’actuel secrétaire d’État, Marco Rubio, remet en place le Times New Roman.

Marco Rubio, le secrétaire d’État américain, a ordonné aux diplomates de son pays de ne plus utiliser la police de caractère Calibri et de repasser au Times New Roman.

Selon le New York Times, le mémo envoyé par le responsable des Affaires étrangères du pays indique : « Retour à la tradition : police Times New Roman 14 points obligatoire pour tous les documents du département ».

Annulation d’une décision de l’administration Biden pour plus d’inclusivité

Il annule, de fait, une décision prise sous Joe Biden qui avait changé la police de caractère officiellement utilisée par la diplomatie étatsunienne en 2023 pour Calibri, une police sans empattement (serif en anglais).

Créée par Microsoft en 2004, elle avait été jugée plus accessible pour les lecteurs en situation de handicap, notamment les personnes malvoyantes ou dyslexiques, par l’administration fédérale précédente. Comme l’écrivait TechCrunch à l’époque, Microsoft avait pris cette décision de remplacer le Times New Roman par Calibri dès 2007 pour sa police par défaut.

Marco Rubio a affirmé, selon le New York Times, que ce changement « ne figurait pas parmi les cas les plus illégaux, immoraux, radicaux ou inutiles » des politiques de diversité, équité, inclusion et accessibilité de son pays. Mais, selon lui, ce changement de police de caractères était un échec car les « cas de correction de documents pour des raisons d’accessibilité » n’ont pas diminué. Et il estime que « le passage à Calibri n’a rien apporté d’autre que la dégradation de la correspondance officielle du département ».

Dans un article sur l’accessibilité des polices de caractères publié sur Medium en 2020, Gareth Ford Williams, alors responsable de l’expérience utilisateur et de l’accessibilité à la BBC, expliquait : « Pour les enfants ou les adultes qui apprennent à lire ou qui ont des difficultés en lecture, les formes moins complexes des polices sans empattement peuvent faciliter la reconnaissance des caractères. Les polices avec empattement offrent une lisibilité plus fluide aux lecteurs avancés grâce à la forme plus claire des lettres ».

Tradition, formalité et cérémonial

Pour le retour au Times New Roman, le secrétaire d’État met en avant une perception des polices avec empattement « comme évoquant la tradition, la formalité et le cérémonial ».

Cette modification dans les usages officiels de l’administration états-unienne marque symboliquement un nouveau coup contre les politiques de diversité, d’équité et d’inclusion mises en place auparavant aux États-Unis. Dès février dernier, l’administration Trump interdisait à plusieurs agences d’utiliser certains mots comme « racisme », « biais », « genre » ou « sexualité ». Elle a ensuite imposé aux entreprises qui travaillent avec elle, comme SAP, d’abandonner ce genre de politiques. Récemment, la fondation Python a refusé une subvention de 1,5 million de dollars car les conditions assorties mentionnaient l’interdiction de toute politique DEI.

USA : 5 ans d’historique de réseaux sociaux pour passer en tant que touriste français ?

10 décembre 2025 à 13:32
Vos réseaux, s'il vous plaît ?
USA : 5 ans d’historique de réseaux sociaux pour passer en tant que touriste français ?

Les États-Unis restreignent de plus en plus le passage de leur frontière en obligeant le partage avec les autorités d’informations personnelles comme l’historique des réseaux sociaux. Les services des douanes américains envisagent de conditionner l’entrée de ressortissants de pays qui n’ont pas besoin de visa pour des séjours de tourisme ou pour affaires de moins de 90 jours au partage, entre autres, de 5 ans d’historique de réseaux sociaux.

La restriction des conditions d’accès au sol états-unien s’amplifie depuis le retour de Donald Trump au pouvoir. Dès avril, on apprenait que les autorités traquaient les propos des étudiants étrangers pour révoquer leurs visas.

Le Service des douanes et de la protection des frontières des États-Unis (U.S. Customs and Border Protection, CBP) envisage maintenant de demander systématiquement 5 ans d’historique de réseaux sociaux aux visiteurs touristiques ou pour affaires de ressortissants de pays comme le Royaume-Uni, la France ou la Norvège qui n’ont pas besoin de visa.

Un ajout envisagé dans un formulaire pour éviter la demande de visa

Le New York Times a en effet repéré cette proposition [PDF] faite par le service états-unien des douanes. Elle est ouverte pour 60 jours à des commentaires publics et doit ensuite être approuvée par le Bureau de la gestion et du budget de la Maison-Blanche.

Cela concerne de fait toutes les personnes visitant les États-Unis éligibles au programme d’exemption de visa (« Visa waiver »). Celui-ci, mis en place en 1986, permet à des ressortissants de 42 pays (dont la France) de « voyager aux États-Unis pour affaires ou pour le tourisme pour des séjours d’une durée maximale de 90 jours sans visa ».

Ici, la CBP propose d’inclure dans le formulaire du portail de Visa waiver l’obligation de fournir les identifiants utilisés sur leurs réseaux sociaux au cours des cinq dernières années, comme c’est déjà le cas pour les demandeurs de visa depuis 2016. L’objectif serait notamment de « distinguer les personnes qui suscitent des inquiétudes supplémentaires de celles dont les informations confirment leur admissibilité au voyage », précise la FAQ de l’Electronic System for Travel Authorization (ESTA).

D’autres données à « forte valeur ajoutée » pourront être collectées ensuite « lorsque c’est possible », comme les numéros de téléphones (personnels, professionnels ainsi que ceux des membres de sa famille : parents, conjoint, frères et sœurs, enfants) des cinq dernières années, les adresses emails (personnelles et professionnelles) des dix dernières années, les adresses IP et métadonnées des photos soumises par voie électronique, les données biométriques (visage, empreinte digitale, ADN et iris), ainsi que les noms, adresses, dates et lieux de naissance des membres de la famille.

Aggravation des atteintes aux libertés civiles

Selon le cabinet d’avocats Fragomen, si les modifications sont approuvées par le Bureau de la gestion et du budget, la CBP « peut mettre en œuvre les changements par étapes au cours des semaines et des mois à venir ».

Citée par le New York Times, l’avocate de l’Electronic Frontier Foundation, Sophia Cope, estime que ce changement « aggraverait les atteintes aux libertés civiles ». Elle ajoute que « cette mesure ne s’est pas avérée efficace pour trouver des terroristes et autres malfaiteurs mais elle a restreint la liberté d’expression et porté atteinte à la vie privée de voyageurs innocents, ainsi qu’à celle de leur famille, de leurs amis et de leurs collègues américains ».

Deep learning sur des photos d’enfants autistes : des articles scientifiques rétractés

10 décembre 2025 à 09:58
Ethique en toc
Deep learning sur des photos d’enfants autistes : des articles scientifiques rétractés

Plusieurs recherches incluant l’entrainement de réseaux de neurones font l’objet d’une attention particulière, parfois plusieurs années après leur publication. En cause l’utilisation d’une base de données de photos posant des problèmes éthiques concernant le consentement des enfants ayant des troubles autistiques concernés. L’éditeur Springer Nature est en train de rétracter des dizaines d’articles scientifiques.

Des dizaines d’articles scientifiques sont actuellement scrutés, notamment par l’éditeur scientifique Springer Nature, pour une éventuelle rétractation. Certains, comme cette meta analyse sur les approches utilisant le deep learning pour prédire l’autisme publiée en 2024, ont déjà fait l’objet d’une rétractation récemment.

Des travaux scientifiques qui soulèvent des questions éthiques

Les chercheurs et éditeurs auraient pu commencer par interroger le bien-fondé de mettre en place une reconnaissance de traits autistiques sur le visage d’enfants en utilisant le deep learning. La littérature scientifique montre que ces questions n’ont pas arrêté nombre de chercheurs.

Mais une nouvelle question éthique apparait, mise au grand jour par The Transmitter. Ce média spécialisé en neurosciences vient de découvrir que plusieurs dizaines d’articles scientifiques sur le sujet s’appuient, en fait, sur une base de données de visages d’enfants créée en 2019 par Gerald Piosenka, un ingénieur à la retraite. Celui-ci l’avait mise en ligne sur la plateforme Kaggle rachetée en 2017 par Google, qui permet à la communauté des machine learning et deep learning de partager des données, codes, modèles, etc.

L’utilisation d’une base de données créée sans le consentement des enfants

Cette base de données contient plus de 2 900 photos d’enfants, dont la moitié est étiquetée en tant qu’autistes. Comme l’a repéré The Transmitter, Gerald Piosenka explique dans un commentaire posté en 2022 que Kaggle a supprimé la base de données parce qu’elle ne respectait pas ses conditions d’utilisation. Mais l’ingénieur l’a remis rapidement en ligne via Google Drive.

Dans la description de la base, Gerald Piosenka explique la manière dont il a procédé pour la créer : « J’ai cherché partout une base de données contenant des images faciales d’enfants autistes. À ma connaissance, il n’en existe aucune. J’ai donc dû développer cette base de données à partir de recherches sur Internet. J’ai principalement trouvé ces images sur des sites web consacrés à l’autisme. En général, j’ai dû télécharger une image particulière, qui était souvent une photo de groupe, puis recadrer manuellement l’image pour ne garder que le visage de l’enfant ».

Questionné par un utilisateur de Kaggle sur l’exclusion de certaines photos pour des questions de vie privée et sur l’obtention du consentement, Gerald Piosenka a répondu que « toutes les images ont été recueillies à partir de sites Web accessibles au public et de recherches Google. Aucune restriction en matière de confidentialité n’a été violée » et a justifié sa démarche en affirmant que sa motivation était « altruiste » et qu’ « en matière d’éthique, comment peut-on être plus éthique que d’essayer de favoriser le dépistage précoce et le traitement de l’autisme chez les enfants » sans prendre en compte le signalement sur le besoin de consentement.

Près de 40 articles scientifiques sont étudiés par Springer Nature pour une éventuelle rétractation selon un des conseillers en intégrité de la recherche de l’éditeur interrogé par The Transmitter. Le média a, de son côté, recensé au moins 90 articles (publiés aussi par d’autres éditeurs comme Wiley, IEEE, Elsevier, MDPI ou encore Cell Press) qui citent une version de la base de données.

☕️ Bruxelles soupçonne Google de pratiques anticoncurrentielles concernant l’IA

9 décembre 2025 à 14:33

La Commission européenne a ouvert une enquête sur les pratiques de Google sur le marché de l’IA qui pourraient être considérées comme anticoncurrentielles.

Dans un communiqué publié sur son site, elle explique que « l’enquête examinera notamment si Google fausse la concurrence en imposant des conditions générales abusives aux éditeurs et aux créateurs de contenu, ou en s’octroyant un accès privilégié à ce contenu, désavantageant ainsi les développeurs de modèles d’IA concurrents ».

Sont notamment concernés les résumés d’AI Overviews (accessibles dans de nombreux pays, notamment européens, mais pas en France) et l’utilisation des vidéos postées sur YouTube.

La Commission pointe le fait que Google se sert de contenus publiés sur le web pour son service AI Overviews et pour le mode IA de son moteur de recherche « sans rémunération appropriée pour les éditeurs et sans leur offrir la possibilité de refuser une telle utilisation de leurs contenus ». Elle explique qu’elle va enquêter pour déterminer dans quelle mesure ces outils de Google s’appuient sur ces contenus.

En juillet dernier, le réseau nommé « Alliance internationale des éditeurs indépendants » portait plainte devant la Commission contre Google pour ces mêmes raisons.

Mais la Commission va aussi chercher à savoir si Google utilise les vidéos uploadées par les utilisateurs de YouTube pour entrainer ses modèles d’IA sans leur consentement et sans compensation.

« Google ne rémunère pas les créateurs de contenu YouTube pour leur contenu et ne leur permet pas non plus de télécharger leur contenu sur YouTube sans autoriser Google à utiliser ces données. Parallèlement, les développeurs concurrents de modèles d’IA sont empêchés par les politiques de YouTube d’utiliser le contenu YouTube pour entraîner leurs propres modèles d’IA », affirme l’institution.

« Si elles sont avérées, les pratiques faisant l’objet de l’enquête pourraient enfreindre les règles de concurrence de l’UE qui interdisent l’abus de position dominante », prévient Bruxelles.

« Une société libre et démocratique repose sur la diversité des médias, le libre accès à l’information et un paysage créatif dynamique. Ces valeurs sont au cœur de notre identité européenne », affirme Teresa Ribera, commissaire européenne à la Concurrence. « L’IA apporte des innovations remarquables et de nombreux avantages aux citoyens et aux entreprises à travers l’Europe, mais ces progrès ne peuvent se faire au détriment des principes qui sont au cœur de nos sociétés », ajoute-t-elle.

Se prononçant sur la plainte des éditeurs, Google affirmait à Reuters que celle-ci « risque d’étouffer l’innovation dans un marché plus concurrentiel que jamais ». C’est toujours la même excuse servie par les géants américains quand il s’agit de régulation européenne.

« Google a rompu le pacte qui sous-tend l’Internet. L’accord prévoyait que les sites web seraient indexés, récupérés et affichés lorsqu’ils étaient pertinents par rapport à une requête. Tout le monde avait sa chance », proclame de son côté Tim Cowen, l’avocat des éditeurs, à l’agence de presse. « Aujourd’hui, Google donne la priorité à son IA Gemini et ajoute l’insulte à l’injure en exploitant le contenu des sites web pour entraîner Gemini. Gemini est le jumeau maléfique de Search », ajoute-t-il.

États-Unis : procès contre les pressions sur Apple pour enlever ICEBlock de l’App Store

9 décembre 2025 à 13:00
La pomme pressée
États-Unis : procès contre les pressions sur Apple pour enlever ICEBlock de l’App Store

Le créateur de ICEBlock attaque en justice l’administration Trump. Il l’accuse d’avoir mis la pression sur Apple pour supprimer de l’App Store l’application qui permet de signaler la présence de l’ICE, les services d’immigration étatsuniens qui font des interventions musclées dans le pays. Au point que l’entreprise de Tim Cook s’est exécutée.

Il y a deux mois, Apple et Google retiraient plusieurs applications collaboratives permettant de signaler la présence des agents de l’Immigration and Customs Enforcement (ICE) dans les quartiers des villes américaines. Joshua Aaron, le développeur d’ICEBlock, la plus connue d’entre elles mais seulement développée pour iOS, vient de déposer une plainte contre les pressions de l’administration Trump sur Apple pour enlever son application de l’App Store.

Une pression assumée par l’administration Trump à la TV

Il avait déjà affiché sa confiance dans ses capacités de défendre son application en justice en expliquant qu’il disposait « d’une équipe juridique formidable, et il serait absurde qu’ils essaient de faire quoi que ce soit pour mettre fin à cette affaire ». Mais Apple avait finalement cédé et supprimé l’application de l’App Store, en affirmant l’avoir fait « sur la base des informations que nous avons reçues des forces de l’ordre ».

De son côté, l’administration Trump avait clamé victoire. « Nous avons contacté Apple aujourd’hui pour leur demander de retirer l’application ICEBlock de leur App Store, et Apple l’a fait », affirmait la procureure générale des États-Unis, Pam Bondi, à Fox Business.

Dans sa plainte [PDF] relevée par Gizmodo, c’est notamment cette affirmation qui est visée par Joshua Aaron. « Avec cet aveu, la procureure général Bondi a clairement indiqué que le gouvernement américain avait utilisé son pouvoir réglementaire pour contraindre une plateforme privée à supprimer une expression protégée par le premier amendement », affirme le document.

Apple a cédé pour la première fois face à une demande de suppression de l’App Store du gouvernement américain

Les avocats de Joshua Aaron écrivent qu’il « a développé ICEBlock en réponse à la campagne sans précédent menée par l’administration Trump pour arrêter, détenir et expulser les immigrants ». Et ils ajoutent qu’il « craignait que les propos incendiaires de Trump sur l’immigration ne conduisent à une application agressive et aveugle des lois sur l’immigration, exposant les immigrants et les citoyens à la violence et à des violations flagrantes de leurs libertés civiles. Aaron avait raison ».

« Pour la première fois en près de cinquante ans d’existence, Apple a supprimé une application américaine à la demande du gouvernement américain », souligne la plainte.

Le document ne se focalise pas seulement sur la pression mise sur Apple. Les avocats de Joshua Aaron attaquent aussi des menaces directes de Pam Bondi mais aussi du directeur par intérim de l’ICE Todd Lyons et d’un des hommes de la Maison-Blanche, Tom Homan. « Ces menaces visaient à dissuader Aaron et d’autres personnes de s’engager dans des activités d’expression — en particulier le partage d’informations sur les actions des forces de l’ordre observables publiquement — et à dissuader les entreprises technologiques et les institutions journalistiques de soutenir, d’amplifier ou de faciliter ce type de discours », estiment-ils.

Plus on discute politique avec les chatbots, plus ils sont persuasifs et inexacts

9 décembre 2025 à 07:55
Trump AI
Plus on discute politique avec les chatbots, plus ils sont persuasifs et inexacts

Dans des conversations politiques, les chatbots IA peuvent réellement influencer l’opinion de leurs utilisateurs. Des chercheurs viennent de montrer que plus les chatbots donnent des informations, plus ils sont persuasifs, même si ces informations sont, de fait, fausses.

Les chatbots IA peuvent avoir des effets sur la santé mentale de leurs utilisateurs ou distordre l’information de façon systémique. Des chercheurs se sont penchés sur une autre influence qu’ils pourraient avoir dans notre vie démocratique : est-ce que discuter avec eux nous influence politiquement et comment ? C’est, de fait, une question qui se pose depuis l’arrivée de ChatGPT et même avant, puisque des chercheurs d’OpenAI la soulevaient dans un article sur les conséquences sociales des modèles de langage mis en ligne en 2019.

Deux études sur le sujet sont parues en parallèle dans les revues scientifiques Science et Nature ce jeudi 4 décembre. Les deux articles sont signés en partie par les mêmes chercheurs du MIT.

Celui publié dans Science analyse la force de persuasion de différents modèles accessibles comme Qwen, Llama, GPT ou Grok (dans plusieurs de leurs versions) sur plusieurs milliers de Britanniques. Ils ont voulu regarder quels étaient les paramètres qui amélioraient le plus la force de persuasion d’une IA conversationnelle entre la taille brute du modèle, la mise en place de méthodes de persuasion post-entrainement et la mise en place de stratégies rhétoriques spécifiques à chaque utilisateur.

Leur étude porte sur près de 80 000 britanniques ayant discuté pendant 9 minutes en moyenne avec leurs chatbots sur 707 sujets politiques différents. Avant et après la discussion, les chercheurs faisaient évaluer une série d’opinions sur des sujets politiques britanniques.

Test de méthodes de persuasion


Il reste 85% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ OpenAI désactive une fonctionnalité qui permettait de faire la publicité d’une application

8 décembre 2025 à 08:47

Le responsable de la R&D à OpenAI, Mark Chen, a finalement annoncé que son entreprise a désactivé l’affichage de messages publicitaires pour des applications sur les comptes payants de ChatGPT, a repéré TechCrunch.

La semaine dernière, des utilisateurs (avec des comptes payants Pro ou Plus) ont repéré des messages publicitaires sous les réponses que leur générait le chatbot d’OpenAI. On pouvait y voir, par exemple, un message promouvant l’application des magasins Target :

L’entreprise a d’abord refusé d’y voir quelque problème que ce soit. « Ce n’est pas une publicité », affirmait Daniel McAuley, responsable Données chez OpenAI. « Depuis le DevDay, nous avons lancé des applications provenant de certains de nos partenaires pilotes, notamment Target, et nous avons travaillé à rendre le mécanisme de découverte des applications plus organique au sein de ChatGPT. Notre objectif est que les applications améliorent l’expérience utilisateur lorsqu’elles sont pertinentes pour une conversation, et nous y travaillons encore. Tout le monde peut créer des applications à l’aide du SDK, et nous prévoyons d’ouvrir bientôt les soumissions et le répertoire d’applications », ajoutait-il.

De la même manière, Nick Turley, Vice-président d’OpenAI responsable de ChatGPT, affirmait encore samedi : « Je constate beaucoup de confusion au sujet des rumeurs concernant les publicités dans ChatGPT. Il n’existe aucun test en direct pour les publicités : toutes les captures d’écran que vous avez vues ne sont soit pas réelles, soit ne concernent pas des publicités. »

Fin novembre, des utilisateurs avaient déjà remarqué que des références à des fonctionnalités de publicité étaient incluses dans une version beta de l’application Android de ChatGPT.

Bruxelles inflige une amende de 120 millions d’euros à X pour infraction au DSA

5 décembre 2025 à 15:41
X n'est pas une marque de transparence
Bruxelles inflige une amende de 120 millions d’euros à X pour infraction au DSA

Après 2 ans d’enquête, la Commission inflige une amende conséquente à X, lui reprochant un manque de transparence et des pratiques trompeuses, notamment sur le changement de signification de la coche bleue.

Près de deux ans après l’ouverture de sa procédure formelle contre X, la Commission européenne annonce avoir infligé une amende de 120 millions d’euros au réseau social d’Elon Musk pour des manquements à ses obligations de transparence imposées par le Règlement sur les services numériques (DSA). En juillet 2024, Bruxelles avait confirmé ses craintes et attaqué X pour violation du DSA.

Coche bleue trompeuse et manque de transparence

En cause, notamment, le changement d’utilisation de la coche bleue, qui servait initialement à certifier l’identité des utilisateurs « vérifiés » par Twitter. Suite à son rachat, Elon Musk l’a ouvert à n’importe quel utilisateur payant pour accéder aux services premium de X. « Cela enfreint l’obligation imposée par le DSA aux plateformes en ligne d’interdire les pratiques trompeuses en matière de conception sur leurs services » explique la Commission dans son communiqué.

« Sur X, n’importe qui peut payer pour obtenir le statut « vérifié » sans que l’entreprise ne vérifie de manière significative qui se cache derrière le compte, ce qui rend difficile pour les utilisateurs de juger de l’authenticité des comptes et des contenus avec lesquels ils interagissent », constate (comme tout le monde) l’administration européenne.

Elle considère que « cette tromperie expose les utilisateurs à des escroqueries, notamment à des fraudes par usurpation d’identité, ainsi qu’à d’autres formes de manipulation par des acteurs malveillants ».

Mais la Commission ne s’est pas arrêtée à la coche bleue. Elle reproche à X (anciennement Twitter) le manque de transparence dans le référentiel des publicités de X qui est censé éclairer les utilisateurs au sujet du ciblage publicitaire comme l’y oblige le DSA. Mais la Commission explique que « X a élaboré un design et des barrières d’accès, tels que des délais de traitement excessifs, qui compromettent l’objectif des référentiels publicitaires ».

Bruxelles reproche aussi au réseau social d’Elon Musk de ne pas fournir aux chercheurs d’accès aux données publiques de sa plateforme.

La Commission souligne que c’est sa première décision de non-conformité avec le DSA. L’entreprise a 60 jours pour prendre des mesures concernant la coche bleue et 90 jours pour proposer un plan d’action qui la mette en conformité avec le DSA. Si tel n’est pas le cas, elle pourrait subir des jour-amendes de pénalité en plus.

Les autorités états-uniennes réagissent vivement

« Tromper les utilisateurs avec des coches bleues, dissimuler des informations sur les publicités et exclure les chercheurs n’ont pas leur place en ligne dans l’UE », commente Henna Virkkunen, vice-présidente exécutive de la Commission européenne à la Souveraineté technologique, à la Sécurité et à la Démocratie :

« La DSA protège les utilisateurs. Le DSA donne aux chercheurs les moyens de mettre au jour les menaces potentielles. Le DSA rétablit la confiance dans l’environnement en ligne. Avec la première décision de non-conformité de la DSA, nous tenons X responsable d’avoir porté atteinte aux droits des utilisateurs et d’avoir éludé ses responsabilités. »

X n’a pas encore réagi et n’a pas répondu à Reuters. Mais du côté états-unien, cette décision européenne n’est pas passée inaperçue et devrait tendre un peu plus les relations entre les deux côtés de l’Atlantique. « Des rumeurs circulent selon lesquelles la Commission européenne infligerait une amende de plusieurs centaines de millions de dollars pour non-respect de la censure », réagissait sur X JD Vance hier soir avant l’annonce officielle, ajoutant que « l’UE devrait soutenir la liberté d’expression au lieu d’attaquer les entreprises américaines pour des futilités ».

Dans le même sens, cette fois après l’officialisation, Brendan Carr, nommé en 2017 par Donald Trump à la Commission fédérale des communications (FCC) qu’il dirige depuis 2024, a affirmé sur X qu’ « une fois de plus, l’Europe inflige une amende à une entreprise technologique américaine prospère pour le simple fait d’être une entreprise technologique américaine prospère » :

« L’Europe impose des taxes aux Américains afin de subventionner un continent freiné par ses propres réglementations étouffantes ».

☕️ Une nouvelle panne Cloudflare a touché de nombreux sites : l’« incident est résolu »

5 décembre 2025 à 09:30

Après la panne intervenue il y a 15 jours, Cloudflare a été touché par un nouvel incident. « Cloudflare enquête sur des problèmes liés à Cloudflare Dashboard et aux API associées », expliquait l’entreprise sur son site d’informations liées aux pannes à 9h56 heure française.

Cloudflare a ensuite ajouté qu’« une correction a été mise en œuvre » et qu’elle surveillait les résultats à 10h12.

Next a pu constater que ce problème a eu une incidence sur des sites grand public comme : Doctolib, Claude.ia, Downdetector (sa version française comme sa version internationale), Quora ou encore Zendesk. Une erreur 500 était affichée sur tous ces sites.

Ces services semblent tous de nouveau accessibles après la correction mise en place. La panne a duré une quinzaine de minutes, mais elle n’est pas passée inaperçue étant donné l’omniprésence de la plateforme sur Internet. À 10h20, Cloudflare annonce que « cet incident est résolu ».

La précédente panne était partie d’un petit changement de permissions.

❌