Samsung phones embedded with 'unremovable' Israeli spyware
Cette application appartient à une société de surveillance Israélienne, désormais américaine.
(Permalink)
See https://curl.haxx.se/libcurl/c/libcurl-errors.html for description of the curl error code.
#0 index.php(73): RssBridge->main()
#1 lib/RssBridge.php(39): RssBridge->{closure}()
#2 lib/RssBridge.php(37): BasicAuthMiddleware->__invoke()
#3 middlewares/BasicAuthMiddleware.php(13): RssBridge->{closure}()
#4 lib/RssBridge.php(37): CacheMiddleware->__invoke()
#5 middlewares/CacheMiddleware.php(44): RssBridge->{closure}()
#6 lib/RssBridge.php(37): ExceptionMiddleware->__invoke()
#7 middlewares/ExceptionMiddleware.php(17): RssBridge->{closure}()
#8 lib/RssBridge.php(37): SecurityMiddleware->__invoke()
#9 middlewares/SecurityMiddleware.php(19): RssBridge->{closure}()
#10 lib/RssBridge.php(37): MaintenanceMiddleware->__invoke()
#11 middlewares/MaintenanceMiddleware.php(10): RssBridge->{closure}()
#12 lib/RssBridge.php(37): TokenAuthenticationMiddleware->__invoke()
#13 middlewares/TokenAuthenticationMiddleware.php(10): RssBridge->{closure}()
#14 lib/RssBridge.php(34): DisplayAction->__invoke()
#15 actions/DisplayAction.php(54): DisplayAction->createResponse()
#16 actions/DisplayAction.php(89): BlueskyBridge->collectData()
#17 bridges/BlueskyBridge.php(164): BlueskyBridge->getAuthorFeed()
#18 bridges/BlueskyBridge.php(633): getContents()
#19 lib/contents.php(104): CurlHttpClient->request()
#20 lib/http.php(185)
mruac
Le Diagnostic de performance énergétique (DPE) en est un cas d’école. Pensé pour inciter à la rénovation et rendre nos logements moins énergivores, il a, malgré ses imperfections, été transformé par la loi Climat et Résilience de 2021 en véritable couperet. Tous les logements classés F et G, synonymes de « passoires thermiques », indépendamment des consommations réelles, se sont ainsi retrouvés progressivement interdits à la location. Conséquence : l’offre locative se raréfie, les loyers s’envolent et les plus modestes, ceux que cette mesure devait protéger, se retrouvent les plus pénalisés.
Ce genre de fiasco n’est pas un accident isolé mais le résultat d’un problème structurel. Des décisions sont prises, et des lois votées, sur des bases fragiles, sans véritable évaluation préalable ni possibilité de retour en arrière.
Au démarrage est le chiffre, souvent choc.
Ainsi, celui des 48 000 morts annuels dus à la pollution atmosphérique, justifiant l’impérieuse nécessité de généraliser les zones à faibles émissions (ZFE). Il a été répété sur tous les plateaux télé, qualifié d’« hécatombe » par le président de la République lui-même, repris dans l’exposé des motifs de la loi et martelé par la ministre Barbara Pompili à l’ouverture des débats au Parlement. Un chiffre à la fois gonflé et trompeur, destiné à faire primer l’émotion sur la raison. Et parmi ces émotions, la plus puissante, la peur.
Le principe de précaution, inscrit dans la Constitution en 2005, illustre cette dérive. Pensé pour obliger à prendre des mesures de prévention des risques de « dommages graves et irréversibles », il s’est peu à peu transformé en culture du statu quo. L’aversion au risque a fini par remplacer son évaluation. L’interdiction est devenue la solution de facilité.
Une fois le train législatif parti sur de mauvais rails, il devient difficilement arrêtable. L’étape suivante, l’étude d’impact, pourtant cruciale, se révèle trop souvent une simple formalité.
Depuis la révision constitutionnelle de 2008 et l’article 8 de la loi organique de 2009, les projets de loi d’origine gouvernementale doivent être obligatoirement accompagnés de cette étude d’impact. Sur le papier, l’exigence est claire. En pratique, l’exercice tourne souvent à l’exposé de motifs à rallonge : peu de données fiables ni d’identification claire des risques, et pas d’analyse de scénarios alternatifs.
La loi Climat et Résilience en offre un exemple parfait. Outre le DPE et les ZFE, elle contient d’autres mesures structurantes dont le zéro artificialisation nette. Son étude d’impact a été qualifiée de « superficielle » par le Conseil d’État, qui relevait « des insuffisances notables » dans plusieurs volets du texte.
Sur les ZFE, le document s’attarde sur des détails — jusqu’à chiffrer à 890 000 euros le coût de la rénovation du Panthéon « imputable à la pollution de l’air » — mais passe sous silence les risques sociaux : ségrégation territoriale, sentiment d’exclusion.
L’article Le mal français est apparu en premier sur Les Électrons Libres.
Techniques Spatiales @techspatiales.bsky.social posted:
Oui, c'est gigantesque.
Depuis plus de vingt ans, Google règne sans partage sur la recherche en ligne. Avec près de 90 % des requêtes mondiales, le moteur de Mountain View est devenu la porte d’entrée d’Internet et la plus grosse régie publicitaire du monde. Son secret ? Un savant mélange de référencement naturel (SEO) et de liens sponsorisés (SEA). Les sites se battent pour grimper dans la page de résultats, les annonceurs paient pour exister, et Google, lui, encaisse.
Un modèle aussi simple qu’efficace. Mais fragile, car il repose sur un geste : le clic. Or une nouvelle génération d’utilisateurs se demande déjà pourquoi cliquer sur dix liens… quand une IA peut leur donner directement la réponse.
Depuis son lancement fin 2022, ChatGPT a bousculé les habitudes. Huit cents millions d’utilisateurs, un usage quotidien dans les entreprises, et un réflexe qui s’installe : taper une question dans une fenêtre de chat plutôt que dans une barre de recherche. 74 % disent l’utiliser pour chercher des informations au moins de temps en temps.
Et la tendance s’accélère. D’ici à 2026, jusqu’à un quart des requêtes pourraient passer par des assistants IA. OpenAI, avec ChatGPT Atlas, pousse même le concept plus loin : un navigateur où la recherche n’est plus une liste de liens mais une conversation. Demain, on ne cherchera plus le web, on lui parlera.
Pour les directions marketing, c’est un séisme. Pendant vingt ans, tout reposait sur le couple SEO/SEA : du contenu optimisé pour remonter dans Google et des annonces payantes pour s’y maintenir.
Mais voilà : les IA conversationnelles ne présentent plus dix liens, elles livrent une seule réponse, synthétique et contextualisée. Résultat : le trafic naturel chute, la publicité devient moins rentable et le marketing digital se retrouve à réinventer la roue.
Il faut désormais produire des contenus clairs, solides, bien structurés — et surtout pensés pour être compris par les IA. Autrement dit, parler leur langage. Mieux vaut un article précis et utile qu’un texte truffé de mots-clés.
Bienvenue dans l’ère du GEO — Generative Engine Optimization. L’idée : ne plus seulement séduire l’algorithme de Google, mais être cité par les moteurs d’IA.
Pour cela, il ne suffit plus d’apparaître dans les dix premiers liens Google. Il faut désormais exister dans les corpus que les modèles d’IA consultent : articles de presse, blogs, Wikipédia, forums, réseaux professionnels. L’enjeu est de façonner leur mémoire conversationnelle, autrement dit la manière dont elles apprennent à citer des marques, des produits ou des sources crédibles. Cela implique de structurer les contenus comme des réponses directes aux questions que se posent les utilisateurs, d’adopter un ton naturel et fluide, proche du langage courant, et d’actualiser régulièrement les données pour rester visibles dans les flux d’information que les IA exploitent.
Les marques et organisations doivent donc associer systématiquement leur nom à des formulations naturelles, renforcer la crédibilité de leur site par des sources fiables (liens, mentions, transparence éditoriale) et multiplier leur présence sur les plateformes que les LLM lisent : Reddit, LinkedIn, Quora ainsi que la presse en ligne. Enfin, les contenus doivent être techniquement lisibles — via des balises FAQ, des métadonnées et des schémas structurés — pour que les modèles puissent les comprendre et les citer. Être mentionné par une IA n’est plus une affaire de mots-clés : c’est désormais une question de cohérence narrative, de confiance et de lisibilité machine.
On devine déjà la suite : demain, il y aura des « réponses sponsorisées » dans les IA, où un produit ou une marque apparaîtront directement dans la synthèse générée. Le SEO et la publicité classique vont converger vers ce référencement conversationnel, plus fluide, mais aussi plus opaque.
Faut-il enterrer Google ? Pas encore. Le géant reste incontournable pour acheter un billet d’avion, comparer des prix ou trouver un restaurant. Mais pour s’informer ou se documenter, l’IA prend l’avantage.
Les médias et marques l’ont compris : mieux vaut miser sur des contenus solides, sourcés et reconnaissables. Certains vont même jusqu’à négocier des partenariats avec les IA, histoire d’assurer leur visibilité dans les réponses.
Car la confiance va devenir la nouvelle monnaie du web : les IA privilégieront les contenus sérieux, vérifiés, actualisés. Les communicants, eux, devront apprendre à dialoguer avec ces nouveaux moteurs, à suivre leurs citations, à comprendre leur logique.
Et pendant ce temps, Google se réinvente. Ses projets Gemini et Bard injectent de l’IA au cœur même du moteur, quitte à rogner sur ses revenus publicitaires. Le pari est clair : mieux vaut transformer son modèle avant que d’autres ne le fassent à sa place.
La recherche en ligne entre dans une nouvelle ère : celle du dialogue. ChatGPT ne tue pas Google — il le force à changer. Les métriques aussi se transforment : on ne mesurera plus seulement le trafic ou le taux de clics, mais la confiance, la mention, la pertinence.
Demain, les gagnants seront ceux qui auront su comprendre cette bascule : maîtriser leurs données, inventer le SEO de l’IA et surtout gagner la confiance des machines. Le web ne sera plus seulement un espace à explorer, mais un langage à parler — celui de l’intelligence artificielle.
L’article La guerre des clics est apparu en premier sur Les Électrons Libres.