Meta a déployé des outils dangereux pour la santé mentale des mineurs en toute connaissance de cause et retenu des informations sur des cas d’exploitation sexuelle de mineurs, a tranché ce 24 mars un jury états-unien.
Au Nouveau-Mexique, le tribunal a condamné l’entreprise à 375 millions de dollars de dommages civils, une décision que le procureur qualifie d’ « historique », quand bien même les plaignants visaient un montant cinq fois plus élevé. C’est la première fois que l’entreprise de Mark Zuckerberg est déclaré coupable d’actes commis sur ses plateformes, note the Guardian.
L’affaire a été portée devant les tribunaux en décembre 2023, après que des enquêtes eurent détaillé comment Facebook et Instagram s’étaient transformés en place de marché de l’exploitation sexuelle de mineurs.
L’entreprise ne devra pas pour autant adapter ses pratiques tout de suite : ce sera un juge, et non un jury populaire, qui pourra se prononcer sur ce type d’évolution, rappelle AP. Meta a indiqué se pourvoir en appel.
Cette affaire est la première d’une série de plaintes déposées contre le groupe. Plus de 40 procureurs états-uniens ont par exemple déposé des plaintes fin 2023 pour le manque de protection des internautes mineurs de la part de la société.
Alors qu’elle subissait depuis des années des diffusions non consenties d’images à caractère sexuel en ligne, l’actrice allemande Collien Fernandes a découvert et fait savoir publiquement que l’auteur de ces manipulations était son ex-mari, une autre star du petit écran allemand, Christian Ulmen. Ces révélations défraient la chronique, alors que l’Allemagne se prépare à débattre d’une loi de protection des internautes contres les deepfakes pornographiques et d’autres types de violences numériques.
Très engagée contre les diffusions non consenties d’images à caractère sexuel, l’animatrice et actrice allemande Collien Fernandes a déposé plainte contre son ex-mari, l’acteur Christian Ulmen, pour « agression, usurpation d’identité et diffamation ». Ensemble depuis 2010, mariés depuis l’été suivant, les deux formaient l’un des couples les plus populaires du pays jusqu’à leur séparation, annoncée en septembre 2025.
Ce 20 mars, une longue enquête du magazine Der Spiegel détaille les raisons de cette séparation : pendant des années, son ex-mari avait recouru à toutes sortes d’outils technologiques, notamment d’intelligence artificielle, pour se faire passer pour Collien Fernandes et la faire interagir dans des échanges à caractère sexuel avec des inconnus. Ces discussions recouraient par ailleurs à des images, des vidéos et des sons générés par IA à caractère sexuel.
Qualifiant le phénomène de « viol virtuel », Der Spiegel compare les débats soulevés par cette agression répétée en ligne à ceux qui entourent l’affaire Pélicot ou l’affaire Espstein, dans lesquels les victimes se battent pour être entendues.
En l’occurrence, loin d’être isolées, les violences numériques touchent des personnes de tous les âges, dans des contextes publics ou privés. Dans le cadre du foyer, le centre Hubertine Auclert constatait en 2018 (.pdf) que 9 victimes de violences conjugales sur 10 essuyaient aussi des formes de violences numériques, allant de la diffusion non consentie de contenus variés au harcèlement ou à la surveillance.
Diffusions non consenties de multiples contenus à caractère sexuel
Sur Instagram, Collien Fernandes a aussi pris la parole pour exposer ce qu’elle a subi : « Pendant des années, de faux profils ont été créés à mon nom (…) qui contactaient avant tout des hommes. Après des débuts de conversation normaux, les discussions prenaient un ton de flirt, et la personne envoyait de (fausses) images dénudées et vidéos sexuelles de moi, qui semblaient prises dans le cadre privé, comme si je m’étais moi-même photographiée dénudée et m’étais filmée en plein acte sexuel. »
Capture d’écran de la publication de Collien Fernandes sur Instagram. Ce 25 mars au matin, Meta n’affichait cette publication que derrière un panneau indiquant que le contenu pouvait choquer, ndlr.
Le phénomène, qui impliquait par ailleurs des conversations téléphoniques à caractère sexuel, là encore tenues via de la génération de voix par IA, a duré « pendant dix ans (!) », écrit Collien Fernandes. À plusieurs de ces hommes, l’auteur de l’usurpation d’identité a envoyé une « histoire érotique » évoquant un viol de la présentatrice « par 21 hommes ».
Le phénomène n’a pas cessé alors qu’en 2023, elle prenait la parole publiquement, puis, en 2024, publiait un documentaire sur la question. Seule la suspension des comptes par les plateformes concernées a permis de freiner l’agression, mais l’actrice et ses avocats n’ont jamais réussi à faire supprimer certains contenus, dont une vidéo qui a déjà enregistré plus de 270 000 vues.
Quoiqu’il arrive, raconte Der Spiegel, l’ancienne présentatrice de télévision voulait savoir qui était derrière ces diffusions, ces faux comptes LinkedIn, ces manipulations répétées de son image et son nom. En 2024, elle avait déjà déposé plainte contre X.
Et lors des fêtes de Noël de la même année, son monde s’est effondré lorsque son époux de l’époque lui a avoué être l’auteur de cette manipulation de longue durée. Outre le fait d’illustrer brutalement un phénomène vécu par d’autres femmes, l’affaire choque d’autant plus l’opinion allemande que le couple Fernandes-Ulmen, très populaire dans le paysage médiatique local, s’est exprimé à plusieurs reprises sur les enjeux d’égalités des droits.
Christian Ulmen a notamment donné des interviews dans lesquelles il expliquait le rôle qu’il jouait au foyer, lorsque sa femme était en tournage, ou indiquait dédaigner les hommes qui se comportent comme de « prétendus petits mâles dominants ». Auprès du Westdeutschen Allegmeinen Zeitung, l’acteur s’est par ailleurs décrit comme « le genre d’homme que le féminisme a toujours souhaité ».
Loi allemande vouée à évoluer
En ligne, majeurs et mineurs sont régulièrement visés par diverses formes de violences. Ce 23 mars, l’ONG britannique Internet Watch Foundation alertait par exemple sur l’évolution rapide des contenus représentant des agressions sexuelles sur mineurs (CSAM, Child sexual abuse material), dans lesquels on trouve de plus en plus d’images et de vidéos hautement crédibles générées par IA.
De même, depuis l’explosion des robots conversationnels et des outils de génération d’image, nombreuses sont les spécialistes ou les victimes de deepfakes pornographiques qui alertent contre l’explosion du phénomène, qui frappe ultra-majoritairement les femmes.
Outre ces évolutions récentes, les occurrences de diffusions non consenties d’images à caractère sexuelles de personnalités ou de personnes moins exposées, les scandales d’upskirting (prises de photo sous les jupes), de sextorsion, ou encore ceux de captation d’images à l’insu de clientes de magasins ou d’hôtel se sont répétés, au fil des années écoulées.
Si la France s’est peu à peu dotée de différents outils légaux pour lutter contre les diverses formes de cyberviolences numériques, l’Allemagne reste, à l’heure actuelle, relativement démunie sur le sujet.
Alors que plusieurs milliers de personnes se réunissaient ce week-end près de la Brandenburger Tor, à Berlin, pour soutenir Collien Fernandes, le pays attend un débat réglementaire sur une proposition de loi relative à la protection contre les violences numériques. Le texte est « presque prêt », a déclaré un porte-parole du ministère fédéral de la Justice et de la protection des consommateurs au média Heise.
Il devrait couvrir deux volets : un pénal, dans lequel les deepfakes pornographiques et diverses autres formes d’agressions numériques deviendront condamnables, et un civil, pensé pour faciliter la réaction des victimes.
Concrètement, pour ces dernières, il s’agirait de renforcer le droit à être informé par les plateformes dans les cas de violations des droits de la personnalité (qui protègent un individu contre toute ingérence dans sa vie et sa liberté).
Du côté des agresseurs, le gouvernement compte menacer de bloquer les comptes des auteurs de ce type d’agression numérique des plateformes sur lesquelles ils agissent. Le but général est de « réduire le sentiment d’impunité », a indiqué la ministre fédérale de la Justice.
Si les plateformes numériques sont principalement régulées à l’échelle européenne, tout ce qui relève du droit pénal est laissé à l’appréciation des États membres. En l’espèce, l’Allemagne manque actuellement de certaines dispositions, que cette proposition de loi pourrait permettre d’accélérer.
À défaut, les victimes de diffusion non consenties d’images à caractère sexuel ne peuvent pour le moment s’appuyer que sur des actions au civil, en demandant des compensations aux auteurs et le retrait des contenus incriminés. Mais ces procédures sont longues, et peuvent constituer une charge supplémentaire pour les victimes de violences numériques.
En attendant les évolutions allemandes, Collien Fernandes a déposé plainte devant la justice espagnole, où elle a vécu, pour usurpation d’identité, injure publique, divulgation de secrets, coups et blessures répétés dans le cadre familial et menaces graves.
Au-delà du pan numérique des agressions dont elle témoigne, elle accuse en effet son ex-mari de lui avoir fait subir des violences psychologiques et émotionnelles, ainsi que des agressions physiques.
Comme Gisèle Pélicot et d’autres victimes de violences sexistes et sexuelles, qui prennent plus facilement la parole depuis la vague #MeToo, Collien Fernandes indique au Spiegel vouloir faire « changer la honte de camp » : que les internautes qui ressentent de la honte, face à la diffusion de ce type de contenu, ne soient plus celles et ceux représentés sur les images ou vidéos, mais bien ceux qui les créent.
C’est notamment pour cela qu’elle soutient, depuis 2023, les travaux d’une association comme HateAid, qui vise à faire évoluer l’opinion publique et à pousser les législateurs allemands à mieux protéger les internautes contre les deepfakes pornographiques.
Le Centre national des œuvres universitaires et scolaires (Cnous) a signalé mardi 24 mars avoir été victime d’une exfiltration de données personnelles. Ces informations ont été obtenues par l’intermédiaire de sa plateforme de prise de rendez-vous avec les 27 établissements régionaux (les Crous) qui constituent son réseau.
L’organisme chiffre précisément la population concernée : en l’occurrence, 774 000 personnes différentes, dont les données « sont issues de rendez-vous pris sur les dix dernières années ».
« Parmi elles, 139 000 personnes ont fait l’objet d’une exfiltration de pièces jointes déposées dans l’application et 635 000 ont fait l’objet d’une exfiltration de données très limitée (nom, prénom, adresse mail, objet et date du rendez-vous) », précise le Cnous.
Il indique avoir pris connaissance de cette exfiltration la veille de son communiqué, soit le 23 mars, vraisemblablement suite à la revendication exprimée par l’attaquant supposé sur un forum spécialisé.
Illustration : Flock
Le Cnous affirme s’être acquitté de ses obligations réglementaires et avoir temporairement suspendu l’accès au site concerné (mesrdv.etudiant.gouv.fr), « le temps de procéder aux corrections nécessaires et de garantir une réouverture dans des conditions de sécurité renforcées ». Les services sociaux des Crous restent, dans l’intervalle, accessibles par téléphone (09 72 59 65 65). « Un dépôt de plainte est en cours. Chaque personne concernée sera informée de la situation par le Cnous », déclare encore l’organisme.
Cette attaque, dont le mode opératoire précis (ingénierie sociale, infostealer ou autre) n’a pas été précisé, participe à une vague de vols de données touchant le monde de l’éducation. Ces derniers jours, des incidents cyber de grande ampleur ont ainsi touché l’Éducation nationale et le secrétariat général à l’enseignement catholique.
Jensen Huang change son fusil d’épaule et promet comprendre les inquiétudes des joueurs, ajoutant que lui non plus n’aime pas l’IA slop. Il affirme que ce n’est pas ce que veut faire DLSS 5, rappelant une fois encore que la mise en oeuvre revient aux créateurs de jeu. Dans le même temps, Capcom, incriminé pour Resident Evil Requiem, publie un document pour expliquer sa position sur l’utilisation de l’IA générative.
Jensen Huang est intervenu cette semaine dans le podcast de Lex Fridman, un informaticien et chercheur en intelligence artificielle qui a passé des années au MIT. La vidéo dure près de 2h30 et de nombreux sujets ont été abordés avec le patron de NVIDIA. Une transcription est également disponible sur le site de Lex Fridman.
Huang aux joueurs : je vous comprends, je n’aime « pas non plus l’AI slop »
Parmi les sujets abordés, il y avait évidemment DLSS 5, la dernière version du Deep Learning Super Sampling de NVIDIA. Sa promesse, pour rappel, est de « transformer la fidélité visuelle dans les jeux » et de passer à un rendu photoréaliste. La grogne est rapidement montée chez les joueurs et les développeurs. Les déclarations de Jensen Huang suite à ces retours n’étaient pas vraiment du genre à apaiser les esprits : « Eh bien, tout d’abord, ils ont complètement tort ».
Le patron de NVIDIA commence par affirmer que « GeForce reste, encore aujourd’hui, notre stratégie marketing numéro un ». Une manière de rappeler que NVIDIA fait aussi des produits pour les joueurs (et pas seulement des puces pour l’IA), même si les nouveautés matérielles – la série des RTX 50 Super par exemple – se font attendre. À la place, NVIDIA mise sur le logiciel, avec DLSS 5 donc.
La question de l’IA slop dans DLSS 5 arrive rapidement : « Je pense que leur point de vue est logique et je comprends leur raisonnement, car je n’apprécie pas non plus l’AI slop », affirme Jensen Huang. Changement de discours complet par rapport à sa précédente intervention.
DLSS « en parfaite cohérence avec […] le style et l’intention de l’artiste »
Le patron de NVIDIA revient ensuite sur sa ligne concernant le rapport avec les développeurs, inchangée depuis le début de cette affaire : « ce n’est tout simplement pas ce que DLSS 5 essaie de faire […] DLSS 5 est conditionné par la 3D, guidé par la 3D ». Jensen Huang affirme respecter « scrupuleusement la géométrie » de l’image déterminée par les créateurs des jeux : « Chaque image est améliorée, mais rien ne change ».
Il ajoute que « DLSS 5 permet également, car le système est ouvert, d’entraîner vos propres modèles pour la détermination, et vous pourriez même, à l’avenir, l’utiliser avec un prompt ». Il serait ainsi possible de demander à DLSS 5 de transformer un rendu pour qu’il ressemble à tel ou tel exemple. Le réseau de neurones ferait alors en sorte de transformer les images « dans ce style, en parfaite cohérence avec le talent artistique, le style et l’intention de l’artiste ».
Les créateurs sont toujours replacés au centre du processus décrit par Jensen Huang, ce sont eux qui décident de l’utiliser (et la manière de le faire) ou non : « Tout cela est fait pour les créateurs, afin qu’ils puissent créer quelque chose de plus beau mais toujours dans le style qu’ils souhaitent. Je pense qu’ils ont eu l’impression que les jeux allaient sortir tels quels, comme ils le font d’habitude, puis qu’on allait les post-traiter. Ce n’est pas ce que le DLSS est censé faire ».
Capcom souffle le chaud et le froid sur l’utilisation de l’IA générative
Il y a quelques jours, Capcom revenait sur la question de l’IA générative, comme le rapporte PC Gamer (sur la base d’une traduction automatique d’une session de questions/réponses avec les investisseurs). Attention, si le document a été mis en ligne le 23 mars, la réunion date du 16 février, soit bien avant l’annonce de DLSS 5.
Cette mise en ligne, après l’annonce de NVIDIA et alors que la polémique enflait, avec une mise en avant spécifique de la question de l’IA générative, n’est certainement pas anodine. Depuis la présentation de DLSS 5 le 16 mars, les critiques pleuvent sur les rendus présentés par NVIDIA, notamment avec les personnages de Resident Evil Requiem qui « ressemblent au genre de conneries que les fans en colère font en ligne », lâchait Kotaku. Capcom en profite donc pour jouer les pompiers au passage.
« Nous n’intégrerons pas d’éléments générés par IA dans le contenu de nos jeux […] Cependant, nous avons l’intention d’utiliser activement cette technologie pour améliorer l’efficacité et accroître la productivité dans nos processus de développement des jeux. C’est pourquoi, nous regardons actuellement comment l’utiliser dans divers domaines, tels que les graphismes et l’audio », peut-on lire dans le résumé (en japonais, traduit automatiquement) des questions/réponses.
Quoi qu’il en soit, Capcom était un des partenaires du lancement de DLSS 5 avec une citation de Jun Takeuchi, producteur exécutif et directeur général de Capcom, dans le communiqué de presse : « DLSS 5 marque une nouvelle étape importante dans l’amélioration de la fidélité visuelle, permettant aux joueurs de s’immerger davantage dans l’univers Resident Evil ».
Alors que les technologies d’IA se perfectionnent, leur usage à des fins de pédocriminalité devient plus fréquent, constate l’Internet Watch Foundation. Et d’alerter sur leur propension à créer de nouvelles victimisations des enfants représentés, de même que sur le caractère particulièrement violent des actes qui y sont illustrés.
Les contenus hautement réalistes, les vidéos complètes et crédibles générées par intelligence artificielle et décrivant des agressions sexuelles sur mineurs deviennent fréquentes, voire « routinières ». C’est le constat que formule l’Internet Watch Foundation (IWF), organisation britannique indépendante qui traite les signalements de photos et de vidéos d’agressions sexuelles sur enfants que remonte le public via sa hotline et son portail de signalement.
Créée en 1996, l’ONG fait partie intégrante du réseau INHOPE, auquel appartient aussi l’association française Point de Contact. Localement, l’IWF travaille notamment avec les forces de police et les fournisseurs d’accès à internet, auxquels elle fait par exemple remonter une liste noire de près de 150 000 URL (en 2024) de sites diffusant des contenus illégaux. Or, avec l’intelligence artificielle, les contenus qu’elle traite évoluent aussi.
Explosion des contenus illégaux réalistes générés par IA
En juillet 2024, ses analystes ont repéré les premières vidéos classables comme contenu CSAM (Child sexual abuse material, contenu d’agression sexuelle sur mineur) entièrement généré par IA. « À ce moment-là, les technologies restaient rudimentaires. Les vidéos présentaient de nombreux bugs et des tremblements, ainsi que des mouvements saccadés et peu naturels qui permettaient de distinguer facilement le contenu généré par IA des images réelles », indique-t-elle dans son rapport« Violence sans limites : les contenus d’agression sexuelle sur mineur générés par IA vus par nos analystes ».
Depuis, le réalisme de ces contenus a fait un bond, et l’ONG a recensé en 2025 plus de 8 000 images et près de 3 500 vidéos crédibles, générées par IA, représentant des agressions sexuelles sur mineurs. L’année précédente, elle n’avait collecté que 13 vidéos de ce type. Pour l’IWF, loin d’être « moins dangereux » que les contenus non générés par IA, ce type d’images et de vidéos « renforcent l’intérêt sexuel pour les enfants, contribuent à la normalisation d’agressions violentes, et peuvent accroître le risque d’agressions concrètes ».
En l’occurrence, dans l’échantillon collecté en 2025, l’IWF constate que 65 % des vidéos sont classifiables en « catégorie A », celle réservée aux contenus les plus extrêmes. Pour comparaison, sur l’année 2025, « 43 % des vidéos criminelles non générées par IA et traitées par l’IWF relevaient de la catégorie A ».
Nouvelle victimisation pour les enfants représentés
Les enjeux sont multiples : l’entraînement des modèles génératifs permettant de créer ce type de contenu est effectué sur des images d’agressions réelles sur mineurs, pour commencer. Le réusage de leur image à des fins de création de contenu violent démultiplie la victimisation des survivants de ce type de violence. Concrètement, des contenus représentant des agressions réelles sont modifiés, voire « augmentés » grâce aux technologies récentes, quelques fois pour améliorer la qualité des images, d’autres fois pour renforcer le type d’agressions représentées.
Ces enjeux sont, par ailleurs, très genrés : 97 % des enfants représentés dans ces contenus CSAM générés par IA sont des filles, une proportion plus large que dans les affaires de pédocriminalité (en 2023, les travaux de la Commission indépendante sur l’inceste et les violences sexuelles faites aux enfants relevaient par exemple que 3,9 millions de femmes et 1,5 millions d’hommes étaient confrontés en France à des violences sexuelles avant 18 ans, ce qui revient à 72 % de filles et 28 % de garçons).
Plusieurs cas ont illustré cette tendance dans les dernières années, par exemple en Espagne, dans la ville d’Almendralejo, où 15 garçons ont été condamnés pour avoir recouru à des applications de nudification pour créer des images de 20 filles de 11 à 17 ans. Ou encore dans un collège de Normandie, où une douzaine de jeunes filles ont vu leur image détournée début 2025 pour créer des deepfakes à caractère sexuel.
Des technologies qui « abaissent le seuil » de création de CSAM
L’association pointe aussi le rôle des technologies dans l’évolution de ces risques. Pour créer ces contenus, les internautes recourent à des outils appuyés sur de grands modèles de langage, comme des applications de « nudification » ou des robots conversationnels plus génériques, ou à des outils de génération d’image à partir de requêtes textuelles (text-to-image). « Il n’existe pas de cas d’usage positif » pour les applications de nudification, pointe l’IWF : ces dernières « ne servent qu’à humilier, harceler et exploiter et peuvent servir à infliger de nouvelles formes d’agressions ».
Du côté des robots conversationnels, l’ONG relève deux cas d’usages problématiques : le recours à des machines comme ChatGPT ou Gemini pour obtenir de l’aide technique à la génération de contenu illégale, et la prévalence de discours à caractère sexuel dans plusieurs types de robots conversationnels.
Des outils comme Candy AI (de EverAI) ou certains bots de Character.AI sont ainsi connus pour renforcer la communication à caractère sexuel avec l’utilisateur, ce qui peut mener à des comportements proches du grooming (anglicisme normalement utilisé pour désigner l’instauration par un adulte d’une relation de confiance avec un enfant afin d’en obtenir des actes sexuels) lorsque ces robots sont utilisés par des mineurs.
Les évolutions de ces différents outils « abaissent le seuil » qui permet la création de ces contenus CSAM, alerte l’IWF. « Des projets qui demandaient autrefois de multiples outils et des compétences techniques sont désormais intégrés dans une seule application facile à prendre en main. » Des robots conversationnels disponibles pour le grand public ont par ailleurs démontré « une tendance à encourager les conversations à caractère sexuel avec les enfants, ce qui pousse les délinquants à concrétiser leurs pensées sexuelles impliquant des enfants ».
Après s’être lancé dans le suivi de ce type spécifique de production en 2023, l’IWF souligne que le CSAM généré par IA constitue toujours une « proportion relativement faible de la totalité des contenus illégaux repérés », mais que la « rapidité de son expansion présente une menace sérieuse et évolutive ».
OVHcloud fait une nouvelle incursion dans le domaine de l’IA générative avec l’annonce, mercredi 25 mars, d’un accord engageant portant sur l’acquisition de la startup française Dragon LLM.
Venue du monde de la traduction automatique, dans lequel elle a évolué depuis 2011 sous le nom Lingua Custodia, cette dernière se positionne comme un producteur de grands modèles de langage (LLM) spécialisés, pensés initialement pour le secteur financier.
« Grâce à cette acquisition, OVHcloud renforce ses équipes avec de nouveaux experts de fine-tuning. En internalisant les briques technologiques développées par Dragon LLM, OVHcloud proposera à ses clients de nouveaux services dans l’IA générative pour les données sensibles, déployables dans le Cloud et On-Premise », déclare le groupe roubaisien dans un communiqué (PDF).
OVHcloud annonce à cette occasion la création de son « lab AI », une division chargée de concevoir et commercialiser ces services associés à l’entraînement ou à la spécialisation des grands modèles de langages. Le groupe confirme ainsi son ambition de ne pas se limiter à l’hébergement d’infrastructures dédiées à l’IA générative, mais bien de remonter une partie de la chaîne de valeur.
Le montant de cette acquisition, qui doit donc encore être finalisée, n’a pas été communiqué.
Lingua Custodia a opéré son pivot vers Dragon LLM à partir de 2024 en postulant, avec succès, au Large AI Grand Challenge lancé par la Commission européenne. L’entreprise, basée en région parisienne, a dans ce cadre pu accéder à plusieurs millions d’heures d’utilisation des supercalculateurs Leonardo (Italie) et Jupiter (Allemagne), pour une valeur cumulée de l’ordre de 10 millions d’euros.
Dragon LLM a livré en novembre 2025 une première incarnation concrète de sa vision en matière de modèles spécialisés et verticaux, avec la publication, sur Hugging Face, de deux LLM Open Finance basés respectivement sur Llama 3.1 et Qwen 3, conçus en partenariat avec l’Agefi et soutenus financièrement par Bpifrance. Ces modèles open source à 8 milliards de paramètres se déclinent également en modèles distribués sous licences commerciales, comptant de 12 milliards à 70 milliards de paramètres, toujours spécialisés en finance et notamment en traduction de documents.
Dragon LLM revendique des performances supérieures à celles des modèles généralistes sur des missions spécifiques au monde de la finance – crédit Dragon LLM
En novembre dernier, Octave Klaba, redevenu CEO d’OVHcloud, avait développé lors du sommet annuel du groupe l’idée selon laquelle l’IA et les grands modèles de langage s’installeraient bientôt comme une forme de surcouche omniprésente au-dessus des applications métier.
Fondée en 2024 et financée à hauteur de 30 millions de dollars un an plus tard, cette équipe de 50 personnes développe un robot humanoïde baptisé Sprout, officiellement dévoilé le 27 janvier dernier. Tout en rondeurs, ce robot de 107 cm pour 22,7 kg est présenté par la startup comme une plateforme de développement dédiée à la création de robots pensés pour le service à la personne.
« Conçu pour les innovateurs dans les domaines de la robotique, de l’IA, de l’enseignement supérieur, du divertissement, du commerce et de l’hôtellerie, Sprout combine mobilité bipède, interaction expressive et manipulation dans un robot léger, robuste et élégant. Son corps à 29 degrés de liberté, son interface vocale naturelle et son design doux et ergonomique le rendent idéal pour déployer des robots dans les mêmes environnements que les personnes », explique ainsi l’entreprise dans la fiche de présentation (PDF) de l’appareil.
Rob Cochran, cofondateur de Fauna Robotics, et le robot Sprout – crédit Fauna Robotics
Amazon a confirmé que les équipes de Fauna et ses deux cofondateurs rejoindraient sa division robotique, sans préciser plus avant ses plans. « Grâce à l’expertise d’Amazon en matière de robotique et à ses décennies d’expérience dans l’acquisition de la confiance des clients à domicile grâce à nos activités de vente au détail et d’appareils, nous sommes impatients d’inventer de nouvelles façons d’améliorer et de simplifier la vie de nos clients », déclare un porte-parole cité par Bloomberg.
Les dernières acquisitions d’Amazon en matière de robots concernaient plutôt la logistique et le transport, activités situées au cœur de son modèle. Le géant du e-commerce a cependant déjà manifesté son intérêt pour la robotique « personnelle » : on se souvient par exemple d’Astro, son petit robot domestique lancé en 2021, qui s’est rapidement révélé un échec technique et commercial.
Surprise, OpenAI tire un trait sur Sora, l’application de vidéos générées par intelligence artificielle. L’entreprise donnera des détails dans un second temps. Cela entraine aussi la fin du partenariat avec Disney, même si les deux partenaires chercheraient d’autres moyens de travailler ensemble.
« Nous disons adieu à l’application Sora »
C’est via un message sur X qu’OpenAI annonce, par surprise, la fin de son application Sora : « Nous disons adieu à l’application Sora […] Nous vous en dirons plus prochainement, notamment sur le calendrier de fermeture de l’application et de l’API, ainsi que sur les modalités de sauvegarde de votre travail ». Aucun détail supplémentaire n’est donné.
OpenAI se recentre ainsi sur l’IA générative pour le codage et le « travail », au sens large du terme. Un changement de cap déjà initié avec GPT-5.4 qui est justement tourné vers les tâches « professionnelles » ou encore la place de plus en plus importante de l’application Codex. Sur ces deux terrains, OpenAI se tire la bourre avec Anthropic et son IA Claude.
Une autre source confie à Reuters qu’il « s’agissait d’un grand retournement de situation ». Retournement brutal et rapide puisque, pas plus tard que ce lundi, OpenAI publiait un billet de blog expliquant que son modèle et l’application Sora intégraient des « protections en béton ». Le lendemain, c’est l’annonce de sa mise au placard.
Selon le Wall Street Journal, le CEO de l’entreprise, Sam Altman, aurait annoncé aux employés que l’entreprise n’arrêterait pas que Sora, mais tous les produits utilisant ses modèles de génération de vidéos, y compris une version de Sora pour les développeurs et la prise en charge de vidéos dans ChatGPT.
Changement de cap
Sam Altman confirme aussi la réorientation stratégique de l’entreprise. « Les dirigeants d’OpenAI débattent depuis un certain temps du sort de Sora. Faire fonctionner l’application vidéo IA nécessitait d’importantes ressources de calcul et laissait les autres équipes avec moins de ressources », explique une source à Reuters.
À Axios, un porte-parole d’OpenAI explique que l’équipe de Sora continuera de « se concentrer sur la recherche en simulation du monde pour faire progresser la robotique et aider les gens à résoudre des problèmes du monde réel ».
OpenAI vise pour rappel une entrée en bourse cette année, mais l’entreprise brûlerait pour le moment du cash à vitesse grand V. Des investissements ont été annoncés le mois dernier, notamment 110 milliards de dollars auprès d’Amazon, Softbank et NVIDIA.
Pour rappel, Sora avait été annoncé en février 2024, puis était disponible en décembre 2024. Une v2 est arrivée en octobre 2025, avec dans le même temps une application de doomscrolling de vidéos générées par cette IA. Sora s’est malheureusement illustré avec des deepfakes et des contenus racistes, mais aussi pour avoir utilisé sans autorisation du contenu pour entrainer son IA.
Illustration : Flock
Disney « respecte » la décision d’OpenAI, mais a été « pris au dépourvu »
En décembre, un coup de tonnerre retentissait dans le monde de l’IA générative et des vidéos : un investissement d’un milliard de dollars de Disney dans OpenAI, avec un accord de licence sur trois ans lui permettant d’exploiter l’image de plus de 200 personnages Disney (Mickey, Marvel, Star Wars…).
Cet accord avait rapidement soulevé des « inquiétudes extrêmes » de la part de certains acteurs de cette industrie, surtout face à un Disney généralement très protecteur de son image.
Qu’en est-il du côté de Disney avec l’annonce de la fin de Sora ? « Nous respectons la décision d’OpenAI de quitter le secteur de la génération vidéo et de déplacer ses priorités ailleurs », explique un porte-parole de l’entreprise à plusieurs de nos confrères américains.
C’est la version polie, la réalité était plus brutale selon Reuters : « Lundi soir, Walt Disney et les équipes d’OpenAI travaillaient ensemble sur un projet lié à Sora […] À peine 30 minutes après cette réunion, l’équipe Disney a été prise au dépourvu par l’annonce qu’OpenAI allait abandonner complètement l’outil ».
Selon une source d’Hollywood Reporter, Disney quitterait l’accord signé avec OpenAI l’an dernier. Toujours selon Reuters, qui se base sur deux sources proches du dossier (comme le veut la formule consacrée), « la transaction entre les sociétés n’a jamais été terminée et aucune somme d’argent n’a été transférée ». Une autre source affirme que les deux protagonistes « discutent de la possibilité de nouer un autre partenariat ou d’investir ensemble ».
Disney va « continuer à collaborer avec les plateformes d’IA »
Disney ne jette pas l’éponge sur l’IA : « Nous apprécions la collaboration constructive entre nos équipes et ce que nous en avons appris, et nous continuerons à collaborer avec les plateformes d’IA pour trouver de nouvelles façons de rencontrer les fans là où ils se trouvent tout en adoptant de manière responsable les nouvelles technologies qui respectent la propriété intellectuelle et les droits des créateurs », précise le porte-parole de l’entreprise.
Nos confrères ajoutent que ce chamboulement « place Google dans une position de pouvoir en matière de génération vidéo par IA », avec Veo dont la version 3 (avec le son en plus de l’image) est disponible depuis près d’un an.
Epic Games a initié mardi 24 mars le licenciement de plus de 1 000 employés, et annoncé la décision en interne via un email reproduit sur son site. Cette coupe dans les effectifs s’accompagne d’un plan de réduction des coûts de 500 millions de dollars par an. Les deux mesures combinées doivent permettre à Epic de revenir à une position « plus stable », explique Tim Sweeney, CEO d’Epic.
Dans sa lettre aux employés, ce dernier invoque d’abord le contexte général de l’industrie du jeu vidéo, avec une croissance ralentie, des dépenses d’investissements en berne, des consoles de dernière génération dont les ventes plafonnent et une concurrence accrue entre le jeu vidéo et d’autres formes de divertissement.
À ces éléments de langage entendus dans la plupart des grands plans de licenciement enclenchés par l’industrie, notamment chez Riot Games ou Ubisoft, s’ajoutent des facteurs plus spécifiquement liés à Epic, au premier rang desquels la baisse de popularité de Fortnite. Tim Sweeney :
« Malgré le succès indéfectible de Fortnite, l’un des jeux les plus populaires au monde, nous avons rencontré des difficultés à maintenir la magie de Fortnite à chaque saison ; nous n’en sommes qu’aux prémices de notre retour sur mobile et de l’optimisation de Fortnite pour les milliards de smartphones à travers le monde ; et en tant que pionniers du secteur, nous avons essuyé de nombreuses critiques dans une bataille qui ne commence que récemment à porter ses fruits pour nous et pour tous les développeurs. »
Cette bataille, censée profiter à l’ensemble des développeurs, c’est bien sûr le combat engagé en justice par Epic contre Google et Apple afin de limiter le contrôle et les coûts associés à la distribution sur les kiosques d’applications mobiles. Un terrain sur lequel Epic peut effectivement se targuer de premières victoires significatives, ayant conduit Apple à transiger et Google à ouvrir plus largement les vannes du Play Store.
Logo Epic Games
Le CEO d’Epic appelle maintenant ses équipes à construire de nouvelles expériences Fortnite pour relancer la dynamique et évoque la migration engagée vers l’Unreal Engine 6 à la fois pour le jeu et pour l’outil de création associé, Unreal Editor pour Fortnite (UEFN). « C’est ce que nous souhaitons faire pour nos joueurs, et nous voulons emmener avec nous d’autres développeurs partageant les mêmes idées dans ce projet afin de construire ensemble un avenir du divertissement toujours plus ouvert et dynamique. »
En ces temps troublés par l’avènement des grands modèles de langage, Tim Sweeney prend soin de préciser que ce plan de licenciements n’est pas lié à l’IA :
« Puisque le sujet est désormais d’actualité, je tiens à préciser que les licenciements ne sont pas liés à l’IA. Dans la mesure où elle améliore la productivité, nous souhaitons disposer d’un maximum de développeurs talentueux pour créer du contenu et des technologies de pointe. »
Epic avait déjà licencié 900 personnes, soit environ 16 % de son effectif de l’époque, en septembre 2023. Sweeney tenait déjà un discours similaire quant aux facteurs conjoncturels et à la nécessité de réduire les coûts de fonctionnement. « Depuis un certain temps, nous dépensons beaucoup plus d’argent que nous n’en gagnons », écrivait-il alors.