Apple Agrees To Pay iPhone Owners $250 Million For Not Delivering AI Siri
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Be quiet! renouvelle ce jour sa gamme majeure de ventirads CPU avec les Dark Rock 6 et Dark Rock Pro 6. Commençons par le cadet, le petit, lou minut en patois, le Dark Rock 6. C'est le plus simple des deux, un radiateur et un ventilateur. Il mesure 162 mm de hauteur x 139 mm de largeur x 77.4 mm d'é...
Read more of this story at Slashdot.
Depuis ses débuts, Internet découle d’une technologie militaire, avec son importance croissante comme moyen de communication, autant de la population générale que des entreprises que des diverses agences gouvernementales de la défense, en France comme à l’étranger. Sans surprise, l’exploitation de f...
![]()
Sipersmechatronics, c’est un projet d’une envergure étonnante dans le monde de l’impression 3D. Piloté par un passionné en solo, ce projet consiste à ajouter soi-même un dispositif pour imprimer avec plusieurs filaments sur sa propre imprimante.
On pourrait imaginer des constructeurs industriels capables de proposer cela en ajoutant un ensemble de composants supplémentaires, des moteurs, différents capteurs et toute une mécanique en plus de l’imprimante de base. Mais là où la proposition de Sipersmechatronics est folle c’est qu’il ne s’agit de rien de tout cela. Le projet consiste à ajouter un ensemble d’accessoires purement passifs, sans le moindre bout d’électronique ni le moindre moteur. Le tout imprimé en 3D avec sa propre imprimante.
![]()
L’idée de base est de faire des supports de filaments 3D qui vont chacun prendre en charge un matériau et le glisser dans la buse de l’imprimante 3D, une approche classique donc. La trouvaille, c’est d’utiliser pour cette prise en charge non pas un ensemble de moteurs et de capteurs supplémentaires qui vont pousser le filament vers la buse, mais d’exploiter le moteur existant de l’extrudeur pour faire fonctionner ce mécanisme d’entrainement.
Sipersmechatronics
La tête d’impression de la Bambu Lab A1 propose en effet un arbre de moteur un peu plus long qui fait tourner un petit élément en façade. Cela permet de voir que le moteur, et donc l’engrenage de l’extrudeur, tournent. En supprimant ce « décor » de façade pour le remplacer par un engrenage, la rotation du moteur est exploitable pour d’autres usages..
Pour changer de filament, l’imprimante stoppe l’impression, retracte le filament utilisé et remonte sa tête pour se positionner précisément sous un des modules de gestion de matériau. Ce faisant, elle ajuste alors un engrenage présent sur la tête dans un autre intégré au châssis pour transmettre un mouvement.
![]()
Le moteur de l’extrudeur qui pousse normalement le filament vers la buse est ainsi prolongé pour faire tourner une courroie. Celle-ci est liée à cet autre système d’engrenages qui va, en tournant, déplacer le filament de chaque bobine vers un tube pour le tirer ou le pousser. On peut ainsi rétracter le matériau en place et changer pour un nouveau dans la foulée. Tout cela sans jamais avoir besoin du moindre moteur ni du moindre bout d’électronique. Uniquement un pilotage du moteur existant de l’extrudeur. Le tour de force consiste à donner à l’imprimante la liste des mouvements à effectuer ainsi que le nombre de tours de moteur d’extrudeur à réaliser dans chaque sens.
Une Bambulab A1 Sipersmechatronicsisée
Les avantages de cette idée sont nombreux puisque le projet Sipersmechatronics promet la gestion de 4 filaments par défaut et jusqu’à 8 avec tubes permettant d’engager deux matériaux différents. L’ensemble est entièrement imprimé en 3D et la seule partie qui ne pourra pas être fabriquée par sa propre imprimante est très accessible. En effet, les tubes PFE qui guident les filaments vers la buse devront être achetés. Pour le reste, il faut du PLA pour le corps et les engrenages et du TPU souple pour la courroie.
![]()
L’ajout de ce kit est totalement reversible, il ne modifie en rien l’usage de l’imprimante de base et peut donc être retiré pour un SAV par exemple. Expérimenter est totalement possible ici. Le pilotage de la solution se fait dans Bambu Studio, le logiciel de découpage de la marque Bambu Lab. des réglages doivent être effectués pour prendre en compte les différents mouvements supplémentaires pour les déplacements de la tête et les mouvements de filaments.
![]()
Pour le moment, seules les Bambu Lab A1 sont concernées par ce développement et la A1 Mini est en cours de finalisation. Le site va proposer l’ensemble des éléments pour parvenir au résultat sous la forme d’un dossier payant : documentation, code, générateur de code nécessaire, fichiers de réglages et évidemment, l’ensemble des fichiers à imprimer.
Je ne pense pas que cette solution soit la plus efficace possible en termes de déchets de purge ni en temps d’impression. Les mouvements supplémentaires initiés par la manipulation du filament auront sans doute un impact important sur ce dernier poste. Mais je salue l’idée proposée et le résultat annoncé. D’autant que le développeur pense pouvoir adapter son idée à des modules AMS. Ce qui multiplierait encore le nombre de matériaux et coloris possibles.
Je suis assez épaté de la qualité du projet et du travail mené. Il manque encore pas mal d’informations à son sujet mais le résultat est déjà assez incroyable. La complexité de la programmation de l’ensemble, le jeu des engrenages et la prise en charge de l’ensemble des éléments est vraiment un casse-tête spectaculaire.
Sipersmechatronics : l’impression 3D multifilament DIY © MiniMachines.net. 2026
Read more of this story at Slashdot.
C’est le procès du siècle (même si le siècle est encore jeune) : Elon Musk et OpenAI s’affrontent devant le jury d’un tribunal fédéral en Californie. Une bataille à plusieurs (centaines de) milliards de dollars qui mêle rivalités personnelles, gouvernance opaque et visions opposées du futur de l’intelligence artificielle. Next vous propose une série de questions/réponses pour comprendre les enjeux, mais aussi un résumé, jour par jour, des éléments marquants de ce procès hors norme.
Ces deux-là ne partiront pas en vacances ensemble. Elon Musk et Sam Altman, autrefois alliés (ils sont tous les deux dans la liste de la dizaine de cofondateurs d’OpenAI), se jettent la vaisselle virtuelle dans la tête sur les réseaux sociaux depuis des années. Une animosité qui a débouché sur une plainte du premier contre le second il y a deux ans. Le procès, qui s’est ouvert le lundi 27 avril, battra son plein pendant plusieurs semaines.
Yvonne Gonzalez Rogers préside aux débats. Nommée en 2011 par Barack Obama, elle est juge fédérale au tribunal de district du Nord de la Californie. Elle connait bien le petit milieu de la tech, puisqu’elle a arbitré plusieurs dossiers majeurs de la Silicon Valley, en particulier le retentissant procès entre Epic Games et Apple. Très au fait des problématiques technologiques, elle n’hésite jamais à recadrer un témoin, qu’il soit anonyme ou milliardaire.
Elon Musk a porté plainte [PDF] contre OpenAI, Sam Altman et Greg Brockman (deux cofondateurs d’OpenAI) ainsi que Microsoft en mars 2024. Des 26 chefs d’accusation avancés par le milliardaire à l’époque, seuls deux subsistent aujourd’hui : l’enrichissement injustifié d’OpenAI, et la violation d’une fiducie caritative.
La forme juridique d’OpenAI est au cœur de la poursuite : l’entreprise, créée en 2015, était à l’origine une organisation à but non lucratif, autrement dit son objectif n’était pas de réaliser des profits. « Cette action en justice vise à contraindre OpenAI à respecter l’accord fondateur et à revenir à sa mission de développer une AGI au bénéfice de l’humanité, et non pour servir les intérêts personnels des défendeurs individuels et de la plus grande entreprise technologique au monde », explique la plainte.
Ces dernières années, Sam Altman a milité ardemment pour que la structure embrasse un modèle à but purement lucratif. Elle a finalement basculé sur une gouvernance hybride, avec une entité commerciale transformée en PBC (Public Benefit Corporation, soit entreprise d’intérêt public) dans laquelle l’organisation à but non lucratif devient actionnaire (à 26 %) avec un droit de contrôle sur la gouvernance et la nomination du conseil d’administration. Microsoft demeure un partenaire de premier plan, et un actionnaire de poids (environ 27 %).
Elon Musk reproche à OpenAI de « maximiser les profits » pour Microsoft, investisseur principal de la startup, alors que la mission de l’entreprise est de garantir que l’intelligence artificielle générale (AGI), autrement dit une IA capable d’accomplir les mêmes tâches qu’un humain, profite à toute l’humanité. Ce qui signifie, entre autres, de publier ses découvertes en open source.
Le plaignant dénonce ainsi les modèles IA fermés d’OpenAI, à l’instar de GPT-4. Lancé en mars 2023, le modèle fait forte impression… mais il rompt aussi avec sa mission d’origine consistant à rendre ses technologies accessibles au public. Un choix du secret motivé principalement par des considérations commerciales, et non par des impératifs de sécurité, déplore la plainte.
Elon Musk est un des fondateurs d’OpenAI, aux côtés de Sam Altman, Greg Bockman (le président de l’entreprise), ou encore le chercheur Ilya Sutskever. Un total d’1 milliard de dollars est promis par les cofondateurs et leurs financiers, parmi lesquels AWS ou encore un certain Peter Thiel, toujours dans les bons coups. Fin 2021 cependant, le total des financements se montait à seulement 133 millions de dollars.
Elon Musk a injecté 38 millions de dollars dans la startup, de l’argent qui aurait servi des objectifs commerciaux allant à l’encontre de la mission de l’entreprise. « J’ai eu l’idée, trouvé le nom, recruté les personnes clés, leur ai appris tout ce que je sais et fourni l’ensemble du financement initial », a-t-il affirmé durant son témoignage.
Il a démissionné du conseil d’administration d’OpenAI en 2018, en raison d’un conflit d’intérêt potentiel entre son rôle chez Tesla et le développement de technologies de conduite autonome.
Il a indiqué à la barre qu’il n’était pas complètement opposé à une petite activité commerciale, d’ailleurs une entité à but lucratif a été créée en 2019. Néanmoins, le plaignant estime qu’elle a pris toute la place : « On ne peut pas avoir le beurre et l’argent du beurre », a-t-il déclaré.
À plusieurs reprises pendant son témoignage (et aussi sur X), Musk a accusé Altman et Brockman de s’être enrichis sur le dos de l’organisation à but non lucratif, tout en bénéficiant de l’image positive associée à ce type de structure. L’activité d’OpenAI a explosé fin 2022 avec le lancement de ChatGPT, tandis que Microsoft mettait 13 milliards de dollars sur la table.
Elon Musk veut contraindre OpenAI à « adhérer [de nouveau] à l’accord fondateur et revenir à sa mission de développer une AGI au bénéfice de l’humanité ». Durant son témoignage au procès, le milliardaire a martelé qu’« on ne peut pas voler une organisation caritative ». Pendant son témoignage, il a demandé à la juge de considérer l’annulation de la restructuration d’OpenAI.
Il veut également qu’OpenAI et Microsoft restituent les gains indûment obtenus – selon lui – grâce à ses contributions initiales. Cela inclut l’augmentation de valeur d’OpenAI et les investissements de Microsoft. Selon l’expert cité dans la plainte, cela représente entre 65,5 et 109,4 milliards de dollars pour OpenAI, et de 13,3 à 25,1 milliards pour Microsoft. Soit potentiellement plus de 130 milliards de dollars dans la fourchette haute, que le plaignant propose de verser à l’entité à but non lucratif d’OpenAI.
Ce n’est pas tout, Elon Musk veut aussi le départ de Sam Altman et de Greg Brockman de leurs fonctions, des dommages-intérêts punitifs, ainsi que d’autres réparations financières durant le procès. Il reviendra au jury d’évaluer les montants pour chaque chef d’accusation.
La plainte d’Elon Musk est considérée comme une « tentative infondée et motivée par la jalousie pour entraver un concurrent », a expliqué OpenAI sur les réseaux sociaux. « Nous sommes ici parce que M. Musk n’a pas obtenu ce qu’il voulait chez OpenAI », a poursuivi William Savitt, l’avocat d’OpenAI, lors de sa déclaration liminaire du procès.
« Mes clients ont eu l’audace de continuer et de réussir sans lui […] Ce n’est pas un fondement valable pour une action en justice ». Pour OpenAI, la plainte est infondée. Pire encore : Elon Musk n’aurait jamais exprimé l’idée que le labo IA devait rester une organisation strictement à but non lucratif. « Ni même qu’il pensait que cela devait être le cas », a affirmé la défense.
Elon Musk a créé xAI en 2023 pour participer à la course à l’IA générative. Désormais intégré dans SpaceX, le labo IA a été valorisé à hauteur de 250 milliards. Contre 852 milliards pour le rival de prétoire… Par un heureux hasard, SpaceX et OpenAI devraient se lancer en bourse cette année.
Bien malin qui saura le dire. Si le jury suit Elon Musk, OpenAI devrait revoir sa structure, impliquant une nouvelle et lourde restructuration de l’entreprise sans trop d’espoir de se lancer en Bourse. Un retour en arrière qui risquerait de fragiliser OpenAI et de lui faire perdre la course à l’IA.
À l’autre bout du spectre judiciaire, un rejet pur et simple de la plainte renforcerait la structure du modèle hybride d’OpenAI, et provoquerait un revers symbolique pour Elon Musk. Et il y a toutes les nuances entre ces deux extrêmes, d’un accord à l’amiable toujours possible à la reconnaissance de certains griefs émis par le milliardaire.
Le procès sera aussi l’occasion de découvrir les coulisses parfois crapuleuses d’une des startups les plus en vue, à quelques mois d’une introduction en bourse très attendue (si elle arrive).
Au premier jour de son témoignage, Elon Musk a voulu marteler sa position auprès du jury : « Ce n’est pas acceptable de détourner une organisation caritative ». C’est une cause qui le dépasse, assure-t-il, avant de mettre en garde : s’il devait perdre cette bataille, les États-Unis risqueraient de « perdre toutes leurs organisations caritatives. »
Un discours repris très vite par la juge Yvonne Gonzalez Rogers, qui a expliqué aux jurés que le point de vue d’Elon Musk sur le sujet relevait d’une opinion n’ayant « aucune valeur légale ».
À la barre, le milliardaire a voulu se dépeindre comme altruiste. Une de ses motivations pour fonder et financer OpenAI était sa crainte de voir Google ne pas prendre suffisamment en compte la sécurité, alors que le géant du web s’engageait dans le développement de l’IA. Lors d’une rencontre avec Larry Page, cofondateur du moteur de recherche, la discussion a porté sur les risques que l’IA anéantisse l’humanité. Larry Page aurait alors répondu qu’un tel scénario serait « acceptable » tant que l’IA survivait.
Le commentaire, jugé « délirant » par Elon Musk, aurait valu à ce dernier le qualificatif de « spéciste pro-humain » par Page. Cette discussion aurait donc poussé Musk à créer une entreprise IA pour faire contrepoids aux projets de Google. Les deux hommes ne se parlent plus depuis le débauchage d’Ilya Sutskever par Musk. Ce chercheur IA de Google a aidé à la création d’OpenAI.
William Savitt, l’avocat d’OpenAI, a dépeint un Elon Musk un peu différent et pas réellement intéressé par la startup. Ce dernier venait « une fois de temps en temps » pour donner un conseil et, à l’occasion, « hurlait sur les gens parce qu’ils n’allaient pas assez vite ». Il a également montré que les donations des autres financiers de la jeune startup dépassaient très largement ceux d’Elon Musk.
Quant à la promesse selon laquelle OpenAI resterait une organisation à but non lucratif, le patron de Tesla aurait pris des vessies pour des lanternes. « La seule personne qui affirme avoir entendu ces promesses est M. Musk lui-même », décoche-t-il.
Elon Musk a caressé un temps la possibilité d’intégrer OpenAI dans Tesla, d’après un courriel glissé dans le dossier de l’affaire. C’était du moins une proposition faite aux fondateurs de la startup IA.
William Savitt, l’avocat d’OpenAI, en a profité pour corriger le milliardaire qui avait affirmé à la barre que Tesla ne cherchait pas à développer l’intelligence artificielle générale (AGI) : un de ses tweets remontant au mois de mars indique tout le contraire… « Tesla sera l’une des entreprises à créer une intelligence artificielle générale (AGI), et probablement la première à y parvenir sous une forme humanoïde ou capable de manipuler la matière », affirme le message sans équivoque.
Elon Musk a créé xAI en 2023, et même si cette nouvelle entreprise est sur le même secteur qu’OpenAI, il a tenu à en minimiser l’importance. « À ce stade, elle est techniquement concurrente, mais beaucoup plus petite qu’OpenAI », a-t-il indiqué face à son avocat.
Jared Birchall, un des plus fidèles collaborateurs d’Elon Musk, est passé à la barre. William Savitt, l’avocat d’OpenAI, l’a interrogé sur un dépôt de documents visant à créer pour OpenAI une société commerciale à mission (« for-profit benefit corporation », PBC) en 2017, sous la direction d’Elon Musk.
C’est un moyen pour la défense de démontrer au jury le double langage de Musk : d’un côté il veut défendre le statut d’organisation caritative d’OpenAI, mais de l’autre il imaginait une structure permettant de réaliser des profits, même si l’entreprise demeurait guidée par une mission plus large d’intérêt public.
Le milliardaire avait cependant botté en touche un peu plus tôt durant le procès. Il a confirmé que ces documents avaient été déposés « au cas où ils seraient nécessaires ». Ça n’a finalement pas été utile. En 2025, OpenAI a bien changé de structure : l’ancienne filiale à but lucratif a été transformée en PBC, mais elle reste contrôlée par OpenAI Foundation, une organisation à but non lucratif.
Autre sujet plus technique abordé ce jour : la distillation. Cette technique d’apprentissage entraîne un modèle plus petit à imiter les réponses d’un modèle plus puissant. Au lieu d’entraîner un modèle uniquement avec des données brutes, il pose des questions à un modèle existant, puis le labo IA utilise les réponses obtenues comme matière d’entraînement.
Les modèles « distillés » de la sorte sont moins coûteux à faire tourner tout en se montrant capables d’atteindre des performances proches des modèles plus avancés. Les entreprises IA états-uniennes reprochent régulièrement à leurs homologues chinoises d’user et d’abuser cette technique pour accélérer le développement de leurs modèles à peu de frais.
Il se trouve que xAI y a eu recours en s’appuyant sur les modèles d’OpenAI, notamment pour entraîner le bot Grok. Elon Musk l’a admis pendant le procès (« oui »), tout en essayant de le nuancer (« en partie ».) Ça n’a rien de très surprenant, sachant que xAI est parti avec des années de retard sur OpenAI. Si le processus de distillation n’est pas explicitement illégal, il peut enfreindre les conditions d’utilisation.
Dans un document déposé dimanche 3 mai, on apprend qu’Elon Musk a envoyé un message texte au président d’OpenAI, Greg Brockman, pour évaluer son intérêt concernant un arrangement à l’amiable. Un message envoyé deux jours avant l’ouverture du procès. Brockman lui a alors proposé que chaque partie laisse tomber ses revendications respectives, ce qui n’a pas semblé satisfaire Musk.
Ce dernier a ainsi rétorqué : « D’ici la fin de la semaine [dernière, ndlr], toi et Sam serez les hommes les plus détestés d’Amérique. Si vous insistez, ainsi soit-il ». Ça n’est visiblement pas arrivé, mais le procès est loin d’être terminé ! Les avocats d’OpenAI estiment que cette initiative d’Elon Musk « tend à établir l’existence d’un mobile et d’un biais, et en particulier que [sa] motivation […] est d’attaquer un concurrent et ses dirigeants ».
Greg Brockman, le président d’OpenAI, tenait un journal pour noter ses pensées, et comme dans tout journal personnel, les réflexions s’entrechoquent et parfois, se contredisent. Durant son témoignage à la barre, il a dû s’expliquer sur la teneur de certaines entrées qui donnent du poids aux allégations d’enrichissement personnel.
En 2017, il écrivait ainsi : « Financièrement, qu’est-ce qui me permettrait d’atteindre le milliard de dollars ?» Une entrée couchée sur le papier à la même époque de l’ultimatum de Musk : soit il prenait le contrôle d’une branche à but lucratif, soit l’organisation restait une association à but non lucratif. Dans son journal, Brockman évoquait aussi l’idée de transformer OpenAI en entreprise commerciale, en écrivant notamment que « gagner de l’argent pour nous semble formidable ».
Steven Molo, l’avocat d’Elon Musk, a demandé à Brockman si sa principale motivation était de devenir milliardaire, plutôt que de financer l’organisation à but non lucratif. Il l’a même comparé à un moment à un « braqueur de banque »… Le dirigeant a affirmé que la mission d’OpenAI (« servir l’humanité ») a toujours été sa motivation principale. Une compensation « juste » pour son travail en tant que fondateur était bien une considération, mais elle était secondaire.
Malgré tout, la participation de Greg Brockman dans OpenAI est aujourd’hui estimée à 30 milliards de dollars — il est donc bel et bien devenu milliardaire ! Et il n’a pas l’intention de « rendre » 29 de ces milliards à l’organisation caritative d’OpenAI, en expliquant avoir reçu cette participation avant l’explosion de la valorisation de l’entreprise. Il a également souligné avoir contribué à la construction de l’organisation à but non lucratif « la mieux financée du monde ».
Ailleurs dans son journal, le président d’OpenAI écrit qu’il serait « mal » de voler à Elon Musk l’organisation à but non lucratif, « ce serait moralement condamnable ». « Je ne vois pas comment nous pourrions transformer ça en entreprise à but lucratif sans une très sale bataille » si Musk en était écarté, indique-t-il aussi. On est là au cœur du procès.
À la barre, Brockman a tenu à recontextualiser ses propos. Ses réflexions concernaient uniquement le scénario dans lequel Musk aurait été évincé du conseil d’administration d’OpenAI par un vote, ce qui n’est jamais arrivé puisque le patron de Tesla a décidé de quitter la startup de son propre chef, en 2018. Il a également rappelé que l’immense majorité de la valeur actuelle d’OpenAI a été créée après le départ de Musk.
Greg Brockman doute aussi des capacités d’Elon Musk dans le domaine de l’IA générative. Lors de la présentation d’un prototype de ChatGPT, il n’aurait pas su reconnaitre l’importance du chatbot à tel point que l’ingénieur venu faire la démonstration a failli quitter le secteur de l’IA ! Brockman convient que Musk possède une expertise dans les fusées et les voitures électriques, mais « il ne connaissait pas l’IA, et je pense qu’il ne la connait toujours pas ».
Sam Altman est-il franc du collier ? La question a été débattue (certes pas dans ces termes exacts…) durant le procès opposant Elon Musk au CEO d’OpenAI. Mira Murati, l’ancienne directrice technique de la startup, a témoigné en vidéo et sous serment que Sam Altman lui avait menti au sujet de la sûreté d’un modèle IA. Le service juridique de l’entreprise avait déterminé qu’il n’était pas nécessaire de faire examiner ce modèle par le comité en charge de la sécurité, aurait affirmé le patron d’OpenAI.
Mira Murati a déclaré dans sa déposition que Sam Altman n’avait pas dit la vérité sur ce dossier. Elle a voulu en avoir le cœur net auprès du directeur juridique Jason Kwon, qui est depuis devenu directeur de la stratégie : « J’ai confirmé que ce que disait Jason et ce que disait Sam n’étaient pas la même chose. ». Le modèle en question a fini par passer sous la loupe du comité de sécurité, sur sa demande.
« Je demandais à Sam de diriger, de le faire avec clarté, et de ne pas saboter ma capacité à faire mon travail », a-t-elle expliqué. Murati n’est pas la première à pointer du doigt les contradictions et les zones grises de Sam Altman ; plusieurs témoignages ont déjà dépeint le rapport très particulier avec la vérité du fondateur et directeur général d’OpenAI.
Le conseil d’administration d’OpenAI lui-même n’était pas convaincu par la sincérité de Sam Altman : c’est une des raisons pour lesquelles il a été éjecté de son poste fin 2023, remplacé par… Mira Murati. Qui a pourtant signé une pétition réclamant le retour du patron viré aux commandes de l’entreprise, la seule manière de « stabiliser » OpenAI, rapporte-elle.
Shivon Zilis, ancienne membre du conseil d’administration d’OpenAI, est aussi passée à la barre : de 2017 à 2023, elle a participé aux discussions sur les différentes formes que pouvait prendre OpenAI. Son témoignage était d’autant plus important qu’elle est aussi la compagne d’Elon Musk, et la mère de quatre de ses enfants (il en a douze en tout).
Zilis a quitté le board en 2023 après la création de xAI. Il n’était « pas approprié » de rester en poste alors que le milliardaire lançait une entreprise concurrente et recrutait chez OpenAI, a-t-elle expliqué. « Quand le père de vos enfants lance un projet concurrent et commence à recruter chez OpenAI, il n’y a plus rien à faire », a-t-elle écrit à l’époque dans un message cité au tribunal. Elle a affirmé que sa relation avec Musk n’avait pas influencé son travail au conseil d’administration : « [j’avais] une allégeance au meilleur résultat possible : une IA au service de l’humanité ».
La question d’un rapprochement avec Tesla s’est posée au début de l’aventure OpenAI afin de créer un labo de recherche sur l’AGI. Ça n’a évidemment débouché sur rien. En décembre 2017, Greg Brockman et Ilya Sutskever ont repoussé la proposition, selon Zilis. Elle a regretté que ces deux fondateurs n’aient pas voulu d’une telle opération : « Ils ne voyaient pas l’intérêt stratégique qu’il y avait à intégrer cette technologie dans Tesla […] Ils ne sont pas dans une logique de calculs ».
Dans le cadre de la transformation d’OpenAI en labo IA de Tesla, Elon Musk avait envisagé de proposer à Sam Altman un poste au conseil d’administration du constructeur automobile. Des échanges internes versés au dossier confirment que le milliardaire avait l’intention de faire entrer Altman dans l’orbite de Tesla ; plusieurs scénarios ont été envisagés, dont ce poste au board, ainsi qu’un rôle de directeur du labo interne.
Interrogée par les avocats d’OpenAI, Shivon Zilis a dit ne pas se souvenir de conditions imposées par Musk concernant les dons à l’organisation, ou encore de documents garantissant qu’OpenAI resterait à but non lucratif ou open source — une déclaration qui infirme les accusations d’Elon Musk. Elle a également estimé qu’un courriel de Sam Altman, dans lequel il disait son enthousiasme pour une structure à but non lucratif, ne constituait pas une promesse formelle.
Le témoignage ce lundi de Satya Nadella était particulièrement attendu. Le CEO de Microsoft a expliqué les liens entre son entreprise et OpenAI, qui vont bien au-delà du simple soutien à une startup : l’éditeur de Windows a investi 1 milliard de dollars en 2019, puis 2 milliards en 2021, et enfin 10 milliards en 2023. Beaucoup d’argent donc, ce qui a contribué à la transformation d’OpenAI en mastodonte du secteur, valorisé à 850 milliards de dollars.
Interrogé par Steven Molo, l’avocat d’Elon Musk, le dirigeant a convenu que l’investissement de Microsoft avait été une très bonne affaire. Mais « parce que nous avons été les seuls à prendre le risque ». Les relations avec OpenAI ont été tumultueuses, avant d’aboutir à un accord qui donne à Microsoft 27 % du capital de la startup. Une participation estimée à un peu plus de 200 milliards de dollars aujourd’hui.
Le directeur général de Microsoft a affirmé à la barre qu’Elon Musk n’a jamais évoqué ses préoccupations concernant l’investissement du géant logiciel dans OpenAI, qui aurait pu être en infraction avec des engagements caritatifs de la startup. Elon Musk a expliqué la semaine dernière que les 10 milliards mis sur la table par Microsoft en 2023 ont constitué le point de bascule : l’ampleur de la somme le préoccupait, « j’étais inquiet à l’idée qu’ils essaient en réalité de détourner l’organisation à but non lucratif ».
Pour Nadella, ces investissements successifs n’ont jamais été interprétés comme des dons. Dès le départ de la relation entre les deux entreprises, il était clair dans son esprit qu’il s’agissait d’un partenariat marketing puis franchement commercial.
Dès 2016, Microsoft avait proposé à OpenAI un accès à ses capacités de calcul à prix cassé. Mais en 2018, alors que les factures commençaient à s’empiler, « nous n’étions plus à l’aise avec l’idée de considérer cela comme une dépense marketing », a expliqué Nadella. C’est à cette époque que la relation entre Microsoft et OpenAI est devenue plus sérieuse.
En 2022, avant ce fameux investissement de 10 milliards, Satya Nadella a demandé aux dirigeants de Microsoft des solutions pour « pour poursuivre le partenariat » d’une façon qui soit favorable à l’éditeur. « Je ne veux pas que Microsoft soit IBM et qu’OpenAI devienne Microsoft », écrivait le dirigeant dans son courriel. En 1980, IBM signait un accord non exclusif pour distribuer DOS sur ses PC ; Microsoft a pu commercialiser en parallèle son système d’exploitation à de nombreux autres constructeurs, ce qui lui a permis de devenir le pivot logiciel du marché de l’ordinateur personnel.
Au bout du compte, Microsoft est devenue bien plus importante qu’IBM. Et Nadella ne voulait pas que l’histoire se répète à front renversé.
Satya Nadella est revenu sur le congédiement surprise de Sam Altman en novembre 2023, avant qu’il retrouve son poste quelques jours plus tard. « De l’amateurisme total », a cinglé le patron de Microsoft en parlant du conseil d’administration d’OpenAI à l’origine de ce pataquès.
Le board avait justifié l’éviction de Sam Altman par son manque de transparence, ce qui peut constituer un motif valable de licenciement d’un directeur général, mais « cela ne suffisait pas, parce qu’il s’agit du directeur général d’une entreprise dans laquelle nous avons investi et avec laquelle nous entretenons un partenariat très étroit. J’estimais donc qu’ils auraient dû m’expliquer quels étaient les incidents ou les éléments précis derrière cette décision ».
Le CEO de Microsoft tenait à avoir l’heure juste, mais « chaque fois que je demandais précisément pourquoi Sam avait été licencié, [le conseil] ne me donnait jamais de réponse claire ».
De l’amateurisme chez le conseil d’administration, c’est aussi ce qui ressort du témoignage d’Ilya Sutskever, transfuge de Google et cofondateur d’OpenAI. Membre du board en 2023, il s’interrogeait aussi sur le comportement d’Altman. « Le processus [d’éviction] semblait précipité. Ce groupe d’administrateurs n’était pas très expérimenté dans ce genre de situation… et ils ont également reçu des conseils juridiques qui n’étaient pas très bons. »
Ilya Sutskever a aussi dit son peu d’enthousiasme concernant l’hypothèse d’un rapprochement avec Anthropic, ce qui aurait « tué un rêve », a-t-il indiqué. Le chercheur a finalement aidé au retour de Sam Altman aux commandes, avant de quitter OpenAI en 2024. Sa participation personnelle se monte à 7 milliards de dollars.
Dernière mise à jour, 12/05 à 15h45. Publication initiale le 5/05
C’est le procès du siècle (même si le siècle est encore jeune) : Elon Musk et OpenAI s’affrontent devant le jury d’un tribunal fédéral en Californie. Une bataille à plusieurs (centaines de) milliards de dollars qui mêle rivalités personnelles, gouvernance opaque et visions opposées du futur de l’intelligence artificielle. Next vous propose une série de questions/réponses pour comprendre les enjeux, mais aussi un résumé, jour par jour, des éléments marquants de ce procès hors norme.
Ces deux-là ne partiront pas en vacances ensemble. Elon Musk et Sam Altman, autrefois alliés (ils sont tous les deux dans la liste de la dizaine de cofondateurs d’OpenAI), se jettent la vaisselle virtuelle dans la tête sur les réseaux sociaux depuis des années. Une animosité qui a débouché sur une plainte du premier contre le second il y a deux ans. Le procès, qui s’est ouvert le lundi 27 avril, battra son plein pendant plusieurs semaines.
Yvonne Gonzalez Rogers préside aux débats. Nommée en 2011 par Barack Obama, elle est juge fédérale au tribunal de district du Nord de la Californie. Elle connait bien le petit milieu de la tech, puisqu’elle a arbitré plusieurs dossiers majeurs de la Silicon Valley, en particulier le retentissant procès entre Epic Games et Apple. Très au fait des problématiques technologiques, elle n’hésite jamais à recadrer un témoin, qu’il soit anonyme ou milliardaire.
Elon Musk a porté plainte [PDF] contre OpenAI, Sam Altman et Greg Brockman (deux cofondateurs d’OpenAI) ainsi que Microsoft en mars 2024. Des 26 chefs d’accusation avancés par le milliardaire à l’époque, seuls deux subsistent aujourd’hui : l’enrichissement injustifié d’OpenAI, et la violation d’une fiducie caritative.
La forme juridique d’OpenAI est au cœur de la poursuite : l’entreprise, créée en 2015, était à l’origine une organisation à but non lucratif, autrement dit son objectif n’était pas de réaliser des profits. « Cette action en justice vise à contraindre OpenAI à respecter l’accord fondateur et à revenir à sa mission de développer une AGI au bénéfice de l’humanité, et non pour servir les intérêts personnels des défendeurs individuels et de la plus grande entreprise technologique au monde », explique la plainte.
Ces dernières années, Sam Altman a milité ardemment pour que la structure embrasse un modèle à but purement lucratif. Elle a finalement basculé sur une gouvernance hybride, avec une entité commerciale transformée en PBC (Public Benefit Corporation, soit entreprise d’intérêt public) dans laquelle l’organisation à but non lucratif devient actionnaire (à 26 %) avec un droit de contrôle sur la gouvernance et la nomination du conseil d’administration. Microsoft demeure un partenaire de premier plan, et un actionnaire de poids (environ 27 %).
Elon Musk reproche à OpenAI de « maximiser les profits » pour Microsoft, investisseur principal de la startup, alors que la mission de l’entreprise est de garantir que l’intelligence artificielle générale (AGI), autrement dit une IA capable d’accomplir les mêmes tâches qu’un humain, profite à toute l’humanité. Ce qui signifie, entre autres, de publier ses découvertes en open source.
Le plaignant dénonce ainsi les modèles IA fermés d’OpenAI, à l’instar de GPT-4. Lancé en mars 2023, le modèle fait forte impression… mais il rompt aussi avec sa mission d’origine consistant à rendre ses technologies accessibles au public. Un choix du secret motivé principalement par des considérations commerciales, et non par des impératifs de sécurité, déplore la plainte.
Elon Musk est un des fondateurs d’OpenAI, aux côtés de Sam Altman, Greg Bockman (le président de l’entreprise), ou encore le chercheur Ilya Sutskever. Un total d’1 milliard de dollars est promis par les cofondateurs et leurs financiers, parmi lesquels AWS ou encore un certain Peter Thiel, toujours dans les bons coups. Fin 2021 cependant, le total des financements se montait à seulement 133 millions de dollars.
Elon Musk a injecté 38 millions de dollars dans la startup, de l’argent qui aurait servi des objectifs commerciaux allant à l’encontre de la mission de l’entreprise. « J’ai eu l’idée, trouvé le nom, recruté les personnes clés, leur ai appris tout ce que je sais et fourni l’ensemble du financement initial », a-t-il affirmé durant son témoignage.
Il a démissionné du conseil d’administration d’OpenAI en 2018, en raison d’un conflit d’intérêt potentiel entre son rôle chez Tesla et le développement de technologies de conduite autonome.
Il a indiqué à la barre qu’il n’était pas complètement opposé à une petite activité commerciale, d’ailleurs une entité à but lucratif a été créée en 2019. Néanmoins, le plaignant estime qu’elle a pris toute la place : « On ne peut pas avoir le beurre et l’argent du beurre », a-t-il déclaré.
À plusieurs reprises pendant son témoignage (et aussi sur X), Musk a accusé Altman et Brockman de s’être enrichis sur le dos de l’organisation à but non lucratif, tout en bénéficiant de l’image positive associée à ce type de structure. L’activité d’OpenAI a explosé fin 2022 avec le lancement de ChatGPT, tandis que Microsoft mettait 13 milliards de dollars sur la table.
Elon Musk veut contraindre OpenAI à « adhérer [de nouveau] à l’accord fondateur et revenir à sa mission de développer une AGI au bénéfice de l’humanité ». Durant son témoignage au procès, le milliardaire a martelé qu’« on ne peut pas voler une organisation caritative ». Pendant son témoignage, il a demandé à la juge de considérer l’annulation de la restructuration d’OpenAI.
Il veut également qu’OpenAI et Microsoft restituent les gains indûment obtenus – selon lui – grâce à ses contributions initiales. Cela inclut l’augmentation de valeur d’OpenAI et les investissements de Microsoft. Selon l’expert cité dans la plainte, cela représente entre 65,5 et 109,4 milliards de dollars pour OpenAI, et de 13,3 à 25,1 milliards pour Microsoft. Soit potentiellement plus de 130 milliards de dollars dans la fourchette haute, que le plaignant propose de verser à l’entité à but non lucratif d’OpenAI.
Ce n’est pas tout, Elon Musk veut aussi le départ de Sam Altman et de Greg Brockman de leurs fonctions, des dommages-intérêts punitifs, ainsi que d’autres réparations financières durant le procès. Il reviendra au jury d’évaluer les montants pour chaque chef d’accusation.
La plainte d’Elon Musk est considérée comme une « tentative infondée et motivée par la jalousie pour entraver un concurrent », a expliqué OpenAI sur les réseaux sociaux. « Nous sommes ici parce que M. Musk n’a pas obtenu ce qu’il voulait chez OpenAI », a poursuivi William Savitt, l’avocat d’OpenAI, lors de sa déclaration liminaire du procès.
« Mes clients ont eu l’audace de continuer et de réussir sans lui […] Ce n’est pas un fondement valable pour une action en justice ». Pour OpenAI, la plainte est infondée. Pire encore : Elon Musk n’aurait jamais exprimé l’idée que le labo IA devait rester une organisation strictement à but non lucratif. « Ni même qu’il pensait que cela devait être le cas », a affirmé la défense.
Elon Musk a créé xAI en 2023 pour participer à la course à l’IA générative. Désormais intégré dans SpaceX, le labo IA a été valorisé à hauteur de 250 milliards. Contre 852 milliards pour le rival de prétoire… Par un heureux hasard, SpaceX et OpenAI devraient se lancer en bourse cette année.
Bien malin qui saura le dire. Si le jury suit Elon Musk, OpenAI devrait revoir sa structure, impliquant une nouvelle et lourde restructuration de l’entreprise sans trop d’espoir de se lancer en Bourse. Un retour en arrière qui risquerait de fragiliser OpenAI et de lui faire perdre la course à l’IA.
À l’autre bout du spectre judiciaire, un rejet pur et simple de la plainte renforcerait la structure du modèle hybride d’OpenAI, et provoquerait un revers symbolique pour Elon Musk. Et il y a toutes les nuances entre ces deux extrêmes, d’un accord à l’amiable toujours possible à la reconnaissance de certains griefs émis par le milliardaire.
Le procès sera aussi l’occasion de découvrir les coulisses parfois crapuleuses d’une des startups les plus en vue, à quelques mois d’une introduction en bourse très attendue (si elle arrive).
Au premier jour de son témoignage, Elon Musk a voulu marteler sa position auprès du jury : « Ce n’est pas acceptable de détourner une organisation caritative ». C’est une cause qui le dépasse, assure-t-il, avant de mettre en garde : s’il devait perdre cette bataille, les États-Unis risqueraient de « perdre toutes leurs organisations caritatives. »
Un discours repris très vite par la juge Yvonne Gonzalez Rogers, qui a expliqué aux jurés que le point de vue d’Elon Musk sur le sujet relevait d’une opinion n’ayant « aucune valeur légale ».
À la barre, le milliardaire a voulu se dépeindre comme altruiste. Une de ses motivations pour fonder et financer OpenAI était sa crainte de voir Google ne pas prendre suffisamment en compte la sécurité, alors que le géant du web s’engageait dans le développement de l’IA. Lors d’une rencontre avec Larry Page, cofondateur du moteur de recherche, la discussion a porté sur les risques que l’IA anéantisse l’humanité. Larry Page aurait alors répondu qu’un tel scénario serait « acceptable » tant que l’IA survivait.
Le commentaire, jugé « délirant » par Elon Musk, aurait valu à ce dernier le qualificatif de « spéciste pro-humain » par Page. Cette discussion aurait donc poussé Musk à créer une entreprise IA pour faire contrepoids aux projets de Google. Les deux hommes ne se parlent plus depuis le débauchage d’Ilya Sutskever par Musk. Ce chercheur IA de Google a aidé à la création d’OpenAI.
William Savitt, l’avocat d’OpenAI, a dépeint un Elon Musk un peu différent et pas réellement intéressé par la startup. Ce dernier venait « une fois de temps en temps » pour donner un conseil et, à l’occasion, « hurlait sur les gens parce qu’ils n’allaient pas assez vite ». Il a également montré que les donations des autres financiers de la jeune startup dépassaient très largement ceux d’Elon Musk.
Quant à la promesse selon laquelle OpenAI resterait une organisation à but non lucratif, le patron de Tesla aurait pris des vessies pour des lanternes. « La seule personne qui affirme avoir entendu ces promesses est M. Musk lui-même », décoche-t-il.
Elon Musk a caressé un temps la possibilité d’intégrer OpenAI dans Tesla, d’après un courriel glissé dans le dossier de l’affaire. C’était du moins une proposition faite aux fondateurs de la startup IA.
William Savitt, l’avocat d’OpenAI, en a profité pour corriger le milliardaire qui avait affirmé à la barre que Tesla ne cherchait pas à développer l’intelligence artificielle générale (AGI) : un de ses tweets remontant au mois de mars indique tout le contraire… « Tesla sera l’une des entreprises à créer une intelligence artificielle générale (AGI), et probablement la première à y parvenir sous une forme humanoïde ou capable de manipuler la matière », affirme le message sans équivoque.
Elon Musk a créé xAI en 2023, et même si cette nouvelle entreprise est sur le même secteur qu’OpenAI, il a tenu à en minimiser l’importance. « À ce stade, elle est techniquement concurrente, mais beaucoup plus petite qu’OpenAI », a-t-il indiqué face à son avocat.
Jared Birchall, un des plus fidèles collaborateurs d’Elon Musk, est passé à la barre. William Savitt, l’avocat d’OpenAI, l’a interrogé sur un dépôt de documents visant à créer pour OpenAI une société commerciale à mission (« for-profit benefit corporation », PBC) en 2017, sous la direction d’Elon Musk.
C’est un moyen pour la défense de démontrer au jury le double langage de Musk : d’un côté il veut défendre le statut d’organisation caritative d’OpenAI, mais de l’autre il imaginait une structure permettant de réaliser des profits, même si l’entreprise demeurait guidée par une mission plus large d’intérêt public.
Le milliardaire avait cependant botté en touche un peu plus tôt durant le procès. Il a confirmé que ces documents avaient été déposés « au cas où ils seraient nécessaires ». Ça n’a finalement pas été utile. En 2025, OpenAI a bien changé de structure : l’ancienne filiale à but lucratif a été transformée en PBC, mais elle reste contrôlée par OpenAI Foundation, une organisation à but non lucratif.
Autre sujet plus technique abordé ce jour : la distillation. Cette technique d’apprentissage entraîne un modèle plus petit à imiter les réponses d’un modèle plus puissant. Au lieu d’entraîner un modèle uniquement avec des données brutes, il pose des questions à un modèle existant, puis le labo IA utilise les réponses obtenues comme matière d’entraînement.
Les modèles « distillés » de la sorte sont moins coûteux à faire tourner tout en se montrant capables d’atteindre des performances proches des modèles plus avancés. Les entreprises IA états-uniennes reprochent régulièrement à leurs homologues chinoises d’user et d’abuser cette technique pour accélérer le développement de leurs modèles à peu de frais.
Il se trouve que xAI y a eu recours en s’appuyant sur les modèles d’OpenAI, notamment pour entraîner le bot Grok. Elon Musk l’a admis pendant le procès (« oui »), tout en essayant de le nuancer (« en partie ».) Ça n’a rien de très surprenant, sachant que xAI est parti avec des années de retard sur OpenAI. Si le processus de distillation n’est pas explicitement illégal, il peut enfreindre les conditions d’utilisation.
Dans un document déposé dimanche 3 mai, on apprend qu’Elon Musk a envoyé un message texte au président d’OpenAI, Greg Brockman, pour évaluer son intérêt concernant un arrangement à l’amiable. Un message envoyé deux jours avant l’ouverture du procès. Brockman lui a alors proposé que chaque partie laisse tomber ses revendications respectives, ce qui n’a pas semblé satisfaire Musk.
Ce dernier a ainsi rétorqué : « D’ici la fin de la semaine [dernière, ndlr], toi et Sam serez les hommes les plus détestés d’Amérique. Si vous insistez, ainsi soit-il ». Ça n’est visiblement pas arrivé, mais le procès est loin d’être terminé ! Les avocats d’OpenAI estiment que cette initiative d’Elon Musk « tend à établir l’existence d’un mobile et d’un biais, et en particulier que [sa] motivation […] est d’attaquer un concurrent et ses dirigeants ».
Greg Brockman, le président d’OpenAI, tenait un journal pour noter ses pensées, et comme dans tout journal personnel, les réflexions s’entrechoquent et parfois, se contredisent. Durant son témoignage à la barre, il a dû s’expliquer sur la teneur de certaines entrées qui donnent du poids aux allégations d’enrichissement personnel.
En 2017, il écrivait ainsi : « Financièrement, qu’est-ce qui me permettrait d’atteindre le milliard de dollars ?» Une entrée couchée sur le papier à la même époque de l’ultimatum de Musk : soit il prenait le contrôle d’une branche à but lucratif, soit l’organisation restait une association à but non lucratif. Dans son journal, Brockman évoquait aussi l’idée de transformer OpenAI en entreprise commerciale, en écrivant notamment que « gagner de l’argent pour nous semble formidable ».
Steven Molo, l’avocat d’Elon Musk, a demandé à Brockman si sa principale motivation était de devenir milliardaire, plutôt que de financer l’organisation à but non lucratif. Il l’a même comparé à un moment à un « braqueur de banque »… Le dirigeant a affirmé que la mission d’OpenAI (« servir l’humanité ») a toujours été sa motivation principale. Une compensation « juste » pour son travail en tant que fondateur était bien une considération, mais elle était secondaire.
Malgré tout, la participation de Greg Brockman dans OpenAI est aujourd’hui estimée à 30 milliards de dollars — il est donc bel et bien devenu milliardaire ! Et il n’a pas l’intention de « rendre » 29 de ces milliards à l’organisation caritative d’OpenAI, en expliquant avoir reçu cette participation avant l’explosion de la valorisation de l’entreprise. Il a également souligné avoir contribué à la construction de l’organisation à but non lucratif « la mieux financée du monde ».
Ailleurs dans son journal, le président d’OpenAI écrit qu’il serait « mal » de voler à Elon Musk l’organisation à but non lucratif, « ce serait moralement condamnable ». « Je ne vois pas comment nous pourrions transformer ça en entreprise à but lucratif sans une très sale bataille » si Musk en était écarté, indique-t-il aussi. On est là au cœur du procès.
À la barre, Brockman a tenu à recontextualiser ses propos. Ses réflexions concernaient uniquement le scénario dans lequel Musk aurait été évincé du conseil d’administration d’OpenAI par un vote, ce qui n’est jamais arrivé puisque le patron de Tesla a décidé de quitter la startup de son propre chef, en 2018. Il a également rappelé que l’immense majorité de la valeur actuelle d’OpenAI a été créée après le départ de Musk.
Greg Brockman doute aussi des capacités d’Elon Musk dans le domaine de l’IA générative. Lors de la présentation d’un prototype de ChatGPT, il n’aurait pas su reconnaitre l’importance du chatbot à tel point que l’ingénieur venu faire la démonstration a failli quitter le secteur de l’IA ! Brockman convient que Musk possède une expertise dans les fusées et les voitures électriques, mais « il ne connaissait pas l’IA, et je pense qu’il ne la connait toujours pas ».
Sam Altman est-il franc du collier ? La question a été débattue (certes pas dans ces termes exacts…) durant le procès opposant Elon Musk au CEO d’OpenAI. Mira Murati, l’ancienne directrice technique de la startup, a témoigné en vidéo et sous serment que Sam Altman lui avait menti au sujet de la sûreté d’un modèle IA. Le service juridique de l’entreprise avait déterminé qu’il n’était pas nécessaire de faire examiner ce modèle par le comité en charge de la sécurité, aurait affirmé le patron d’OpenAI.
Mira Murati a déclaré dans sa déposition que Sam Altman n’avait pas dit la vérité sur ce dossier. Elle a voulu en avoir le cœur net auprès du directeur juridique Jason Kwon, qui est depuis devenu directeur de la stratégie : « J’ai confirmé que ce que disait Jason et ce que disait Sam n’étaient pas la même chose. ». Le modèle en question a fini par passer sous la loupe du comité de sécurité, sur sa demande.
« Je demandais à Sam de diriger, de le faire avec clarté, et de ne pas saboter ma capacité à faire mon travail », a-t-elle expliqué. Murati n’est pas la première à pointer du doigt les contradictions et les zones grises de Sam Altman ; plusieurs témoignages ont déjà dépeint le rapport très particulier avec la vérité du fondateur et directeur général d’OpenAI.
Le conseil d’administration d’OpenAI lui-même n’était pas convaincu par la sincérité de Sam Altman : c’est une des raisons pour lesquelles il a été éjecté de son poste fin 2023, remplacé par… Mira Murati. Qui a pourtant signé une pétition réclamant le retour du patron viré aux commandes de l’entreprise, la seule manière de « stabiliser » OpenAI, rapporte-elle.
Shivon Zilis, ancienne membre du conseil d’administration d’OpenAI, est aussi passée à la barre : de 2017 à 2023, elle a participé aux discussions sur les différentes formes que pouvait prendre OpenAI. Son témoignage était d’autant plus important qu’elle est aussi la compagne d’Elon Musk, et la mère de quatre de ses enfants (il en a douze en tout).
Zilis a quitté le board en 2023 après la création de xAI. Il n’était « pas approprié » de rester en poste alors que le milliardaire lançait une entreprise concurrente et recrutait chez OpenAI, a-t-elle expliqué. « Quand le père de vos enfants lance un projet concurrent et commence à recruter chez OpenAI, il n’y a plus rien à faire », a-t-elle écrit à l’époque dans un message cité au tribunal. Elle a affirmé que sa relation avec Musk n’avait pas influencé son travail au conseil d’administration : « [j’avais] une allégeance au meilleur résultat possible : une IA au service de l’humanité ».
La question d’un rapprochement avec Tesla s’est posée au début de l’aventure OpenAI afin de créer un labo de recherche sur l’AGI. Ça n’a évidemment débouché sur rien. En décembre 2017, Greg Brockman et Ilya Sutskever ont repoussé la proposition, selon Zilis. Elle a regretté que ces deux fondateurs n’aient pas voulu d’une telle opération : « Ils ne voyaient pas l’intérêt stratégique qu’il y avait à intégrer cette technologie dans Tesla […] Ils ne sont pas dans une logique de calculs ».
Dans le cadre de la transformation d’OpenAI en labo IA de Tesla, Elon Musk avait envisagé de proposer à Sam Altman un poste au conseil d’administration du constructeur automobile. Des échanges internes versés au dossier confirment que le milliardaire avait l’intention de faire entrer Altman dans l’orbite de Tesla ; plusieurs scénarios ont été envisagés, dont ce poste au board, ainsi qu’un rôle de directeur du labo interne.
Interrogée par les avocats d’OpenAI, Shivon Zilis a dit ne pas se souvenir de conditions imposées par Musk concernant les dons à l’organisation, ou encore de documents garantissant qu’OpenAI resterait à but non lucratif ou open source — une déclaration qui infirme les accusations d’Elon Musk. Elle a également estimé qu’un courriel de Sam Altman, dans lequel il disait son enthousiasme pour une structure à but non lucratif, ne constituait pas une promesse formelle.
Le témoignage ce lundi de Satya Nadella était particulièrement attendu. Le CEO de Microsoft a expliqué les liens entre son entreprise et OpenAI, qui vont bien au-delà du simple soutien à une startup : l’éditeur de Windows a investi 1 milliard de dollars en 2019, puis 2 milliards en 2021, et enfin 10 milliards en 2023. Beaucoup d’argent donc, ce qui a contribué à la transformation d’OpenAI en mastodonte du secteur, valorisé à 850 milliards de dollars.
Interrogé par Steven Molo, l’avocat d’Elon Musk, le dirigeant a convenu que l’investissement de Microsoft avait été une très bonne affaire. Mais « parce que nous avons été les seuls à prendre le risque ». Les relations avec OpenAI ont été tumultueuses, avant d’aboutir à un accord qui donne à Microsoft 27 % du capital de la startup. Une participation estimée à un peu plus de 200 milliards de dollars aujourd’hui.
Le directeur général de Microsoft a affirmé à la barre qu’Elon Musk n’a jamais évoqué ses préoccupations concernant l’investissement du géant logiciel dans OpenAI, qui aurait pu être en infraction avec des engagements caritatifs de la startup. Elon Musk a expliqué la semaine dernière que les 10 milliards mis sur la table par Microsoft en 2023 ont constitué le point de bascule : l’ampleur de la somme le préoccupait, « j’étais inquiet à l’idée qu’ils essaient en réalité de détourner l’organisation à but non lucratif ».
Pour Nadella, ces investissements successifs n’ont jamais été interprétés comme des dons. Dès le départ de la relation entre les deux entreprises, il était clair dans son esprit qu’il s’agissait d’un partenariat marketing puis franchement commercial.
Dès 2016, Microsoft avait proposé à OpenAI un accès à ses capacités de calcul à prix cassé. Mais en 2018, alors que les factures commençaient à s’empiler, « nous n’étions plus à l’aise avec l’idée de considérer cela comme une dépense marketing », a expliqué Nadella. C’est à cette époque que la relation entre Microsoft et OpenAI est devenue plus sérieuse.
En 2022, avant ce fameux investissement de 10 milliards, Satya Nadella a demandé aux dirigeants de Microsoft des solutions pour « pour poursuivre le partenariat » d’une façon qui soit favorable à l’éditeur. « Je ne veux pas que Microsoft soit IBM et qu’OpenAI devienne Microsoft », écrivait le dirigeant dans son courriel. En 1980, IBM signait un accord non exclusif pour distribuer DOS sur ses PC ; Microsoft a pu commercialiser en parallèle son système d’exploitation à de nombreux autres constructeurs, ce qui lui a permis de devenir le pivot logiciel du marché de l’ordinateur personnel.
Au bout du compte, Microsoft est devenue bien plus importante qu’IBM. Et Nadella ne voulait pas que l’histoire se répète à front renversé.
Satya Nadella est revenu sur le congédiement surprise de Sam Altman en novembre 2023, avant qu’il retrouve son poste quelques jours plus tard. « De l’amateurisme total », a cinglé le patron de Microsoft en parlant du conseil d’administration d’OpenAI à l’origine de ce pataquès.
Le board avait justifié l’éviction de Sam Altman par son manque de transparence, ce qui peut constituer un motif valable de licenciement d’un directeur général, mais « cela ne suffisait pas, parce qu’il s’agit du directeur général d’une entreprise dans laquelle nous avons investi et avec laquelle nous entretenons un partenariat très étroit. J’estimais donc qu’ils auraient dû m’expliquer quels étaient les incidents ou les éléments précis derrière cette décision ».
Le CEO de Microsoft tenait à avoir l’heure juste, mais « chaque fois que je demandais précisément pourquoi Sam avait été licencié, [le conseil] ne me donnait jamais de réponse claire ».
De l’amateurisme chez le conseil d’administration, c’est aussi ce qui ressort du témoignage d’Ilya Sutskever, transfuge de Google et cofondateur d’OpenAI. Membre du board en 2023, il s’interrogeait aussi sur le comportement d’Altman. « Le processus [d’éviction] semblait précipité. Ce groupe d’administrateurs n’était pas très expérimenté dans ce genre de situation… et ils ont également reçu des conseils juridiques qui n’étaient pas très bons. »
Ilya Sutskever a aussi dit son peu d’enthousiasme concernant l’hypothèse d’un rapprochement avec Anthropic, ce qui aurait « tué un rêve », a-t-il indiqué. Le chercheur a finalement aidé au retour de Sam Altman aux commandes, avant de quitter OpenAI en 2024. Sa participation personnelle se monte à 7 milliards de dollars.
Dernière mise à jour, 12/05 à 15h45. Publication initiale le 5/05
Les moins de 13 ans ne peuvent officiellement pas créer de compte sur Instagram ou sur Facebook… même s’il est relativement facile de tromper le processus d’inscription. C’est pourquoi Meta a mis en place des mécanismes de vérification pour supprimer ces comptes, et les met à jour régulièrement. Pour repérer les petits malins, de nouveaux outils IA ont été développés pour analyser le contenu des profils.
L’IA peut analyser les publications, les commentaires, la biographie ou les légendes des photos à la recherche d’indices contextuels (anniversaires, mentions scolaires…). Le compte peut être désactivé en cas de doute, tandis que l’utilisateur doit prouver son âge. Meta annonce aussi un nouvel outil d’analyse visuelle des photos et vidéos, ce qui lui permet d’estimer l’âge à partir de la morphologie et de la taille de l’utilisateur. Ces données sont croisées avec des signaux textuels et comportementaux.
Meta l’assure : il ne s’agit pas de reconnaissance faciale, l’outil « n’identifie pas la personne précise présente sur l’image ». La reconnaissance faciale est pourtant en place dans Instagram depuis 2023. Cette analyse visuelle n’a été activée que dans une poignée de pays, un déploiement plus large est cependant dans les tuyaux.

En revanche, Meta a confirmé le lancement dans l’Union européenne de la technologie IA qui lui permet de basculer des comptes adultes vers des profils ados, avec toutes les restrictions de contenus que cela implique. Lancée en 2025, elle tente de déterminer si un compte est géré par un adolescent enregistré comme adulte.
Il s’agit d’un modèle IA s’appuyant sur plusieurs signaux : infos de profil, interactions avec des contenus ou d’autres profils, comportements typiques selon l’âge. Mis à jour et ré-entrainé régulièrement, il est comparé en continu à un jeu de données d’évaluation de référence alimenté par des équipes humaines qui examinent les contenus anonymisés et les classent selon l’âge probable de leur auteur.
Le modèle a d’abord été lancé aux États-Unis, il se déploie désormais de pays en pays. L’UE y a désormais droit dans Instagram, puis dans Facebook en juin.
Enfin, Meta rappelle qu’elle ne peut pas faire tout, toute seule. L’entreprise milite pour que la vérification de l’âge soit réalisée par les boutiques d’apps, donc par Apple et par Google. « Exiger une autorisation parentale et une vérification de l’âge au niveau de l’App Store ou du système d’exploitation offre un point centralisé, cohérent et respectueux de la vie privée pour garantir l’âge, plutôt que d’imposer à chaque application de se conformer à des règles différentes », explique le groupe. Plusieurs États américains imposent déjà cette vérification.
Les moins de 13 ans ne peuvent officiellement pas créer de compte sur Instagram ou sur Facebook… même s’il est relativement facile de tromper le processus d’inscription. C’est pourquoi Meta a mis en place des mécanismes de vérification pour supprimer ces comptes, et les met à jour régulièrement. Pour repérer les petits malins, de nouveaux outils IA ont été développés pour analyser le contenu des profils.
L’IA peut analyser les publications, les commentaires, la biographie ou les légendes des photos à la recherche d’indices contextuels (anniversaires, mentions scolaires…). Le compte peut être désactivé en cas de doute, tandis que l’utilisateur doit prouver son âge. Meta annonce aussi un nouvel outil d’analyse visuelle des photos et vidéos, ce qui lui permet d’estimer l’âge à partir de la morphologie et de la taille de l’utilisateur. Ces données sont croisées avec des signaux textuels et comportementaux.
Meta l’assure : il ne s’agit pas de reconnaissance faciale, l’outil « n’identifie pas la personne précise présente sur l’image ». La reconnaissance faciale est pourtant en place dans Instagram depuis 2023. Cette analyse visuelle n’a été activée que dans une poignée de pays, un déploiement plus large est cependant dans les tuyaux.

En revanche, Meta a confirmé le lancement dans l’Union européenne de la technologie IA qui lui permet de basculer des comptes adultes vers des profils ados, avec toutes les restrictions de contenus que cela implique. Lancée en 2025, elle tente de déterminer si un compte est géré par un adolescent enregistré comme adulte.
Il s’agit d’un modèle IA s’appuyant sur plusieurs signaux : infos de profil, interactions avec des contenus ou d’autres profils, comportements typiques selon l’âge. Mis à jour et ré-entrainé régulièrement, il est comparé en continu à un jeu de données d’évaluation de référence alimenté par des équipes humaines qui examinent les contenus anonymisés et les classent selon l’âge probable de leur auteur.
Le modèle a d’abord été lancé aux États-Unis, il se déploie désormais de pays en pays. L’UE y a désormais droit dans Instagram, puis dans Facebook en juin.
Enfin, Meta rappelle qu’elle ne peut pas faire tout, toute seule. L’entreprise milite pour que la vérification de l’âge soit réalisée par les boutiques d’apps, donc par Apple et par Google. « Exiger une autorisation parentale et une vérification de l’âge au niveau de l’App Store ou du système d’exploitation offre un point centralisé, cohérent et respectueux de la vie privée pour garantir l’âge, plutôt que d’imposer à chaque application de se conformer à des règles différentes », explique le groupe. Plusieurs États américains imposent déjà cette vérification.
Read more of this story at Slashdot.
Les fakes news envahissent – polluent serait plus juste – de plus en plus l’espace médiatique. Cela va au-delà de la mésinformation ou désinformation, avec des ingérences étrangères. Les risques sont nombreux, notamment en période d’élections (les présidentielles approchent). Bercy lance son « décodeur » maison et promet de la transparence.
Le dispositif a été annoncé hier par le gouvernement : « Face à la recrudescence des fausses informations qui peuvent influencer l’opinion, les ministères économiques et financiers se dotent d’un dispositif de lutte contre la désinformation sous le nom de Bercy décode ».
Le ministère explique que « cette stratégie de lutte contre la désinformation s’intègre dans les dispositifs existants et est en lien notamment avec VIGINUM, le service de vigilance et protection contre les ingérences numériques étrangères ». La menace est croissante et les élections présidentielles de 2027 seront sans aucun doute un terrain
Bercy décode se présente comme un redresseur de torts dispositif permettant de se fixer « comme objectif de garantir que les chiffres, règles et dispositifs publics puissent être consultés, compris et vérifiés à partir de sources ouvertes et accessibles ». Une promesse qui n’est pas tombée dans l’oreille d’un sourd !
Sur Next, nous avons un long historique de demandes CADA en tous genres afin d’obtenir des informations justement pour travailler sur des données fiables, officielles. On en vient à rêver d’un monde dans lequel l’accès à toutes les données des impôts sont facilement accessibles et intelligibles, de même pour celles des marchés publics, des algorithmes de la CAF, des dépenses dans l’éducation et la recherche…
Bercy décode, c’est aussi un « identité visuelle » pour des « contenus de clarification […] permettant au public d’identifier immédiatement les décryptages officiels produits par le ministère sur différentes thématiques telles que fiscalité, finances publiques, énergie, numérique, etc. ».
Actuellement, une dizaine de décryptages sont disponibles. Le plus ancien concerne la revente de cartes Pokémon qui serait « désormais dans le viseur du fisc ». Spoiler : oui, mais ce n’est pas nouveau et cela ne concerne pas que Pokémon.
Deux décryptages concernent les éoliennes en mer (sur le bruit et le bilan carbone), deux autres les voitures électriques (la pollution et les longs trajets), un autre les impôts : « Est-ce que seule la moitié des ménages paie des impôts ? ». Réponse : « Faux. Si moins d’un foyer fiscal sur deux est redevable de l’impôt sur le revenu, tous les Français contribuent néanmoins aux finances publiques. En effet, tous les Français s’acquittent des taxes sur la consommation, dont la principale est la TVA ».

Bercy en profite pour assurer une promo interne d’autres institutions qui ont également des outils contre la désinformation : le site du ministère de la Transition écologique, celui du ministère de la Santé (lire notre article sur son lancement), des Affaires étrangères, des Armées, de la Commission européenne et VIGINUM évidemment.
Le ministère de l’Économie en profite pour mettre en avant son récent compte TikTok, qui compte pour le moment une quinzaine de contenus. Il est déjà présent sur X depuis fin 2009. Si le ministre Roland Lescure est présent sur Bluesky, ce n’est pas le cas de son ministère. Encore trop souvent la classe politique et les institutions sont présents sur X, mais pas sur d’autres alternatives.
Le site Bercy décode propose enfin un dico de la désinfo – notamment sur la différence entre mésinformation et désinformation – et rappelle quelques bons réflexes à avoir pour éviter la désinformation :
Il manque un conseil : lire (ou relire) la longue enquête de Jean Marc sur les sites d’info générés par IA (il en a identifié plus de 13 000, rien qu’en français !), et installer l’extension Next pour être alerté lorsqu’on les consulte, ainsi que d’autres sites problématiques, notamment ceux identifiés par l’Autorité des marchés financiers (AMF) et les noms de domaines potentiellement suspects de RedFlagDomains.
Les fakes news envahissent – polluent serait plus juste – de plus en plus l’espace médiatique. Cela va au-delà de la mésinformation ou désinformation, avec des ingérences étrangères. Les risques sont nombreux, notamment en période d’élections (les présidentielles approchent). Bercy lance son « décodeur » maison et promet de la transparence.
Le dispositif a été annoncé hier par le gouvernement : « Face à la recrudescence des fausses informations qui peuvent influencer l’opinion, les ministères économiques et financiers se dotent d’un dispositif de lutte contre la désinformation sous le nom de Bercy décode ».
Le ministère explique que « cette stratégie de lutte contre la désinformation s’intègre dans les dispositifs existants et est en lien notamment avec VIGINUM, le service de vigilance et protection contre les ingérences numériques étrangères ». La menace est croissante et les élections présidentielles de 2027 seront sans aucun doute un terrain
Bercy décode se présente comme un redresseur de torts dispositif permettant de se fixer « comme objectif de garantir que les chiffres, règles et dispositifs publics puissent être consultés, compris et vérifiés à partir de sources ouvertes et accessibles ». Une promesse qui n’est pas tombée dans l’oreille d’un sourd !
Sur Next, nous avons un long historique de demandes CADA en tous genres afin d’obtenir des informations justement pour travailler sur des données fiables, officielles. On en vient à rêver d’un monde dans lequel l’accès à toutes les données des impôts sont facilement accessibles et intelligibles, de même pour celles des marchés publics, des algorithmes de la CAF, des dépenses dans l’éducation et la recherche…
Bercy décode, c’est aussi un « identité visuelle » pour des « contenus de clarification […] permettant au public d’identifier immédiatement les décryptages officiels produits par le ministère sur différentes thématiques telles que fiscalité, finances publiques, énergie, numérique, etc. ».
Actuellement, une dizaine de décryptages sont disponibles. Le plus ancien concerne la revente de cartes Pokémon qui serait « désormais dans le viseur du fisc ». Spoiler : oui, mais ce n’est pas nouveau et cela ne concerne pas que Pokémon.
Deux décryptages concernent les éoliennes en mer (sur le bruit et le bilan carbone), deux autres les voitures électriques (la pollution et les longs trajets), un autre les impôts : « Est-ce que seule la moitié des ménages paie des impôts ? ». Réponse : « Faux. Si moins d’un foyer fiscal sur deux est redevable de l’impôt sur le revenu, tous les Français contribuent néanmoins aux finances publiques. En effet, tous les Français s’acquittent des taxes sur la consommation, dont la principale est la TVA ».

Bercy en profite pour assurer une promo interne d’autres institutions qui ont également des outils contre la désinformation : le site du ministère de la Transition écologique, celui du ministère de la Santé (lire notre article sur son lancement), des Affaires étrangères, des Armées, de la Commission européenne et VIGINUM évidemment.
Le ministère de l’Économie en profite pour mettre en avant son récent compte TikTok, qui compte pour le moment une quinzaine de contenus. Il est déjà présent sur X depuis fin 2009. Si le ministre Roland Lescure est présent sur Bluesky, ce n’est pas le cas de son ministère. Encore trop souvent la classe politique et les institutions sont présents sur X, mais pas sur d’autres alternatives.
Le site Bercy décode propose enfin un dico de la désinfo – notamment sur la différence entre mésinformation et désinformation – et rappelle quelques bons réflexes à avoir pour éviter la désinformation :
Il manque un conseil : lire (ou relire) la longue enquête de Jean Marc sur les sites d’info générés par IA (il en a identifié plus de 13 000, rien qu’en français !), et installer l’extension Next pour être alerté lorsqu’on les consulte, ainsi que d’autres sites problématiques, notamment ceux identifiés par l’Autorité des marchés financiers (AMF) et les noms de domaines potentiellement suspects de RedFlagDomains.