Clemmm Curiosity Cabinet

Jeux olympiques : l’ANSSI est toujours « confiante »

18 juillet 2024 12:44 Next - Flux Complet

L'ANSSI, en anticipation des Jeux Olympiques et Paralympiques de 2024, a officialisé son état de préparation face aux cybermenaces potentielles. À quelques jours de l'événement, l'agence affiche une confiance basée sur des préparatifs intensifs débutés deux ans plus tôt et une série de formations spécifiques pour ses 630 agents. Bien que l'agence n'anticipe pas d'attaques ciblant directement les entités des JOP, elle s'attend à une augmentation des tentatives de hacktivisme et autres cyberattaques, profitant de la visibilité de l'événement. L'ANSSI a travaillé en coordination étroite avec des partenaires nationaux et internationaux, assurant ainsi une couverture sécuritaire sans 'angle mort'. Parallèlement, la préparation s'est également orientée vers la durabilité, en intégrant des processus qui continueront à être utilisés post-Jeux. Cette approche vise à renforcer globalement la capacité de réaction du pays face aux cybermenaces, conformément aux nouveaux cadres réglementaires comme la directive européenne NIS 2. Tout en mettant l'accent sur la transparence et la communication lors des jeux, l'ANSSI se positionne non seulement comme un garant de la sécurité informatique pendant les jeux, mais aussi comme un acteur clé dans l'évolution à long terme de la cybersécurité nationale. link

Les humains et machines s’imitent mutuellement quand ils interagissent

18 juillet 2024 11:05 usbeketrica

Dans une interview pour Usbek & Rica, Alexei Grinbaum, directeur de recherche au CEA-Saclay et spécialiste en éthique des nouvelles technologies, explore les relations entre humains et machines à l'ère de l'intelligence artificielle (IA). Suite au lancement de ChatGPT en 2022, il observe une mimétique mutuelle dans l'interaction humain-machine, où les futures implications de l'IA ne se limitent plus à la fiction mais deviennent notre réalité. Grinbaum discute également des peurs apocalyptiques récurrentes associées aux grandes innovations technologiques, tout en mettant en relief l'évolution des perceptions humaines envers les technologies à travers l'histoire. Il propose des solutions pour distinguer les contributions humaines des productions automatisées, soulignant l'importance de cette distinction dans le cadre réglementaire futur. Grinbaum aborde les questions de responsabilité en cas de défaillances de l'IA, suggérant que la réponse pourrait résider dans une approche basée sur le partage de la responsabilité entre plusieurs acteurs clés, ainsi que dans l'adoption de décisions aléatoires pour briser les cycles prévisibles de responsabilité. Ces réflexions ouvrent des perspectives sur la manière dont la société peut gérer les défis éthiques et pratiques posés par les développements continus de l'intelligence artificielle. link

TTT models might be the next frontier in generative AI

17 juillet 2024 22:47 TechCrunch

Les modèles de type transformateur ont longtemps dominé le domaine de l'IA générative, poussant leurs capacités jusqu'aux limites de la consommation d'énergie et de l'efficacité des données. Récemment, une équipe de chercheurs des universités telles que Stanford et UC Berkeley, en collaboration avec Meta, ont mis au point une nouvelle architecture, nommée test-time training (TTT), qui pourrait potentiellement révolutionner ce segment. Les modèles TTT sont capables de gérer des volumes de données bien plus importants sans les contraintes de puissance des transformateurs. Contrairement aux transformateurs qui stockent les données traitées sous forme de 'table de correspondance', le modèle TTT intègre un modèle d'apprentissage machine qui ne grandit pas en taille, ce qui le rend particulièrement performant. Alors que les transformateurs traditionnels peinent à traiter de longues séquences vidéo en raison de leurs limitations, les modèles TTT pourraient, à l'avenir, traiter des données multimédias massives telles des vidéos longues semblables à l'expérience visuelle humaine. Malgré cet optimisme, il existe un certain scepticisme autour de la capacité des TTT à remplacer complètement les transformateurs. Les prototypes actuels sont encore limités et les comparaisons avec des transformateurs à grande échelle sont difficiles. Toutefois, l'avancement rapide de la recherche sur des alternatives aux transformateurs, comme les modèles d'état spatial et les efforts de plusieurs startups et laboratoires, indique une prise de conscience croissante de la nécessité d'innovations. Si ces nouvelles architectures parviennent à maturité, elles pourraient rendre l'IA générative encore plus performante et accessible. link

Ethereum co-founder’s warning against ‘pro-crypto’ candidates: ‘are they in it for the right reasons?’

17 juillet 2024 22:04 TechCrunch

Vitalik Buterin, le co-fondateur d'Ethereum, a récemment publié un billet de blog où il exprime ses préoccupations sur le soutien aveugle aux candidats qui se déclarent 'pro-crypto'. Il suggère de plutôt analyser de manière approfondie leurs politiques pour vérifier si elles correspondent aux principes de la cryptomonnaie, notamment le soutien à l'internationalisme et la protection des communications privées. Cette mise en garde fait suite au soutien exprimé par Marc Andreessen et Ben Horowitz, fondateurs d'Andreessen Horowitz, à Donald Trump, connu pour ses vues précédemment critiques sur les cryptomonnaies. Buterin met en doute la sincérité des politiciens qui peuvent utiliser la position 'pro-crypto' pour gagner en pouvoir, en prenant l'exemple de leaders autoritaires en Russie. Enfin, il recommande de vérifier les positions passées des politiciens sur les cryptomonnaies pour anticiper de possibles retournements de veste, comme le changement d'avis de Trump, qui est passé d'un critique des cryptomonnaies à un candidat les acceptant comme donations. Buterin souligne ainsi l'importance de ne pas se laisser séduire par des déclarations superficielles en périodes électorales. link

Fujitsu partners with Cohere to build LLMs for Japanese enterprises

17 juillet 2024 14:34 cio

Fujitsu, une entreprise japonaise spécialisée dans les services cloud et l'intelligence des données, a annoncé un partenariat stratégique avec Cohere, une entreprise nord-américaine renommée pour son accent sur la sécurité et la confidentialité des données, pour développer des solutions AI génératives sécurisées destinées au marché des entreprises japonaises. Ce partenariat vise à créer des modèles de langage larges (LLMs) spécialement adaptés au japonais, baptisés 'Takane', prévus pour être lancés en septembre 2024. Ces modèles seront intégrés aux services AI Kozuchi de Fujitsu, conçus pour des environnements cloud privés où la sécurité est cruciale, tels que les institutions financières et les agences gouvernementales. L'initiative combine l'expertise de Fujitsu en japonais avec les technologies avancées de LLM de Cohere, offrant ainsi des solutions AI puissantes et adaptables qui répondent spécifiquement aux besoins des entreprises et accélèrent l'adoption de l'IA générative à l'échelle mondiale. Les principaux clients cibles incluent des secteurs tels que la finance et les agences gouvernementales, où la sécurité est primordiale. Ce développement est essentiel compte tenu de la demande croissante pour des applications IA capables de gérer des exigences spécifiques à l'industrie tout en garantissant la confidentialité et la sécurité des données. link

Éloquentes et radicales : quelle source d'inspiration, ces Françaises écologistes !

17 juillet 2024 08:56 courrierinternational

Dans un article de 'The Guardian', une chroniqueuse britannique exprime son admiration pour l'approche radicale des politiciennes écologistes françaises. Marine Tondelier, Mélanie Vogel et Sandrine Rousseau, reconnues pour leur éloquence et leur franc-parler, sont désignées comme des sources d'inspiration. Tondelier, particulièrement, se distingue par son engagement contre l'extrême droite et sa capacité à utiliser les détails triviaux, comme sa veste verte, pour renforcer son message politique. Vogel, fervente défenseuse des droits des femmes, a joué un rôle clé dans l'inscription du droit à l'avortement dans la Constitution française. Rousseau, figure de proue du mouvement #MeToo en France, a proposé des lois pour pénaliser l'inégalité dans le partage des tâches domestiques et promouvoir le 'droit à la paresse'. Ensemble, ces trois femmes illustrent une manière révolutionnaire de faire de la politique, axée sur l'urgence écologique et le combat contre les inégalités, suggérant une nouvelle ère collaborative et transparente dans l'arène politique française. link

After Tesla and OpenAI, Andrej Karpathy’s startup aims to apply AI assistants to education

16 juillet 2024 14:39 techcrunch

Andrej Karpathy, reconnu pour son travail chez Tesla et OpenAI, a annoncé la création de Eureka Labs, une startup éducative intégrant l'intelligence artificielle dès sa conception. Basée à San Francisco et enregistrée comme LLC au Delaware, Eureka Labs vise à exploiter les avancées récentes dans l'IA générative pour former des assistants d'enseignement IA. Ces assistants, conçus pour travailler conjointement avec des enseignants humains, permettront selon Karpathy « à quiconque d'apprendre n'importe quoi ». L'entreprise démarre avec un cours de niveau licence, LLM101n, pour apprendre aux étudiants à développer leur propre version miniature d'un assistant IA. Le cours sera disponible en ligne et proposera des cohortes numériques et physiques. Une expérience menée par l'Université d'État de Géorgie a déjà montré que les assistants d'enseignement IA pouvaient améliorer les résultats des étudiants. Karpathy a également partagé peu d'informations sur les éventuels financements ou coentreprises, et il n'a pas encore testé complètement l'intégration de ces assistants dans les salles de classe. Malgré les détails manquants sur la stratégie commerciale d'Eureka Labs, Karpathy exprime clairement son ambition de fusionner ses domaines de prédilection que sont l'IA et l'éducation, continuant à éduquer à travers son cours en ligne et ses interventions sur YouTube. link

How VanMoof’s new owners plan to win over its old customers

15 juillet 2024 11:00 TechCrunch

En 2023, VanMoof, connue pour ses vélos électriques élégants, a fait faillite, entraînant la perte de commandes prépayées pour environ 5,000 clients. Acquise par Lavoie en août 2023, la société tente de racheter la confiance des clients abandonnés en leur offrant une réduction de 1,000 € sur les nouveaux modèles de vélos, qui sont vendus à environ 3,298 €. Cette initiative oblige les clients à payer une somme supplémentaire importante malgré l'argent déjà perdu, totalisant presque 5,600 € pour un vélo. Suite à la faillite, tous les paiements initiaux sont gelés dans les procédures judiciaires, empêchant tout remboursement immédiat. Lavoie a depuis œuvré pour améliorer la fiabilité des produits VanMoof et établir un réseau de service solide en Europe et aux États-Unis. Les clients désireux d'utiliser la réduction doivent prouver leur achat initial et la tentative échouée de remboursement par leur banque, ce qui complique davantage le processus. VanMoof mise sur cette stratégie pour regagner la confiance et revitaliser la marque, mais il reste à voir si les clients seront prêts à renouveler leur confiance et investir à nouveau dans la marque. link

The AI financial results paradox

14 juillet 2024 20:36 TechCrunch

L'IA transforme le monde des affaires, rendant inévitable son adoption malgré l'absence de preuves directes liant dépenses en IA et amélioration des performances financières. Les entreprises sont poussées à suivre leurs concurrents dans l'investissement en IA, malgré les coûts initiaux potentiellement élevés et les retours sur investissement incertains. Jamin Ball souligne que, même sans bénéfices immédiats, l'IA améliore l'expérience client et pourrait potentiellement améliorer des métriques comme la rétention ou la réduction du taux de désabonnement. Cela instaure un dilemme pour les CIOs et les CFOs qui doivent justifier des dépenses importantes tout en étant conscients des risques. Par ailleurs, comparer la révolution de l'IA à celle de l'électricité dans les usines met en évidence son caractère incontournable, bien que coûteux. Les grandes entreprises pourraient se tourner vers des consultants comme Deloitte ou McKinsey pour naviguer dans cette transition, ce qui pourrait encore augmenter les coûts et retarder les bénéfices attendus. Cette situation laisse les dirigeants d'entreprise face à des décisions difficiles, cherchant un équilibre entre avancer vers l'avenir et éviter des dépenses superflues. link

OpenAI is reportedly working on more advanced AI models capable of reasoning and ‘deep research’

13 juillet 2024 22:24 Engadget is a web magazine with obsessive daily coverage of everything new in gadgets and consumer electronics

Le rapport de Reuters révèle qu'OpenAI développe des modèles d'intelligence artificielle améliorés possédant des capacités de raisonnement avancé, sous un projet secret nommé 'Strawberry'. Ce projet, autrefois appelé Q*, vise à permettre aux modèles IA de l'entreprise de conduire des recherches autonomes sur Internet pour prévoir et planifier l'accomplissement de tâches complexes. Selon des sources anonymes citées par Reuters, des démonstrations effectuées plus tôt cette année ont prouvé que le projet pourrait traiter des questions de science et de mathématiques difficiles. Bien que peu d'informations soient disponibles sur l'avancement actuel de Strawberry, les buts visés indiquent une avancée majeure comparée à ce qui existe aujourd'hui. La capacité de mener des 'recherches profondes', selon les témoignages chez Bloomberg, pourrait transformer significativement les outils de recherche et de raisonnement fournis par l'intelligence artificielle. link

Bill Viola, pionnier de l’art vidéo, est mort

13 juillet 2024 21:13 Culture : Toute l’actualité sur Le Monde.fr.

Bill Viola, artiste majeur et pionnier reconnu de l'art vidéo, est décédé paisiblement le 12 juillet à son domicile de Long Beach, en Californie, des suites de la maladie d'Alzheimer, à l'âge de 73 ans. Né à New York en 1951, Viola a exploré et repoussé les frontières de l'art vidéo, s'inspirant de sources aussi diverses que les œuvres de la Renaissance, les peintures de Goya, Jérôme Bosch, ou encore le Livre des morts de l'Égypte antique. Après des études à l'université de Syracuse où il se spécialise dans la peinture et la musique électronique, il se lance dans l'art vidéo, attiré par les nouvelles possibilités de cette forme d'expression. Au cours de sa carrière, Viola a non seulement marqué le monde de l'art par ses œuvres émouvantes et profondes, mais il a également bénéficié d'une rétrospective significative au Grand Palais à Paris en 2014, qui a retracé quatre décennies de création artistique. Son épouse, Kira Perov, qui a aussi été sa collaboratrice étroite, joue un rôle crucial dans son processus créatif, bien que les œuvres soient signées de son seul nom. Viola a également eu une influence notable sur la représentation du temps et des émotions dans l'art vidéo, utilisant notamment des techniques comme le ralenti pour 'sculpter le temps' sans jamais abuser des effets spéciaux. Il laisse derrière lui une empreinte indélébile sur l'art vidéo contemporain, sa famille et un héritage d'innovation et d'expression artistique. link

Accessing GPT-4 level Mathematical Olympiad Solutions via Monte Carlo Tree Self-refine with LLaMa-3 8B: A Technical Report

13 juillet 2024 17:07 arxiv

L'article explore le développement et l'application de l'algorithme MCT Self-Refine (MCTSr), une intégration des modèles de langage de grande taille (LLMs) et de la méthode de recherche arborescente Monte Carlo (MCTS) pour améliorer le traitement et la résolution de problèmes mathématiques complexes. Cette approche est particulièrement destinée aux contextes d'olympiades mathématiques, utilisant des mécanismes de raffinement heuristique pour affiner la prise de décision dans les LLMs. L'algorithme implémente une sélection systématique, l'auto-raffinement, l'auto-évaluation et la rétropropagation, optimisés par une formule améliorée du Upper Confidence Bound pour équilibrer exploration et exploitation. Les résultats obtenus sur diverses benchmarks de niveau olympiade comme AIME et Math Odyssey montrent une amélioration nette des taux de réussite. MCTSr permet aux modèles LLaMa-3 8B de surpasser les capacités de raisonnement de modèles clos tels que GPT-4, illustrant les avantages combinés de MCTS et LLMs dans la résolution avancée de problèmes mathématiques. Le potentiel de généralisation et l'efficacité accrue dans les tâches de raisonnement complexe sont soulignés, guide pour les futures intégrations d'inteligences artificielles pour renforcer la précision et la fiabilité décisionnelle dans les applications alimentées par LLM. link

« Les humains et machines s'imitent mutuellement quand ils interagissent »

13 juillet 2024 07:00 RSS | Usbek & Rica

Dans une récente interview pour Usbek & Rica, Alexei Grinbaum, spécialiste des questions éthiques liées aux nouvelles technologies, discute des changements apportés par l'intelligence artificielle générative, en particulier dans la façon dont les humains et les machines interagissent et s'imitent. Grinbaum souligne le défi que représente la définition de la condition humaine à l'ère de l'IA, où la capacité de communication par le langage n'est plus unique aux humains. Il évoque également l'introduction des 'filigranes' pour identifier les contenus générés par l'IA, une initiative qui deviendra bientôt une obligation légale. En plus, il pose des questions sur la gestion des bases de données et la responsabilité en cas de défaillances, suggérant que la responsabilité pourrait être partagée entre différents acteurs impliqués dans la création et l'utilisation de l'IA. Alors que l'IA continue de se développer, Grinbaum appelle à une réflexion sur la manière dont nous voulons qu'elle façonne notre futur, mettant en lumière les enjeux éthiques et la nécessité de préserver une distinction claire entre l’humain et le technologique. link

Introducing AuraFlow v0.1, an Open Exploration of Large Rectified Flow Models

12 juillet 2024 14:42 fal.ai

AuraFlow v0.1 marque un tournant dans les modèles ouverts de génération avec son architecture innovante de flux rectifié pour la conversion du texte en image. Développé en collaboration avec plusieurs partenaires technologiques comme ComfyUI et HuggingFace, AuraFlow tire parti des blocs DiT et d'une paramétrisation optimisée pour améliorer l'efficacité du modèle. Offrant la possibilité d'entraîner le modèle avec moins de couches tout en augmentant les performances, AuraFlow peut aussi traiter efficacement les demandes grâce à l'optimisation de training avec Torch Dynamo + Inductor. Le support de la recaption des données et une architecture réajustée sont les autres points forts du modèle. Les efforts de collaboration se manifestent également dans le soutien initial par la mise en œuvre sur des plates-formes comme Comfy et les diffusers, assurant une intégration facile pour les utilisateurs. Avec des scores de GenEval impressionnants et des capacités d'amélioration des prompts, AuraFlow se positionne comme un atout majeur pour la communauté, stimulant l'engagement et l'exploration continue dans des configurations variées. L'objectif futur est de continuer l'entraînement et le développement du modèle, y compris des versions plus petites adaptées aux cartes GPU grand public. La communauté est encouragée à participer et à contribuer à l'évolution d'AuraFlow, avec des promises ethusiasts pour des innovations futures basées sur ce modèle. link

Silicon Carne - Hors-Série #1 avec Jean de la Rochebrochard, Charlie Perreau et Yann Lechelle

12 juillet 2024 12:18 Silicon Carne, un peu de picante dans la Tech 🌶🌶🌶

L'épisode spécial discute de l'état actuel et des défis de l'écosystème technologique en France. Les participants, incluant des entrepreneurs et des investisseurs, comparent l'écosystème européen à celui de la Silicon Valley, abordant les aspects financiers, réglementaires et culturels qui influencent les startups. Ils discutent des opportunités et des obstacles spécifiques au marché français, tels que l'accessibilité des capitaux, les environnements réglementaires, et l'impact des perceptions culturelles sur l'innovation. La conversation aborde également des anecdotes personnelles des participants, réfléchissant sur leurs propres expériences et les leçons tirées de leurs parcours entrepreneuriaux. L'échange révèle une interconnexion claire entre les stratégies d'entreprise et les politiques macroéconomiques, soulignant l'influence significative des élections politiques et des grands événements économiques sur la stabilité et la croissance des startups. Cette discussion approfondie met en évidence la nécessité d'un soutien accru aux innovateurs et propose des suggestions pour améliorer l'alignement des objectifs commerciaux avec les initiatives de développement durable. link

« En Inde, le monde des affaires, porté par la croissance du pays, reste largement féodal dans ses pratiques et sa culture »

12 juillet 2024 12:00 Économie : Toute l’actualité sur Le Monde.fr.

En Inde, Mukesh Ambani, leader de la richesse en Asie avec un patrimoine de plus de 100 milliards d'euros, prépare le mariage pharaonique de son fils Anant. Les festivités, estimées à 150 millions de dollars, ont commencé plusieurs mois avant la cérémonie officielle prévue à Bombay, attirant des célébrités comme Rihanna et Justin Bieber, ainsi que d'importantes figures politiques et des chefs d'entreprise mondiale. L'événement n'est pas seulement un symbole de prestige, mais aussi un exemple de la culture et des pratiques féodales persistantes dans le monde des affaires indien, où l'élite économique, proche du premier ministre Narendra Modi, domine. Au-delà des festivités, Ambani a aussi contribué de manière philanthropique en finançant le mariage de 50 couples modestes, montrant ainsi une facette de responsabilité sociale. Anant, destiné à reprendre le flambeau, se concentre sur les énergies renouvelables, poursuivant ainsi la diversification des activités du conglomérat familial, tout en veillant à ses responsabilités environnementales et sociales. link

Amazon Will Brick Its $2,350 Astro Robots Just 10 Months After Release

12 juillet 2024 12:00 Feed: All Latest

Amazon a annoncé que le robot Astro pour les entreprises sera désactivé le 25 septembre 2023, seulement dix mois après son lancement, orientant les efforts vers la perfection de la version domestique d'Astro. Lancé initialement en 2021, le robot destiné aux PME coûtait 2 350 $, proposant une surveillance par itinéraires personnalisés et une intégration avec Alexa. Malgré la cessation, Amazon promet des remboursements complets et incite les propriétaires à recycler leurs appareils. Parallèlement, la version domestique d'Astro, toujours en phase de prévisualisation invite-only à 1 600 $, ne montre pas encore de signes de sortie publique généralisée. L'équipe d'Astro pour les entreprises se redéploiera sur la version domestique. Les développements futurs pourraient inclure l'intégration de l'IA générative pour renforcer les capacités conversationnelles d’Astro. link

OpenAI says there are 5 'levels' for AI to reach human intelligence — it's already almost at level 2

12 juillet 2024 11:19 qz

OpenAI, reconnue comme précurseur dans la course à l'intelligence artificielle générale (AGI), a récemment dévoilé un système de cinq niveaux pour mesurer ses avancées. Selon un porte-parole de la société, OpenAI se trouve au premier niveau, celui de l'IA conversationnelle. La société s'approche du deuxième niveau, surnommé 'Raisonneurs', où l'IA pourra résoudre des problèmes basiques, équivalent à une personne avec un doctorat mais sans accès à des outils. Les niveaux suivants comprennent 'Agents' et 'Innovateurs', où l'IA peut agir ou inventer sur plusieurs jours. Ce système a été élaboré par les dirigeants d'OpenAI qui envisagent d'ajuster les niveaux en fonction des retours d'employés, investisseurs et du conseil d'administration. Par ailleurs, OpenAI a montré une avancée avec GPT-4, démontrant des compétences de raisonnement similaires à l'humain. En mai, l'entreprise a également intégré son équipe 'Superalignment', spécialisée dans les risques existentiels de l'IA, à d'autres projets de recherche. link

OpenAI promised to make its AI safe. Employees say it ‘failed’ its first test.

12 juillet 2024 11:04 washingtonpost

L'été dernier, OpenAI s'est engagé auprès de la Maison-Blanche à effectuer des tests de sécurité rigoureux sur ses nouvelles technologies pour éviter des dommages comme l'enseignement de la fabrication d'armes biologiques ou l'aide aux hackers dans le développement de cyberattaques. Toutefois, au printemps, des membres de l'équipe de sécurité d'OpenAI ont été pressés de hâter ces tests pour respecter une date de lancement fixée. Avant même le début des tests sur le modèle GPT-4 Omni, une fête de lancement était organisée. Cela pose des questions sur l'engagement d'OpenAI envers la sécurité malgré les promesses faites. En outre, la dépendance du gouvernement sur la régulation interne des companies technologiques soulève des inquiétudes concernant la protection du public face aux abus de l'IA générative. Les employés d'OpenAI, déjà mécontents de la façon dont les nouveaux protocoles de préparation sont traités comme une après-pensée, ont exprimé leur frustration. L'épisode expose un changement dans la culture d'OpenAI, passant d'une entité altruiste à une entreprise privilégiant les intérêts commerciaux, et met en lumière les défis et les risques de laisser les entreprises établir leurs propres normes de sécurité. link

OpenAI is plagued by safety concerns

12 juillet 2024 11:00 theverge

OpenAI, reconnu comme un leader dans le développement de l'intelligence artificielle (IA), se retrouve progressivement submergé par des critiques portant sur ses pratiques de sécurité, émanant tant de sources internes que de rapports externes comme celui du Washington Post. L'entreprise, qui a récemment vu la démission de son co-fondateur Ilya Sutskever et du chercheur Jan Leike, est critiquée pour la rapidité de ses tests de sécurité et un manque présumé de transparence. Le département d'État américain a même exprimé des préoccupations quant aux risques que les développements actuels de l'IA peuvent représenter pour la sécurité nationale. Ces défis surviennent après des bouleversements notables au sein de la direction, comme l'éviction temporaire de son PDG Sam Altman l'année précédente. Face à la crise, OpenAI a tenté de rassurer le public avec des partenariats stratégiques tels que celui avec Los Alamos National Laboratory et l'introduction de nouvelles métriques de sécurité interne. Cependant, ce remue-ménage interne et ces annonces défensives soulèvent des doutes quant à la capacité d'OpenAI de gérer la sûreté de technologies potentiellement révolutionnaires et son autonomie dans la régulation de l'intelligence artificielle générale (AGI), une technologie pouvant changer la société. link