IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le projet Stargate d'OpenAI devrait consommer jusqu'à 40 % de la production mondiale de DRAM, un accord a été conclu avec Samsung et SK hynix pour un volume pouvant atteindre 900 000 plaquettes par mois

Le , par Mathis Lucas

5PARTAGES

4  0 
Une part importante de la production mondiale de mémoire est détournée par l'industrie de l'IA. Un rapport signale que Samsung et SK hynix ont signé des accords préliminaires pour fournir de la mémoire au gigantesque projet de centre de données Stargate d'OpenAI. Selon les estimations, Stargate pourrait consommer jusqu'à 900 000 plaquettes DRAM par mois, soit environ 40 % de la production totale de DRAM. La demande de l'industrie de l'IA alimente une pénurie de mémoire et fait grimper les prix des kits de RAM. Cette pénurie impacte déjà le prix des appareils électroniques grand public, y compris les ordinateurs monocartes Raspberry Pi.

Le projet Stargate a été annoncé le 22 janvier 2025 par le président Donald Trump. Selon son annonce, OpenAI, Softbank et Oracle vont investir jusqu'à 500 milliards de dollars pour créer une coentreprise appelée Stargate. Cette dernière construira l'infrastructure physique et virtuelle qui alimentera la prochaine génération d'IA, y compris des centres de données dans tout le pays. Le projet vise à permettre aux États-Unis de dominer le secteur de l'IA.

La demande mondiale en infrastructures d'IA est si importante que les experts estiment que nous aurons besoin de 38 centres de données de ce type d'ici 2030 en vue de répondre à l'utilisation prévue. Cette expansion rapide souligne une vérité plus large : l'IA n'est pas seulement une révolution logicielle, c'est aussi une révolution physique, fondée sur l'acier, le silicium et d'énormes flux d'énergie. Certains mettent toutefois en garde contre une bulle.

Stargate : une consommation de mémoire hors norme

Sur le plan du silicium, Stargate absorbe une quantité colossale de mémoire industrielle. Un rapport de Reuters indique que Samsung et SK hynix ont signé des accords préliminaires pour fournir de la mémoire à l'énorme projet de centre de données Stargate d'OpenAI. Et selon un rapport distinct de Bloomberg, au lieu de puces DRAM ou de piles HBM testées et conditionnées, Samsung et SK hynix fourniront à Stargate des « plaquettes non découpées ».


L'accord majeur conclu par OpenAI avec Samsung et SK Hynix marque un tournant dans la chaîne d'approvisionnement des puces IA. Il donne une idée des besoins importants de Stargate en mémoire du projet. Samsung et SK Hynix ont tous deux confirmé que la demande prévue d'OpenAI pourrait atteindre 900 000 plaquettes DRAM par mois, ce qui représente un volume incroyable pouvant représenter environ 40 % de la production totale de DRAM.

Pour mettre en perspective le chiffre de 900 000 plaquettes DRAM : selon TechInsights, la capacité mondiale des usines de fabrication de 300 mm devrait atteindre 10 millions de plaquettes par mois (WSPM) en 2025. La capacité DRAM, qui comprend à la fois les mémoires DDR5 et LPDDR4/LPDDR5 de base, ainsi que les mémoires HBM haut de gamme et les types de DRAM spécialisés, représentait une part de 22 % (2,07 millions de WSPM) en 2024.

La capacité DRAM pourrait augmenter de 8,7 % en 2025 pour atteindre environ 2,25 millions de WSPM, ce qui signifie que Stargate prévoit d'en consommer 40 %. L'accord comprend probablement différents types de mémoire, notamment la mémoire DDR5 standard et la mémoire HBM spécialisée pour les processeurs IA. Reste à savoir quelle entreprise découpera les plaquettes et fabriquera les puces DRAM, les piles HBM et les modules de mémoire.

OpenAI envisagerait d'autres partenariats avec Samsung

Outre l'accord d'approvisionnement en plaquettes de mémoire, les sociétés Samsung envisagent d'autres partenariats de grande envergure avec OpenAI. Samsung SDS collaborera avec OpenAI sur l'architecture et l'exploitation des centres de données Stargate en Corée du Sud. L'entreprise proposera également des services de conseil et d'intégration aux entreprises qui souhaitent intégrer les modèles d'OpenAI dans leurs systèmes internes.

Samsung SDS s'est assuré un rôle de revendeur pour les services OpenAI en Corée du Sud et prévoit d'aider les entreprises locales à adopter ChatGPT Enterprise. Ce plan permet aux entreprises d’accéder à un chatbot avancé capable de répondre à des questions complexes et de fournir des informations pertinentes.

Par ailleurs, Samsung C&T et Samsung Heavy Industries travailleront avec OpenAI pour développer des centres de données flottants qui améliorent l'efficacité du refroidissement et réduisent les émissions. Bien que la construction de ces installations reste techniquement difficile, les divisions maritimes et de construction de Samsung prévoient de tirer parti de leurs capacités d'ingénierie pour surmonter ces limites. Le projet suscite toutefois du scepticisme.

Enjeux de cette consommation de mémoire pour l’industrie

Les besoins en mémoire du mégaprojet Stargate pourraient avoir un impact majeur sur le marché mondial de la mémoire, en réduisant l’offre disponible pour d’autres secteurs comme les PC, les smartphones ou les consoles, tout en faisant monter les prix de la RAM. Des rapports récents soulignent que la demande provenant de Big Tech tels que Google et OpenAI fait exploser les prix et menace l'accessibilité financière des appareils électroniques grand public.

La hausse des prix des modules mémoire va également impacter les GPU, les consoles, la nouvelle Steam Machine de Valve, etc., et tout ce qui contient de la DRAM va devenir plus cher. L'on peut s'attendre à une hausse des prix de tous les produits contenant de la DRAM à partir de 2026. Le partenaire AIB d'AMD, PowerColor, a même récemment déclaré que c'était le moment idéal pour acheter, car les cartes graphiques seront plus chères l'année prochaine.

Dans le but de préserver ses stocks existants, Framework Computer a retiré la mémoire vive DDR de la vente en tant que produit autonome en raison de la pénurie de mémoire. « Le marché de la mémoire est dans une mauvaise passe », a écrit Framework Computer dans un message publié sur X. Framework Computer, un fabricant d'ordinateurs portables évolutifs, vendait auparavant des kits de mémoire vive DDR5 et DDR4 à travers sa boutique en ligne.

Mais la société de San Francisco a désormais suspendu la plupart de ses ventes, indiquant à la place que les produits seraient « bientôt disponibles ». « Nous n'avons pas modifié le prix de nos mémoires, mais nous avons dû retirer les mémoires autonomes de notre boutique en ligne afin de contrer les revendeurs spéculatifs et de préserver nos stocks pour les personnes qui achètent nos ordinateurs portables DIY Edition », a déclaré Framework Computer.

Samsung augmente le prix contractuel de la DDR5 de plus de 100 %

Selon les informations relayées par les médias taïwanais, Samsung aurait brusquement augmenté le prix contractuel de la DDR5 à 19,50 dollars, soit près de 20 dollars. Ce chiffre représente une augmentation de plus de 100 % par rapport au prix contractuel précédent. Selon les médias taïwanais, Samsung aurait baissé les bras et informé ses clients en aval qu'il n'y avait « plus de stock » ! Le secteur considère cette tactique comme assez impitoyable.

En effet, que les clients choisissent de conserver la spécification DDR4 ou de faire passer leurs produits à la DDR5, ils sont contraints de payer des prix inévitablement élevés. N'ayant nulle part où aller, ils se trouvent dans une situation où ils n'ont d'autre choix que d'attendre docilement leur sort. De plus, le dernier prix contractuel de la mémoire DDR4 16G, publié fin novembre 2025, a également augmenté pour atteindre 18 dollars.

Si l'augmentation du prix contractuel de la DDR5 par Samsung affecte directement les équipementiers qui achètent des puces mémoire à grande échelle, ces derniers sont susceptibles de répercuter cette hausse sur les consommateurs. Par exemple, Lenovo pourrait augmenter le prix de sa gamme d'ordinateurs portables 2026 afin de tenir compte de la dernière hausse des prix de la DDR5. Ce qui augmenterait les prix à l'achat pour les consommateurs.

Nvidia aurait cessé de fournir des puces VRAM avec ses kits GPU

Pour ceux qui ne le savent pas, Nvidia fournit des GPU et des puces VRAM à ses partenaires fabricants de cartes, qui se chargent du reste. Nvidia ne fabrique pas lui-même la VRAM ; la société s'approvisionne auprès de fournisseurs tels que Samsung, Micron et SK Hynix. Mais les trois fabricants doivent désormais répondre à une demande de plus en plus élevée provenant des acteurs de la course à l'IA. Ce qui expose le marché à une pénurie.

La demande des entreprises d'IA a aggravé la disponibilité de la mémoire au point que Nvidia ne recevrait plus suffisamment de VRAM de la part de ses fournisseurs. C'est ce que rapporte un informateur de premier plan, « Golden Pig Upgrade », selon lequel Nvidia a cessé de fournir des puces VRAM avec ses GPU.

Selon la rumeur, Nvidia a cessé d'intégrer de la mémoire vidéo à ses GPU vendus aux partenaires AIB (Add-In Board), laissant ses partenaires se procurer eux-mêmes la VRAM nécessaire. Cela ne pose pas encore de problème de problème aux grands fabricants de GPU. Cependant, pour de nombreux petits fournisseurs, les analystes estiment que s'approvisionner en puces VRAM sans disposer d'un réseau de contacts solide pourrait s'avérer très difficile.

Tout cela est déjà assez grave, mais certaines personnes y voient une lueur d'espoir. Certains commentaires suggèrent notamment : « en effet, une fois que la bulle de l'IA aura éclaté, au moins nous aurons une tonne de matériel bon marché qui inondera le marché ». La question est de savoir quand.

Selon des informations rapportées par Benchlife, Nvidia devrait réduire la production de GPU GeForce de 30 à 40 %. Ces réductions seraient liées aux pénuries touchant plusieurs types de mémoire, notamment la GDDR7, plutôt qu'à un seul composant. Nvidia se préparerait à réduire la production de ses GPU GeForce RTX 50 au début de l'année 2026, ce qui soulève des inquiétudes quant à l'approvisionnement et à la disponibilité futurs.

L'IA pollue les nappes phréatiques et rend l'eau impropre à la consommation

Ces gigantesques infrastructures énergivores ont un impact important sur leur environnement et sur les riverains. Dans certaines régions du monde, les centres de données pour l'IA polluent les nappes phréatiques, rendent l'eau impropre à la consommation et exercent une pression sur les réseaux électriques.

À Mansfield, en Géorgie, aux États-Unis, les habitants se plaignent de l'impact critique d'un centre de données de Meta sur leur environnement. Un récent rapport de la BBC relate la façon dont le quotidien de Beverly Morris, une habitante de la ville, est devenu difficile depuis l'installation du centre de données.

Depuis les travaux de construction du centre de données de Meta, la source d’eau privée de Beverly Morris est devenue trouble, chargée en sédiments, et donc impropre à...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de phil995511
Membre éprouvé https://www.developpez.com
Le 22/12/2025 à 16:53
Il faudrait réglementer le secteur de l'IA pour l’empêcher ce type d'entreprises de s'accaparer la production d'énergie ou de matériel électronique et laisser ainsi aux entreprises d'autres secteurs tout comme au particuliers suffisamment de ressources matérielles et énergétiques pour satisfaire leurs besoins.

On se moque complètement des gens du côté du prix du matériel ces derniers jours :

- Le prix des SSD SATA à doublé.

- Le prix des SSD M.2 PCI-E 5 à augmenté de 30 à 40 %.

- La RAM DDR3 pour laptop à doublé de prix.

- La RAM DDR5 pour laptop à vu son prix multiplié par 4.

- Le prix des CPU's AMD X3D utilisant de la DDR4 qui est un peu moins chère que la DDR5 ont doublés.

On n'est pas à la bourse, augmenter ainsi les prix en fonction de l'offre et de la demande est grandement immoral... ;-(
3  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 22/12/2025 à 17:40
Citation Envoyé par phil995511 Voir le message
On n'est pas à la bourse, augmenter ainsi les prix en fonction de l'offre et de la demande est grandement immoral... ;-(
Ben si, c'est comme ça que ça marche.

L’offre et la demande
Quand la demande est supérieure à l’offre, cela fait monter les prix. Mais cela ne dure qu’un temps. Les fabricants, pour répondre aux demandes des vendeurs, vont augmenter leur production, faisant alors baisser le prix qui va progressivement revenir vers son niveau d’équilibre. Cependant, l’ajustement ne se fait pas instantanément.
Par exemple au début de l'épidémie de SARS-CoV-2 la France avait commandé des masques, il y a un pays (USA) qui est arrivé sur le tarmac de l'aéroport chinois et qui a dit au vendeur "on vous rachète ces masques plus cher" et le vendeur chinois à répondu "ok".
COVID-19 : des Américains rachètent en Chine un lot de masques destinés à la France

Les centre de données demandent beaucoup de DDR5, donc il va manquer de DDR5 (surtout que des fabricants vont arrêter de vendre de la RAM à tout le monde pour se concentrer sur les centre de données), la DDR5 va couter plus cher.
Sinon il y aurait une pénurie, et la RAM serait encore plus cher.

L'entreprise se dit "si beaucoup d'acheteurs sont prêts à payer plus cher, je peux augmenter les prix".
Des composants informatique vont couter plus cher en 2026. Mais ça ne va peut-être pas durer des années et des années.
3  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 23/12/2025 à 2:54
Mais qu'est-ce qu'ils vont bien pouvoir faire de telles quantités ?
S'il proposent un service en ce moment, c'est qu'ils ont déjà des infrastructures existantes pour le faire tourner.
Ok, je peux comprendre qu'ils veuillent plus de puissance de calcul parce qu'ils prévoient des modèles plus gourmands et qu'ils espèrent que tout le monde va utiliser leur produit. Mais de là à bouffer presque la moitié de la production mondiale de RAM, j'ai du mal à comprendre.

Autre chose : si on regarde les objectifs annoncés officiellement ( https://openai.com/fr-FR/index/five-new-stargate-sites ) :
Combinés au site stratégique d’Abilene au Texas et à nos projets en cours avec CoreWeave, ces cinq nouveaux sites offrent un potentiel de presque 7 GW de capacité et représentent 400 milliards de dollars d’investissement sur les trois années à venir.
En juillet, Oracle et OpenAI ont conclu un accord pour développer jusqu’à 4,5 gigawatts de capacité supplémentaire dans le cadre du programme Stargate. Ce partenariat représente un investissement de plus de 300 milliards de dollars sur 5 ans. Les trois nouveaux sites, qui se trouvent respectivement dans le comté de Shackelford, au Texas, le comté Doña Ana, au Nouveau-Mexique, et dans le Midwest (précisions à venir)
Les deux autres sites Stargate annoncés aujourd’hui pourront atteindre 1,5 GW au cours des 18 prochaines mois
Ça fait un total de 13GW.

Si on regarde la production électrique en France ( https://www.edf.fr/groupe-edf/compre...re-en-chiffres ) :
En France, le nucléaire est la 1ère source de production et de consommation d'électricité. Elle provient de 57 réacteurs de différents niveaux de puissance constituant un parc réparti sur l'ensemble du territoire. La puissance installée du parc nucléaire en France représente 61,4 GW.
61.4 / 57 = 1.07GW par centrale nucléaire.
13 / 1.07 = 12 centrales nucléaires de plus juste pour faire tourner ChatGPT d'ici 5 ans.

En allant sur le site d'openAI j'ai vu qu'on pouvait utiliser gratuitement chatGPT.
À force de le critiquer sans l'utiliser je me suis dit que ça pourrait être pas mal de quand même y jeter un coup d’œil.
Encore une fois je suis vraiment impressionné par le fonctionnement du bouzin. C'est rapide, c'est incroyable de pertinence. Ha tiens, en plus maintenant ça inclut des sources.
Ça va au devant de mes demandes, ça anticipe mes questions, c'est vraiment incroyable. Bon ça rédige des fois un pavé pour expliquer un truc tout simple.
Je suis tellement bluffé que je me dis que ça vaut le coup de tester le truc sur un cas concret.

Allez, pour le fun je lui demande s'il peut m'expliquer comment créer un raster effect sur la NES en assembleur.
D'après les souvenirs que j'ai en tête, les explications qu'il me donne son carrément cohérentes.
Il me demande si je veux un code de démo fonctionnel.
Bah bien sûr que oui !
Il me fournit un code commenté et qui a l'air structuré.
Après un coup de copier/coller et une tentative de compilation, ça coince.
Je comprends assez vite que le code n'est pas fait pour être assemblé avec ca65.
"Comment est-ce que je peux compiler ce code sous debian ?"
Il me répond qu'il faut utiliser NESASM et me fournit la méthode d'installation : un wget sur un dépôt qui n'existe même pas : wget https ://github.com/0nn0/nesasm/archive/refs/heads/master.zip
Il se permet d'ajouter en commentaire que "NESASM est un simple exécutable Perl (nesasm.pl), donc il te faut Perl (souvent déjà installé)".

Non seulement le dépôt n'existe pas mais en plus il n'existe aucun projet NESASM en perl ni même la moindre trace d'un script s'appelant nesasm.pl sur internet : https://duckduckgo.com/?q=%22nesasm.pl%22&t=lm&ia=web
Je trouve le vrai dépôt de NESASM et tente de corriger le code assembleur non fonctionnel que ChatGPT m'a fourni. Cinq bonnes minutes plus tard, ça fonctionne pas, je laisse tomber et lui indique que je veux utiliser ca65 pour assembler (c'est la première fois que j'utilise NESASM, j'ai pas envie de me prendre la tête).
Il "comprend" de lui même qu'en complément de ca65 pour assembler, il faut utiliser ld65 pour linker, et me fournit le code et les instructions pour générer une ROM.
Ok, on y est presque, j'ai juste à corriger les déclaration de fonctions qui ne respectent pas le format attendu par ca65, à supprimer les déclarations de segments mémoires qui n'existe tout simplement pas dans une cartouche NES et à déplacer la déclaration de variable au bon endroit (oui, y'a qu'une seule valeur stockée en RAM dans tout le code donc qu'une seule variable à déclarer et même ça c'est faux).

Je prétend pas être un expert en assembleur NES. Par contre, on n'arrête pas de m'expliquer que ChatGPT est un expert en tout.
Et bien malgré l'expérience que j'ai acquise en développant un moteur de jeu NES 100% assembleur dans lequel j'ai implémenté de la gestion d'objets (de la POO en ASM :-), de la gestion de mémoire dynamique ou de la gestion de "threads" (si si), il m'a fallut presque une demi-heure (en comptant la recherche des dépôts fantôme et autres joyeusetés) pour réussir à compiler ce pauvre bout d'ASM (100 lignes avec les commentaires). Tout ça pour, au final, linker une ROM que l'émulateur MESEN refuse purement et simplement de lancer. J'ai même pas envie de perdre mon temps à savoir pourquoi.

Conclusion : je reste sur mon idée de base et je reste convaincu que les LLM sont inutilisables dans un contexte professionnel (dans le sens où c'est bien beau un produit qui fonctionne dans la plupart des cas ou qui donne l'illusion de fonctionner mais ce qu'on demande à un ordinateur, c'est justement de fonctionner dans 100% des cas puisque c'est la seule force que cet outil possède).
Je ne vois que quelques cas d'utilisation possibles des LLM :
- rechercher une information simple. Et dans ce cas je vois pas l'intérêt d'utiliser 12 centrales nucléaires alors qu'une recherche classique est aussi efficace. De toute façon, il faut effectuer cette recherche pour vérifier que le LLM n'a pas raconté de la merde
- générer des textes fictifs. Ça peut être utile pour des auteurs en manque d'imagination ou de temps. Ça peut aussi être utile pour des gens qui veulent générer massivement des contenus afin de manipuler/polluer une information.
- faire des traductions, rédiger des articles ou générer de la documentation à condition que ça soit suivit d'une relecture attentive.
À part ça, je vois pas dans quel domaine ça peut être utilisé massivement de façon fiable.

Edit : j'ai relancé une nouvelle session pour lui redemander un code de démo de raster effect en lui spécifiant dès le départ quel langage et quels outils de compilation je voulais utiliser.
Résultat : réponse complètement à côté de la plaque où il m'explique le principe de fonctionnement du Sprite 0 Hit flag qui fait bien partie des spécificité de la NES mais qui n'a clairement rien à voir avec un raster effect (c'est utilisé pour faire du scrolling en split screen).
2  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 23/12/2025 à 11:03
Citation Envoyé par phil995511 Voir le message
Il faudrait réglementer le secteur de l'IA pour l’empêcher ce type d'entreprises de s'accaparer la production d'énergie ou de matériel électronique et laisser ainsi aux entreprises d'autres secteurs tout comme au particuliers suffisamment de ressources matérielles et énergétiques pour satisfaire leurs besoins.

On se moque complètement des gens du côté du prix du matériel ces derniers jours :

...

On n'est pas à la bourse, augmenter ainsi les prix en fonction de l'offre et de la demande est grandement immoral... ;-(

Mais bien sûr que l'on est "à la bourse"!

Tout est régi par l'argent, la "moralité", il y a bien longtemps que c'est un mot qui prend la poussière dans un page de dictionnaire que plus personne n'ouvre... Ce n'est plus une "valeur"!

Même le prix d'un chou ou d'une tomate est fixé en fonction de l'offre/demande...

...

Les gens qui se plaignent de voir l'IA s'accaparer toutes les ressources de la planète n'ont qu'à réfléchir avec leur cerveau: Si ils n'utilisent pas l'IA pour tout et n'importe quoi, le marché va se réguler, les boites d'IA vont faire faillite, la pression sur les ressources baissera et Monsieur Bollomez pourra à nouveau acheter sa barrette mémoire ou sa carte graphique à un prix abordable
2  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 23/12/2025 à 11:16
Citation Envoyé par _toma_ Voir le message
...
À part ça, je vois pas dans quel domaine ça peut être utilisé massivement de façon fiable.
Ton expérience est un "chef d'oeuvre" qui explique par la pratique le mensonge et surtout l'immense succès de l'IA:

1° Tu as d'abord été bluffé: Oahhh! Extraordinaire cet IA!

2° La majorité des gens s'arrête à cet étape... Ils ne vérifient pas les résultats fournis par l'IA!

3° Le rêve, le mirage s'estompent quand tu fais l'effort de vérifier


Je te laisse deviner ce qu'il va advenir ces prochaines années de notre monde économique quand les décideurs des principales entreprises du monde décident de virer leur personnel pour les remplacer par de l'IA en s'étant arrêter à l'étape 2 de l'analyse
2  1 
Avatar de r0d
Expert éminent https://www.developpez.com
Le 24/12/2025 à 11:12
Citation Envoyé par _toma_ Voir le message
Conclusion : je reste sur mon idée de base et je reste convaincu que les LLM sont inutilisables dans un contexte professionnel (dans le sens où c'est bien beau un produit qui fonctionne dans la plupart des cas ou qui donne l'illusion de fonctionner mais ce qu'on demande à un ordinateur, c'est justement de fonctionner dans 100% des cas puisque c'est la seule force que cet outil possède).
Je suis très critique des LLMs et de la hype actuelle sur l'IA, mais je l'utilise tous les jours dans mon cadre professionnel. Comme, je pense, la majorité des développeurs aujourd'hui. Donc non, je ne suis pas d'accord avec votre assertion "les LLM sont inutilisables dans un contexte professionnel", puisque c'est un fait : nous l'utilisons.

  • Déjà, votre test concerne un domaine particulier dans lequel les LLMs sont connus pour n'être pas très bon (le dev bas niveau pour faire court). Cela s'explique par le faible quantité de sources qu'il y a à disposition sur internet. Par exemple, ils sont bien meilleurs pour générer une page web.
  • Ensuite, l'utilisation de générateurs de code ne le réduit pas aux LLMs "de base". Aujourd'hui avec l'agentique on peut faire beaucoup, beaucoup mieux qu'un simple prompt dans une fenêtre de chat.
  • Enfin, effectivement le code produit est n'est jamais totalement fiable. Tout comme le code produit par un humain. Et ces outils n'ont rien de magiques. Il s'agit d'outils, qui s'ajoutent aux autres outils que nous utilisons quotidiennement dans le cadre de notre activité professionnelle. Comme les compilateurs, les EDI, les logiciel de verisonning, etc. Il sont donc imparfaits, et il faut apprendre à les utiliser.


Je connais plusieurs personnes qui parviennent à produire du code extrêmement fiable de façon quasi intégralement automatisée. Mais il faut certes faire ça dans un cadre très contrôlé. Comme par exemple passer par des pratiques à base TDD, dans lequel l'intégralité du code généré est passé à la moulinette de tests unitaires très rigoureux (avec une boucle qui ne se termine que quand tous les tests sont passés). Ou la validation par une équipe d'assurance qualité.
1  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 22/12/2025 à 20:32
Citation Envoyé par phil995511 Voir le message
On n'est pas à la bourse, augmenter ainsi les prix en fonction de l'offre et de la demande est grandement immoral... ;-(
bah si, soit tu payes soit tu te débrouille avec ce que tu as. Tu peux garder ton matériel plus longtemps, essayer de vivre avec moins de ram sur ton pc...etc.
dans les pays pauvres les gens vivent tres bien avec des télé cathodiques, des manettes de jeux rafistoler avec des bouts de bois et des vieux composants. Soit tu arrives a augmenter tes revenus et tu payes, soit tu consommes plus/pas ou alors tu fais différemment, tu te mets au retro gaming avec un vieux pc trouvé sur leboncoin/emmaus...etc.

un vieux pc de 2014-2015 à 50-60€ max sur leboncoin suffit pour lancer un linux leger avec navigateur web et la suite only office. Un i7-i5 de la gen 4000 et une radeon 570 peut même faire tourner des jeux aaa de 2025 en 720p.
1  1 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 25/12/2025 à 20:39
r0d -> Ma réaction est à la hauteur de la propagande des différents éditeurs de LLM .

Je connais plusieurs personnes qui parviennent à produire du code extrêmement fiable de façon quasi intégralement automatisée.
On ne fait pas tourner 12 centrales nucléaires pour "plusieurs personnes".

Pour nuancer/préciser un peu mon propos, j'avais ajouté :
À part ça, je vois pas dans quel domaine ça peut être utilisé massivement de façon fiable.
Bien sûr que les LLM vont trouver quelques cas d'utilisation pertinents.
J'ai par exemple un cousin psychologue qui utilise chatGPT.
Pour préparer certains travaux, il lui indique les problématiques auxquelles il va être confronté et le type de public ciblé.
Ça lui fournit une feuille de route qu'il peut exploiter et ça lui permet de se rendre compte qu'il n'avait pas pris en compte tel ou tel paramètre ou qu'il n'a pas pensé à explorer telle ou telle piste.
Mais la vraie valeur ajoutée, elle réside dans ses 20 ans de pratique et de formation. Sans ça, le texte produit par chatGPT n'aurait aucune valeur.
Et quand chatGPT sera facturé 800€/mois, je pense pas qu'il continuera à l'utiliser .

Mais encore une fois, si openAI planifie d'utiliser 12 centrales nucléaires pour faire tourner chatGPT c'est qu'ils ne visent pas des marchés de niche peuplés d'experts comme ceux qu'on vient de citer en exemple.
Leur objectif c'est que chatGPT soit utilisé aussi fréquemment et légèrement qu'un tableur, un traitement de texte ou un navigateur internet.
Et dans ces conditions, je vois pas ce qu'on peut envisager d'autre qu'une catastrophe à grande échelle.

PS : même ceux qui ne juraient que par l'IA il y a un an ont plutôt l'air du même avis que moi :
Salesforce ou l'illusion de l'IA toute-puissante : après 4 000 licenciements, l'entreprise reconnaît avoir surestimé la maturité des agents autonomes. « Il y a un an, nous étions plus confiants dans l'IA »
0  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 27/12/2025 à 9:23
Citation Envoyé par _toma_ Voir le message
r0d
Et quand chatGPT sera facturé 800€/mois, [/url]

a ce prix la, je pense ce sera très rentable de monter un pc ia, une rtx 5090 avec 128-256go de ram. Et donc peut être que ton cousin va pas payer chatgpt mais va s'acheter un pc et faire tourner un llm locale.
on en trouve des tres bon en opensource qui peuvent rivaliser avec les modèles de ces sociétés (mais pas de magie ce sont des gros modèles que peu de monde peuvent faire tourner)

PS : même ceux qui ne juraient que par l'IA il y a un an ont plutôt l'air du même avis que moi :
Salesforce ou l'illusion de l'IA toute-puissante : après 4 000 licenciements, l'entreprise reconnaît avoir surestimé la maturité des agents autonomes. « Il y a un an, nous étions plus confiants dans l'IA »
c'est l'inverse pour moi, après des débuts sceptiques, je suis de plus en plus convaincue de cette technos. Dans mon boulot on le déploie de partous.
Es ce magique , non clairement pas, l'ia prends du temps pour être exploité et il faut avoir des connaissances en architecture logicielle. Pour obtenir quelque chose de bien il faut coder des storybook, des MCPs, de la doc en markdown, beaucoup de tests unitaire, des contextes clair et simple, ça hallucine vite si on est trop vaste de le champs.
exploratoire...etc.

C'est comme déployer un cluster EKS: ca prends du temps, c'est compliqué mais une fois l'infra fonctionnel c'est des gains en temps, en besoin de personnelle si le besoin n'augmente pas et donc en argent.
Dans ma boite on utilise l'ia dans toute la chaine de valeur et de plus en plus. Mais ca demande des compétences et cela prends du temps a être déployé et configuré correctement.
0  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 27/12/2025 à 16:39
a ce prix la, je pense ce sera très rentable de monter un pc ia, une rtx 5090 avec 128-256go de ram. Et donc peut être que ton cousin va pas payer chatgpt mais va s'acheter un pc et faire tourner un llm locale.
on en trouve des tres bon en opensource qui peuvent rivaliser avec les modèles de ces sociétés (mais pas de magie ce sont des gros modèles que peu de monde peuvent faire tourner)
Il a passé 20 ans à se former dans le domaine de la psychologie, pas en informatique .
Il est comme tout le monde : lui faire lire la phrase que tu viens d'écrire c'est comme lui faire lire un roman de science fiction.
Il est comme tout le monde : ses compétences en informatique s'arrêtent à mettre du texte en gras en ou italique dans un traitement de texte ou faire une somme dans un tableur.

c'est l'inverse pour moi, après des débuts sceptiques, je suis de plus en plus convaincue de cette technos. Dans mon boulot on le déploie de partous.
Tu fais parties des marchés de niche. Tu maîtrises l'outil informatique, tu as conscience des limites des LLM.
0  0