IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La pénurie de RAM n'épargne personne : la bulle de l'IA accapare désormais la mémoire après avoir provoqué la hausse de la consommation d'eau et d'énergie des centres de données,
Malgré l'absence de profits

Le , par Mathis Lucas

41PARTAGES

10  0 
La bulle de l'IA plonge l'industrie technologique dans une pénurie de modules mémoire. La production mondiale est détournée pour répondre aux besoins des centres de données. Conséquence : les prix de certains kits de RAM ont plus que triplé en seulement trois mois. Certains intégrateurs de systèmes se dépêchent de constituer des stocks et AMD envisage déjà d'augmenter les prix de ses cartes graphiques. Samsung peine à assurer son propre approvisionnement, tandis que Micron, un acteur majeur du secteur, se retire des mémoires grand public. Cette pénurie impacte déjà le prix des appareils électroniques grand public, y compris les cartes Raspberry Pi.

Le marché de la mémoire est confronté à une pénurie importante, les prix contractuels de décembre 2025 pour les principales catégories de DRAM ayant augmenté de 80 à 100 %, selon Gerry Chen, PDG de Team Group. Il a décrit cette hausse des prix comme le début d'un cycle haussier de plusieurs années pour la RAM et a averti que l'impact le plus sévère se fera sentir au premier semestre 2026, une fois que les distributeurs auront épuisé leurs stocks.

La cause profonde de la pénurie est un changement dans la demande, une grande partie de la capacité de l'industrie étant désormais concentrée sur la mémoire à bande passante élevée utilisée dans les accélérateurs d'IA. Cela réduit la production de plaquettes disponibles pour les DRAM et les NAND 3D courantes. La mise en place d'une nouvelle capacité importante prend des années. Un soulagement notable n'est pas envisageable avant fin 2027 ou 2028.

Après 30 ans, Micron Technology vient d'annoncer qu'il se retire du marché des mémoires grand public. Micron supprime ainsi complètement la marque Crucial, composé de modules de RAM et de périphériques de stockage, ce qui signifie qu'il y aura un fabricant de mémoire grand public de moins. À l'avenir, Micron se concentrera sur la fourniture de composants aux acteurs de la bulle IA, ce qui aggrave la pénurie de RAM et augmente davantage les prix.


Jeff Geerling, ingénieur logiciel, a rapporté : « l'inflation des prix de la mémoire touche tout le monde, et si vous n'êtes pas encore concerné, attendez un peu. Le mois dernier, j'ai assemblé un nouveau PC à partir de composants que j'avais achetés plus tôt dans l'année. Le kit de mémoire T-Create DDR5 de 64 gigaoctets que j'ai utilisé coûtait alors 209 dollars. Aujourd'hui ? Le même kit coûte 650 dollars ». (Le prix de ce kit a plus que triplé en un mois.)

La RAM DDR5 de 64 Go coûte désormais plus cher qu'une console PlayStation 5. Elle ne coûtait que 190 $ il y a quelques mois. Son prix a explosé pour atteindre plus de 700 $, ce qui est assez alarmant. Cela signifie que tous ceux qui souhaitaient mettre à niveau leur système ont raté le coche en matière de prix avantageux de la RAM DDR5, mais aussi que l'avenir de la construction et de la mise à niveau des systèmes PC va être beaucoup plus coûteux.

Impact de la hausse des prix de la RAM sur les fabricants de systèmes

Samsung, qui est également un fabricant de mémoires vives, peine à s'assurer un approvisionnement substantiel pour ses propres smartphones. Une grande part de la production des grands fabricants de RAM est détournée pour les accélérateurs d'IA. Pendant ce temps, les petits fournisseurs tels que Libre Computer et Mono voient les prix de la RAM doubler, tripler, voire pire, et ils n'achètent même pas la dernière technologie en matière de mémoire.

Il est impossible de survivre en vendant des produits à perte. Par conséquent, une fois que les stocks de mémoires actuels seront vendus, soit les prix augmenteront, soit certaines gammes de produits seront en rupture de stock. Certaines entreprises impactées ont annoncé avoir pris des mesures.

« Les fabricants de PC sont impuissants face à la pénurie de mémoire », selon une source de la chaîne d'approvisionnement qui affirme que les nouveaux produits grand public seront beaucoup plus chers. Libre Computer, un fabricant d'ordinateurs monocartes, a déclaré récemment qu'un seul kit de mémoire LPDDR4 de 4 gigaoctets coûte 35 dollars. C'est beaucoup plus cher que tous les autres composants de l'un de leurs ordinateurs monocartes réunis.

Plus l'entreprise est petite, plus l'impact sur les prix sera important. Même Raspberry Pi, qui dispose probablement d'une marge un peu plus importante, a déjà augmenté les prix de ses ordinateurs monocartes (SBC). L'entreprise a également lancé un Pi 5 de 1 Go, ce qui pourrait être une bonne excuse pour les développeurs d'abandonner les frameworks JavaScript et de reprogrammer pour « des besoins en mémoire moins importants ».

Et cela ne concerne pas seulement le marché de la RAM. Il y a aussi les GPU, les consoles, la nouvelle Steam Machine de Valve... tout ce qui contient de la DRAM va devenir plus cher. L'on peut s'attendre à une hausse des prix de tous les produits contenant de la DRAM à partir de 2026. Le partenaire AIB d'AMD, PowerColor, a même récemment déclaré que c'était le moment idéal pour acheter, car les cartes graphiques seront plus chères l'année prochaine.

Nvidia aurait cessé de fournir des puces VRAM avec ses kits GPU

Pour ceux qui ne le savent pas, Nvidia fournit des GPU et des puces VRAM à ses partenaires fabricants de cartes, qui se chargent du reste. Nvidia ne fabrique pas lui-même la VRAM ; la société s'approvisionne auprès de fournisseurs tels que Samsung, Micron et SK Hynix. Mais les trois fabricants doivent désormais répondre à une demande de plus en plus élevée provenant des acteurs de la course à l'IA. Ce qui expose le marché à une pénurie.


La demande des entreprises d'IA a aggravé la disponibilité de la mémoire au point que Nvidia ne recevrait plus suffisamment de VRAM de la part de ses fournisseurs. C'est ce que rapporte un informateur de premier plan, « Golden Pig Upgrade », selon lequel Nvidia a cessé de fournir des puces VRAM avec ses GPU.

Selon la rumeur, Nvidia a cessé d'intégrer de la mémoire vidéo à ses GPU vendus aux partenaires AIB (Add-In Board), laissant ses partenaires se procurer eux-mêmes la VRAM nécessaire. Cela ne pose pas encore de problème de problème aux grands fabricants de GPU. Cependant, pour de nombreux petits fournisseurs, les analystes estiment que s'approvisionner en puces VRAM sans disposer d'un réseau de contacts solide pourrait s'avérer très difficile.

Tout cela est déjà assez grave, mais certaines personnes y voient une lueur d'espoir. Certains commentaires suggèrent notamment : « en effet, une fois que la bulle de l'IA aura éclaté, au moins nous aurons une tonne de matériel bon marché qui inondera le marché ». La question est de savoir quand.

L'IA expose les consommateurs à un risque de flambée des prix

Selon certains observateurs du marché, les coûts des DDR5 et des SSD ont, en moyenne, augmenté de deux à trois fois. Pour l'ensemble des DRAM, l'augmentation est de 171,8 % par rapport à l'année précédente. Les fournisseurs de services cloud s'assurent des allocations pour 2026 et 2027, ce qui réduit drastiquement l'offre disponible pour les appareils grand public et courants. Les experts mettent en garde contre les risques liés à ce détournement.

« La hausse des prix de la RAM va poser un réel problème », avertit le PDG d'Epic Games, Tim Sweeney. Cette situation risque d'entraîner une baisse significative des expéditions de mémoires dans les segments sensibles aux coûts, tels que les PC grand public, les ordinateurs portables et les Chromebooks.

En effet, si les fournisseurs souhaitent obtenir des allocations pour les produits électroniques grand public, ils devront payer beaucoup plus cher afin de respecter les prix contractuels. Et même si les finances permettent d'acheter des mémoires plus « coûteuses », les fabricants de DRAM, tels que les géants Samsung et SK Hynix, donnent la priorité à la « rentabilité », ce qui signifie que la majeure partie de la production est consacrée à l'industrie de l'IA.

Selon les experts, les joueurs devraient s'attendre à une hausse des prix de 20 %, qui concernerait les GPU de nouvelle génération pour les trimestres à venir. Les prochains appareils basés sur les APU « Panther Lake » d'Intel ou Gorgon Point d'AMD seront certainement nettement plus chers que leurs prédécesseurs, car des fabricants comme Acer et Lenovo ne disposent pas de stocks suffisants de mémoires vives pour maintenir la structure de prix actuelle.

Il est intéressant de noter que la perspective d'une augmentation de la production de DRAM s'accompagne également de complications. Samsung et SK hynix prennent également en compte le risque de surproduction dans le cas où la production augmenterait considérablement, ce qui signifie que l'industrie connaîtrait probablement une longue période de pénurie d'approvisionnement en RAM. Selon certaines estimations, elle pourrait durer une décennie.

Les rendements des projets d'IA sont inférieurs aux attentes

Jusqu'à présent, les investisseurs ne voient pas l'adoption de l'IA se traduire par une amélioration de la rentabilité ou de la croissance. Selon un sondage réalisé auprès de cadres supérieurs par le cabinet de conseil Deloitte et le Centre for AI, Management and Organisation de l'université de Hong Kong, 45 % ont déclaré que les initiatives en matière d'IA avaient généré des rendements inférieurs à leurs attentes. L'IA peine toujours à tenir ses promesses.


Selon le rapport, seuls 10 % des répondants ont déclaré que leurs attentes avaient été dépassées. Une étude réalisée par McKinsey, un autre cabinet de conseil, a révélé que pour la plupart des organisations, l'utilisation de l'IA n'avait pas encore eu d'impact significatif sur les bénéfices à l'échelle de l'entreprise.

Dans le même temps, les recherches en économie montrent qu'à court terme au moins, l'introduction de l'IA dans les processus peut réduire la productivité de manière inattendue. Les efforts visant à reconfigurer les systèmes informatiques et les flux de travail peuvent temporairement réduire l'efficacité, avant qu'elle ne remonte en flèche, un phénomène qu'Erik Brynjolfsson, de l'université de Stanford, a appelé « la courbe en J de la productivité ».

Certains se demandent s'il existe un autre problème spécifique à l'IA. Un article rédigé par Yvonne Chen, de l'université ShanghaiTech, et ses collègues fait référence au « piège de la médiocrité de l'IA générative ». Grâce à l'IA, les gens peuvent produire quelque chose de « suffisamment bon ». Cela aide les travailleurs les moins performants. Mais l'article conclut que cela peut nuire à la productivité des meilleurs, qui décident alors de travailler moins dur.

D'ici 2030, les Big Tech dépenseront 5 000 milliards de dollars en infrastructures pour fournir des services d'IA. Pour que ces investissements soient rentables, JP Morgan estime qu'elles auront besoin d'environ 650 milliards de dollars par an de revenus liés à l'IA, contre environ 50 milliards de dollars par an aujourd'hui. Les particuliers n'achèteront probablement qu'une fraction de ce qui est finalement nécessaire. Les entreprises doivent faire le reste.

Hausse des prix de la RAM : une autre raison de détester l'IA ?

La vague...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 06/12/2025 à 11:06
La pénurie de RAM n’épargne personne : la bulle de l’IA accapare désormais la mémoire après avoir provoqué la hausse de la consommation d’eau et d’énergie des centres de données
Et tout cela pour au final, créer des fakes news et des images porno avec des modèles virtuelles à gros seins...

L'IA nous annonce vraiment un avenir radieux pour notre civilisation
4  0 
Avatar de phil995511
Membre éprouvé https://www.developpez.com
Le 22/12/2025 à 16:53
Il faudrait réglementer le secteur de l'IA pour l’empêcher ce type d'entreprises de s'accaparer la production d'énergie ou de matériel électronique et laisser ainsi aux entreprises d'autres secteurs tout comme au particuliers suffisamment de ressources matérielles et énergétiques pour satisfaire leurs besoins.

On se moque complètement des gens du côté du prix du matériel ces derniers jours :

- Le prix des SSD SATA à doublé.

- Le prix des SSD M.2 PCI-E 5 à augmenté de 30 à 40 %.

- La RAM DDR3 pour laptop à doublé de prix.

- La RAM DDR5 pour laptop à vu son prix multiplié par 4.

- Le prix des CPU's AMD X3D utilisant de la DDR4 qui est un peu moins chère que la DDR5 ont doublés.

On n'est pas à la bourse, augmenter ainsi les prix en fonction de l'offre et de la demande est grandement immoral... ;-(
3  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 22/12/2025 à 17:40
Citation Envoyé par phil995511 Voir le message
On n'est pas à la bourse, augmenter ainsi les prix en fonction de l'offre et de la demande est grandement immoral... ;-(
Ben si, c'est comme ça que ça marche.

L’offre et la demande
Quand la demande est supérieure à l’offre, cela fait monter les prix. Mais cela ne dure qu’un temps. Les fabricants, pour répondre aux demandes des vendeurs, vont augmenter leur production, faisant alors baisser le prix qui va progressivement revenir vers son niveau d’équilibre. Cependant, l’ajustement ne se fait pas instantanément.
Par exemple au début de l'épidémie de SARS-CoV-2 la France avait commandé des masques, il y a un pays (USA) qui est arrivé sur le tarmac de l'aéroport chinois et qui a dit au vendeur "on vous rachète ces masques plus cher" et le vendeur chinois à répondu "ok".
COVID-19 : des Américains rachètent en Chine un lot de masques destinés à la France

Les centre de données demandent beaucoup de DDR5, donc il va manquer de DDR5 (surtout que des fabricants vont arrêter de vendre de la RAM à tout le monde pour se concentrer sur les centre de données), la DDR5 va couter plus cher.
Sinon il y aurait une pénurie, et la RAM serait encore plus cher.

L'entreprise se dit "si beaucoup d'acheteurs sont prêts à payer plus cher, je peux augmenter les prix".
Des composants informatique vont couter plus cher en 2026. Mais ça ne va peut-être pas durer des années et des années.
3  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 23/12/2025 à 2:54
Mais qu'est-ce qu'ils vont bien pouvoir faire de telles quantités ?
S'il proposent un service en ce moment, c'est qu'ils ont déjà des infrastructures existantes pour le faire tourner.
Ok, je peux comprendre qu'ils veuillent plus de puissance de calcul parce qu'ils prévoient des modèles plus gourmands et qu'ils espèrent que tout le monde va utiliser leur produit. Mais de là à bouffer presque la moitié de la production mondiale de RAM, j'ai du mal à comprendre.

Autre chose : si on regarde les objectifs annoncés officiellement ( https://openai.com/fr-FR/index/five-new-stargate-sites ) :
Combinés au site stratégique d’Abilene au Texas et à nos projets en cours avec CoreWeave, ces cinq nouveaux sites offrent un potentiel de presque 7 GW de capacité et représentent 400 milliards de dollars d’investissement sur les trois années à venir.
En juillet, Oracle et OpenAI ont conclu un accord pour développer jusqu’à 4,5 gigawatts de capacité supplémentaire dans le cadre du programme Stargate. Ce partenariat représente un investissement de plus de 300 milliards de dollars sur 5 ans. Les trois nouveaux sites, qui se trouvent respectivement dans le comté de Shackelford, au Texas, le comté Doña Ana, au Nouveau-Mexique, et dans le Midwest (précisions à venir)
Les deux autres sites Stargate annoncés aujourd’hui pourront atteindre 1,5 GW au cours des 18 prochaines mois
Ça fait un total de 13GW.

Si on regarde la production électrique en France ( https://www.edf.fr/groupe-edf/compre...re-en-chiffres ) :
En France, le nucléaire est la 1ère source de production et de consommation d'électricité. Elle provient de 57 réacteurs de différents niveaux de puissance constituant un parc réparti sur l'ensemble du territoire. La puissance installée du parc nucléaire en France représente 61,4 GW.
61.4 / 57 = 1.07GW par centrale nucléaire.
13 / 1.07 = 12 centrales nucléaires de plus juste pour faire tourner ChatGPT d'ici 5 ans.

En allant sur le site d'openAI j'ai vu qu'on pouvait utiliser gratuitement chatGPT.
À force de le critiquer sans l'utiliser je me suis dit que ça pourrait être pas mal de quand même y jeter un coup d’œil.
Encore une fois je suis vraiment impressionné par le fonctionnement du bouzin. C'est rapide, c'est incroyable de pertinence. Ha tiens, en plus maintenant ça inclut des sources.
Ça va au devant de mes demandes, ça anticipe mes questions, c'est vraiment incroyable. Bon ça rédige des fois un pavé pour expliquer un truc tout simple.
Je suis tellement bluffé que je me dis que ça vaut le coup de tester le truc sur un cas concret.

Allez, pour le fun je lui demande s'il peut m'expliquer comment créer un raster effect sur la NES en assembleur.
D'après les souvenirs que j'ai en tête, les explications qu'il me donne son carrément cohérentes.
Il me demande si je veux un code de démo fonctionnel.
Bah bien sûr que oui !
Il me fournit un code commenté et qui a l'air structuré.
Après un coup de copier/coller et une tentative de compilation, ça coince.
Je comprends assez vite que le code n'est pas fait pour être assemblé avec ca65.
"Comment est-ce que je peux compiler ce code sous debian ?"
Il me répond qu'il faut utiliser NESASM et me fournit la méthode d'installation : un wget sur un dépôt qui n'existe même pas : wget https ://github.com/0nn0/nesasm/archive/refs/heads/master.zip
Il se permet d'ajouter en commentaire que "NESASM est un simple exécutable Perl (nesasm.pl), donc il te faut Perl (souvent déjà installé)".

Non seulement le dépôt n'existe pas mais en plus il n'existe aucun projet NESASM en perl ni même la moindre trace d'un script s'appelant nesasm.pl sur internet : https://duckduckgo.com/?q=%22nesasm.pl%22&t=lm&ia=web
Je trouve le vrai dépôt de NESASM et tente de corriger le code assembleur non fonctionnel que ChatGPT m'a fourni. Cinq bonnes minutes plus tard, ça fonctionne pas, je laisse tomber et lui indique que je veux utiliser ca65 pour assembler (c'est la première fois que j'utilise NESASM, j'ai pas envie de me prendre la tête).
Il "comprend" de lui même qu'en complément de ca65 pour assembler, il faut utiliser ld65 pour linker, et me fournit le code et les instructions pour générer une ROM.
Ok, on y est presque, j'ai juste à corriger les déclaration de fonctions qui ne respectent pas le format attendu par ca65, à supprimer les déclarations de segments mémoires qui n'existe tout simplement pas dans une cartouche NES et à déplacer la déclaration de variable au bon endroit (oui, y'a qu'une seule valeur stockée en RAM dans tout le code donc qu'une seule variable à déclarer et même ça c'est faux).

Je prétend pas être un expert en assembleur NES. Par contre, on n'arrête pas de m'expliquer que ChatGPT est un expert en tout.
Et bien malgré l'expérience que j'ai acquise en développant un moteur de jeu NES 100% assembleur dans lequel j'ai implémenté de la gestion d'objets (de la POO en ASM :-), de la gestion de mémoire dynamique ou de la gestion de "threads" (si si), il m'a fallut presque une demi-heure (en comptant la recherche des dépôts fantôme et autres joyeusetés) pour réussir à compiler ce pauvre bout d'ASM (100 lignes avec les commentaires). Tout ça pour, au final, linker une ROM que l'émulateur MESEN refuse purement et simplement de lancer. J'ai même pas envie de perdre mon temps à savoir pourquoi.

Conclusion : je reste sur mon idée de base et je reste convaincu que les LLM sont inutilisables dans un contexte professionnel (dans le sens où c'est bien beau un produit qui fonctionne dans la plupart des cas ou qui donne l'illusion de fonctionner mais ce qu'on demande à un ordinateur, c'est justement de fonctionner dans 100% des cas puisque c'est la seule force que cet outil possède).
Je ne vois que quelques cas d'utilisation possibles des LLM :
- rechercher une information simple. Et dans ce cas je vois pas l'intérêt d'utiliser 12 centrales nucléaires alors qu'une recherche classique est aussi efficace. De toute façon, il faut effectuer cette recherche pour vérifier que le LLM n'a pas raconté de la merde
- générer des textes fictifs. Ça peut être utile pour des auteurs en manque d'imagination ou de temps. Ça peut aussi être utile pour des gens qui veulent générer massivement des contenus afin de manipuler/polluer une information.
- faire des traductions, rédiger des articles ou générer de la documentation à condition que ça soit suivit d'une relecture attentive.
À part ça, je vois pas dans quel domaine ça peut être utilisé massivement de façon fiable.

Edit : j'ai relancé une nouvelle session pour lui redemander un code de démo de raster effect en lui spécifiant dès le départ quel langage et quels outils de compilation je voulais utiliser.
Résultat : réponse complètement à côté de la plaque où il m'explique le principe de fonctionnement du Sprite 0 Hit flag qui fait bien partie des spécificité de la NES mais qui n'a clairement rien à voir avec un raster effect (c'est utilisé pour faire du scrolling en split screen).
2  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 16/12/2025 à 17:28
Pour les pros, je ne sais pas. Mais pour les particuliers, vive linux ! Car Ô magie de l'orient il est très peu consommateur en mémoire comparativement à Windows qui, pour d'autres raisons, requiert dans 50% des cas une nouvelle machine, ou même, je pense Mac OS X.
1  0 
Avatar de smarties
Expert confirmé https://www.developpez.com
Le 17/12/2025 à 8:54
J'ai mis mon ancien PC à ma femme il y a quelques années (sous Linux Mint), Intel i5 avec 16Gb de RAM DDR3, il tourne très bien... je me suis aperçu hier qu'il avait plus de 12 ans. J'avais rajouté un disque dur pour du stockage et une carte graphique plus récente. Le PC est toujours fluide malgré son age... par contre le SSD est aussi vieux et je devrais regarder à l'occasion son état

J'ai jamais compris en entreprise le besoin de changer tous les 3 ans environs (pourquoi changer quand ils sont amortis ?) les PC alors qu'ils fonctionnent encore. Ils ont souvent besoin d'un nettoyage voire d'une réinstallation mais rarement d'être changé. Quand je m'occupait de l'informatique d'une PME où j'ai travaillé, les PC n'étaient pas de dernière génération mais je les avait rajeunis avec un SSD et une carte graphique pour faire du double écran.
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 18/12/2025 à 8:00
Citation Envoyé par Jade Emy Voir le message
Quel est votre avis sur le sujet ?
J'imagine que ça va produire une sorte de pénurie et donc faire augmenter le prix des cartes graphiques.
C'est comme du temps du minage des cryptomonnaies.
Les grosses entreprises qui font de l'IA (Google, Méta, Microsoft, etc) disent qu'elles se préoccupent de l'environnement et si ça se trouve ce n'est même pas vrai ! Les plus grosses multinationales me déçoivent.

======
À propos des centres de données pour l'IA :
Quand ils ont créé une bulle spéculative massive, je n'ai rien dis.
Quand ils ont consommé une quantité astronomique d'eau, je n'ai rien dis.
Quand ils ont consommé toute l'énergie disponible, je n'ai rien dis.
Quand ils ont fait augmenter le prix de la RAM, là j'ai commencé à me sentir un peu concerné.
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 23/12/2025 à 11:03
Citation Envoyé par phil995511 Voir le message
Il faudrait réglementer le secteur de l'IA pour l’empêcher ce type d'entreprises de s'accaparer la production d'énergie ou de matériel électronique et laisser ainsi aux entreprises d'autres secteurs tout comme au particuliers suffisamment de ressources matérielles et énergétiques pour satisfaire leurs besoins.

On se moque complètement des gens du côté du prix du matériel ces derniers jours :

...

On n'est pas à la bourse, augmenter ainsi les prix en fonction de l'offre et de la demande est grandement immoral... ;-(

Mais bien sûr que l'on est "à la bourse"!

Tout est régi par l'argent, la "moralité", il y a bien longtemps que c'est un mot qui prend la poussière dans un page de dictionnaire que plus personne n'ouvre... Ce n'est plus une "valeur"!

Même le prix d'un chou ou d'une tomate est fixé en fonction de l'offre/demande...

...

Les gens qui se plaignent de voir l'IA s'accaparer toutes les ressources de la planète n'ont qu'à réfléchir avec leur cerveau: Si ils n'utilisent pas l'IA pour tout et n'importe quoi, le marché va se réguler, les boites d'IA vont faire faillite, la pression sur les ressources baissera et Monsieur Bollomez pourra à nouveau acheter sa barrette mémoire ou sa carte graphique à un prix abordable
2  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 23/12/2025 à 11:16
Citation Envoyé par _toma_ Voir le message
...
À part ça, je vois pas dans quel domaine ça peut être utilisé massivement de façon fiable.
Ton expérience est un "chef d'oeuvre" qui explique par la pratique le mensonge et surtout l'immense succès de l'IA:

1° Tu as d'abord été bluffé: Oahhh! Extraordinaire cet IA!

2° La majorité des gens s'arrête à cet étape... Ils ne vérifient pas les résultats fournis par l'IA!

3° Le rêve, le mirage s'estompent quand tu fais l'effort de vérifier


Je te laisse deviner ce qu'il va advenir ces prochaines années de notre monde économique quand les décideurs des principales entreprises du monde décident de virer leur personnel pour les remplacer par de l'IA en s'étant arrêter à l'étape 2 de l'analyse
2  1 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 05/12/2025 à 13:56
Citation Envoyé par Ryu2000 Voir le message
En plus il y aura eu de l'optimisation donc le système consommera moins de ressource.
pas forcément, une optimisation peut être l’opportunité d'ajouter des fonctionnalités/améliorer la qualité des modèles, sans consommer moins, voir même un peu plus.

Si tu regarde par exemple l’évolution des cpu/gpu, malgré l'optimisation la conso augmente chaque année.
On est très loin de l'époque du Intel 4004 (tdp 1w) et du nvidia NV1 (tdp 3w), on pourrait suivre une logique similaire avec les ia, optimisation/amélioration mais consommation de ressource qui augmente.

si tu arrive a me faire un modèle d'ia qui n’hallucine quasi plus et arrive à résoudre des problèmes complexe, même si il consomme 10 fois plus, je suis sur qu'il y'aura quand même un marché (ce sera pas la formule gratuite).
Peut etre que dans le futur on va tendre vers des modèles plus qualitatif (pour les entreprises) mais encore plus gourmand.
1  1