PCI Express 5.0 déjà annoncé pour 2019
Le débit doublé par rapport à PCIe 4.0, qui devrait sortir cette année

Le , par dourouc05, Responsable Qt
À peine quelques mois après l’annonce de la fin des travaux sur PCI Express 4.0, voici donc les premières communications sur la version 5.0 du protocole et du bus… dont la version finale est attendue pour 2019 (alors qu’on attend l’arrivée sur le marché de PCIe 4.0 pour la fin 2017) ! Ainsi, la version 4.0 aura eu énormément de retard (deux ans) et ne vivra pas très longtemps. Elle se montrera cependant très utile à de nombreuses applications industrielles (PCI SIG, le groupe de normalisation derrière PCIe, compte pas moins de sept cent cinquante membres), pour lesquelles PCIe 3.0 est une limite — et PCIe 4.0 le sera déjà dans certains cas.



Le retard de PCIe 3.0 peut s’expliquer par une certaine stagnation des besoins : cette version était très adaptée aux besoins de 2010 et des années qui ont suivi. Ce n’est que depuis 2015 que l’on commence à vraiment en sentir les limites : la bande passante disponible n’est plus suffisante. En effet, l’apprentissage profond nécessite de faire transiter de grandes quantités de données vers le processeur graphique ; les SSD sont de plus en plus connectés au processeur par le bus PCIe (grâce au protocole NVMe) au lieu de SATA, ils consomment donc des lignes supplémentaires ; aussi, le réseau est de plus en plus sollicité avec des applications. De nouvelles applications se développent, comme les cartes graphiques externes, qui seront également connectées en PCIe.

PCIe 4.0 est très proche de l’utilisation réelle. Des contrôleurs existent déjà, des cartes d’extension sont d’ores et déjà prévues pour la nouvelle norme : une mise à jour logicielle devrait suffire (à moins d’un changement important de la couche physique qui interviendrait d’ici à la publication définitive de la norme PCIe 4.0).

La nouvelle version doublera à nouveau les débits, pour atteindre les quatre gigaoctets par seconde et par ligne. Ainsi, pour une carte réseau Ethernet à quatre cents gigabits par seconde, les seize lignes pourront fournir un débit maximum suffisant qui ne bridera pas la carte réseau.

Les produits compatibles ne tarderont pas à venir sur le marché : PCIe 4.0 devrait utiliser une fréquence de bus de trente-deux gigahertz, bon nombre de fabricants peuvent déjà fonctionner à vingt-huit gigahertz. La révision 0.3 de la norme est maintenant disponible, la 0.5 devrait faire ses premiers pas à la fin de l’année.

Source : Hot Chips 2017: We’ll See PCIe 4.0 This Year, PCIe 5.0 In 2019.


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse

Avatar de RyzenOC RyzenOC - Membre expert https://www.developpez.com
le 31/08/2017 à 9:05
Du coup pourquoi sortir du pci4 cette année alors que pci5 sortira dans 1-2ans ?

Pour le grand publique inutile d'attendre puisque nos GPU exploite même pas complètement le pci3.

Quand est il de la latence ? qui me semble quand même aussi voir plus important que les débits .
Avatar de LittleWhite LittleWhite - Responsable 2D/3D/Jeux https://www.developpez.com
le 31/08/2017 à 9:22
Pour le grand publique inutile d'attendre puisque nos GPU exploite même pas complètement le pci3.
Comment l'avez vous déterminé/su ? Moi, j'ai toujours entendu dire que le principal bottleneck des jeux vidéo (et donc des GPU) sont les transferts CPU <-> GPU. D'ailleurs, je pense qu'une solution à cela a été de faire de la mémoire unifiée (partagées entre le CPU et le GPU) sur les consoles.
Avatar de RyzenOC RyzenOC - Membre expert https://www.developpez.com
le 31/08/2017 à 9:28
Citation Envoyé par LittleWhite Voir le message
Comment l'avez vous déterminé/su ? Moi, j'ai toujours entendu dire que le principal bottleneck des jeux vidéo (et donc des GPU) sont les transferts CPU <-> GPU. D'ailleurs, je pense qu'une solution à cela a été de faire de la mémoire unifiée (partagées entre le CPU et le GPU) sur les consoles.
Vous confondez débit et latence !
d'ou ma remarque à la fin :
Quand est il de la latence ? qui me semble quand même aussi voir plus important que les débits .
a la limite les débits peuvent vous intéresser si vous avez sur crossfire avec des cartes amd (qui passe par le pci).
Pour Nvidia ils ont déja leurs propre techo, leurs cordon sli et pour les pro il y'a le NvLink

amd ne fait plus leurs propre réseau haute vitesse ou de cordon crossfire il me semble dans leurs dernnier gpu

Comment l'avez vous déterminé/su ? Moi, j'ai toujours entendu dire que le principal bottleneck des jeux vidéo (et donc des GPU) sont les transferts CPU <-> GPU. D'ailleurs, je pense qu'une solution à cela a été de faire de la mémoire unifiée (partagées entre le CPU et le GPU) sur les consoles.
Pour prouver l'absurdité de votre remarque comparer les bench avec des gpu sur du pci2 et 3.
http://www.tomshardware.co.uk/answer...4698/pcie.html
J'insiste bien que je parle d'une utilisation grand publique !!!
Avatar de Jipété Jipété - Expert éminent https://www.developpez.com
le 31/08/2017 à 9:35
Citation Envoyé par RyzenOC Voir le message
Quand est il de la latence ? qui me semble quand même aussi voir plus important que les débits .
Vous confondez débit et latence !
d'ouù ma remarque à la fin :
Oui mais comme c'est totalement incompréhensible (quel charabia ! Oser exposer ça à la face du monde, faut pas avoir honte, hein !), on peut facilement se gourrer à l'interprétation...

Reprenons, pour nos lecteurs étrangers :
Qu'en est-il de la latence, qui me semble quand même aussi, voire plus, importante que les débits ?

Et pour rester dans le sujet, c'est quoi cette unité "GT" qu'on voit sur l'image ? Par exemple, 2,5 GT/s ? 2,5 Giga-quoi par seconde ?
Avatar de Cyäegha Cyäegha - Membre régulier https://www.developpez.com
le 31/08/2017 à 10:40
Citation Envoyé par Jipété Voir le message
Et pour rester dans le sujet, c'est quoi cette unité "GT" qu'on voit sur l'image ? Par exemple, 2,5 GT/s ? 2,5 Giga-quoi par seconde ?
Ce sont des "giga-transfers per second".
Avatar de LittleWhite LittleWhite - Responsable 2D/3D/Jeux https://www.developpez.com
le 22/09/2017 à 10:52
Citation Envoyé par RyzenOC Voir le message
Pour prouver l'absurdité de votre remarque comparer les bench avec des gpu sur du pci2 et 3.
http://www.tomshardware.co.uk/answer...4698/pcie.html
J'insiste bien que je parle d'une utilisation grand publique !!!
Je ne suis pas certain que cela prouve quoi que ce soit, sachant que les développeurs de jeux vidéo vont évidemment éviter ce bottleneck (et donc (re)charger au minimum les données CPU -> GPU). Il faudrait donc un bench spécifique (chargement d'une texture, de modèles et upload sur le GPU) pour vraiment constater le problème (ou pour vraiment dire que mes propos sont absurdes). Ou encore, prendre un jeu ayant des modèles dont la géométrie varie (les animations peuvent aussi être effectuées par le GPU pour diminuer les transferts).
Contacter le responsable de la rubrique Hardware