NVIDIA a fait une ERREUR ?
Vložit
- čas přidán 5. 08. 2024
- Les RTX 4090 fondent !
Le nouveau connecteur 12V HPWR commence déjà à montrer ses faiblesses avec de plus en plus de cas de connecteurs fondus.
Une erreur dans le choix du connecteur serait-elle à l'origine du problème ?
○○○○○○ Réseaux sociaux ○○○○○○
Twitter : / goodwin_yt
uTip : www.utip.io/goodwin
Discord : / discord
○○○○○○ Ce que j'utilise le plus ! ○○○○○○
Bureau : • Fini la souffrance !
Caméra thermique : • Armor 9T : Même l'iPho...
Tournevis électrique : • Tournevis Électrique I...
Imprimante Artillery Sidewinder X1 : artillery3dexpert.fr/products...
Wanhao D12 : www.wanhaofrance.com/products...
Station à air chaud : amzn.to/3c3P6nq
Fer à souder : amzn.to/3c9bWdS
Email : goodwin8407@gmail.com
Et non, je ne propose pas de service de réparation !
Enfin si tu aimes la vidéo laisse un like et abonne toi ! - Věda a technologie
Et voilà la conclusion (plutôt concluante) sur cette histoire : czcams.com/video/ig2px7ofKhQ/video.html
J’allais le commenter mais tu as été plus rapide! ^^
Oui, déjà vue
salut je voulais savoir je vais recevoir une 4070 ti on t il les meme probleme svp?
ha c'est bon j'ai eu la reponse a ma question en fin de video merci bcp
Vidéo d'utilité publique, merci pour cet exposé claire et édifiant.
AMD n'a pas adopté cette technologie et c'est tant mieux. Je suis curieux de voir comment Nvidia va traiter le problème vu le si peu de considération que l'entreprise manifeste envers ses clients et ses partenaires. Très bonne vidéo 👍.
En regardant la vidéo jusqu'au bout, il est dit que Nvidia demande le retour des CG concernées (à ma connaissance et aux dernières nouvelles, cela concernait 9 cas au total). Et les personnes concernées verraient leur CG remplacée, de ce que j'ai pu lire sur Reddit.
Par contre, je suis d'accord pour dire qu'AMD a bien fait de ne pas adopter cette norme pour l'alimentation de ses CG.
@@greymantle6949 Sauf que les gens présent sur redit c'est une sacré minorité , d'une déjà très petite minorité de gens capable de mettre 2000€ dans une seule carte graphique , et quand ces 4090 finissent dans des entreprises tu peux être sur que tu n'entendras jamais parler des soucis vu que sa repart direct au distributeur voir au fournisseur en cas de soucis donc la en gros tu as seulement la partie publique des gens qui ont acheté des 4090 et qui en plus partagent leur vie sur reddit soit une encore plus petite minorité
Mais sérieux, tu te dis la mêmes pour t 'on litre de carburant, d'huile de tournesol t'on kilo de pâtes ou de tomate t' on m² de flotte et même si tu le pays tu ne peux en jouir comme bon te semble, enfin tout ce qui est "vital" pour le bon fonctionnement d' un corps organique. Et la les mecs avec leur toutes petites ridicule coui**** vont dires aux grosses bi*** qu'il font de la m***** mais lol les gars vous avec rien comprit, là nous sommes dans la tech hardware donc au antipode de l'organique là ou le vivant est subsidiaire la ou la big data prévaux la ou 0.1% de + ou - te fait perdre ou gagniez, infecter ou pas, devant ou derrière... Ne soyez pas sot la Tech c 'est la tech avec des volumes des cou de R&D de productions exorbitant qui ce traduit par chère. L'avis d'un(anus) ou d'un groupe(>1anus+1) de personnes motiver par le biais de x ou y choses enfin choses ou carotte et quand ces gens ou ce groupes d' anus ce prennent la carotte dans le fondement et bien ils ce mettes à faires et dires n'importe quoi à n'importe qui en sommes à foutres le bordelle et je me demande au nom de quoi. Ah ces troles, au sans figuré mais aussi au sens propres enfin propre de gros dégueulasse. PEACE
@@MrBisous34090 appart les riches
vue toute la censure qu'il y a de la part d'Nvidia quand on denonce les choses sur internet...
Vraiment bien joué d'avoir intégré toutes les sources des docs technique en plus des explications.
Belle vidéo d'intérêt général.
Bonne continuation et merci d'avoir mis les points sur les i.
Excellent.
Comme d’habitude, clair, net, précis, technique et documenté.
👍
Super explications. Très claires, bonne articulation, je me suis abonné! 👍
Petite video totalement concrete, claire, et factuelle.
Je me permettrai de rajouter ceci, nous avons x pins pour le 12V et x pins pour le 0V qui sont en fait en parralele d'un coté sur l'alim et de l'autre sur la carte graphique. Il vaut toujours mieux un gros cable unique d'alimentation via un connecteur que x cables plus petits. Soit, dans la theorie, avec moins de 1% de marge chaque pin va pouvoir passer sans soucis la puissnce et le courant. Mais cela c'est en effet la theorie. Il suffit qu'une pin voit sa resistance de contact legerement augmenter pour qu'automatiquement le courant sur les autres pins augmente vu que le courant sur cette pin va baisser, et par avalanche, de 1 pin qui varie, passe a deux par echauffement et apres c'est depassement de toutes les marges de securité, le connecteur fond car les connecteurs restants sont sollicités au dela de leur capacité...
Ce connecteur est en effet une heresie qui pousse au crime les cartes... Ca fonctionne sur le papier, mais pas en realité ou c'st le feu assuré a court, moyen ou long terme...
En tout cas merci pour cette explication claire et precise. Super video.
Ta vidéo tourne partout ! GG pour ton travail 👍
Excellente video ! Avis technique parfait ! bien vu le ptit tour dans les fiches pdf de chez Molex👌
Un grand merci pour tes explications claires et passionnantes 👍👏
Je vais rester avec ma 3090 quelques temps... 😃
une super vidéo de vulgarisation bravo. pour infos la norme anti incendie des connecteur est le UL. très bon travail :)
Très bien résumé! Bravo!!!
Super vidéo merci pour tout ce travail
Excellente vidéo, c'est de loin la plus claire traitant le sujet.
5:00 si je me trompe sur les connecteurs 8 pins seuls 3 sont utilisés pour le 12V, ce qui ne fait "que" 27A par connecteur faut vérifier aussi l'ampérage total admissible qui n'est pas forcement la somme. Mais ça ne change pas trop l'analyse.
J'ai eu un 295X2 avec seulement 2 connecteurs 8pins pour 550W et ils ont cramés une paire de fois sur du calcul 24/24
Merci beaucoup pour ta vidéo et surtout pour les explications 👏👏👏👏
Très intéressant, merci pour le partage 👍
Encore une fois excellente vidéo 👍
j'ai enfin compris où était le problème de ce nouveau connecteur. Merci pour la vulgarisation !
bravo pour les recherches, c'est très bien expliqué
Merci pour l'analyse et ces explications. 👍
A+✌️
grave interessant, merci de nous partager ça
Excellent vidéo comme d'habitude tu nous régal 💪😂
Mille mercis pour cette explication tres claire!
Vidéo très détails j'adore!
il faudrait envoyé cette vidéo à nvidia ^^
Très bonne vidéo d'ailleurs, super bien expliqué 👍
excellente vidéo avec enfin un vraie analyse du problème !
Merci pour ces excellentes explications !
Très bonne analyse. Claire et précise au delà du brouhaha ambiant.
Merci
Vidéo au top, merci !
Super video ! comme d'habitude
Merci de m'avoir élclairé sur le sujet.
Merci. Et apparemment il semblerait que la puissance tirée sur chacun des 4 câbles ne soit pas équitablement répartie, si c'est le cas on n'est pas à la limite, on la dépasse..
Oui, d’où l’intérêt d’avoir de la marge…
@@GOODWIN_YT La seule marge que Nvidia essaie de garder la plus safe possible, c'est la marge de bénéfices
@@GOODWIN_YT sauf que la marge est deja dans le connecteur, un connecteur certifie a 8.5A est prevu pour en encaisser legerement plus, y compris en pic. De meme qu'il est annonce pour 30 cycles de branchement. Au 31ieme il ne sera pas mort la plupart du temps.
Aussi la répartition de courant n'est jamais parfaite pour les 6 pins. J'ai vu des diagrammes sur Reddit où on voit un pin qui est arc-bouté et qui produit une résistance faible.
Gamersnexus a fait une vidéo sur ça. Apparemment on peut faire passer tout le courant sur seulement 2 pins sans surchauffe. Il a coupé les autres pour essayer de rcecréer le probleme.
Au final le probleme vient du fait que l'utilisateur n'a pas inséré correctement (à fond) le cable ET qu'il est tiré d'un côté créant une connection faible sur un pin et donc resistance et surchauffe rapide.
Salut, une explication au top :)
Bien expliqué (rare, pour être précisé/remercié)...!
tu explique grave bien les choses merci pour cette vidéo incroyable
Très belle vidéo très bien expliqué
Merci pour cette explication très claire
Super vidéo et super t-shirt 😅
Très didactique et clair/merci !
merci beaucoup d’avoir éclairer notre lanterne.
respect pour ton taf.
Vidéo très très intéressante !
Merci pour l'analyse
Meilleure vidéo que j'ai vue sur le sujet. Et j'en ai vu qq unes, y compris en anglais...
bonne analyse😁
Très bonnes explications !
Sachant que le courant électrique est un grand fainéant et passe au plus facile et sur l'extérieur du câble électrique. Donc les conducteurs étant plus petits, il y a chauffe anormale des câbles.
Donc en fait, Nvidia a poussé jusqu'à la limite sur tous les paramètres : la taille, la conso, le prix... et l'ampérage ! En tout cas, merci pour cette vidéo super détaillée. C'est vraiment la vidéo parfaite pour que les gens puissent tout comprendre. 😉
Superbe vidéo de vulgarisation 👍
un grand merci pour les info
Tu me fais rêver avec toutes ses cartes graphiques derrière x)
Excellente analyse! Par contre je parlerai plus de risque d'incendie plutôt que de chance 😉
Nvidia le sait certainnement bien , peut etre qu'ils pensaient pourvoir gagner en finesse de gravure et donc réduction des courants et que par la suite cette finesse de gravue n'est pas arrivée à temps du coup ils se sont dit '' de toutes facon c'est un risque qui concerne une minorité de nos produits donc ce n'est pas aussi grave que ca '' exactement comme tu l'as expliquer . bonne vidéo comme d'hab BONNE CONTINUATION ca fait toujours plaisir de voir vos vidéos .
je ne pense pas car ils auraient juste a mettre un deuxième 12 pin sur leurs cg
Pour te corriger la finesse de gravure à bel et bien évoluée on est passé de 8nm à 4nm. A la base Nvidia ne pensait pas pouvoir la réduire et sans ça la 4090 aurait consommé 600 watt, c'est pourquoi tous les radatieurs sont sur dimensionné.
l'explication pour moi et que tout commes les testeurs youtubers nvidia a choisi la simplicité et font tout sur un test bench sauf que ca n'est pas un vrai pc fermé ou les températures et contraintes sont complètement différentes et ce sont les vrais acheteurs qui en font les frais le jour ou ils essaient de fermer un vrai pc avec un boitier
ça concerne aussi une minorité de personnes. à part quelques CZcamsurs qui ont reçu une 4090 pour en faire la promo, qui dépenserait plus de 2000 euros juste dans la carte graphique de son PC ?! on se demande même si toute cette histoire n'a pas été faite exprès. si ce n'est pas une carte graphique juste pour collectionneurs avec l'anecdote qui va bien et qu'on pourra raconter plus tard à nos enfants. un peu comme le bug du Pentium en son temps. dans le milieu du retro, la version buggué se deal aujourd'hui plus cher que la non buggué car plus rare. par contre tu ne pouvais pas allumer ta clope avec ^^
@@Ben-if9ic Ce sont les connecteurs d'alim trop fins et trop peu nombreux qui posent problème, pas la carte elle-même. Ca n'a donc strictement rien à voir avec la finesse de la gravure...
Très bonne vidéo 👍👍, déjà à l'époque avec les séries 30 il y avait des câbles qui flambaient avec un peu d’OC. Sérieux qui est l'ingénieur qui a eu l'idée de mettre une multiprise à cet endroit. C'est comme brancher 3 x chauffages électriques sur une multiprise. Je pensais qu'avec l'arrivée de cette nouvelle série 40 ils seraient repartis en sens inverse, et bein non, ils ont encore ajouté un câble de plus pour arriver à 4, et là c'est évidemment la goutte qui fait déborder le vase. Ça se voit à l'œil nu que ça ne peut pas être fiable de cette manière. Il est clair que répartir 3 ou 4 connecteurs sur le PCB c'est bien mieux, plutôt que tout assembler au même endroit. Les 4 connecteurs sur le PCB à l'ancienne n'auraient pas dérangé, de plus cela aurait fait moins de prises, et des ennuis en moins aussi. Le mieux c'est, une prise sur l'alim et une prise sur la carte et rien d'autre entre deux, en l'occurrence pour 600 Watts 4 prises sur l'alim et 4 prises sur le PCB de la carte, et surtout ne pas rétrécir les cosses comme ils ont fait, et/ou ajouter du cheni de multiprise entre deux. Quand j'ai vu leur super connecteur juste avant la sortie de la carte avec 4 files qui pendaient, j'étais déjà mort de rire. En plus il est fait pour être utilisé que 30X. On revient en arrière. Pourvu qu’AMD ne fasse pas les mêmes erreurs. Merci pour le partage, j'étais sûr que ces infos allaient arriver sur la toile.
D'autres informations entrent en jeu.
1er, le partage du courant n'est jamais égalitaire. Certaines pins ont plus de courants que d'autres.
2ème, le courant maximum dépend de la température du connecteur. Plus le connecteur est chaud, plus le courant maximum est faible.
3ème, le courant maximum / pin dépend du nombre de contacts qui servent à passer ce courant. Plus il y a de pins, plus le courant maximum/ pin est bas.
Tous ces éléments sont bien connus des ingénieurs en électricité.
Ta vidéo est bien faite. Bravo et merci.
Absolument excellent !
Très bonne vidéo
Belle vidéo explicative, mais je pense aussi que comme déjà indiqué sur le net c'est aussi l'adaptateur Nvidia qui pose problème, les "fiches" de celui-ci ont deux fentes alors que ceux d'autres marques ont qu'une fente d'après ce que j'ai pu comprendre et voir, ce qui inséré serre ainsi moins les pins et peut prendre donc du jeu. A mon avis trop d'ampères pour cette connectique, mais aussi un problème de conception de l'adaptateur Nvidia, l'un + l'autre => donne un risque accru de mauvais contact, donc d’échauffement et de fonte.
Excellent merci beaucoup 👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍
Salut Goodwin, merci pour cette vidéo très bien expliquée et instructive. J'ai une rtx3080 et 3 rallonges de câbles gainés de 8 pins chacun de marque Silvertone, pour l'esthétique. Ma question est est ce qu'il y a un risque de fonte de connecteur ou du cable sachant que ce sont des rallonges gainées ?
Merci.
Sympa cette vid's 📈
J'adore tes vidéos
Hop, abonné :)
Pour la conclusion, on peut la bloquer en conso aussi, comme avec les derniers gros cpu, nvidia et amd poussent leurs puces au max en sortie d'usine, limiter les watts fait beaucoup chuter la conso, pour une faible perte de performance.
cc kikou super encore cette vidéo tip top ;-)
Serait ce possible que la carte teste la resistance sur chacune des broches au démarrage et au cas ou les valeurs ne sont pas acceptables ne démarre pas (ou bien perfs bridées avec une LED rouge qui s'allume sur le PCB pour indiquer que quelque chose ne va pas) ?
Gggoodwin
Merci!
Good job ! 😉 👍
Très bonne vidéo, je trouve juste qu'il manque une petite musique de fond.
@GOODWIN petite erreur dans la vidéo à 5:00, sur le PCI 8 Pin c'est comme un 6 pin (3 + , 3 -) mais avec 2 masse en + donc + de courant sur le positif, d'ailleurs sur un vielle alim j'ai déjà bricolé ou mise à la masse des 2 pins supplémentaire pour alimenté un port 8 pin avec un 6 pin (le rail supportait).
bonjour goodwin , j'aurais une question qui n'a rien a voir avec ta vidéo ou je pose ma question ! est- il possible de changer les connectiques de branchement d'un écran 19" avec un branchement vga par une carte controleur avec un port hdmi et/ou dv-i ? merci pour tes vidéos , elles sont au top ;)
J'ai toujours penser que le connecteur pci-e "classique" avais eu une ou deux "maj" de ces spécifications depuis ces 10 dernières années, sur les alimentations, pour justement supporter les nouvelles carte graphique. Car vu le connecteur, sa ce voyais qu'il pouvais faire passer plus que 150w.
En revanche, je suis toujours étonner du choix de ce nouveau connecteur, limite il aurais été logique de le mettre sur les petites carte graphiques pour soigner le design du pc, mais il apportais rien de plus.
C'est même pire, c'est potentiellement plus "susceptible", vu qu'au début il y a de forte chance qu'on utilise un adaptateur pci-e, le temps que les fabricants d'alimentation le déploie.
Merci pour cette vidéo informative, y'a-t-il du nouveau en 2023 concernant cette connectique ? J'ai une alim 1kW mais elle n'arrive pas avec des connecteurs PCI-E à 12 pin ... Les nouveaux modèles sont ils plus safe aujourd'hui, sont ils aussi directement délivrés avec le GPU ?
Il y aura certainement des 2x 12 pin dans les prochains models de RTX haut de gamme.
Hello ! , j'ai trouver ta vidéo très instructive, c'est très pertinent ce que tu dit, j'ai une RTX 4090 suprim x de chez MSI et jusqu'ici pas de problème, tes confrère américain comme gamernexus et autre on tenter de reproduire te le problème mais n'on pour l'instant pas réussi certain allant même jusqu'à passer plus de 1000w de puissance dans l'adaptateur de nvidia, j'attends la suite et espère que nvidia va faire le nécessaire, perso j'aurais conçu un connecteur plus gros... merci pour ta vidéo
MSI c'est les meilleures versions . J'ai toujours ma GTX 970 et ma carte mère MSI depuis 2014 tout fonctionne nickel
@@08Brams Collègue : une GTX980 Gaming de chez MSI qui fait encore le taf pour ce que je fais avec mon PC. Même dans des jeux pas trop vieux, elle n'a pas à rougir de ses performances.
Excellente vidéo comme d'habitude. Le problème numéro 1 pour moi ce n'est pas le connecteur mais la consommation, on marche littéralement sur la tête et on va droit dans le mur, au delà de 300W ce devrait être tout simplement interdit, en tout cas pour le marché grand public..
Nos fours consomment plus de 800W, micro-ondes aussi, et je ne parle meme pas des machines à laver + seche linge ect. Je vois pas pourquoi on n'aurais pas le droit d'utiliser un pc avec 500 watt voir 800 watt de conso, sachant que les alims sont ultra sécurisées
oui je suis d'accord avec vous
@@Julien-hu4cc Parce que le four ou le micro-onde ont ne l'utilise pas 8 à 12h par jours dans certains cas le week-end ou bien 2 à 3h en continu chaque soir de la semaine peut être 🤔. Et puis à penser comme ça d'ici deux ans Nvidia nous sortira une carte consommant 800w de manière tout à fait normal et cela ne choquera pas ces super clients 🤡🤡
@@On-en-a-Gros Et de la même manière on utilise pas la capacité max de son GPU en permanence, sauf si on joue 8h par jour avec un OC énervé...mais qd on atteint ce point là on a d'autres problèmes dans la vie😁. Par ailleurs, le grand public n'en a rien a foutre des 3090/4090, c'est "overkill" et de toute façon hors de prix.
Après sur le principe je ne suis pas fondamentalement en désaccord sur le fait que ça consomme trop - est ce que c'est bien nécessaire? est ce que la faute ne revient pas aussi à des questions d'optimisation de soft/jeux dans cette surenchère?
Bref, on verra si la prochaine génération se vendra bien ou pas et si les constructeurs en tireront les conséquences.
@@SirPsychoSexy1664 Exactement merci
450W.. ça fait beaucoup la non !? Quitte a sortir une nouvelle gen de CG et alims, autant passer direct sur du 24V pour doubler la marge de sécu. Alors oué ça ferai chier niveau retro compatibilité mais quand on est prêt à craquer 2000€ dans une CG on peut se permettre l'alim qui va avec ^^
Vue la consommation alimentation obligatoire déjà donc le 24v semble évident, vue les puissances sur les broches dut rapide on une pointe de puissance sur un temps ex: une prise de courant tu peux consommer 20A sur 2h 16A 6h etc si tu dépasse il y a un risque important de brûler la prise.
@@kevsuriton 24 ou 12v l'épaisseur et identique si au delà de 24v sa devient inutile et dangereux.
L'avantage d'augmenter et qu'on peut diminuer la section demandée donc au contraire sa peut amélioré l'espace.
@@kevsuritonce qui compte c'est l'intensité qui passe dans le câble qui va déterminer son échauffement, et comme P=U.I pour la même puissance si tu doubles le voltage, tu divises par deux l'intensité. C'est pour ça qu'on a des lignes hautes tension qui font pas 3m de diamètre ^^
@@kevsuriton alors ok mais avant d'arriver aux puces, ça passe par des réducteurs et lisseurs de tension, là ils seraient juste un peut plus gros sur la partie de la carte qui s'en occupe, et en amont de ça en doublant le voltage on divise par deux le courant et donc pistes plus petites et plus proches au contraire ;)
intéressant merci
Il faut aussi ajouter que le plastique utilisé pour les connecteurs est auto-extinguible c'est à dire qu'il contient des agents chimiques qui vont éteindre la flamme en cas d'apparition de celle-ci .
Sans oublier que les 30xx/40xx sont aussi réputées pour avoir des pics de conso qui peuvent dépasser la conso "officielle".
Un rapide pic de quelques centaines de watts, ce qui fait qu'en usage intensif, on dépasse vite la limite des 8,5A sans même avoir overclocké quoi que ce soit.
D'après les tests et témoignages, c'est surtout une mauvaise utilisation (la fameuse pliure dont tu parles) qui entraîne la fonte de celui-ci, d'ailleurs une mauvaise soudure interne n'aiderai pas également, après certain CZcamsurs ont essayés de reproduire le phénomène sans jamais y arrivé, donc dans l'idée le mieux est d'attendre les alimentations avec la connectique ou câble mod proposerai également un adaptateur de meilleur qualité affaire à suivre !
oui et il ne faut pas oublié aussi que certain "ingénieur" pour économisé de cout de fabrication réduise la quantité de cuivre dans les cables/connecteurs et ça aussi sa joue un role très important sur la résistance a la tension ...
Une petite pensée pour les gars qui ont crâmé le livret A pour voir fondre le connecteur.
*Décidément, c'est pas le prix qui fait la qualité !*
Merci pour ces infos importantes...
Pour moi ça fait des dizaines d'années qu'on aurait du arrêter avec ces connecteurs type (molex). Plastique à gogo qui est impossible à enfiler ou retirer sans prendre le risque d'abimer quelque chose. Des prises types SAE ou CA (embouts d'alimentations de pc portable) sont déjà bien répandues, bien plus efficaces et surtout plus facile à brancher. Et les standards d'alimentations à 12v, on pourrait en parler aussi, avec du 24v ou 48v et une gestion propriétaire des puissances sur la carte, jamais on aurait eu ce genre de problèmes. (l'industrie du cinéma Phantom 48v doit bien rigoler de nous là)
Bref, merci pour la recherche, super vidéo !
🧠Top , très explicite et compréhensible de toute cette malheureuse décision codécidé avec le PCI SIG et NVIDIA.
Je suis content de me contenter d'une NVIDIA 3080 Ti Mais assemblée par ASUS.
Vu la tournure des évènement ses dernières années d'ici 5 à 10 ans quand je choisirai une nouvelle carte graphique,
je prendrai une AMD ASUS car ses 2 marques de concert ne m'on jamais déçu.🖥
Oui ces connecteurs sont clairement idiots. Les anciens ne gênent pas du tout en tailles. Bonne vidéo, tu as tout décortiqué
Beaucoup de ces connecteurs fondus sont trouvés sur les modèles des AIBs. Je suis curieux de savoir si c'est arrivé sur les FE sachant que le bios des FE peut se sortir à 600w sans flash ce qui n'est pas le cas de beaucoup de modèles des AIBs (attention je ne parle pas de ceux qui flashent un custom bios). Après il y a aussi la qualité de fabrication qui a mon avis n'est pas la même que sur les FE.
d'après toute les vidéo que j'ai vu aucun n'est arrivé aux FE cela est surement du au fait que les marque tiers donnent justement la mauvaise connectique qui est limité a 5 ampère
après ce n'est qu'une supposition
Il me semble que le problème ne vient pas du connecteur mais de la manière dont il est adapté. En le pliant, on peut casser la soudure d'un des 4 câbles, ce qui reporte la puissance sur les autres câbles, les faisant chauffer..
Salut, super bien ta video.
Mais je crois que tu as fait une petite erreure, et je suis probablement pas le seul a te le remonter.
Mais je crois bien que sur le connecteur 8pin, il y a cinq masse et trois 12V, donc je crois qu'il faudrait divisé par 3 pour avoir la puissance max par pin. Enfin bon c'est du pinaillage, ta vidéo est super bien.
le choix du connecteur n'est pas trop une erreur, l'erreur c'est le cable fourni par nvidia. Tout ceux qui ont des soucis sont ceux qui ont gardé celui d'origine si la marque de la carte ne l'a pas changé.
😂
Avant de créer un nouveau connecteur il devrait le tester pendant au moins 6 mois ou plus avant de le valider pour voir si il y a aucun problème avec il valide un peu trop vite le matériel je trouve
Si je ne me trompe, les 8pin (qui sont des 6+2 en faite) ont 3 files 12v et 5 neutres et non 4+4
Avec la marge de sécurité du conectrir standard, il peuvent peut être consommer un peu + que la norme
Très bonne vidéo, sinon les câbles 2x8pin PCI des alimentations c’est 2x150w ? Sur les gros GPU c’était déjà pas conseillé d’utiliser des dédoubleur PCI alors aujourd’hui ça doit l’être encore moins…
Sur mon ancienne rx 580 Avec un connecteur 6 pins je passait les 220w sans aucun probleme 😉
@@thibs8801 je vois donc même si les constructeurs ne doivent pas dépasser les 150w bah dans les faits c’est rarement respecté
@@leotavernier2838 comme expliqué dans la vidéo chaque pin peut prendre 9A soit 108W, donc la marge est très large
Tu pense que ce serais possible de refaire la dimension du connecteur soit même et l'embout du câble ? A l'imprimante 3D + chercher les cos sur bangood etc
Tu peux bien sûr le refaire, et sur ali t'as toute l'électronique nécessaire.
je jure que tu est le frère de Trouble Fait !
Clair. Net. Précis. Merci.
d autre testeur de matos on remarque les câbles des connecteurs, etait donner pour 150 volts pour ceux qui on cramé, alor que pour ceux qui n on pas crame, il avais des câble donner pour 300 volt ...
Attention, sur le connecteur 8 broches la puissance ne passe que sur 3 paires de broches, les 2 autres broches ne sont que des masses qui servent de détrompeur pour les distinguer des versions 6 broches (données elles pour 75W seulement). Ca donne donc 4.17A qui circulent et non 3.12A. Ceci dit ça ne change rien au raisonnement 👍
Merci Goodwin pour tes vidéos, qui sont pertinentes et pleines de pédagogie (arrivent à expliquer des choses techniques de manière compréhensible et intéressante) !
16A = 3680w en 230v
Alternatif ou continu ne change rien si tu prends la tension efficace.
En revanche 600w en 12v c’est 50A, le max pour le connecteur 12v hpwr !
@@GOODWIN_YT la ou je comprends pas pourquoi ne pas alimente en 24v sa réduit l'amperage et donc une marge supplémentaire au delà de 24v il y a un risque humain.
@@geraldgege377 plus tu abaisses une tension, plus les composants chauffe, donc c'est plus simple de passer de 12 à 5/3.3 et moins qu'a partir de 24V
@@narkosloin2460 oui mais les composants sont plus cher aussi mais vue les ampères demande le passage du 24v semble être la solution la plus simple pour rendre fiable les températures sont très facile à gérer le coût des composants sont plus élevés est encore vue que sa crame les gpu
@@geraldgege377 en électricité la règle et simple comme le dit GOODWIN ci dessus P= UI la puissance P est égalé au voltage U multiplié par l'intensité I en ampère alors que l'on augmente le voltage au détriment de l’ampérage ne changera rien à la sorti ça sera 600W 😆