mit dem selben trick kannst du auch Raid Controller zu HBA (oder umgekehrt) machen - also nicht alle, aber einige ;) Es gibt eine menge Geräte, wo du durch sog. Crossflashing weitere Funktionen freischalten kannst, oder sie vom cloudzwang befreist, weil die Hochpreisige Hardware ohne ist.
mal was grundsätzlich zu den Transfer Raten , 4x 3.0 PCIe Lanes sind gut für max 32 Gbit ( : 8= 4 GigaByte/sec ) , 8x Lanes = 64 Gbit = mit einer Dual Port QSFP+ mit 40 Gbit wirst du niemals 80 Gbit erreichen , womöglich heißt es deswegen oftmals 10 , 40 Ethernet ? hmm .. . Bei 3.0 NVME SSDs ist es das gleiche , da ist man auf ~ 3,5 GB / sec begrenzt mit 4 Lanes . Aber wann sind schon mal beide ports voll ausgelastet . Außerdem sollte man sichergehen das es CPU Lanes sind denn Chipsatz Lanes beim DMI 3.0 von Intel (AMD Dasselbe) sind nur mit 4 Lanes 3.0 mit der CPU verbunden , da käme dann Infiniband oder RDMA ins Spiel schätze ich mal , denn diese Techniken sollen direkt in den Arbeitsspeicher schreiben unter Umgehung der CPU . Erst mit Intels Alderlake werden die chipsatz lanes mit 4x 4.0 angebunden , bei AMD sind es die B550 und X570 chipsätze . Ich liebäugle mit dem Asus B550 Gaming E , das hat den Vorteil das es die zwei PCIe Slots ( x16 ) mit jeweils 8x4.0 anbinden kann , was mir noch nicht ganz klar ist ob auch 8x 4.0 GraKa und 8x 3.0 Qsfp+ Karte geht oder ob beide entweder 3.0 oder 4.0 sein müssen
Es verwundert mich jedes mal, was alles für dich "Neuland" ist mit 15 Jahren IT Erfahrung. Kannst du mal bitte in einem Video, deinen beruflichen Werdegang erläutern, fände ich echt super!
IT Ausbildung und dann NetApp Storage, NetApp Storage, NetApp Storage, NetApp Storage, NetApp Storage und das wars... Alles andere bringt man sich selber bei. Meine Laufbahn
@@RaspberryPiCloud könntest du dann auf deinem Channel vielleicht mal ne NetApp vorstellen? Ich habe davon schon Recht viel gehört, aber ein Hands-on wäre schon mega! :)
Kommt mir bekannt vor Ausbildung DV-Kaufmann vor 25Jahren wir fangen dann mal mit dem Akustikkopler an und T1 128kbs ist super in der Berufsschule @@RaspberryPiCloud
Hab mir während des streams gestern einfach mal schnell 2 bestellt. XD Ich habe zwar keinen 40G Switch aber ich werde meine beiden Server einfach direct connecten. Wenn da noch n Dritter dazukommt, findet der ja auch noch Platz. Ich brauche ja eh nur L3 connectivity und das ist damit ja kein Problem. Mit OSPF sollten dann ja auch ein Failover funktionieren, wenn es zu einem Link-Fallout kommt
Ja , man braucht dazu noch nicht mal nen Switch , das ginge mit einem sogenannten Breakout Kabel , das hat einem QSFP+ Anschluss auf der einen Seite und 4 mal SFP+ auf der anderen , allerdings recht teuer kostet ab 50 Euro für 5m ~ 100 Euro
kann man die karten untereinander verbinden also von pc a zu pc b ? oder muss man dazu einen switch benutzen ?und mit welchen kabeln und Anschluss wäre das machbar wenn das funktioniert?
Mit original Mellanox Kabeln gehen auch 56 GBit ethernet 😎 mit nicht Mellanox Kabeln gehen max 40 GBit ethernet. Mit der MCX353A geht das auch ist die selbe wie MCX354A nur mit einem QFSP+port. Selbst getestet mit 3 Karten.
56Gbit Ethernet aha ^^ Hoffe du weißt warum infiniband 56 kann über die gleiche Schnittstelle. Oh weil kein Overhead vorhanden ist wie bei Ethernet ....
@@niklasp.5847 "aber von Mellanox Zu mellanox (Switch oder andere Netzwerkkarte ) gehen mit einem orginalen Mellanox FDR Kabel auch 56 Gbit Ethernet" Hat bei mir leider nicht funktioniert. Die Karte schaltet sich immer zurück auf 40gbe. Egal, was ich mit ethtool mache. (Habe karte zu karte probiert...). Original Mellanox DAC oder Transciever (SR4), die sagen sie seien 4x14G (=56G)
Also dass Angebot Discord zu nutzen und sich der Community anzuschliessen kannste Dir eigentlich sparen!!! Ihr seid ein solch' Selbstverliebter Haufen dass selbst der Glööckler neidisch wird. Da stellt man ne vernünftige Frage dann wird erst mal ne viertel Stunde gelacht. Dann kommt ein Buddy hinzu der stellt seine Frage und der eigentliche Fragesteller wird gänzlich ignoriert Einfach Vollhonks
Die ganzen Chipsätze sind EOL deswegen geht es meisten auch dann. Ist wie bei den Switchen der Hersteller. Sobald diese EOL sind kommt meist noch ein Firmwareupdate der das ganze Lizenzsystem deaktiviert und man alle Funktionen zu Verfügung hat weil sich der Aufwand dann nicht mehr lohnt für die.
Man muss das nicht unter Linux machen , man kann das auch unter Windows machen als Admin in der Dos Box , man braucht dazu die MFT Tools , der Befehl heißt Flint flint --allow_psid_change -d mt4099_pci_cr0 -i "firmwaredatei".bin
Die Info hab ich gesucht. Überlege grad meine Workstation (win10pro) mit meinen Server zu verbinden und hab lange gesucht wie ich das erreichen kann :)
So , meine PCIe X8 Riser card for HP FlexibleLOM 2Port GbE 331FLR 366FLR 544FLR 561FLR ( bei E bay suchen ) sind gekommen und funktionieren wie gewünscht , auch ohne crossflashen steht schon 10/40 Gbit Ethernet da / ConnectX3 Pro , da die Karten selbst von dem Deutschen Händler Gekko Computer sind ( PCIe X8 Riser card for HP FlexibleLOM 2Port GbE 331FLR 366FLR 544FLR 561FLR ) und mit 29 Euro bzw 27,55 pro Karte wenn man 2 nimmt ( E-Bay), könnte man das als Geheimtip bezeichnen . Die Firmware auf den Karten ist recht alt , konnte mir aber eine aktuelle von HP runterladen (2.42.5700) und flashen , crossflashen mit Mellanox Firmware würde ich nicht versuchen , hat bei mir den flash speicher gelockt , ich musste ihn erst wieder mit flint ( Device ) -clear_semaphore entsperren , dann konnte ich dIe HP Firmware zurückflashen . Leider ist mein optisches QSFP+ Kabel noch nicht da , Corona läßt grüßen , die Stadt von Händler ist im Lock Down . Mit der aktuellen Firmware sehe ich in der HP Firmware keine Probleme , arbeitet mit meinem Mikrotik CSS326 zusammen ( über Qsfp+ zu SFP+ Adapter ) . Ne 40 Gbit Dual Port Karte die 27,55 kostet , der Adapter nochmal mit 15-17 Euro ~ 45 Euro = 90 Euro für 2 Karten + ggf noch kleine Fans denn die Karten brauchen einen Luftstrom sonst werden sie ziemlich heiß und die Wärmeleitpaste sollte man auch erneuern , dazu noch zwei opt QSFP+ Transceiver = 30 Euro und nochmal 30 Euro für ein 10 m optisches QSFP+ Kabel = 30 Euro , die beiden Qsfp+ zu SFP+ Adapter 50 Euro = 230 Euro zusammen und damit ich dann meine NAS Verbindung auf 40 Gbit aufgewertet . Ein neues MoBo für meinen Hauptrechner gibt es auch noch , ein B550 E Gaming das die ersten zwei PCIe slots mit je 8 Lanes 4,0 versorgen kann , nochmal 170 Euro . Bei mir wird es wohl nur ne Direktverbindung mit 40 Gbit vom Hauptrechner zum NAS geben , der 2te Port wird wohl mit 10 Gbit am Switch hängen , der CRS326 mit QSFP+ Ports lohnt für mich nicht , es juckt mir zwar in den Fingern aber noch habe ich keine Verwendung für die ganzen 10 Gbit Ports , wir war nur eine schnelle Verbindung zum NAS wichtig Der Mikrotik CSS326 kostet 150 Euro aber den hatte ich ja schon vorher , hat 24 Rj45 mit 1 Gbit und zwei 10 Gbit SFP+ Buchsen , ist passiv gekühlt = absolut lautlos
Fände ja mal ein Video für ein einfaches 10gbit Setup im Heimnetzwerk mit mehreren VLANs und einer DMZ interessant.
mit dem selben trick kannst du auch Raid Controller zu HBA (oder umgekehrt) machen - also nicht alle, aber einige ;)
Es gibt eine menge Geräte, wo du durch sog. Crossflashing weitere Funktionen freischalten kannst, oder sie vom cloudzwang befreist, weil die Hochpreisige Hardware ohne ist.
F I R M ware :-)
so ist es, nix feimwär sondern förmwär
Ach lasst mich doch alle in Ruhe.. MAMAA die Ärgern mich schon wieder.
@@RaspberryPiCloud hm, aber recht hamse schon, 's triggert mich auch jedesmal, aber is lustig
Ich denke immer, dass er VMware sagt XD Triggert nur leicht xD
mal was grundsätzlich zu den Transfer Raten , 4x 3.0 PCIe Lanes sind gut für max 32 Gbit ( : 8= 4 GigaByte/sec ) , 8x Lanes = 64 Gbit = mit einer Dual Port QSFP+ mit 40 Gbit wirst du niemals 80 Gbit erreichen , womöglich heißt es deswegen oftmals 10 , 40 Ethernet ? hmm .. . Bei 3.0 NVME SSDs ist es das gleiche , da ist man auf ~ 3,5 GB / sec begrenzt mit 4 Lanes . Aber wann sind schon mal beide ports voll ausgelastet . Außerdem sollte man sichergehen das es CPU Lanes sind denn Chipsatz Lanes beim DMI 3.0 von Intel (AMD Dasselbe) sind nur mit 4 Lanes 3.0 mit der CPU verbunden , da käme dann Infiniband oder RDMA ins Spiel schätze ich mal , denn diese Techniken sollen direkt in den Arbeitsspeicher schreiben unter Umgehung der CPU . Erst mit Intels Alderlake werden die chipsatz lanes mit 4x 4.0 angebunden , bei AMD sind es die B550 und X570 chipsätze . Ich liebäugle mit dem Asus B550 Gaming E , das hat den Vorteil das es die zwei PCIe Slots ( x16 ) mit jeweils 8x4.0 anbinden kann , was mir noch nicht ganz klar ist ob auch 8x 4.0 GraKa und 8x 3.0 Qsfp+ Karte geht oder ob beide entweder 3.0 oder 4.0 sein müssen
Das Problem ist immer, das PCI-Express 3 nur 960 Mbit pro lane hat - bei x4 also 3,9GB bei X8 7.8GB
Es verwundert mich jedes mal, was alles für dich "Neuland" ist mit 15 Jahren IT Erfahrung.
Kannst du mal bitte in einem Video, deinen beruflichen Werdegang erläutern, fände ich echt super!
IT Ausbildung und dann NetApp Storage, NetApp Storage, NetApp Storage, NetApp Storage, NetApp Storage und das wars... Alles andere bringt man sich selber bei. Meine Laufbahn
Bis du jetzt selbstständig oder noch angestellt?
Ich bin einfach ein Fachidiot.. NetApp Fachidiot... eigentlich nichts anderes gelernt.
@@RaspberryPiCloud könntest du dann auf deinem Channel vielleicht mal ne NetApp vorstellen? Ich habe davon schon Recht viel gehört, aber ein Hands-on wäre schon mega! :)
Kommt mir bekannt vor Ausbildung DV-Kaufmann vor 25Jahren wir fangen dann mal mit dem Akustikkopler an und T1 128kbs ist super in der Berufsschule @@RaspberryPiCloud
Sehr gutes Video!
Hab mir während des streams gestern einfach mal schnell 2 bestellt. XD Ich habe zwar keinen 40G Switch aber ich werde meine beiden Server einfach direct connecten. Wenn da noch n Dritter dazukommt, findet der ja auch noch Platz. Ich brauche ja eh nur L3 connectivity und das ist damit ja kein Problem. Mit OSPF sollten dann ja auch ein Failover funktionieren, wenn es zu einem Link-Fallout kommt
aber den 40GBit port kann man dann nicht noch auch auf 4x 10GBit aufsplitten wie bei manchen switches oder? 🙂 immer guter content bei dir.
Warum an direkt an der Karte, wenn nicht am Switch? Interessiert mich wirklich.
Ja , man braucht dazu noch nicht mal nen Switch , das ginge mit einem sogenannten Breakout Kabel , das hat einem QSFP+ Anschluss auf der einen Seite und 4 mal SFP+ auf der anderen , allerdings recht teuer kostet ab 50 Euro für 5m ~ 100 Euro
Was genau ist eigentlich eine "Feimware"? 😊
Funktioniert das ganze auch mit karten die eine PN: 050-0050-02 und nicht mcx354a-qcbt ?
Geht das auch mit Connect X2 karten oder erst ab X3 ?
Erst ab x3
kann man die karten untereinander verbinden also von pc a zu pc b ? oder muss man dazu einen switch benutzen ?und mit welchen kabeln und Anschluss wäre das machbar wenn das funktioniert?
Kannst so 1zu1 verbinden. Die IP Adressen musst du bei den Karten aber manuel dann zuweisen.
Mit original Mellanox Kabeln gehen auch 56 GBit ethernet 😎 mit nicht Mellanox Kabeln gehen max 40 GBit ethernet.
Mit der MCX353A geht das auch ist die selbe wie MCX354A nur mit einem QFSP+port. Selbst getestet mit 3 Karten.
56Gbit Ethernet aha ^^ Hoffe du weißt warum infiniband 56 kann über die gleiche Schnittstelle. Oh weil kein Overhead vorhanden ist wie bei Ethernet ....
56Gbit von Pc zu Pc über Fibrechannel sind damit auch Problemlos möglich aber dann braucht man logischerweise 2 Karten.. ;)
Infiniband ;) aber von Mellanox Zu mellanox (Switch oder andere Netzwerkkarte ) gehen mit einem orginalen Mellanox FDR Kabel auch 56 Gbit Ethernet
@@niklasp.5847 "aber von Mellanox Zu mellanox (Switch oder andere Netzwerkkarte ) gehen mit einem orginalen Mellanox FDR Kabel auch 56 Gbit Ethernet"
Hat bei mir leider nicht funktioniert. Die Karte schaltet sich immer zurück auf 40gbe. Egal, was ich mit ethtool mache. (Habe karte zu karte probiert...). Original Mellanox DAC oder Transciever (SR4), die sagen sie seien 4x14G (=56G)
Pass auf, net das der Nachbarkanal dir ne Pizza bestellt 🤣🤣🤣
Wir sind eher froh, wenn sich Wissen weiterverbreitet ;D
nice! hat doch wat gebracht es in den Stream zu spammen :D
Gibt es schon Speedtest?
nein
Und wie kriegst du dann die 40Gbit/s nach oben an deinem PC?
kabel ? gibt doch genug 20m glas kabel
@@hannesstefani wozu man 40gbit/s machen soll wenn keine der Festplatten die Geschwindigkeit unterstützt weiß ich auch nicht
@@m-electronics5977 NVMe unterstützen das.
@@m-electronics5977 10gbit Spränge ich dir mit kleinen zfs Storage und HDD's
@@shadowrob7709 was?
Also dass Angebot Discord zu nutzen und sich der Community anzuschliessen kannste Dir eigentlich sparen!!!
Ihr seid ein solch' Selbstverliebter Haufen dass selbst der Glööckler neidisch wird.
Da stellt man ne vernünftige Frage dann wird erst mal ne viertel Stunde gelacht.
Dann kommt ein Buddy hinzu der stellt seine Frage und der eigentliche Fragesteller wird gänzlich ignoriert
Einfach Vollhonks
Was denn hier los ? Muss aus der Situation gewesen sein.
Ist das eigentlich illegal sowas zu machen? Weil sie stellen ja die Firmware zur Verfügung aber sie wollen es ja eigentlich nicht usw.
Die ganzen Chipsätze sind EOL deswegen geht es meisten auch dann. Ist wie bei den Switchen der Hersteller. Sobald diese EOL sind kommt meist noch ein Firmwareupdate der das ganze Lizenzsystem deaktiviert und man alle Funktionen zu Verfügung hat weil sich der Aufwand dann nicht mehr lohnt für die.
@@shadowrob7709 ah ok
Man muss das nicht unter Linux machen , man kann das auch unter Windows machen als Admin in der Dos Box , man braucht dazu die MFT Tools , der Befehl heißt Flint
flint --allow_psid_change -d mt4099_pci_cr0 -i "firmwaredatei".bin
Die Info hab ich gesucht. Überlege grad meine Workstation (win10pro) mit meinen Server zu verbinden und hab lange gesucht wie ich das erreichen kann :)
Wer hätte es gedacht, dass er sich mal bei TheGeekFreaks bedankt lol
Naja, das macht man so wenn man Quer Input bezieht.
So , meine PCIe X8 Riser card for HP FlexibleLOM 2Port GbE 331FLR 366FLR 544FLR 561FLR ( bei E bay suchen ) sind gekommen und funktionieren wie gewünscht , auch ohne crossflashen steht schon 10/40 Gbit Ethernet da / ConnectX3 Pro , da die Karten selbst von dem Deutschen Händler Gekko Computer sind ( PCIe X8 Riser card for HP FlexibleLOM 2Port GbE 331FLR 366FLR 544FLR 561FLR ) und mit 29 Euro bzw 27,55 pro Karte wenn man 2 nimmt ( E-Bay), könnte man das als Geheimtip bezeichnen . Die Firmware auf den Karten ist recht alt , konnte mir aber eine aktuelle von HP runterladen (2.42.5700) und flashen , crossflashen mit Mellanox Firmware würde ich nicht versuchen , hat bei mir den flash speicher gelockt , ich musste ihn erst wieder mit flint ( Device ) -clear_semaphore entsperren , dann konnte ich dIe HP Firmware zurückflashen . Leider ist mein optisches QSFP+ Kabel noch nicht da , Corona läßt grüßen , die Stadt von Händler ist im Lock Down . Mit der aktuellen Firmware sehe ich in der HP Firmware keine Probleme , arbeitet mit meinem Mikrotik CSS326 zusammen ( über Qsfp+ zu SFP+ Adapter ) . Ne 40 Gbit Dual Port Karte die 27,55 kostet , der Adapter nochmal mit 15-17 Euro ~ 45 Euro = 90 Euro für 2 Karten + ggf noch kleine Fans denn die Karten brauchen einen Luftstrom sonst werden sie ziemlich heiß und die Wärmeleitpaste sollte man auch erneuern , dazu noch zwei opt QSFP+ Transceiver = 30 Euro und nochmal 30 Euro für ein 10 m optisches QSFP+ Kabel = 30 Euro , die beiden Qsfp+ zu SFP+ Adapter 50 Euro = 230 Euro zusammen und damit ich dann meine NAS Verbindung auf 40 Gbit aufgewertet . Ein neues MoBo für meinen Hauptrechner gibt es auch noch , ein B550 E Gaming das die ersten zwei PCIe slots mit je 8 Lanes 4,0 versorgen kann , nochmal 170 Euro .
Bei mir wird es wohl nur ne Direktverbindung mit 40 Gbit vom Hauptrechner zum NAS geben , der 2te Port wird wohl mit 10 Gbit am Switch hängen , der CRS326 mit QSFP+ Ports lohnt für mich nicht , es juckt mir zwar in den Fingern aber noch habe ich keine Verwendung für die ganzen 10 Gbit Ports , wir war nur eine schnelle Verbindung zum NAS wichtig
Der Mikrotik CSS326 kostet 150 Euro aber den hatte ich ja schon vorher , hat 24 Rj45 mit 1 Gbit und zwei 10 Gbit SFP+ Buchsen , ist passiv gekühlt = absolut lautlos