Mellanox ConnectX Crossflashing - From 10Gbit to 40Gbit with 0$.

Sdílet
Vložit
  • čas přidán 6. 09. 2024

Komentáře • 55

  • @heidi849
    @heidi849 Před 2 lety +3

    Fände ja mal ein Video für ein einfaches 10gbit Setup im Heimnetzwerk mit mehreren VLANs und einer DMZ interessant.

  • @ronydzcp
    @ronydzcp Před 2 lety +3

    mit dem selben trick kannst du auch Raid Controller zu HBA (oder umgekehrt) machen - also nicht alle, aber einige ;)
    Es gibt eine menge Geräte, wo du durch sog. Crossflashing weitere Funktionen freischalten kannst, oder sie vom cloudzwang befreist, weil die Hochpreisige Hardware ohne ist.

  • @webalizer_yt
    @webalizer_yt Před 2 lety +10

    F I R M ware :-)

    • @remoschramm
      @remoschramm Před 2 lety +1

      so ist es, nix feimwär sondern förmwär

    • @RaspberryPiCloud
      @RaspberryPiCloud  Před 2 lety +6

      Ach lasst mich doch alle in Ruhe.. MAMAA die Ärgern mich schon wieder.

    • @xxxJinGejxxx
      @xxxJinGejxxx Před 2 lety

      @@RaspberryPiCloud hm, aber recht hamse schon, 's triggert mich auch jedesmal, aber is lustig

    • @LampJustin
      @LampJustin Před 2 lety

      Ich denke immer, dass er VMware sagt XD Triggert nur leicht xD

  • @MK-xc9to
    @MK-xc9to Před 2 lety +2

    mal was grundsätzlich zu den Transfer Raten , 4x 3.0 PCIe Lanes sind gut für max 32 Gbit ( : 8= 4 GigaByte/sec ) , 8x Lanes = 64 Gbit = mit einer Dual Port QSFP+ mit 40 Gbit wirst du niemals 80 Gbit erreichen , womöglich heißt es deswegen oftmals 10 , 40 Ethernet ? hmm .. . Bei 3.0 NVME SSDs ist es das gleiche , da ist man auf ~ 3,5 GB / sec begrenzt mit 4 Lanes . Aber wann sind schon mal beide ports voll ausgelastet . Außerdem sollte man sichergehen das es CPU Lanes sind denn Chipsatz Lanes beim DMI 3.0 von Intel (AMD Dasselbe) sind nur mit 4 Lanes 3.0 mit der CPU verbunden , da käme dann Infiniband oder RDMA ins Spiel schätze ich mal , denn diese Techniken sollen direkt in den Arbeitsspeicher schreiben unter Umgehung der CPU . Erst mit Intels Alderlake werden die chipsatz lanes mit 4x 4.0 angebunden , bei AMD sind es die B550 und X570 chipsätze . Ich liebäugle mit dem Asus B550 Gaming E , das hat den Vorteil das es die zwei PCIe Slots ( x16 ) mit jeweils 8x4.0 anbinden kann , was mir noch nicht ganz klar ist ob auch 8x 4.0 GraKa und 8x 3.0 Qsfp+ Karte geht oder ob beide entweder 3.0 oder 4.0 sein müssen

  • @manbu7849
    @manbu7849 Před měsícem

    Das Problem ist immer, das PCI-Express 3 nur 960 Mbit pro lane hat - bei x4 also 3,9GB bei X8 7.8GB

  • @Jergeric
    @Jergeric Před 2 lety +5

    Es verwundert mich jedes mal, was alles für dich "Neuland" ist mit 15 Jahren IT Erfahrung.
    Kannst du mal bitte in einem Video, deinen beruflichen Werdegang erläutern, fände ich echt super!

    • @RaspberryPiCloud
      @RaspberryPiCloud  Před 2 lety +3

      IT Ausbildung und dann NetApp Storage, NetApp Storage, NetApp Storage, NetApp Storage, NetApp Storage und das wars... Alles andere bringt man sich selber bei. Meine Laufbahn

    • @frank_bastelt
      @frank_bastelt Před 2 lety

      Bis du jetzt selbstständig oder noch angestellt?

    • @RaspberryPiCloud
      @RaspberryPiCloud  Před 2 lety

      Ich bin einfach ein Fachidiot.. NetApp Fachidiot... eigentlich nichts anderes gelernt.

    • @LampJustin
      @LampJustin Před 2 lety

      @@RaspberryPiCloud könntest du dann auf deinem Channel vielleicht mal ne NetApp vorstellen? Ich habe davon schon Recht viel gehört, aber ein Hands-on wäre schon mega! :)

    • @homedrivev2-diypowerwall-s715
      @homedrivev2-diypowerwall-s715 Před 7 měsíci

      Kommt mir bekannt vor Ausbildung DV-Kaufmann vor 25Jahren wir fangen dann mal mit dem Akustikkopler an und T1 128kbs ist super in der Berufsschule @@RaspberryPiCloud

  • @itselfhosterde3627
    @itselfhosterde3627 Před 2 lety +1

    Sehr gutes Video!

  • @LampJustin
    @LampJustin Před 2 lety +1

    Hab mir während des streams gestern einfach mal schnell 2 bestellt. XD Ich habe zwar keinen 40G Switch aber ich werde meine beiden Server einfach direct connecten. Wenn da noch n Dritter dazukommt, findet der ja auch noch Platz. Ich brauche ja eh nur L3 connectivity und das ist damit ja kein Problem. Mit OSPF sollten dann ja auch ein Failover funktionieren, wenn es zu einem Link-Fallout kommt

  • @MartinLangATADA
    @MartinLangATADA Před 2 lety +1

    aber den 40GBit port kann man dann nicht noch auch auf 4x 10GBit aufsplitten wie bei manchen switches oder? 🙂 immer guter content bei dir.

    • @maLvana
      @maLvana Před 2 lety

      Warum an direkt an der Karte, wenn nicht am Switch? Interessiert mich wirklich.

    • @MK-xc9to
      @MK-xc9to Před 2 lety

      Ja , man braucht dazu noch nicht mal nen Switch , das ginge mit einem sogenannten Breakout Kabel , das hat einem QSFP+ Anschluss auf der einen Seite und 4 mal SFP+ auf der anderen , allerdings recht teuer kostet ab 50 Euro für 5m ~ 100 Euro

  • @olefjord85
    @olefjord85 Před 8 měsíci

    Was genau ist eigentlich eine "Feimware"? 😊

  • @hannesstefani
    @hannesstefani Před rokem

    Funktioniert das ganze auch mit karten die eine PN: 050-0050-02 und nicht mcx354a-qcbt ?

  • @jensg.5256
    @jensg.5256 Před 2 lety +1

    Geht das auch mit Connect X2 karten oder erst ab X3 ?

  • @moritzkolar
    @moritzkolar Před 2 lety

    kann man die karten untereinander verbinden also von pc a zu pc b ? oder muss man dazu einen switch benutzen ?und mit welchen kabeln und Anschluss wäre das machbar wenn das funktioniert?

    • @J.T.R.023
      @J.T.R.023 Před rokem

      Kannst so 1zu1 verbinden. Die IP Adressen musst du bei den Karten aber manuel dann zuweisen.

  • @J.T.R.023
    @J.T.R.023 Před rokem

    Mit original Mellanox Kabeln gehen auch 56 GBit ethernet 😎 mit nicht Mellanox Kabeln gehen max 40 GBit ethernet.
    Mit der MCX353A geht das auch ist die selbe wie MCX354A nur mit einem QFSP+port. Selbst getestet mit 3 Karten.

    • @shadowrob7709
      @shadowrob7709 Před rokem

      56Gbit Ethernet aha ^^ Hoffe du weißt warum infiniband 56 kann über die gleiche Schnittstelle. Oh weil kein Overhead vorhanden ist wie bei Ethernet ....

  • @TheMrMinecrafttnt
    @TheMrMinecrafttnt Před 2 lety +1

    56Gbit von Pc zu Pc über Fibrechannel sind damit auch Problemlos möglich aber dann braucht man logischerweise 2 Karten.. ;)

    • @niklasp.5847
      @niklasp.5847 Před 2 lety

      Infiniband ;) aber von Mellanox Zu mellanox (Switch oder andere Netzwerkkarte ) gehen mit einem orginalen Mellanox FDR Kabel auch 56 Gbit Ethernet

    • @btudrus
      @btudrus Před rokem

      @@niklasp.5847 "aber von Mellanox Zu mellanox (Switch oder andere Netzwerkkarte ) gehen mit einem orginalen Mellanox FDR Kabel auch 56 Gbit Ethernet"
      Hat bei mir leider nicht funktioniert. Die Karte schaltet sich immer zurück auf 40gbe. Egal, was ich mit ethtool mache. (Habe karte zu karte probiert...). Original Mellanox DAC oder Transciever (SR4), die sagen sie seien 4x14G (=56G)

  • @hightower5228
    @hightower5228 Před 2 lety +2

    Pass auf, net das der Nachbarkanal dir ne Pizza bestellt 🤣🤣🤣

    • @TheGeekFreaks
      @TheGeekFreaks Před 2 lety +1

      Wir sind eher froh, wenn sich Wissen weiterverbreitet ;D

  • @cheebadigga4092
    @cheebadigga4092 Před 2 lety +1

    nice! hat doch wat gebracht es in den Stream zu spammen :D

  • @stefanbobel6793
    @stefanbobel6793 Před 2 lety

    Gibt es schon Speedtest?

  • @m-electronics5977
    @m-electronics5977 Před 2 lety

    Und wie kriegst du dann die 40Gbit/s nach oben an deinem PC?

    • @hannesstefani
      @hannesstefani Před 2 lety +1

      kabel ? gibt doch genug 20m glas kabel

    • @m-electronics5977
      @m-electronics5977 Před 2 lety

      @@hannesstefani wozu man 40gbit/s machen soll wenn keine der Festplatten die Geschwindigkeit unterstützt weiß ich auch nicht

    • @btudrus
      @btudrus Před rokem

      @@m-electronics5977 NVMe unterstützen das.

    • @shadowrob7709
      @shadowrob7709 Před rokem

      @@m-electronics5977 10gbit Spränge ich dir mit kleinen zfs Storage und HDD's

    • @m-electronics5977
      @m-electronics5977 Před rokem

      @@shadowrob7709 was?

  • @jm3west770
    @jm3west770 Před 2 lety +1

    Also dass Angebot Discord zu nutzen und sich der Community anzuschliessen kannste Dir eigentlich sparen!!!
    Ihr seid ein solch' Selbstverliebter Haufen dass selbst der Glööckler neidisch wird.
    Da stellt man ne vernünftige Frage dann wird erst mal ne viertel Stunde gelacht.
    Dann kommt ein Buddy hinzu der stellt seine Frage und der eigentliche Fragesteller wird gänzlich ignoriert
    Einfach Vollhonks

  • @m-electronics5977
    @m-electronics5977 Před 2 lety

    Ist das eigentlich illegal sowas zu machen? Weil sie stellen ja die Firmware zur Verfügung aber sie wollen es ja eigentlich nicht usw.

    • @shadowrob7709
      @shadowrob7709 Před rokem

      Die ganzen Chipsätze sind EOL deswegen geht es meisten auch dann. Ist wie bei den Switchen der Hersteller. Sobald diese EOL sind kommt meist noch ein Firmwareupdate der das ganze Lizenzsystem deaktiviert und man alle Funktionen zu Verfügung hat weil sich der Aufwand dann nicht mehr lohnt für die.

    • @m-electronics5977
      @m-electronics5977 Před rokem

      @@shadowrob7709 ah ok

  • @MK-xc9to
    @MK-xc9to Před 2 lety +1

    Man muss das nicht unter Linux machen , man kann das auch unter Windows machen als Admin in der Dos Box , man braucht dazu die MFT Tools , der Befehl heißt Flint
    flint --allow_psid_change -d mt4099_pci_cr0 -i "firmwaredatei".bin

    • @Sumeragy1
      @Sumeragy1 Před rokem

      Die Info hab ich gesucht. Überlege grad meine Workstation (win10pro) mit meinen Server zu verbinden und hab lange gesucht wie ich das erreichen kann :)

  • @doc.insane7123
    @doc.insane7123 Před 2 lety +2

    Wer hätte es gedacht, dass er sich mal bei TheGeekFreaks bedankt lol

  • @MK-xc9to
    @MK-xc9to Před 2 lety

    So , meine PCIe X8 Riser card for HP FlexibleLOM 2Port GbE 331FLR 366FLR 544FLR 561FLR ( bei E bay suchen ) sind gekommen und funktionieren wie gewünscht , auch ohne crossflashen steht schon 10/40 Gbit Ethernet da / ConnectX3 Pro , da die Karten selbst von dem Deutschen Händler Gekko Computer sind ( PCIe X8 Riser card for HP FlexibleLOM 2Port GbE 331FLR 366FLR 544FLR 561FLR ) und mit 29 Euro bzw 27,55 pro Karte wenn man 2 nimmt ( E-Bay), könnte man das als Geheimtip bezeichnen . Die Firmware auf den Karten ist recht alt , konnte mir aber eine aktuelle von HP runterladen (2.42.5700) und flashen , crossflashen mit Mellanox Firmware würde ich nicht versuchen , hat bei mir den flash speicher gelockt , ich musste ihn erst wieder mit flint ( Device ) -clear_semaphore entsperren , dann konnte ich dIe HP Firmware zurückflashen . Leider ist mein optisches QSFP+ Kabel noch nicht da , Corona läßt grüßen , die Stadt von Händler ist im Lock Down . Mit der aktuellen Firmware sehe ich in der HP Firmware keine Probleme , arbeitet mit meinem Mikrotik CSS326 zusammen ( über Qsfp+ zu SFP+ Adapter ) . Ne 40 Gbit Dual Port Karte die 27,55 kostet , der Adapter nochmal mit 15-17 Euro ~ 45 Euro = 90 Euro für 2 Karten + ggf noch kleine Fans denn die Karten brauchen einen Luftstrom sonst werden sie ziemlich heiß und die Wärmeleitpaste sollte man auch erneuern , dazu noch zwei opt QSFP+ Transceiver = 30 Euro und nochmal 30 Euro für ein 10 m optisches QSFP+ Kabel = 30 Euro , die beiden Qsfp+ zu SFP+ Adapter 50 Euro = 230 Euro zusammen und damit ich dann meine NAS Verbindung auf 40 Gbit aufgewertet . Ein neues MoBo für meinen Hauptrechner gibt es auch noch , ein B550 E Gaming das die ersten zwei PCIe slots mit je 8 Lanes 4,0 versorgen kann , nochmal 170 Euro .
    Bei mir wird es wohl nur ne Direktverbindung mit 40 Gbit vom Hauptrechner zum NAS geben , der 2te Port wird wohl mit 10 Gbit am Switch hängen , der CRS326 mit QSFP+ Ports lohnt für mich nicht , es juckt mir zwar in den Fingern aber noch habe ich keine Verwendung für die ganzen 10 Gbit Ports , wir war nur eine schnelle Verbindung zum NAS wichtig
    Der Mikrotik CSS326 kostet 150 Euro aber den hatte ich ja schon vorher , hat 24 Rj45 mit 1 Gbit und zwei 10 Gbit SFP+ Buchsen , ist passiv gekühlt = absolut lautlos