Comment Apple a détruit Intel ?

Sdílet
Vložit

Komentáře • 773

  • @trash
    @trash Před 3 lety +888

    Des fois les suggestions CZcams elles font découvrir des pépites

  • @Micode
    @Micode Před 3 lety +650

    Quelle masterclass

    • @cocadmin
      @cocadmin  Před 3 lety +62

      Omg une STAR dans les commentaires !!🌟 🌟 🌟

    • @pal-1855
      @pal-1855 Před 3 lety +8

      @cocadmin Non, franchement bon bouleau, je viens de découvrir cette chaîne, c’est super intéressant ! Continue cocadmin !

    • @NEATHOFF
      @NEATHOFF Před 3 lety +9

      Un Micode sauvage apparaît

    • @pal-1855
      @pal-1855 Před 3 lety +1

      @@NEATHOFF pas mal 🤣

    • @retrox4923
      @retrox4923 Před 3 lety

      @@cocadmin frère y a que des stars dans tes commentaires

  • @ChristopheCasalegno
    @ChristopheCasalegno Před 3 lety +100

    Hello, et merci pour la vidéo. Ma petite contribution : le débat entre les architectures RISC et CISC date d'il y a bien longtemps maintenant. Chacun a des avantages et des inconvénients. Pour simplifier les architectures CISC ont des performances optimisées dans une logique "hardware", pour du RISC, les performances sont optimisées avec un focus sur le soft. Dans la pratique cela veut dire que les performances du RISC reposent sur un pari statistique de l'utilisation qui va en être fait du hardware par le logiciel.
    Les gens qui ont développé les architectures RISC sont partis des éléments statistiques qui indiquaient que 80% des programmes n'utilisaient que 20% du jeu d'instruction du CPU (oui je sais, encore le principe de Pareto...), que les instructions les plus utilisées étaient celle de chargement, de rangement et d'appel de sous-routines, que 80% des variables locales étaient des entiers et que 90% des structures complexes sont des variables globales. Enfin on avait aussi pu constater qu'on allait pas au delà de 8 niveaux d'imbrication des appels (les valeurs supérieures représentaient moins de 1% des cas rencontrés).
    De ce fait, si le programme utilisé (et Apple du coup maitrise aussi la couche logicielle de son offre) respecte ces principes : le gain est énorme. Par contre, si au lieu d'avoir principalement des entiers de différentes tailles et des nombres flottants en double ou simple précision tu te retrouves à manipuler des chaînes de caractère, des nombres complexes, des polynomes, etc. : alors les performances des processeurs RISC s'effondrent au profit du CISC.
    Du coup ce qui va faire la différence revient à la qualité et la pertinence du compilateur utilisé, puisque c'est lui qui va devoir optimiser le code en fonction de l'architecture. Plus ce dernier sera capable de trouver des stratagèmes pour "risc-er" le code, et plus il aura des chances d'être efficace sur RISC. Mais dans certains domaines, la meilleur optimisation logicielle ne peut compenser ce qui est "cablé" dans le processeur.

    • @ChristopheCasalegno
      @ChristopheCasalegno Před 3 lety +20

      Du coup je rajoute concernant ta question, non je ne pense pas que les architectures CISC ne doivent s'inquiéter de la monté des architectures RISC. Les premières machines RISC sont plus vieilles que moi, même si ça s'est vraiment popularisé au début des année 1980. Pour autant j'ai adoré des machines comme les DEC Alpha ou les stations SPARC de Sun Microsystem. Mais je crois que ces 2 architectures continueront de cohabiter encore quelques décénnies avant d'être supplantées par des architectures modulaires hybrides classiques/quantiques. A suivre :) J'ai laissé un like au passage ;)

    • @yamazakikaoru9579
      @yamazakikaoru9579 Před 3 lety

      Je vois pas l'avantage du CISC vraiment...
      Et non , le CISC n'a pas de performance "hardware" au contraire.
      Il y'a deux gros défaut du CISC :
      -Intel ou AMD sont avec un handicap , ils sont obligé de faire une translation CISC->RISC , cette partie est lente et consommatrice de transistor (et donc de watt consommé).
      Sur ARM , cette partie est inutile (c'est deja du RISC donc on peut traité directement les instructions)
      -le x86 étant CISC , et vu son bordel en terme d'opcode (qui varie entre 1 à 15 bytes).
      Intel ou AMD n'arrive pas à décoder plus de 4 instructions à la fois (et c'est vraiment un soucis architectural du x86).
      Ce qui n'est pas le cas de l'ARM qui peut facilement décoder 8 instructions en même temps (ce que fait le M1 )
      Ce n'est pas pour rien qu'on ne fait plus de CISC depuis les années 90 ;)
      (Le x86 a continuer pour des raisons de compatibilité).

    • @ChristopheCasalegno
      @ChristopheCasalegno Před 3 lety +9

      @@yamazakikaoru9579 : Hello, désolé mais encore une fois, et à l'image du monde tout n'est pas noir ou blanc, et bien que j'ai une préférence personnelle pour les architectures RISC (le DEC Alpha était "LA" machine de mes rêves, mais à 150.000 balles, innacessible pour moi à cette époque), le CISC dispose également d'avantages indéniables qui lui sont propres : tout dépend encore une fois des opérations à effectuer.
      Si le sujet te passionne, je t'invite à consulter cette thèse publiée à l'université du Michigan en 2017 qui est un excellent point de départ sur l'impact de l'architecture sur les performances délivrées par un processeur : scholarworks.wmich.edu/masters_theses/1519/
      Excellente soirée et bonne continuation.

    • @yamazakikaoru9579
      @yamazakikaoru9579 Před 3 lety

      @@ChristopheCasalegno Je n'ai pas dit que tout est noir ou blanc , mais actuellement le CISC n'a plus aucun gros avantage .
      Je te met ici les différences :
      -Un proc RISC , c'est plus simple à faire tout en étant performant
      Intel ou AMD sont avec un handicap , ils sont obligé de faire une translation CISC->RISC , cette partie est lente et consommatrice de transistor (et donc de watt consommé).
      c'est souvent 30% de transistor en plus qu'un RISC classique (tu as un microcode directement dans le core qui doit quand même reconnaître 700 instructions et faire sa conversion), ,2-3 étage en plus pour le décode.
      Sur ARM , cette partie est inutile (c'est deja du RISC donc on peut traité directement les instructions)
      -le x86 se doit d’être rétrocompatible donc tu as plein de chose pas utilisé qui existe.
      Le plus flagrant est pour le "FPU" , non seulement on gère encore des float de 80 bits , mais aussi le FPU originel du x87.
      Alors que toute les x64 utilise les SSE pour les calcul flottant , donc on se retrouve avec un FPU qui existe mais qui ne sert à "rien"
      -le x86 étant CISC , et vu son bordel en terme d'opcode (qui varie entre 1 à 15 bytes).
      Intel ou AMD n'arrive pas à décoder plus de 4 instructions à la fois (et c'est vraiment un soucis architectural du x86/CISC).
      Ce qui n'est pas le cas de l'ARM qui peut facilement décoder 8 instructions en même temps (ce que fait le M1 )
      Bref ce n'est pas pour rien qu'il n'y a plus de proc CISC actuellement ;)
      (Sauf le x86 qui est un mix des deux pour rétrocompatibilité )

    • @ikaztt85johnson83
      @ikaztt85johnson83 Před 3 lety

      je n'ai pas suivi la technologie des ordinateurs, mais je suis d'accord sur le fait que l'avenir dépend de paramètres plus complexes, et aussi de rapports investissements/bénéfices,
      Intel a la technologie RISC et ne s'en sert pas trop, je ne pense pas qu'ils soient "à la ramasse" mais qu'ils attendent
      fr.wikipedia.org/wiki/DEC_Alpha

  • @AngelDarthNet
    @AngelDarthNet Před 3 lety +79

    Apple a co-develloper le PowerPC(Risc) avec IBM qui est un dérivé du Power(Risc) d'IBM , apres les Ax (Risc) de Arm , donc ils sont loin d 'etres totalement debutant dans le Risc

    • @Christian-hr7sq
      @Christian-hr7sq Před 3 lety +5

      Avec IBM et Motorola...
      Le passage sous Intel a été fait car IBM arrêtait le PowerPC (fabrication et développement) seul Motorola continuait et ne pouvait pas fournir Apple.

    • @freddawin5347
      @freddawin5347 Před 3 lety +4

      @@Christian-hr7sq eh oui, le monde des affaires ... les PowerPC etait déjà plus puissant qu'Intel à l'époque, au vu des part de marché d'Apple, ca ne pouvait pas continuer dans ce sens ...

    • @Cardinal2Richelieu
      @Cardinal2Richelieu Před 3 lety +2

      Et c’était vraiment triste qu’Apple abandonne les processeurs Risc. A l’époque cela m’avait attristé, car le x86 est vieux depuis longtemps déjà 😜. Leurs dettes technologiques est énorme aujourd’hui. Seul un acteur contrôlant toute la ligne (processeur / matériel en général / système d’exploitation / API de développement ) comme Apple pouvait tout revoir enfin ! En tous cas cela fait du bien, merci la pomme.

    • @Chris-in-Asia
      @Chris-in-Asia Před 3 lety +4

      @@freddawin5347 Le PowerPC était dépassé par les puces d'intel, car IBM ne voulait pas investir seul dans le développement d'une nouvelle génération. Ils ont proposé à Steve Jobs d'investir avec eux, mais il a refusé.

    • @Chris-in-Asia
      @Chris-in-Asia Před 3 lety +1

      @@Christian-hr7sq Non, Motorola avait arrêté depuis longtemps. Motorola semi conducteur n'existait d'ailleur déjà plus à cette époque, ils avait revendu à Freescale. IBM ne voulait pas investir seul dans une nouvelle génération de puces. L'ancienne génération devenait obsolète et ils ont demandé à Apple d'investir avec eux, mais ils ont refusés.

  • @r2d2byelronn58
    @r2d2byelronn58 Před 3 lety +81

    Excellent les explications à la "C'est pas Sorcier"

    • @Tux63
      @Tux63 Před 3 lety +2

      il fallait choisir entre le coca et le camion .... le choix a été vite fait 🤣😁😁

  • @philippe-lebel
    @philippe-lebel Před rokem +11

    Ça fait 2 jours que je découvre cette chaîne. Un futur hit pour moi. Les sujets sont passionnant, originaux et bien traité. Bravo.

  • @loupdanger
    @loupdanger Před 3 lety +1

    Bonjour je suis ingénieur de l'Ecole des Mines de paris et je tiens à vous félicités pour la qualité du contenu fourni. Encore une fois Merci.

  • @Wagglepuff
    @Wagglepuff Před 3 lety +124

    Tu t'es donné du mal mais ça valait le coup, c'était grave intéressant, merci pour ton contenu 👍

  • @louiscordhomme45
    @louiscordhomme45 Před 3 lety +22

    très bonne vidéo, je sais pas si tu compte continuer dans ce genre de format mais en tout cas j'ai trouver ca très intéressant et plutôt bien expliquer et clair.

  • @astro.photographer
    @astro.photographer Před 3 lety +3

    Super bien expliqué merci tu m’a éclairé en 24min alors que plusieurs heures de vidéo d’autre CZcamsrs tech ne le faisait pas

  • @nicolaskuntz8606
    @nicolaskuntz8606 Před 3 lety +4

    Première fois que je tombe sur ta chaine, je m'attendais pas à ce style de vidéo assez technique mais c'est très appréciable et intéressant. Continues comme ça !

  • @yungchris5631
    @yungchris5631 Před 3 lety +1

    sah quel plaisant plaisir.... merci pour les travaux
    vidéo de qualité, avec en plus ma petite dose de choses apprises.

  • @fridaycaliforniaa236
    @fridaycaliforniaa236 Před 3 lety +1

    La vache, je débarque ici par hasard après tout ce temps à baigner dans l'informatique, et ben c'est du superbe boulot ! Allez hop, abonnement immédiat ! GG l'ami... =)

  • @Qyoon
    @Qyoon Před 3 lety +4

    Excellent contenu , c'est travaillé , bien vulgarisé et clair.
    Vraiment une excellente, découverte.
    Du contenu de qualité, rare en Tech FR !

  • @tanze67
    @tanze67 Před 3 lety +3

    Bravo ! Explications très simples et claires, je m'abonne de suite à votre chaine :-). Merci pour votre travail de recherche et d'exposer aussi clairement vos découvertes dans la production et le partage de cette vidéo. Continuez comme cela !

  • @ronybuzz
    @ronybuzz Před 3 lety

    un sujet aussi complexe, expliqué avec autant de facilité et de clarté c'est impressionnant !! contenu fluide , merci . Force !!

  • @launay98
    @launay98 Před 3 lety

    Hop je m'abonne direct! Vidéo très bien expliquer et puis faudra remercier les suggestions CZcams c'est même énorme que Micode ainsi que Trash soient tomber sur ta vidéo

  • @Sigri2TV
    @Sigri2TV Před 3 lety

    Pour une fois, je vais mettre un petit commentaire ! Juste WOUAH !!!! La claque dans la figure, excellentes explications, pédagogies parfaites, sources/histoire au top, rien à dire je me suis régalé dans cette vidéo ! Vivement la prochaine dans ce genre :)

  • @laurentmagnin673
    @laurentmagnin673 Před 3 lety +2

    Bravo ! J'hésitais à regarder cette vidéo pensant bien connaître le sujet (ha, les cours de micro-programmation suivis à l'université il y a bien des années...), mais j'ai bien fait de la regarder en entier !
    À noter cependant un point important qui n'a pas été abordé : les processeurs Apple intègrent directement la RAM au complet en leur sein (et non pas seulement les registres et une mémoire cache de premier niveau)... Ce qui doit avoir un grand impact sur la performance (surtout quand on a la maîtrise complète du matériel et du logiciel).

  • @nidalege7416
    @nidalege7416 Před 3 lety +3

    Très bonne explication de vulgarisation.
    Apple avec le choix de l'architecture ARM me rappelle les moments forts de l'informatique des années 90 ou l'on avait une quantité de CPU disponible qui m'a fait révé. J'ai toujours voulu avoir un DEC Alpha qui exécutais des logiciel X86 plus rapidement que les CPU intel de l'époque.
    - ARM (RISC)sur les station Acorn très apprécié des monteurs vidéo et Intel faisait lui aussi des CPU ARM avec les Strong ARM. On trouve l'architecture dans les PlayStation 1 & 2 et les GameBoy depuis la Advance.
    - MIPS (RISC) dans les fabuleuse station de SGI que l'on retrouve maintenant dans des super calculateurs en chine et dans le monde de l'embarqué
    - POWER (RISC) que l'on a vu dans les serveurs AS400 à maintenant iSeries, dans le top 5 des super calculateur, les stations NeXT puis macs comme Be, des mod pour les Amiga et Atari et surtout dans le spatial via la NASA. Les consoles PlayStation 3, Xbox360 et GameCube
    - SPARC (RISC) de chez SUN qui est en train de mourir alors que fut un temps cette gamme de cpu était présent dans pas mal de calculateur surtout via Fujitsu. On trouve du SPARC dans l'espace via le CPU LEON pour l'ESA et quelques CPU de la NASA.
    - DEC Alpha (RISC) dans les machine du même nom. Mort après le rachat de Compact par HP.
    - IA-64 dans les CPU Itanium 1 & 2.
    ________________________________________________________________________________________________
    ARM ne fait que concevoir l'architecture logique et physique dont des licences sont vendues.
    Apple comme Qualcom eux ne prennent que la licence de l'architecture logique et conçoivent ensuite le cpu arm de zéro. (Je ne sais plus Nvidia, mais il me semble que c'est aussi partie d'une feuille blanche)
    Seul Qualcomm, Apple et Nvidia dans le monde ARM font des GPU de zéro. Si ma mémoire est bonne Samsung a un projet non concrétisé de GPU.
    Le reste est sous licence ARM avec les GPU Mali ou Imagination Technologies avec les PowerVR.
    Apple peut effectivement devenir via ses ARM un concurrent sérieux sur le marché grand publique des PC plus conventionnel sous x86-64.
    Mais j'ai des réserves. C'est la grande différence entre Apple et le PC x86. Apple est capable dans son propre marché de faire une rupture ce que le monde X86 ne peut pas pour des raisons de rétrocompatibilité. J'attend avec impatience ou Microsoft dise on arrête le x86.
    Apple est passé des CPU Motorola 68K au Power de Motorola puis IBM pour ensuite aller sur le x86 et maintenant ARM. Prochaine étape de leur émancipation, avoir une fab de semi-conducteur affin d'être intégralement autonome ?
    Et ce que tu soulignes dans la vidéo, le fait que Apple maîtrise le matériel, le kernel, l'os dans son ensemble, les compilateurs surtout Clang + LLVM et les applications font que les performances ne peuvent que être bonne. Chose que le monde Wintel (oui je suis veille) ne peux avoir du fait de l'ouverture même de la plateforme PC depuis sa création.
    Pour moi, Apple restera un marché de niche face au X86
    Concernant ARM face au x86, c'est déjà la victoire d'ARM de part le nombre de matériel tournant sous ARM : tablette, téléphone, carte de développement style Raspberry.
    Pour Intel, l'entreprise ses trop reposé sur ses lauriers, a merdé sur sa vision du futur qui en fait l'une des raisons dans le choix d'Apple de faire ses CPU pour les mac et du succès grandissant l'architecture ZEN d'AMD qui comporte une unité ARM pour la sécurité.
    ________________________________________________________________________________________________
    Dans le monde ARM c'est un bordel sans nom pour si retrouver entre les mélange CPU et SOC et les différentes versions de l'architecture.
    Pour le M1, Apple c'est basé sur la dernière version de l'architecture ARM : ARMv8.6-A (annoncé en 2019). ARM n'a pour l'instant aucun design de CPU à proposer en licence.
    Ce qui est intéressant avec l'ARMv8.6-A, ce sont les unités de calcul vectoriel et de virgules flottantes : GEMM, BFloat16, NEON qui sont comparable à ce que fait Intel avec son set d'instruction AVX-512.
    Et oui ARM est aussi tordu que le monde X86 dans l'ajout d'unité de calcul anexes. Ce qui me permet d'en arriver a ce que je voulais dire depuis le début, rien n'est plus CISC, MISC ou RISC. C'est un jolie cocktail. Même la toute dernière génération architecture RISC via le projet open sources RISC-V n'est pas si RISC que ca via ses unités de calcul vectoriel.
    Pour information, les CPU x86-64 ne fonctionne pas en interne dans ce type de jeux d'instruction gardé uniquement pour la compatibilité. Dans les CPU x86-64 il y a des unité de conversion des instruction X86-64 vers celle utilisé réellement par le CPU.
    Les jeux d’instruction comme le SSE ou l'AVX ne sont pas x86, ses unité ont leurs propres logiques.

    • @cocadmin
      @cocadmin  Před 3 lety +1

      Salut Nida! C'est toujours un plaisir de lire tes commentaire :)
      Microsoft on eu aussi tenter de passer a ARM avec leur dernière surface mais leur gros problème sont les performances en émulation pour rester compatible avec les programmes x86 encore majoritaire pour windows.
      Ils on l'air de faire des SoC custom avec qualcomm
      J'imagine qu'il vont s'inspirer d'Apple et continuer à pousser ARM pour windows.

    • @nidalege7416
      @nidalege7416 Před 3 lety

      ​@@cocadmin loin d'être si simple pour Microsoft. Intel a menacé plusieurs fois Qualcomm et Microsoft sur la propriété intellectuelle pour l'émulation X86.
      Il y a le soft App Assure qui doit aider les programmeur a la migration vers ARM. Mais en l'état actuel, si Microsoft ne bascule pas ses propres applications sur architecture ARM, ca part mal. Le mieux pour Microsoft est de copié la politique d'Apple en ayant un CPU ARM sous contrôle et Qualcomm est connu pour faire de bon SOC ARM.
      Mais je vois mal Microsoft ce créer un écho système matériel fermé comme Apple. Ca va crier de partout. Déjà chez Apple ca gueule chez les dev pour faire la migrations des applications. Je ne veux pas imaginer le bordel dans le monde du PC entre les jeux, les applis métiers, les cartes 3D, son, etc, CPU Intel et AMD qui sortent du jeux.
      Je me souviens encore de la mauvaise volonté lors du passage à Vista des fabriquant de matériels à accepter moins de liberté en mode kernel. Les fabricants de matériels ont une grosse responsabilité dans l'échec de Vista. Il y a eu aussi le cas ou Microsoft a serré la vis pour la sécurité de son OS, les éditeurs d'antivirus ont bien gueulé. Donc MS a du faire quelques pas en arrière au détriment de la sécurité.
      Apple a cet avantage de plateforme fermé ce que ne peut pas avoir Microsoft sans impact violent.
      Sur Android, Chrome Book, iPhone ou Mac, ça ne choque personne d'avoir par défaut les applications propriétaires de Google ou d'Apple. Quand on passe sous Windows qui a une logithèque libre et propriétaire conséquente, les utilisateurs trouvent un manque de liberté et cri au scandale ! J'ai toujours trouver cela ubuesque.

  • @BenoitDesmidt
    @BenoitDesmidt Před 3 lety +1

    Ayant une chaîne CZcams aussi, je sais le travail que ça représente ce que tu as fait.
    Et sérieux c'est du lourd.
    Bravo 👏

  • @stanlouverture5863
    @stanlouverture5863 Před 3 lety

    Franchement trop bonne explication, posé, serein pas de musique de fond qui déconcentre plus qu’autre chose. Merci tu assures ✌️.

  • @ivymike9479
    @ivymike9479 Před 3 lety +6

    La vidéo la plus claire de tout youtube. Bravo !

  • @albanbrument593
    @albanbrument593 Před 3 lety +1

    Je connaissais pas mal des éléments différenciants mais ta vidéo est très explicite. Beau travail.

  • @pascal1446
    @pascal1446 Před 2 lety +1

    J'ai adoré cette vidéo les explications étaient très claires tu viens de gagner un abonné ;)
    Cependant je n'ai pas tout à fait saisi l'intérêt du wide branching comme expliqué dans la vidéo.
    Je le disais que si les 2 éventualités étaient prises en compte ce serait plus avantageux même en RISC mais ça doit poser d'autres problèmes je pense.

  • @neonesso
    @neonesso Před 3 lety +3

    J’ai appris tellement de choses dans ta vidéo c’est incroyable, merci pour ce moment 🙏

  • @politiquealgerie
    @politiquealgerie Před 3 lety +68

    Merci pour toutes ces informations. Très bonne chaine que je viens de découvrir

    • @ROLLSKATETROTT
      @ROLLSKATETROTT Před 3 lety +2

      tahia djazaaaiir

    • @user-bp6mz1gt5i
      @user-bp6mz1gt5i Před 2 lety +3

      @Memes Heaven oui tahia l'djazair

    • @Flow-flop
      @Flow-flop Před 2 lety

      @zakae6hdt7 :D il fais ce qui veut tu vas faire quoi?

    • @FatalBcr
      @FatalBcr Před 2 lety

      @zakae6hdt7 :D Fan d’Éric zemmour 🤷‍♂️

    • @uzgar
      @uzgar Před 2 lety +1

      kess sa fou là ?

  • @geojoh3026
    @geojoh3026 Před 3 lety +1

    Merci pour le cours, première vidéo que je visionne qui m’explique la base à la place de belle image.

  • @onetouch97111
    @onetouch97111 Před 3 lety +3

    Merci, je comprends mieux la différence entre une puce ARM/X86 au niveau performance et architecture. C'était très bien expliqué

  • @chauvaudziggy9802
    @chauvaudziggy9802 Před 3 lety +1

    Tu mérites tellement plus de visibilité
    Cette vidéo es incroyable 💪 a toi

  • @JamesAdamsTech
    @JamesAdamsTech Před 3 lety +1

    Super vidéo comme d'habitude j'ai appris pas mal de chose et l'explication papier était vraiment bien !

  • @FallerToon
    @FallerToon Před 3 lety +1

    Nice, c'est très instructif.
    Je retombe sur tes vidéos en recommandé (encore).
    J'approuve le type qui à validé les explications à la "c'est pas sorcier".
    N'ayant qu'un iota de connaissances dans ce domaine et après avoir compris pas mal de choses, je ne peux que laisser mon pouce de pseudo-approbation en tout état de conscience.
    (Ok j'deconne, j'en fais peut-être un peu trop mais j'ai bien appris grâce à toi ! merci)

  • @user-cz6pf4yx1i
    @user-cz6pf4yx1i Před 3 lety +1

    Toujours au top .Encore mieux maintenant on voit que ta plus de temps hi:) Thank

  • @thierryleriche1196
    @thierryleriche1196 Před 3 lety +1

    C'est une des meilleures videos de vulgarisation que j'ai pu voir

  • @mr.kiwixz3465
    @mr.kiwixz3465 Před 3 lety +1

    Très bonne explication, clair et simple à comprendre ! Un beau boulot :P Merci à toi ! =)

  • @duggy_tuxy
    @duggy_tuxy Před 3 lety +1

    Belle présentation. Un joyeux Noël à toi @cocadmin😉

  • @gaetanhugot2303
    @gaetanhugot2303 Před 2 lety

    Salut ! Je viens de découvrir ta chaîne, j'espère que tu gagne bien ta vie avec ce que tu fais parce que c'est tout simplement incroyable, super qualité ! Merci de partager avec nous !

    • @cocadmin
      @cocadmin  Před 2 lety

      pas encore mais on y crois 🙏

  • @philjustyn
    @philjustyn Před 3 lety +11

    11eme!!! wow
    et j'ai droit à un cours d'architecture des microprocesseurs.
    je suis déjà abonné!!

  • @FanisMichalakis
    @FanisMichalakis Před 3 lety +7

    Merci beaucoup pour cette excellente vidéo ! Je met rarement des commentaires, mais là, chapeau !

  • @matthieurome4805
    @matthieurome4805 Před 3 lety +1

    Je découvre ta chaîne au travers de cette vidéo, superbe vidéo facecam simple efficace avec du papier et des feutres : lourd léger professionnel !

  • @edotoine
    @edotoine Před 3 lety +1

    Merci BEAUCOUP pour ces explications et toutes ces informations (et hop, un abo de plus ;) )

  • @algoconcept
    @algoconcept Před 3 lety +1

    Chapeau l'artiste tu as envoyé du lourd ! 😉
    En tant que dev j'ai beaucoup galéré avant de trouver des personnes aptes à bien comprendre le système sur lesquels tournent les programmes, même parmi les sysadmin. Alors je te fais un compliment 😅

  • @P4pa-Joe
    @P4pa-Joe Před 3 lety

    Vidéo proposée par CZcams... Curieux mais très sceptique au début. Au final c'est une super bonne surprise ! Merci pour ton travail.

  • @pierrederaunies6565
    @pierrederaunies6565 Před 3 lety +15

    Punaise Cocadmin tu m'as bluffé ! J'ai tout compris du début à la fin, merci pour les exemples avec post-it, c'était super clair.

  • @MasterEquinoX
    @MasterEquinoX Před 3 lety +1

    Vidéo très bien construite, merci pour les efforts de pédagogie :)

  • @satan2k
    @satan2k Před 2 lety +7

    Excellent récap, super la petite explication des pipelines ! :-)
    Je suis plus ou moins d'accord avec ton analyse, mais il faut replacer un peu tout dans son contexte. ARM est très efficace pour toutes les utilisations basiques, pour tout ce que fait Madame Michu, les 9/10 èmes des instructions x86 ne sont jamais utilisées. Par contre pour des trucs plus cossus, comme des maths, ou de la simulation, ARM montre vite ses limites. Mais comme le point fort d'ARM est sa consommation, on peut s'en permettre d'en mettre 10x plus pour gommer ce manque.
    Si AWS et consort se lancent dans ARM, c'est pour deux raisons:
    1) comme tu l'as cité, le contrôle. Quand tu achètes chez ARM, tu achètes le "blueprint". Après tu peux modifier tout ce que tu veux, ce qui n'est pas du tout le cas du X86. Seul AMD a une license pour le dévelloper. (Et ca s'est arraché aux forceps au tribunal)
    2) la consommation électrique. Quand tu as des centaines de datacenter, avoir une très grosse économie même sur le sleep, c'est une économie conséquente. Surtout quand tu peux te permettre d'étendre ("scaler") sans contraintes. Et là encore, dans 9/10 eme du temps, pour la plupart des workloads, une bonne partie des instructions x86 ne sont pas utiles.
    Pour revenir à Apple, selon moi, leur plus gros défaut dans cette approche, c'est d'avoir pas seulement viré Intel, mais aussi viré Intel ET Nvidia/Amd. Sur ARM tu n'as pas de support des GPUs comme ça l'est sur X86.
    Du coup, Apple met à la trappe tout le boulot fait sur le calcul distribué (OpenCL) ainsi que tout le calcul de rendu de scene. Je connais des graphistes / designers qui grincent des dents, car ils craignent de devoir retourner sur du Windows. (Ouais les mac pro existent encore en x86, mais le support va être bien plus court)
    Et concernant le x86, faut pas jeter le bébé avec l'eau du bain, je pense que tu es passé à côté des gros progrès de AMD qui permet par exemple 64 cores 128 threads, pour une empreinte thermique (TDP) de 250w. AMD qui, on doit le rappeler, équipe toutes les consoles de salon (la switch n'étant pas vraiment une console de salon, mais nomade), et a monté des technos pour l'accès en direct des ressources GPU -> stockage -> GPU direct sans accès processeur, ce qu'est incapable ARM vu que ce sont majoritairement des SOC :-)
    En gros pour faire court, avec son M1 et son approche, il flingue les graphistes / modelers / designers en CAD / data scientists (j'en connais) qui utilisaient du Apple. Il flingue aussi le gaming. (bon okay vu le peu de personnes qui "jouent" sur mac, mais bon ...)
    Donc, Apple a détruit Intel, ouais, enfin il a plutot abattu un cheval qui était déjà à l'article de la mort. Par contre il n'a flingué ni AMD, ni l'écosystème PC. Mis à part la hype ou bien à moins d'avoir besoin d'un appareil nomade performant, le M1 n'est pas concurrentiel. Si je compare par exemple avec mon refresh à base de 5900x, les perf sont équivalentes en single, poutrent le M1 en multi, poutrent le M1 avec la partie graphique, l'ensemble est compatible, réparable (pas de colle!), extensible et tout ça pour la moitié du prix..... Donc à part le dev ou l'IT nomade qui voyage souvent, je ne vois aucun interêt à acheter le M1, du moins pour le moment.

    • @Le-J-
      @Le-J- Před 2 lety +1

      Commentaire excellent qui vient parfaitement compléter la vidéo. Merci !

    • @jeandupond7941
      @jeandupond7941 Před 2 lety

      Je suis d'accord, mais pour moi le mac m1 reste la meilleure alternative, consommation plutôt basse, machine polyvalente, avec le temps c'est sûr que les applications seront compatible sur m1, sans compter le prix, en suisse un Macbook air m1 coûte 880 chf, avec 880chf tu as aucunes machines avec de tel performance(fiable, très longue autonomie, os stable qui plante pratiquement jamais, très bon écran, léger, fin, et qui surchauffe pratiquement jamais et surtout le très bon support apple) en gros aucune machine fait mieux, pour moin de 880€ ,apple est devenu moin chère que les concurrents sur Windows, on vit une époque incroyable quand même

    • @satan2k
      @satan2k Před 2 lety +1

      @@jeandupond7941 Effectivement, ce ne sont pas de mauvaises machines. Elles rencontrent leur public. Question prix, en Belgique, a l'écriture de mon commentaire, j'en ai eu pour 1100€ pour une machine de rêve, hors carte graphique vs 2500€ le M1 plus ou moins équivalent (avec les différences notées au dessus). Maintenant a notre époque, je conçois que le prix démentiel et inadmissible de cartes graphiques fait changer la balance. Au point de vue technique, je campe sur mon avis, mais au point de vue du coût, j'avoue que ça "devient" concurrentiel (justement parce que tristement les petits copains commencent a exagérer).
      Par contre, même si Apple a enfin fait des efforts niveau de la possibilité de réparer ses appareils, je trouve (et ce n'est que mon opinion) sa pratique générale honteuse. Réparation difficile ou impossible selon le cas, support qui se dédouane très rapidement (on a du retourner du Apple au boulot, la foire a l'empoignade...). Upgrade quasi impossible, obsolescence programmée des mises a jour OS, etc. Loin, très loin du Apple respecté et aimé de ses débuts ☹️

    • @jeandupond7941
      @jeandupond7941 Před 2 lety

      @@satan2k concernant les réparations ça concerne toutes les marques en général et surtout les ultra book, niveau technique je peux pas trop parler car je suis pas calé du tout sur le sujet, mais d'après les avis des gens général , ils sont tous d'accord pour dire que si tu veux un portable fiable avec lequel tu peux faire du montage, regarder des films en bonne qualité etc etc, le Macbook air reste la meilleure alternative pour l'instant, pour les modèles au-dessus (Macbook pro 14 et 16) ça je sais pas si ça en vaut la peine et si les prix sont justifiés ou pas, mais à moin de 900€ en suisse y a pas photo, aucun concurrent peut rivaliser

  • @Ywqqqq
    @Ywqqqq Před 3 lety +2

    Excellente vidéo, il en faut plus du genre !

  • @guillaumemarmorat8293
    @guillaumemarmorat8293 Před 3 lety +1

    C'est vraiment ultra interressant, bravo et merci ! 👍

  • @PAPAMICA
    @PAPAMICA Před 3 lety

    Géniale cette vidéo, bien vu le système de tableau blanc, ça te permet d’être clair en économisant énormément de montage ! Une explication de la clock aurait été géniale ;)

  • @Mrziggyspider
    @Mrziggyspider Před 3 lety

    Bravo pour la clarté du propos. Super vidéo.

  • @fabianstevenne
    @fabianstevenne Před rokem

    Merci pour ces informations!! j'hésite encore à acheter un Mac studio car j'ai actuellement un Mac mini qui chauffe énormément que je le sollicite trop...mais c'est encore la génération avec le processeur Intel. Je suis certain en t'écoutant qu'un Mac studio avec la puce M1 ultra 128 Go de RAM sera plus performant qu'un pc avec des composants similaires voir plus performants sur papier. Mais quid de la surchauffe? je suppose qu'il n'ya pas de refroidisseur comme on peut en installer dans une tour classique. je voudrais m'en servir comme station de calcul pour faire tourner le programme Metashape (photogramétrie). Qu'en penses-tu? je parviens pas à me décider..

  • @fredericl3949
    @fredericl3949 Před 3 lety

    je serais curieux d'avoir ton avis sur les derniers classement cinebench r23 qui inclu le M1 qui se retrouve plutot tres loin derriere ? merci pour la video

  • @YannEvn
    @YannEvn Před 3 lety +8

    Je te découvre sur cette vidéo, explications super claires et logiques : tu gagnes un abonné ! Continues comme ça c'est top 💪

  • @elcordobes11
    @elcordobes11 Před 3 lety +1

    Explications simples et clair! Jolie trouvaille :) merci pour ta lumière!

  • @H_A_R_L_E_M
    @H_A_R_L_E_M Před 3 lety

    Géniale ta vidéo. Un vrai talent pour vulgariser les choses incompréhensibles pour un néophyte en temps normal. Merci à toi !

  • @goulvenbazire6272
    @goulvenbazire6272 Před 3 lety

    Excellente vidéo, merci ☺️ +1 (Le papier old style reste assez indémodable, lorsque bien associé à une bonne explication)

  • @ouanounours
    @ouanounours Před 3 lety +2

    Excellente vidéo ! Un peu surpris néanmoins que tu n'aies pas parlé du fait que la plupart des composants matériels (RAM, contrôleurs, ...) sont directement intégrés à la puce, ce qui accélère aussi grandement la performance :)

  • @BusinessBonheur
    @BusinessBonheur Před 2 lety

    Tu es vraiment doué. T'es vidéos sont top, claires, ludiques et agréable à regarder. J'adore.

  • @Wibration
    @Wibration Před 3 lety +2

    Woaw la vidéo est GOLD ! J'ai jamais cliqué aussi fort sur un bouton Abonnement !

  • @Ciolgaming
    @Ciolgaming Před 3 lety +1

    Vraiment bravo, c'est très bien expliqué, c'est du bon travail!

  • @lesteph69
    @lesteph69 Před 3 lety +1

    Excellente vidéo! Très instructive ... merci et longue vie à ta chaine

  • @Runs59
    @Runs59 Před 3 lety

    Ouch ! Superbe effort de vulgarisation. C'est super clair et super intéressant ! Bravo !

  • @rthtrt5716
    @rthtrt5716 Před 3 lety

    Ouaaaa ta chaîne est une belle découverte… simple et clair et le tout en français c est cool 👍 un grand merci 🙏

  • @sebastienaltounian8456
    @sebastienaltounian8456 Před 3 lety +1

    Excellent !!!! Je cherchais a comprendre pourquoi une telle différence ! Merci beaucoup ! C'est super ce que tu fais 👍

  • @Tonyhunterblade
    @Tonyhunterblade Před 3 lety +47

    Notez aussi qu'ARM a été racheté récemment par Nvidia... 👍

    • @ayleisma7590
      @ayleisma7590 Před 3 lety +7

      Ouai et connaissant la propension d'nvidia a se brouiller avec ses partenaires, ça annonce rien de bon pour le futur des licences ARM... Un des fondateurs de cette firme avait d’ailleurs exprimé ses craintes

    • @Username-xl6jj
      @Username-xl6jj Před 3 lety +1

      @@ayleisma7590 Un petit coche pied à Apple ne fait pas de mal à ces gros monopoleurs (Taxe 30% AppStore) Mais c'est plus dangereux pour les autres utilisateurs de licence ARM.

    • @assirik
      @assirik Před 3 lety +1

      l’accord de 40 milliards de dollars sur l’acquisition d’ARM par Nvidia est suspendu, à cause d’un conflit au sein de la coentreprise ARM China

    • @molotofmezcal
      @molotofmezcal Před 3 lety

      C'est loin d'etre encore fait !

    • @assirik
      @assirik Před 3 lety +3

      @@molotofmezcal oui effectivement mais vraisemblablement l'union européenne va aussi essayer de bloquer l'initiative. L'objectif est que l'europe ne devienne pas dépendant des semi conducteurs us ou asiatiques. On verra bien!

  • @MagikLeo
    @MagikLeo Před 3 lety

    Wahh mais c'est trop bien, hyper instructif et clair, agréable à suivre. +1 abo

  • @amau345
    @amau345 Před 3 lety

    Très claire et très intéressante à regarder .peut être qu'une musique de fond pourrait être intéressante pour être plus agréable mais sinon super

  • @EricDeLyon
    @EricDeLyon Před 3 lety +1

    Tres interessant merci, et oui gérer toute la chaine de production est un énorme avantage, et pouvoir simplifier et épurer c'est le bonne évolution pour le futur.

  • @franckrollier895
    @franckrollier895 Před rokem

    Je remercie les suggestions YT de m’avoir fait découvrir ta chaîne, une vraie pépite ! T’es explications sont claires et tes schémas permettent de comprendre facilement des concepts qui peuvent être complexes. T’as gagné un abonné 😊

  • @Oscar-en1ib
    @Oscar-en1ib Před 3 lety +1

    Difficile de penser qu'Intel n'a pas des processeurs RISC en développement sur le côté, hâte de voir la suite même si comme tu l'as bien dit tout maîtriser comme Apple est un vrai avantage. Sinon superbe vidéo

  • @MDarkus3
    @MDarkus3 Před 2 lety +1

    J'aimerai si tu me le permet commenter quelques parties de la vidéo
    ARM vs Apple:
    - ARM ne fait que concevoir l'architecture, l'entreprise ne fabrique pas de chip. Elle vend des license d'utilisation de ses architecture processeur au autres compagnies, qui réutilise et intègre des fonctionalités supplémentaire par dessus l'architecture ARM on appelle celà des chip ASIC - Application-specific integrated circuit.
    - En 2011 ARM révèle sa nouvelle architecture ARMv8 basé sur une architecture 64-bit. Apple à été le premier à intégrer ce design dans leur produits: Apple A7 dans iPhone 5S. Dire donc que Apple à devancer ARM n'est pas faux en soit car ARM comme dit plus haut ne fabrique pas de processeur, seulement le design. Mais ce n'est pas leur rendre justice car ce sont eux les architectes de la technologie que ré-utilise apple.
    RISC vs CISC
    Opposé CISC & RISC n'est pas très productif car ces deux familles de processeur ont leur justification technique: les core RISC ne sont pas fondamentalement plus performent, tout dépend tu type de problème qu'on veux résoudre, un pipeline avec prédiction de branch, execution dans le désordre, parrallèlisme, etc ..., tout ce que fait fonctionner nos ordinateur Windows & Linux actuel, n'est possible qu'avec un jeux d'instruction complexe. De plus avec les nouvelles avancé technologique des mémoires ( MRAM, FRAM, PRAM, NRAM) la vitesse d'accès ne sera plus un problème et des architecture telle que CISC vont redevenir bien plus intéréssante que des RISC ou pour chaque instruction on LOAD depuis la RAM vers les registre processeur et inversement avec le WRITEBACK (store). Si le processeur devient capable d'opérrer directement depuis la RAM l'architecture RISC n'as plus grand d’intérêt. Il y à aussi des considérations énergétique mais je ne rentre pas dans le détail (où le RISC et moins énergivore que le CISC car pas de gaspillage de cycle, pour un nombre d’instruction donné).

  • @panaf8702
    @panaf8702 Před 3 lety +9

    Arm n'est pas le depositaire des puces Risc. Il n'ont fait que remettre au gout du jour ce qui avait ete abandonné

    • @TheSampirat
      @TheSampirat Před 3 lety +1

      Ca n'a jamais ete abandonné !

    • @CANALROBBY
      @CANALROBBY Před 3 lety

      @@TheSampirat C'est vrai ça date, j'en entendais parler il y a longtemps, je crois que les stations graphiques Silicon Graphic utilisaient ce genre de processeur il me semble.

    • @DenisMauplot
      @DenisMauplot Před 3 lety

      @@CANALROBBY il y a fort longtemps Apple avait avec IBM et Motorola fait les Puce POWER PC RISK sur les Power Mac en 1994 jusqu'en 2006 ou Apple est passé sous puces Intel

  • @chogha
    @chogha Před 3 lety

    Très bonne vidéo, simple et efficace. Dans les années 90 mon deuxième ordi était un Amiga 1200 en fin de vie. Je voulais passer à un autre ordi mais pas un compatible PC. Tout mes potes de mettait au PC avec des pentium 75 MHz et pour les plus riches 100 MHz. Moi je rêvais d'une machine Archimède de acorn muni d'un processeur RISC maison dans la digne ligne de l'Amiga. Je programmais à cette époque et me doutais de ne pas trouver une bibliothèque de fou. La machine n'a pas traverse les frontières et je ne l'ai jamais trouvé en France. Et je suis passer du côté obscure de la force à cette époque. Maintenant ce n'est qu'un outil comme un tournevis il ne me viendrait plus à l'idée de fabriquer celui ci alors qu'il suffit maintenant de l'acheter sur internet.

  • @GeekInFrance
    @GeekInFrance Před 3 lety

    Superbe vulgarisation pour expliquer un système aussi complexe. Bravo

  • @sofianeloum7746
    @sofianeloum7746 Před 3 lety +1

    Sinon cool t’est video force à toi 💪

  • @adamkenton2585
    @adamkenton2585 Před 3 lety +2

    Explications très claires ! Vidéo plus que intéressante

  • @leo35530
    @leo35530 Před 3 lety

    Pour les post it, c'est load > incr > mov (ou str en arm)
    Push est réservé aux traitements de la pile, avec pop, qui est une zone mémoire servant surtout au passage des parametres et aux appels de fonction.
    Mov et load permettent bien de déplacer des octets entre la ram et un registre.
    Bonne video 👍

  • @gojasan961
    @gojasan961 Před rokem

    Très intéressante ta chaine et tes explications. Trop peu dans l'IT savent comment fonctionnent leur systèmes. Peu d'instruction, coder pour n'utiliser que des fonctions utilisant ces instructions... Vive les rapidités d'exécution :) En fait la techno est choisie (devrait être!) en fonction du besoin derrière...

  • @andywiles7340
    @andywiles7340 Před 3 lety

    Bravo. C'est super clair et très bien documenté. Merci 👍👍👍

  • @NonoLeHero
    @NonoLeHero Před 3 lety

    Très bonne vidéo, très instructive, je comprends mieux le prix des iphones (non, je ne m'était pas renseigné avant) étant donné qu'ils développent leur propre processeur. Et ça donne envie d'aller voir par chez eux dans un futur plus ou moins proche pour une machine de travail.

  • @kidam2448
    @kidam2448 Před 3 lety +1

    Géniale cette vidéo!!
    Très bien expliqué!!
    Merci!!!!!!👍👍👍🙏🍻👌

  • @jramette
    @jramette Před 3 lety +1

    Très clair et instructif ! Merci pour la vidéo 😊

  • @olivierrojo2003
    @olivierrojo2003 Před 3 lety +4

    Ça me rappelle mes cours d’architecture en école :) Bien résumé, bravo !

  • @bublemoon
    @bublemoon Před 3 lety

    Salut, supposition YT...je n’ai absolument rien compris mais agréable de voir vois les efforts que tu fais pour nous expliquer 😅

  • @mindstorm3854
    @mindstorm3854 Před 3 lety

    Concept sympathique, c'est bien réussit et je pense que la vulgarisation est réussit, tu réussis à t'abstraire des concepts complexe pour faire comprendre les grandes lignes. Enfin quelqu'un pour parler de ce merveilleux jeu d'instruction qu'est ARM ça fait plaiz !

  • @kabouba5626
    @kabouba5626 Před 3 lety +1

    Un travail de qualité, je m’abonne!

  • @Cooperider
    @Cooperider Před 3 lety

    Superbe vidéo man ! C'était vraiment intéressant ! ✌️😎

  • @lenekogilles7254
    @lenekogilles7254 Před rokem

    Bonjour
    Je suis quasiment nul en assembleur, mais : j'ai fait toute ma carrière sur des grands systèmes IBM et je me suis beaucoup intéressé à leurs architectures (et donc à l'histoire des systèmes d'exploitation IBM.)
    Vous me rappelez les formations que je dispensais à mes collègues nouvellement arrivés sur le fonctionnement de la mémoire virtuelle avec des OS comme MVS, Z/OS et le sous-système JES2. J'aimais beaucoup faire cela et mes "élèves" techniciens d'exploitation comprenaient beaucoup mieux ce qu'il se passait dans les machines et ce que faisaient les commandes qu'ils passaient.
    NEKO

  • @DydyWasTaken
    @DydyWasTaken Před 2 lety

    Je découvre ta chaîne et c'est vraiment très intéressant ce format, je m'abonne :)

  • @Aken0o
    @Aken0o Před 2 lety

    OMG je viens de découvrir ta chaine je m'abonne direct !! Super boulot O_O

  • @arnaudleconte6735
    @arnaudleconte6735 Před 3 lety +1

    Je travaille dans le développement de processeur et je vraiment surpris par la qualité technique de la vidéo (de la part d'un softeux :p). Très bon travail ^^

    • @yamazakikaoru9579
      @yamazakikaoru9579 Před 3 lety +1

      Oui ,en général au mieux on a la description d'un processeur des années 80 :)

    • @cocadmin
      @cocadmin  Před 3 lety

      merci ca fait plaisir! J'avais peur de sur-simplifier ou de louper quelque chose d'évident. :)

  • @simon9640
    @simon9640 Před 3 lety +1

    Lourd mec c'est qualitatif

  • @LaurentKarouby_
    @LaurentKarouby_ Před rokem

    Un grand merci pour ces éclairages !!!

  • @22000DADA
    @22000DADA Před 2 lety

    salut!
    super video.
    tu precises que Apple vient de créer son premier processeur pour laptop.
    les proc. de la gamme G en RISC n etait il pas Apple aussi?

  • @eachdayonepiceachdayonepic8908

    Merci l’algorithme pour cette excellente vidéo ❤️

  • @vestoz1387
    @vestoz1387 Před 3 lety +1

    Pk j’ai cette vidéo que maintenant dans mes suggestions CZcams. Quel masterclass !!

  • @codeaveclechat
    @codeaveclechat Před 3 lety +1

    Super sujet de vidéo ! J’ai vraiment kiff mec 💪🏾💪🏾

  • @gravel-demi-sel
    @gravel-demi-sel Před 3 lety +1

    C'était top et bien expliqué même pour ceux qui s'y connaissent moins chapeau !

  • @MrgnUTube
    @MrgnUTube Před 3 lety +2

    Excellente présentation, merci beaucoup!

  • @sachavoronej5104
    @sachavoronej5104 Před 3 lety +1

    Abonné.
    EXCELLENT travail.
    Merci