Le coup de maîte d'Apple pour détrôner ChatGPT
Vložit
- čas přidán 22. 11. 2023
- ça pourrait leur donner un avantage considérable
👀 À ne pas manquer, APPLE VISION PRO : Ce dont personne ne parle : • APPLE VISION PRO : Ce ...
👀 Cet OS va vous faire courir acheter un Mac : • Cet OS va vous faire c...
Pas du tout obligé mais si vous vous abonnez ça m'aide vraiment 🙏 : bit.ly/3xqS2pi
🎥 Suivez l'émission en direct: / micode (c'est 1 mercredi sur 2 à 19h)
🎙 Toute l'émission en podcast, sur votre plateforme préférée: underscoretalk.netlify.app/
📸 Les coulisses de l'émission: / underscoretalk
🐦 Les annonces de dernière minute: / underscoretalk
En plateau, il y a Matthieu de la Micorp et Tiffany Souterre ! - Věda a technologie
Petite précision / correction : Aujourd'hui la finesse de gravure 3 nm ne correspond plus à aucune dimension réelle du transistor dans les processeurs.
Historiquement, la finesse de gravure faisait référence à la taille du Gate d'un transistor dans les processeurs, c'était la mesure de référence pour évaluer la performance d'un processeur, plus on peut graver petit le transistor, plus son gate est petit, plus on peut mettre de transistor, faire des calcules, et augmenter la puissance.
Or, depuis les 40 nm on ne peut plus diminuer la taille du gate à cause des limites / lois de la physique, (si le gate était encore diminuer on s'exposait à ce qu'on appelle "l'effet tunnel" qui perturberait le fonctionnement du transistor).
Il a donc fallu modifier le design, la conception même du transistor, le "réarranger", pour continuer à améliorer les processeurs. En conséquence, on ne pouvait plus prendre la taille du gate comme référence de la puissance d'un processeur, car ca n'avait plus de sens, le gate restait de la meme taille mais la puissance des processeurs augmentait quand même.
Aujourd'hui, les termes de finesse de gravure 3nm, 5nm, etc. sont des labels qui sont données au processeur si ils remplissent certains critères définis. Mais qui définie ces critères vous allez vous dire ? Et bien c'est l' I.E.E.E (Institute of Electrical and Electronics Engineers) qui au travers de l' I.R.D.S (International Roadmap for Devices and Systems) qui définie ces critères. Pour obtenir ces labels les transistors doivent être conçus et gravés d'une certaine manière. Les entreprises ne peuvent pas donner le label aux processeurs comme elles le souhaitent elles doivent suivre ces critères. On a décidé de garder les termes de "finesse de gravure" car le public c'était tout simplement habitué à ce que : plus fin = plus puissant, c'est un terme marketing. Il n'est pas falacieux, il permet juste de faire plus simple pour le grand public.
lien :
fr.wikipedia.org/wiki/International_Roadmap_for_Devices_and_Systems
fr.wikipedia.org/wiki/Institute_of_Electrical_and_Electronics_Engineers
irds.ieee.org/editions
Merci pour ton incroyable expertise !
Cette réponse devrait être bien plus upvote que les conneries de trading et compagnie qu’on peut lire 🙂
@@OtakugameFR merci beaucoup :D ca me flatte, je ne suis pas du tout un expert, je mets le plus de liens pour sourcer ce que je dis.
Whoah merci
Alors exact mais la finesse de gravure n'a jamais mesuré "la performance d'un processeur".
Effectivement le reste suit , Intel vs AMD le montre bien Intel à une moins bonen finesse de gravure et ils font des fois mieux que AMD.
Et les performance de AMD ne s'explique pas du tout via la finesse de gravure.
D'ailleurs cela fait un moment que cette finesse représente plus trop les performance, quand tu peux mettre 8 cores sur ton die , bon , c'est pas le soucis de place qui te pose soucis.
Petite erreur sur les tailles :
Un atome d'oxygène à une taille de ~300 picomètres (si on prend comme référence le rayon de van der Waals). Donc pour 3 nanomètres on est davantage dans l'ordre de 10 atomes d'oxygène (ce qui reste très impressionnant).
152 pm pour un atome d'oxygène, donc 0.152 nm
Monjp ?
@@laurentmiltgen-delinchamp5508Effectivement, c'est bien 152 pm et non 240.
@@laurentmiltgen-delinchamp5508 152 si tu prends en compte le Rayon de Van der Waals, ce qui, d'une certaine façon dépasse le rayon d'un atome à proprement parler, soit son rayon covalent, soit 60pm l'atome d'oxygène.
Ça veut rien dire les copains la taille d'un atome. En effet un atome est constitué en son extrêmité d'électrons qui sont localisés dans des orbitales atomiques. L'atome n'a pas de taille propre en revanche on peut lui assigner des tailles caractéristiques en général en raisonnant sur les moyennes statistiques de position des électrons de valence par rapport au noyau.
De plus, les électrons ne sont pas nécessairement collés. Dans une maille il y peut y avoir un espacement plus ou moins grand entre les atomes. On peut déduire la distance entre deux atomes en trouvant la distance locale où l'énergie potentielle des atomes est la plus faible.
Bref à voir mais ton raisonnement de diviser la taille de la gravure par le rayon atomique des atomes est un peu bancal.
Un détail mais les 3nm ne correspondent plus à la distance entre la gate et le drain du transistor depuis quasiment une dizaine d'années...
maintenant il s'agit uniquement d'une valeur théorique qui correspondrait à cette taille si le transistor était "à plat" (ce qu'ils ne sont plus depuis un bon moment déjà c.f. FinFET et autres).
y a pas de normes sur ce que doit signifier le 3nm, chaque entreprise fais comme ca l'arrange
@@ambroisetourneur3966 Sur ce point on est d'accord, c'est largement un chiffre commercial maintenant vu qu'il est décorrélé d'une dimension réelle.
Salut,
Je trouve que Matthieu s’améliore de jour en jour, je le sens moins stressé en tout cas et ça fait plaisir
c'est moins le cas de Tiffany on se demande son rôle dans l'émission
Si jamais vous arriviez à interviewer un/une ingénieure qui fait de la conception hardware (VHDL / Verilog), pour donner des détails sur ces actus, ce serait grave intéressant !
Ahaha hello c'est moi :3
Passe dans l'émission alors stp @@meisterpanzerkunst6410
@@meisterpanzerkunst6410je suis aussi là bon pas ingénieur mais un Master
@@meisterpanzerkunst6410 Haha trop bien tu bosses sur quoi comme archi / système ?
@@violinsontheblock J'en ai fait en cours aussi mais je me sens pas trop légitime de bosser dedans perso ^^'
J'adore parce que tu vois Mica lorsqu'il parle d'IA c'est un enfant ! Il est heureux et ça fait plaisir de voir quelqu'un de vraiment épanouie dans un sujet. C'est rare de voir cette effet aussi fort. :D et merci pour les vidéos ! Franchement elles sont génial ! Et surtout elles ne sont pas indigeste !
En fait selon plusieurs analystes cette keynote serait plutôt avant tout une réponse à Qualcomm (qui a récupéré quasiment l'architecture complète des puces M1 avec le rachat à prix d'or de la startup que les architectes de ces CPU ont créé après s'être barrés d'Apple...)
Pourquoi cet avis? Car en fait Apple est pas du tout dans l'exception à mettre des NPU/TPU dans ses processeurs en ce moment, à vrai dire c'est même plutôt la norme!
Qualcomm avec ses Snapdragon X (décidément une grosse annonce...), mais aussi et surtout Intel avec Meteor Lake, AMD avec Ryzen AI, Google avec ses Tensor, pour ne citer que quelques gros noms. Bon, Apple reste quand même bien costaud en performances!
Parlant de Snapdragon X et de Ryzen AI, c'est deux exclusivités Microsoft (aucun contrat n'a été rendu public, mais bizarrement les seuls drivers pour utiliser ces materiels sont sur Windows). Microsoft est donc bien en train de jouer sur les deux tableaux, cloud comme edge
J'en profiterais aussi pour rajouter que le terme de "X nanomètres" est purement marketing de nos jours, en fait aucun détail de la puce n'est vraiment gravé plus fin que quelques dizaines de nanomètres ! Il faut savoir que les technos les plus récentes ont abandonné les transistors à plat, pour passer à des designs 3d (FinFET surtout aujourd'hui, GAAFET dans le futur). Il faudrait plutôt voir ça comme "des transistors qui prennent autant de place que si on avait réussi à faire des transistors à plat de 3 nm". Oui, c'est tordu, mais c'est marketing
PS: Merci pour cette introduction à l'industrie du semiconducteur, le domaine est malheureusement trop peu connu chez les développeurs
Ça c'est un commentaire qui a du mérite
Concernant le fait qu'Apple ne parle pas d'IA, c'est une grande habitude de leur part de prendre quelque chose de commun et le "re-brander" pour se démarquer, Marques Brownlee (MKBHD) a fait une super video sur le sujet (Apple's Forbidden Words). Ils parlent en fait énormément d'IA, mais en d'autres termes
Génial! Merci pour ces informations!
Très bonne chronique ! Merci 🙏
Excellente vidéo/sujet.
Merci
J'avais pensé à un petit "One more thing" d'Apple quand ils dévoileront enfin un vrai usage de l'IA sur leur matériel. Déjà bien sûr agrandir tes propres images avec l'IA pré-intégrer dans le Finder mais surtout une génération du fond d'écran de ton Mac en local après le premier setup sans ou avec logo Apple, et qui reprend l'aspect que tu veux selon la version de Mac OS que tu préférait.
Absolument passionnant ! Merci
Génial cette vidéo vraiment j'ai appris des truc de fou 🤩
Très intéressant merci !
c 'est sympa le neural engine de Apple, mais je rappelerai que les ingenieurs de NVIDIA ne sont pas des idiots et que leurs puces ecrasent celles de Apple en performance par $, meme si en terme de perf par watt Apple est bien placé en effet. Concernant l'inference embarquée, Apple a en effet une strategie mais l'avantage du cloud c'est que 1) le calcul alloué a un model peut etre phenomenal alors que celui sur la puce M2 ou M3 ou Mx sera beaucoup plus limité, l'autre avantage c'est que le cloud est dimensioné pour le pic de calcul de la demande globale alors que Apple doit prevoir le chip pour la capacité maximum de chaque utilisateur. L'avantage de l'inference en locale c 'est 1) la confidentialité/vie privée , 2) la latence mais seulement si le model est tres rapide a inférer donc pas tres puissant par rapport a ce que l'on aurait avecle cloud au meme moment.
Merci franchement merci beaucoup c’est gens qui raconte n’importe quoi juste pour gonfler leur egos par rapport a apple ,apple n’a aucun plan concernant l’IA . le vraie truc qui faisait apple c’est ”steve job”. Mettre ”sa” sur une puce oui …mais pas encore à notre époque. Nous avons pas encore créé la technologie qu’il faut. Bref en tout cas oui aujourd’hui il s’y intéresse a coup de 1 milliard€. Ce qui est dommage c’est que ces mecs ils vont après dire oui regarde ce qu’apple a créé. Regarde cette dinguerie et patati et patata. Sachant que du tchat gpt c’est vraiment incroyable.arrêtez de faire rêver les gens comme sa !
Les interventions de Tiffany Souterre = "Humm", "Oui" , "Hum" 🤣🤣🤣
ça me fait rappeler le Qualcomm 8gen3 qui pourra faire tourner des IA de génération image, texte et autre. Localement sur un smartphone sans connexion internet. C'est très impressionnant
seule innovation d'apple : les puces et l'ecran tactile (ça date maintenant), voili voilou... entreprise estimé a 3 trillions de $....
@@nawabifaissal9625 l'écran ça reste toujours principalement des technos Samsung ils ont juste renommé l'oled
@@nawabifaissal9625 l ecran tactile a été inventé en 1971 par sam hurst bien avant la création de l apple
quick fact que personne n'a demandé: les optiques pour les machines lithographiques (pour les processeurs) sont faites par Carl Zeiss, et le fondateur de l'entreprise éponyme est littéralement le mec qui a inventé la production d'optique de masse (dans le sens pas à la main)
merci pour ce détail ! Je connaissais la boite mais je savais absolument pas que leurs systèmes se retrouvaient là dedans
Ok ok donc c’est de l’optique qui permet la fabrication de ces processeurs
Je me demandais pourquoi Nikon et Canon fabriquaient des processeurs alors que pour moi c’était uniquement des marques d’appareil photo 😅
Belle vidéo.
J’ai toutefois l’impression que l’ia on device est déjà là depuis un moment chez la concurrence (Google pixel et leur puce Tensor par exemple)
Les performances de Stable Diffusion, optimisé pour les GPU, étaient catastrophiques sur les Mac, c'est pourquoi Apple s'est mis en tête de l'optimiser. A l'époque, entre mon MacBook M1 Pro et mon laptop gamer Asus doté d'une puce Nvidia 3080 (la version portable donc) de génération et prix équivalents, il y avait un facteur 5 de vitesse de rendu en faveur du PC !!
Salut. Interressant la partie sur les capacités ia, et le lien avec la memoire unifiee, dommage qu'ils mettent moins de memoire sur leurs pc que sur la première carte graphique de base
Ca fait pas super longtemps quon a plus que 6go sur un gpu ? Meme mon gpu moyen de gamme achete il y a 5-7 ans en a 8, et le nouveau de l'année derniere en a 16 '-'
En plus, avec le resisable bar chez amd et je sais plus comment a sappelle chez intel, on peut partager la ram du cpu avec le gpu non ?
Et faire de l'ia sur gpu, cest un peu depasse dans certains cas aussi, il y a des carte d'ia notemment celle de google qu'on peut mettre dans un pc qui sont bien plus performantes dans certains cas
Ouais bon la description du transistor laisse à désirer. C’est pas le « dopage qui fait des 0 et des 1 ». Aussi 3nm c’est beaucoup plus grand qu’un atom. C’est pas infos très dur à vérifier donc faut faire un peu gaffe quand même
Bah on sent que le gars il est pas du tout technique. Il a juste essayé de comprendre vaguement ce qui se dit sur le web mdr
Pas mal ! Intéressant le coup d'avoir l'IA en local ! ça offre aussi une meilleure garantie de confidentialité (essentiel pour certaines entreprises!) et ça décharge les serveurs ! Vous m'avez appris quelque chose, merci !
tu peux aussi en avoir dans ton reseau priver.
aussi, L'IA en local reste limiter pour des model avec un nombre de parametre reduit, qui sont deja tres bon.
Meta (facebook), est probablement un des lideur dans ces petit model avec son LLaMA 2, qui peut deja etre installer sur ton ordi perso, ou meme personalize (fine tune).
Il y a LM studio qui permet de faire ça simplement, ou oogabooga.
Décharger les serveurs pour surcharger les appareils individuels je ne sais pas si c'est si utile que cela. La centralisation est aussi, malgré ses désavantages, moins consommante.
Petit retour sur la taille des atomes. le silicium est de 0,2 nm; 3 nm nous donne de l'ordre de 15 atomes de coté.
Au début des années 2000, nous perdions l'effet transistor aux alentours de 100 atomes. On ne trouve pas vraiment de données plus actuelle sur l'amélioration de cette limite.
En clair ils ont réussie à gravé le double voir le triple de microtransistor et non je pense pas que c'est du nano transistor car là on serait à l'ordi quantique.
De plus dans cette vidéo très bien expliqué présenté etc il y a un gros impasse sur le refroidissement des composent car tu peux avoir bcp de Gram et et ram graphique si ton ordi chauffe trop rapiment il laguera indéniablement et si tu partage ta wifi idem.
Bref back slash == bonne soirée, oui j'ai confondu avec angstrom
Hello petite question, Y a-t-il des gens ici qui ont des problèmes d’écran avec des MacBook Pro M1 2021?
Une video sur le RISC V serait intéressante.
Merci pour la vidéo. Je crois que c'est surtout qu'ils cherchent la bonne manière de le faire. Faire tourner des modèles d'IA en local c'est très bien mais comment en faire un outil simple et évident à utiliser? Il faut un bon pitch pour vendre ça. Et il faut que ça marche de manière transparente... En tout cas j'ai trop hâte de découvrir l'approche qu'ils vont choisir 😁😁😁
De quoi parles-tu, l’IA générative est déjà hyper simple à utiliser, chatGPT a été adopté par les personnes âgées d’une manière jamais vue pour une nouvelle technologie. Il suffit littéralement d’écrire une phrase pour faire un prompt
@@ThomasSselateoui mais c’est pas du goût d’Apple de faire du prompt comme ça
Ils vont chercher à intégrer subtilement l’IA un peu partout dans l’écosystème je pense
Mais oui les outils actuels (génération d’image, de texte) sont incroyablement simple à utiliser 👌
Ca se passe comment pour les gros gpu?
Super vidéo ! Du coup si tous ces macs en réseaux communiquent leurs puissance de calcul à Apple, la puissance de calcul est phénomènale
Elle a été virée la personne qui s'occupe des lumières du studio chez Underscore _ 🤣ou peut être qu'elle n'a pas encore été embauchée🤫
Merci Matthieu 🙏je vais me coucher moins bête ce soir même si je ne suis pas sûr d'avoir tout capté
Y a aussi l'architecture risc-v qui est libre et open source mais pas encore au niveau de arm 👍
ça commence ça commence avec les Si-five ou T-head mais on est plus au niveau du A72 pour le moment
Pas sur qu'il arriveront à bien traiter le sujet :p
Si c'est bien le cas cette stratégie est très intéressante et me semble beaucoup plus pertinente que les applications cloud based qui reviennent extrêmement chère. Après il faut savoir qu'il existe déjà des moyen de faire tourné des LLM sous Linux ou Windows en utilisant le GPU et le CPU en parallèle et ça fonctionne vraiment bien, mais il est claire qu'il doit y avoir une perte de performance notable par rapport à l'architecture d'Apple (sans même parler de la différence en consommation). Intel semble aussi vouloir unifier CPU et GPU dans le future.
Superbe vidéo
Pas de gravure avec une pointe, c'est de la photogravure, de la gravure par photographie.
juste pour info stable diffusion fonctionne déjà sur apple silicon il tourne sur ios ipad os et mac os en natif via l'app draw things notamment et cela fait presque 1 an que je l'utilise
Le design Apple Silicon n’est-il pas pour partie d’origine Arm? Sinon pourquoi des fichiers style arm64e-apple-macos …
Clairement je rejoins ton hypothèse sur l'IA locale. Je table aussi sur le lien avec le développement de la ReRAM qui permettra de stocker "internet" en local, ainsi que l'écosystème fermé de apple pour au final proposer un système complet très sécurisé et maitrisé en terme de données personnelles et de capacité IA.
Mon hypothèse est que la maîtrise de la sécurité des données sur toute la chaîne(physique on device donc) conférera à apple un avantage énorme en terme de confiance des utilisateurs. J'imagine un point de bascule ou une grande partie des gens se réfugierons chez apple, pendant qu'un autre géant pourrait sombrer.
Et vous ? Quel 2 cents ?
Apple continue à communiquer sur la puissance brute du CPU (hors GPU, NSP) pour deux raisons:
- ça leur permet de mettre la pâtée à Intel
- ça continue à bien représenter les besoins utilisateur (compilation, effets audio/vidéo)
Ils mentionnent le Neural Engine, mais on sent bien que leurs usages sur l’amélioration de photos ou la complétion de mail) sont assez petit joueur pour le moment. Mais ils insistent beaucoup sur l’aspect ´on device’. Je pense qu’ils attendent que ce soit mur, techniquement et socialement, pour frapper un grand coup
Faut bien se rendre compte que le développement d'un processus de fabrication de puce prends entre 3 et 5 ans, que ça coûte des milliards. Les usines c'est pareil c'est des salles blanches de classe 1 de plusieurs milliers de m². Les usines sont maintenant à température constante toute l'année et même les vibrations sont aussi un problème à ces échelles. Résultats très peu d'entreprise de production (fondeur). Aujourd'hui seul Samsung et tsmc maîtrise le 3nm à des niveaux industriel.
je sais pas si c'est vraiment mieux d'avoir de l'ia en local? L'ia jusqu'ici c'est beaucoup de puissance de calcul et tres peu de données échangées (juste du texte et parfois des images), ce pour quoi les modeles centralisés qu'on utilise aujourd'hui sont parfaitement adaptés. Là ca risque de faire fondre la batterie de ton mac et on aura surement des resultats moins rapides puisque je pense pas qu'un mac aura des meilleurs perf qu'un giga serveur centralisé, apres à voir ce qu'ils vont nous faire.
Stable diffusion marche sur m2. En fait c’est surtout une question de pytorch qui marche sur apple silicon depuis au moins un an
Est-ce que c'est vraiment la latence due au temps de trajet des données qu'ils veulent solutionner ? Ce ne serait pas plutôt les problèmes de confidentialité des données et de disponibilité variable des services centralisés ?
En tout cas très intéressant !
Les deux + avoir une IA sur mesure je pense.
Disons une pierre deux coup. Plus de l'avance sur le futur: avec la future envolée du cuivre, moins on aura de bis sur la cm, moins on aura de cuivre.
Sans compter que l'architecture 'classique' actuelle est un gâchis de ressources: lire le ssd avec le CPU qui place le contenu en RAM, relire la RAM pour traiter l'info et la mettre en RAM, reprendre la RAM et la renvoyer au ssd, à chaque fois en utilisant le seul bus mémoire et un coeur CPU. Apple travaille à limiter ces copies et échanges.
Quand à l'IA, à part NVidia, les annonces marketing ne veulent rien dire: le nombre maxi d'opérations n'est pas bien décrit (int8? Fp32)? Les instructions classiques prises en compte ne sont pas dites (j'ai un accélérateur qui ne supporte pas l'instruction quantité, donc plein de modèles sont inutilisables) ou les limites maxi (kernel 3*3? 8*8?)
Sans ces infos, on ne sait pas quels modèles tensorflow existants on peut utiliser et dans qu'elles conditions
S’il vendent le matos qui fait le traitement, ça pourrait aussi leur permettre de proposer des services sans devoir financer les gros datacenters derrière ?
si j'ai bien compris la chaîne, les fonderies fabriquent comme TSMC, fabless conçoivent comme Qualcom, architectes inventent l'architecture comme ARM tandis qu'ASML fabrique des machines que les fonderies utiilisent pour fabriquer les puces. Intéressant.
Et l'enjeu des prochaines années, ce sera où l'IA tourne, localement ou dans un cloud.
Je vais enfoncer une porte ouverte, mais c'est aussi de la géopolitique tout simplement par rapport à Taiwan.
Apple cherche juste à sécuriser leur ligne d'approvisionnement, vu que TSMC est la quasi seule boite au monde qui a la technologie avancé pour faire les derniers processeurs.
Et vu que l'invasion de Taiwan est qu'une question de temps, le marché des composants va devenir fou dans les prochaines années.
grave
L'invasion de Taïwan est loin d'être réalisée. Il est probable qu'elle ne survienne jamais. En tout cas, si cela devait arriver, nous aurions d'autres soucis que l'approvisionnement en processeurs...
C'est justement TSMC qui les fabrique ces processeurs contrairement à Intel qui fabrique aux US il me semble.
cela n'est plus vrai depuis le chip act. Les US, enfin conscient du danger, investissent + de 50 milliard pour pouvoir produire chez eux les chips. Les usines sont en cours de construction au US avec de gros gros avantages fiscaux et financement du gouvernement. Tu m'étonnes ...
En effet pour le chip act, cependant il faudra longtemps avant que cette usine soit opérationnelle ou même que les USA aquiert un niveau de compétence aussi développé que les employés de TSMC. Oui c'est une très bonne chose cette usine, mais la formation des ingénieurs derrière c'est un autre sujet. Pas sûr que l'ensemble soit prêt avant que Taiwan tombe...@@Fox-BZH
Magnifique!
wow ! très bien vu
Je suis étonné de ne pas voir le lien avec l'annonce de Qualcomm quelques jours avant qui annonçait le dépassement du M2 de beaucoup en mono-thread et ne pas voir non plus la prise en compte de la révolution de Canon sur la gravure des semiconducteurs qui devient énergétiquement beaucoup moins cher avec leur nouveau procédé....
Surtout que le NPU de Qualcomm série X est annoncé avec entre 50 et 100 Tops, bien plus balaise que le M3 qui plafonne à 20 Tops.
@@MultiMustash Les Qualcomm series X sont au stade de prototype, les tests de performance sont fait sur des machines avec une alimentation et un refroidissement conséquent. On ne connait pas les conditions de test de Qualcomm du coup difficile de comparer
3 nm est inférieur à la longueur d'onde de la lumière utilisée pour la gravure. Et ça, c'est très compliqué.
Sujet super interresant, je trouve dommage que trop d'images sans grand intérêt aient étés rajoutées au montage ce qui nuit selon moi a la compréhension de la chronique. Peut être faudrait il trouver un plus juste milieu en affichant que des images utiles a la compréhension.
Et si ce serait un coup triple! Intégration all in 1 + allégement monétaire chez Intel ET permission à Intel de valoriser l'entreprise... pour le 3mm... ce que je penses de ce que la présentation du m3 démontre : c'est que tout les acteurs sont gagnants
Les derniers AMD ont aussi une puce intégérée pour l'IA "Ryzen AI"
Qui a dit que l'entrainement était impossible sur silicon ? Source ?
Il y a déjà une app sur IPad qui applique des modèles Stable Diffusion en local sur l’Ipad : DrawThings. Et c’est bluffant de voir ce petit machin générer des images par IA, en local.
c est pour ca que le gain en perf clasic a pas bcp augnenté
N'y aurait-il pas non plus une stratégie par rapport à la Reram ? En fabless ça eviterai d'avoir acheté un bras, une machine qui devient useless. Après je ne suis pas assez connaisseur
Un sujet sur les processeurs analogiques Mythic?
stable diffusion tourne hyper bien sur mac en local.
Grosse erreur…… le 3nm c’est pas la finesse de la gravure mais le nom commercial du procédé ! #techcafe
J'aime bien la prononciation "kinotte" au début.
La vidéo est accélérée non ?
franchement , gg vos enquette ^^ , Il et malheureusement compliquer de comprendre le sens des phrase avec présision lorsque l'on et extérieure aux métier cependant ont peux comprendre le sens globale relativement facilement (mode try harde en fermant les yeux et concentration max mdr) en gros les puces de cher appl auron une ia intégrer directement dans leurs conception si j'ai bien compris..
C'est très intéressant, cependant, la taille de la technologie depuis environ 15/20 ans ne correspond pas du tout à la taille physique des transistors. IBM veut sortir une technologie de transistor de 2 nm, pourtant, la longueur minimale entre le drain et la source pour cette technologie est de 40 nm. C'est une erreur, bien qu'en tant qu'expert en conception de circuits intégrés, j'aie cru.
Cette chaîne est remarquable. Vraiment.
Je pense pas que dans les 5 prochaine année si l'intérêt est de faire tourner les ia en local.
Les données valent de l'or
Bon, il faudrait penser à faire revenir la table, malgré le retour des habitués, vous n'avez pas l'air à l'aise avec vos tablettes dans vos mains.
En vrai ceux qui font du arm aujourd'hui vont dans le même sens il n'y a qu'à voir la sortie des nouveaux snapdragon !
y a pas aussi une dimension écologique dans cette stratégie pour ne pas à avoir à faire tourner des gros data center ?
Est-ce vraiment intéressant en terme de consommation de porter les L.L.M vers du local ? Et pourquoi est-ce souhaitable ? On développe à intervalle régulier nos infrastructures réseau pour précisément faire davantage avec nos machines, et les data center ont cet avantage de constamment servir les utilisateurs, ce qui n'est pas le cas de nos appareils individuels.
l'IA on device pose aussi moins de problèmes d'allées et venues de data personnelles sensibles entre un client local et un serveur. Certaines personnes livrent littéralement leur vie sur ChatGPT. Une solution locale pourrait en partie palier ce problème.
Avant de bosser avec intel et en architecture x86_64, apple bossait avec IBM pour ses macs en archi PPC (power pc).
Ce qui arrive maintenant, c'est plus ou moins la même histoire que quand apple est passé du PPC à x86_64 : pour des raisons logistiques.
Truc amusant, les chips en archi PPC, on en retrouve encore aujourd'hui sur le marché des serveurs, dans plein de controleurs RAID SAS, chez LSI, ou même intel, qui sont en fait des LSI vendues sous la marque intel, ou les dell PERC.
Est-ce que ces "Neural engines" et autres Gb dédiés à l'IA pourraient être utilisés pour de l'entrainement déporté on-device ?
Car là, ils auraient un avantage de malade en termes de capacité d'entrainement sur tout le hardware vendu.
Ce qui rendrait encore plus essentiel le fait de consommer peu, pour que ça reste plus scred.
Merci pour votre travail de qualité sur cette chaîne
Oui c'est le rôle de ces nouveaux NPU, qui sont des puces optimisées pour l'entraînement. Reste à voir ce que ça donnera, en comparaison des énormes clusters de calculateurs utilisés par les grosses boîtes d'IA.
Une petite précision: Certes Intel fabrique aussi ses processeurs mais certains de leurs processeurs sont fabriqués par TSMC donc Intel fait du outsourcing aussi pour certains de se processeurs.
Le rendement des LLM sur un MAC M2 par rapport a la puissance consommé est incomparable avec un PC et une NVIDIA... J'aime pas Apple pour tout un tas de raison mais ces CPUs me donnent vraiment envie d'avoir a nouveau un Mac.
Votre idée qu’Apple pourra utiliser le M3, M4 pour le AI en local est intéressant. Apple utiliser AI déjà beaucoup dans Iphone, Mac M1, M2.
Mais de la a ce qu’Apple puisse faire en local ce que CHatGPT fait avec un data center, je pense pas.
Je ne sais pas combien de TB or PB of data fut nécessaire pour nourrir le model, mais a mon avis c’est assez gigantesque.
Apple a sans doute d’autre idées en tête pour AI (traduction instantanée d’une langue a une autre par example, surtout a travers VisionPro)
VisionPro va changer pas mal de chose. C’est Zoom en 3D, avec collaboration via bureau virtuel.
A moins qu’Apple traine des models, qui soient downloadable via Apple AI Model Store et immédiatement utilisable sur iPHone ou autre.
La principale innovation des M3, c'est leur meilleure segmentation . A 7200$ le M3Ultra toutes options (16 coresCPU 40gpu 128go 8tb) on tord un peu plus le bras de l'acheteur (le 14 coresCPU est 500$ moins cher).
Tiffany elle habille bien une pièce n'empêche
Vers une application des llm et deep learning en peer 2 peer a grande échelle ? 😉
ils ont tiré le gros lot , un peu par vision, un peu par chance? après il restera à voir si on peut avoir la même chose, avec une consommation légèrement supérieure (même 25% je prends)
Je me suis toujours dit qu'un Jarvis perso ce serait un truc de ouf mais je refuse de me servir des LLM et "IA" tant que les données partent je sais pas où et que tout n'est pas en local. Clairement, s'ils arrivent à le faire c'est le genre de truc qui pourrait me faire acheter du apple
J'adore votre émission mais je trouve dommage que le temps de parole des 3 personnes soient toujours 2 + 1. Une personne est toujours là pour figuration, que pour de réelles interventions. Sinon changé rien les sujets, contenu sont tops :)
Oui, la femme est la figuration et franchement je me demande ce qu'elle fout là, mais les deux autres auraient leurs place chez Cyril Hanouna. Ici c'est de l'info pour la maternelle sur du glacé.
J’ai l’impression que le traitement « on device » rentre aussi dans la vision d’Apple de protection des données.
Alors c'est intéressant.
Mais y'a bcp de confusion sur les terminologies, bcp de suppositions et d'approximations.
C'est dommage
Le sourir de madame est totalement passionant
L'ère de la voix arrive, soyez prêt...
Décalage de son/image mais super intéressant sinon
C'est extrêmement simple, c'est une des plus grosses boite de la planète et elle contrôle une partie énorme du marché mobile et bureautique à elle seule.
1. Elle n'a ni droit à l'erreur avec ce qu'elle propose, ni proposer des choses qui s'écartent de la ligne directrice de la boite.
2. Comme pour tous les multinationales qui se lancent dans l'IA ou celles qui ont rachetés tous les acteurs actuels, mettre des barrières et éduquer une IA pour qu'elle soit en accord aux lois, à la non-vulgarité et à toutes les propagandes de ceux qui financent la boite prend du temps.
3. L'IA arrivera avec quelque chose de révolutionnaire, qu'elle soit un nouveau concurrent ou une action précise, elle servira de soleil à un univers marketing précis
Merci 〰️🫶🔆
Hello World depuis puce M3 :)
4:45 fabless 6:08 ARM 8:15 Github 9:40 mem 12:00 Stable diffusion 12:08 Github
Deux choses :
-3nm ce n'est pas de la taille d'un atome d'oxygène, d'ailleurs l'échelle de l'atome va vite apparaître comme une limite à la gravure.
-Elle sert à quoi la nana ?
On fabrique des trucs d'une précision atomique et on lance des trucs dans l'espace, puis de l'autre côté on écrit encore sur du papier et on meurt de faim. On vit dans un monde bien étrange.
2:21 Un atome ne fait pas non plus 3nm.
En fait quand on parle d’atome, il est difficile de donner une taille exact, car le volume des l’atome dépend de la distance entre son noyau et son nuage d’électron. Ce dernier variant selon l’énergie contenu et la nature de l’atome. Un atome d’hydrogène a un électron donc une couche d’électron. Un atome de lithium a 3 électron et deux couche d’électron (deux électrons sur la première couche, 1 électron sur la deuxième. Le lithium est plus volumineux que l’hydrogène. Par contre, le béryllium (plus lourd que le lithium, est moins volumineux : les deux électrons de la première couche du lithium repousse plus l’électron de la 3ème couche. Le béryllium a plus de charges positives mais autant de d’électron sur la première couche. La première couche est plus attiré par le noyau, et la deuxième l’est de facto aussi car moins repoussé par la première couche.
On peut tout de même estimer une moyenne de taille d’atome en comparant la distance entre deux nucleus de même atomes. Mais les distance sont entre 0.1 et 0.5 nm.
En aucun cas 3 nm.
C'est quoi l'inférence ?
Canon a récemment développé une techno de nano impression qui semble prometteuse et qui reduit les coûts à une fraction du prix des bijoux d'asml
Oui mais le débit des machines Canon serait bcp plus faible selon une personne de la profession, 80 plaquettes/h au lieu des 300 plaquettes/h des machines EUV d''ASML ... Affaire à suivre en tout cas.
@@alloquoi3281 si le tarif de 15M$ pièce est tenu cela peut valoir le coût s'ils fonctionnent en série. Et les restrictions seront peut-être moindres...
Moi je pensais que c’était une réponse à l’annonce de snapdragon avec le nouveau processeur ARM !!? C’est arrivé aussi précipitamment que la surprise de l’annonce de snap !!??
Bah oui ils ont sorti le M3 du chapeau juste pour répondre à Qualcomm qui…. Pour l’instant n’a rien sorti ;)
Je me pose des questions sur les possibilité d'espionage des client Apple ou Microsoft avec l'arrivé des IA dans nos OS.
Quand c'est gratuit c'est toi le produit & quand c'est payant c'est toi le client
Ils n'ont pas besoin de ça : la "télémétrie" des OSs leur permettrais de faire ça.
Mais les services internet et les réseaux sociaux nous espionnent déjà.
Je croyais qu'on parlais d'imprimer les puces pas de les graver 😅
Après ch'uis pas un spécialiste et je me goure probablement mais j'ai toujours cru ça 😅
Enfaite aucun des deux, le principe de production des puces repose sur la supperpositions de différentes couches (souvent de la photolitographie), qu'on appelle desfois gravure.