당신의 그래픽카드 이 칩으로 대체되었다. 아날로그 컴퓨터 (2편)

Sdílet
Vložit
  • čas přidán 2. 04. 2022
  • 아날로그 컴퓨터 그 두 번째 영상입니다.
    이전 영상과 이어지는 내용입니다. 먼저 보셔야 더 재밌게 보실 수 있습니다.
    즐겁게 봐주세요!
    Thanks to Mike Henry and everyone at Mythic for the analog computing tour! www.mythic-ai.com/
    Thanks to Dr. Bernd Ulmann, who created The Analog Thing and taught us how to use it. the-analog-thing.org
    Moore’s Law was filmed at the Computer History Museum in Mountain View, CA.
    Welch Labs’ ALVINN video
    ▀▀▀
    References:
    Crevier, D. (1993). AI: The Tumultuous History Of The Search For Artificial Intelligence. Basic Books. - ve42.co/Crevier1993
    Valiant, L. (2013). Probably Approximately Correct. HarperCollins. - ve42.co/Valiant2013
    Rosenblatt, F. (1958). The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain. Psychological Review, 65(6), 386-408. - ve42.co/Rosenblatt1958
    NEW NAVY DEVICE LEARNS BY DOING; Psychologist Shows Embryo of Computer Designed to Read and Grow Wiser (1958). The New York Times, p. 25. - ve42.co/NYT1958
    Mason, H., Stewart, D., and Gill, B. (1958). Rival. The New Yorker, p. 45. - ve42.co/Mason1958
    Alvinn driving NavLab footage - ve42.co/NavLab
    Pomerleau, D. (1989). ALVINN: An Autonomous Land Vehicle In a Neural Network. NeurIPS, (2)1, 305-313. - ve42.co/Pomerleau1989
    ImageNet website - ve42.co/ImageNet
    Russakovsky, O., Deng, J. et al. (2015). ImageNet Large Scale Visual Recognition Challenge. - ve42.co/ImageNetChallenge
    AlexNet Paper: Krizhevsky, A., Sutskever, I., Hinton, G. (2012). ImageNet Classification with Deep Convolutional Neural Networks. NeurIPS, (25)1, 1097-1105. - ve42.co/AlexNet
    Karpathy, A. (2014). Blog post: What I learned from competing against a ConvNet on ImageNet. - ve42.co/Karpathy2014
    Fick, D. (2018). Blog post: Mythic @ Hot Chips 2018. - ve42.co/MythicBlog
    Jin, Y. & Lee, B. (2019). 2.2 Basic operations of flash memory. Advances in Computers, 114, 1-69. - ve42.co/Jin2019
    Demler, M. (2018). Mythic Multiplies in a Flash. The Microprocessor Report. - ve42.co/Demler2018
    Aspinity (2021). Blog post: 5 Myths About AnalogML. - ve42.co/Aspinity
    Wright, L. et al. (2022). Deep physical neural networks trained with backpropagation. Nature, 601, 49-555. - ve42.co/Wright2022
    Waldrop, M. M. (2016). The chips are down for Moore’s law. Nature, 530, 144-147. - ve42.co/Waldrop2016
    ▀▀▀
    Special thanks to Patreon supporters: Kelly Snook, TTST, Ross McCawley, Balkrishna Heroor, 65square.com, Chris LaClair, Avi Yashchin, John H. Austin, Jr., OnlineBookClub.org, Dmitry Kuzmichev, Matthew Gonzalez, Eric Sexton, john kiehl, Anton Ragin, Benedikt Heinen, Diffbot, Micah Mangione, MJP, Gnare, Dave Kircher, Burt Humburg, Blake Byers, Dumky, Evgeny Skvortsov, Meekay, Bill Linder, Paul Peijzel, Josh Hibschman, Mac Malkawi, Michael Schneider, jim buckmaster, Juan Benet, Ruslan Khroma, Robert Blum, Richard Sundvall, Lee Redden, Vincent, Stephen Wilcox, Marinus Kuivenhoven, Clayton Greenwell, Michael Krugman, Cy 'kkm' K'Nelson, Sam Lutfi, Ron Neal
    ▀▀▀
    Written by Derek Muller, Stephen Welch, and Emily Zhang
    Filmed by Derek Muller, Petr Lebedev, and Emily Zhang
    Animation by Iván Tello, Mike Radjabov, and Stephen Welch
    Edited by Derek Muller
    Additional video/photos supplied by Getty Images and Pond5
    Music from Epidemic Sound
    Produced by Derek Muller, Petr Lebedev, and Emily Zhang
    Dubbed by Mingi Kwon
    Additional Edited by Jaehyuk Jung
  • Věda a technologie

Komentáře • 173

  • @user-zr1ex8hq6c
    @user-zr1ex8hq6c Před 2 lety +117

    퍼셉트론을 만들었던 로젠블라트는
    사실 아날로그 신호처리의 대가였었습니다..

    • @sin102004
      @sin102004 Před 2 lety +3

      옛날에는 로젠블랫이 아니라 로젠블라트라 불렀군요

    • @user-zr1ex8hq6c
      @user-zr1ex8hq6c Před 2 lety +5

      그는 고차 푸리에 스펙트럼의 대가 였다고 합니다.

  • @mks8271
    @mks8271 Před 2 lety +49

    와 감탄스러워서 말도 안나옵니다 ㄷㄷㄷ

  • @kain8099
    @kain8099 Před 2 lety +6

    Back to basic이네요..앞으로의 발전이 더욱 기대됩니다.. 좋은 영상 고맙습니다.

  • @hone2728
    @hone2728 Před 2 lety +2

    덕분에 채널 정주행했네요. 영상 감사합니다.

  • @reikoe3226
    @reikoe3226 Před 2 lety +6

    너무 좋은 영상 번역 감사해요

  • @today.dinner.man.
    @today.dinner.man. Před rokem +12

    적분기부터 보다가 ai로 이어지는 흐름에 감탄했습니다. 관련업계 종사하고있는데 너무 재밌게 봤어요👍

  • @jck0024
    @jck0024 Před 2 lety +3

    매우 유익한 영상👍🏻

  • @user-ke1zm1gg9n
    @user-ke1zm1gg9n Před 2 lety +60

    반쯤 뭔소린지 모르겠는데 적분기부터 너무 흥미로워서 보고있습니다 여기저기서 ai라는 단어 볼때마다 저걸 어떻게 훈련시키는건지 생각했는데 저런식으로 작동하는 거였다니 너무 신기해요

    • @kaioh1384
      @kaioh1384 Před rokem

      신경망은 조금 공부해서 알겠는데 전자공학은 1.5배로 들어서 그런가 한번만에 이해 안되네 ㅋㅋ ㅠ

  • @user-zx4rq5qv9i
    @user-zx4rq5qv9i Před 2 lety +40

    이거 무지하게 흥미진진하게 봤던 에피소드에요. 한국어 번역본으로서 공급된다는 소식에 무척 기쁩니다

  • @user-ox4vp2tk6p
    @user-ox4vp2tk6p Před rokem +2

    아날로그 컴퓨터에 대해서 전혀 모르고 있었는데, 해당 시리즈를 통해 배울 수 있어 좋은 기회였습니다.

  • @JunhyeongKim_Crossfit
    @JunhyeongKim_Crossfit Před 2 lety +182

    관련 분야 연구중인 석사과정생입니다. 직접 cmos 회로를 구현해봤지만 아날로그 to 디지털연산기의 정확한 연산이 매우 어렵고 에너지 소모가 매우 큽니다. 따라서 현재는 아날로그 연산 방식으로 인공신경망을 구축하기에는 무리가 있습니다.

    • @user-eo1tw9ly8q
      @user-eo1tw9ly8q Před 2 lety +77

      영상 말미에 대충 넘어간 부분이 실은 큰 난관이었군요

    • @user-kymkym
      @user-kymkym Před 2 lety +13

      역시 대학원생은 업계 현실과 마주하나 봐요. 화이팅!!

    • @godbless253
      @godbless253 Před 2 lety +43

      석사 : 이거 다 알거같아!
      박사 : 뭐야 이걸 아는 사람이 한명도 없어?
      교수 : 나밖에 아는 사람이 없네

    • @agent9084
      @agent9084 Před 2 lety +13

      그런데 학교 밖으로 눈을 돌리면, 누군가는 연구하고, 누군가는 해냄..

    • @crushist
      @crushist Před 2 lety +3

      대학원생은 그 어려운걸 해내죠 ㅋㅋ

  • @IsaccNewten
    @IsaccNewten Před rokem +1

    인공지능의 기본 원리를 조금이나마 알게 된 것 같네요 ㅎㅎ 잘 봤습니다.
    신경망이 그런식으로 작동한 다는 것도 매우 흥미롭네요 ㅎㅎ

  • @42_cloud
    @42_cloud Před 2 lety +1

    이 영상 시리즈로 유입이 된게 감사할 정도로 감탄이 나오는 영상

  • @tamasino52
    @tamasino52 Před 2 lety +17

    딥러닝에도 범용 특징 추출기가 많으니 칩들을 범용 모델에 따라 모듈화한다면 생각보다 다양한 곳에 응용될 수도 있을 것 같은데요?

  • @gomdolri
    @gomdolri Před 2 lety +5

    이런 정보를 누구나 볼수있는 세계에 살게된게 자랑스럽네요

  • @user-ev9ug4yp9c
    @user-ev9ug4yp9c Před 2 lety +11

    베리타시움 한국어 채널이 있는지 처음 알았네요. 이 좋은거 왜 이제 안 거지?

  • @user-rax146
    @user-rax146 Před 2 lety +1

    정리 잘했네요. 이 분야에서 일하는 사람의 입장으로써.

  • @Kn1ghtCh4ser
    @Kn1ghtCh4ser Před 2 lety +5

    시리즈를 이어서 그냥 주욱 봤는데 알게된 면도 많고,
    제 전공과는 약간 거리가 있을 수 있지만 매우 유익했습니다.
    이런 유익하고 재밌는 채널을 이제 알게되다니.. 지금이라도 구독합니다!

  • @seyongkwon
    @seyongkwon Před 2 lety +1

    이런 채널 찾고 있었습니다.

  • @초장순두부
    @초장순두부 Před 6 měsíci

    신경과를 전공으로 생각하고 있는 현 수험생인데, 너무 감명깊게 봤네요! 마저 모고를..끄적끄적

  • @yacht-responce
    @yacht-responce Před rokem

    원본영상 봤는데 제목보고 또보러옴 ㅋㅋ 어떻게 참냐고~

  • @g9star
    @g9star Před rokem

    진짜 ㅈㄴ재밌다 ㅁㅊ...

  • @user-gj7cf5jj7j
    @user-gj7cf5jj7j Před rokem

    이미지생성 ai 를 이용하고있는데 확실히 아날로그 컴퓨터와 인공신경망 시리즈 를 보니 어떤 원리로 움직이는지 알것같습니다

  • @allem49
    @allem49 Před 2 lety

    이거 너무 잼있다

  • @rldbs3411
    @rldbs3411 Před 2 lety

    좋네여

  • @user-ji4mi1gi3z
    @user-ji4mi1gi3z Před rokem

    엣지컴퓨팅에서 아날로그가 확실히 이점이 있겠네요. 신호왜곡증폭만 잘 해결된다면…

  • @yomaki7856
    @yomaki7856 Před 10 měsíci

    행렬 연산을 디지털 계산이 아닌, 자연이 해주는 계산으로 하다니.. 쩌는 구만!

  • @user-rz9lk5ml1j
    @user-rz9lk5ml1j Před 2 lety +1

    7:18 타이탄 진짜예쁘다 ㄷㄷ

  • @tmslzlwl
    @tmslzlwl Před 2 lety +6

    학습에는 엄청나게 에너지 부어가면서 해도 이미 구축된 신경망을 쓸때는 엄청나게 효율적으로 사용할 수 있다는거네... 진짜 존나 똑똑들 하다ㅋㅋㅋㅋ

  • @ljh0412
    @ljh0412 Před 2 lety +2

    3와트 진짜 미쳤네ㄷㄷ

  • @user-cy5np9mp5g
    @user-cy5np9mp5g Před 2 lety +4

    ...1편의 처음부분엔 아 이런 내용이구나 하다가 어느순간 ??? 무슨말이지 하다가 그래도 재밌게 봤습니다. 인공지능이 각광받음에 따라 아날로그 컴퓨터 발달이 기대된다 이런 의미죠 ㅎㅎ?

    • @user-zo5cn7cw3b
      @user-zo5cn7cw3b Před 2 lety +3

      정확하게는 현재의 gpu는 행렬계산보다도 저장된 값(weight,bias)를 가져오는데에 더많은 에너지와 시간을 할애한다는 문제점을 아날로그로 해결해보겠다(오직 행렬계산만을 위한 배선설계를 통해)로 정리해볼 수 있겠네요

    • @user-zo5cn7cw3b
      @user-zo5cn7cw3b Před 2 lety +1

      gpu의 집적도와 성능은 곧한계가 부딪힐거라는 영상제작진의 예측이 틀림없다면요 ㅎ 저도 동의하는 내용입니다

    • @yongjunkim791
      @yongjunkim791 Před 2 lety

      아날로그 시스템은 사실 여러 분야에 이미 적용되어 활용되고 있습니다, 주변에서 쉽게 보는 디지털 저울, 온도계 등등이 있겠죵. 자율주행같은 ai 영역에서 사람과 비슷한 인식체계를 만드려는 시도에서는 충분히 아날로그식 접근이 가능하다는 이야기라고 볼수 있을것 같습니다. 사람도 무언가를 봤을때 대충 80프로 정도 확신이 들면 이건 ~~이다 라고 확정짓는것 처럼요 ㅎㅎ 아날로그 컴퓨터의 정확도는 낮으나 윗 댓글분이 언급하신 것 처럼 데이터의 무게나 분포를 활용할수 있는 분야에서는 충분히 상용화가 기대된다겠네요 ㅎㅎ

    • @danny04278
      @danny04278 Před 3 měsíci

      전공으로 인공지능 듣고
      전자공학부 학생이 아니면 이해하기 힘들거임
      반도체물리전자 내용도 있어서

  • @chorong7351
    @chorong7351 Před 2 lety +2

    물리는 이미 몇가지 공식들이 자연에 존재하죠.
    I=V/R 이라거나 I1=I2+I3, 등등...
    정말 단순하게 말해서, 항상 어떤 입력 X값에 대해 정해진 상수 C를 곱한 값 Y를 계산한다는 작업을 디지털 컴퓨터가 하는 것보다는, 영상처럼 I=V/R의 공식대로 움직이는 자연을 이용하는 편이 더 효율적일 수 있다는 말이죠. 특히 그것이 동시에 수많은 X들을 계산한 Y들을 얻어야 하는 경우엔 더더욱 효과가 크고요.
    인공신경망도 수많은 단순계산들의 합일 뿐입니다. 학습된 신경망의 정해진 값들과 위와 같은 물리적 공식을 활용하면 오히려 더 빠르고 효율적이죠.
    극단적으로, 우리 뇌의 신경망을 똑같이 모방한 인공신경망을 디지털 프로그램으로 만들었다고 합시다. 그리고 각각의 퍼셉트론이 수행하는 디지털 계산을 실제의 뉴런으로 대체한다면? 그것은 그 자체로 아날로그 컴퓨터이며 실제의 뇌가 되는 것입니다. 이런 관점에서 인간의 뇌는 인간의 생각을 계산해내는 가장 효율적인 부품이 되는 것이죠.

  • @jeongho6
    @jeongho6 Před rokem

    저도 반쯤 뭔소린지 모르겠는데 양자 컴퓨터가 나오기 전까지는 대체품으로 쓸수는 있겠네요.

  • @user-zr1ex8hq6c
    @user-zr1ex8hq6c Před 2 lety +8

    미래형 딥러닝칩은 광학적인 장치가 될거라 생각했는데
    반도체적으로도 아날로그 컴퓨팅이 구현되나 보군요~

    • @tongroh9312
      @tongroh9312 Před rokem +4

      동시다발적인 데이터를 전송할 순 있어도 그만큼 분석할 장치가 없다보니 광소자 개발 효과를 보기 힘든 것 같습니다.
      이 영상의 아날로그 반도체 장비도, 실시간으로 가중치를 바꾸며 검사하는 학습 작업은 하기 힘들어 보입니다.
      대신, 가중치 맵핑이 끝나면 각 소자마다 가중치에 해당하는 전압을 부여하는 장치를 연결하여 칩에 다운로드 하는 방식을 쓸 것 같네요.

    • @user-zr1ex8hq6c
      @user-zr1ex8hq6c Před rokem +2

      @@tongroh9312 분석은 cctv로 하지 않나요?

  • @user-si7bh4by9f
    @user-si7bh4by9f Před 2 lety

    이렇게 제2의 채굴 붐이...

  • @primezeta2194
    @primezeta2194 Před rokem +2

    현재의 AI 처리 머신의 가장 큰 문제는 대교모 행렬 연산을 하는것인데... 여기에 엄청난 전기와 열과 비용이 발생하는데 아날로그 방식의 칩이 도움이 되겠네요... 아날로그 컴퓨팅의 단점이 계산중에 오류가 발생하는것인데 약간의 오류는 큰 문제가 안되는 분야도 있으니까요.... 게임등의 그래픽 처리 GPU 같은것도 대규모 병렬처리를 아날로그 방식으로 처리했을때 약간의 오류 발생하는것은 화면에 비정상적인 컬러의 픽셀들일텐데 이런것도 큰 문제 안될것 같네요...

    • @user-vb5we7hj3x
      @user-vb5we7hj3x Před rokem +2

      엔비디아dlss나 라데온 피델리티보다 더 큰폭의 성능향상이 있겠군요 16K 해상도로 144프레임 뽑으면 픽셀 몇개 삑사리난들 체감도 안될테니 그래픽에 굉장히 유리할것같습니다

    • @coinwhere
      @coinwhere Před rokem +1

      아날로그 컴퓨팅의 단점이 계산중에 오류가 발생하는것인데 약간의 오류는 큰 문제가 안되는 분야도 있으니까요 --->> 그래서 정확성이 아니라 확률로 존재하는 입출력 값을 다루는 신경학습망같은 곳에 쓴다니까 말입니다. 방송에 내용에 나옵니다.

  • @aniein501
    @aniein501 Před rokem

    결과 출력용으로는 효율적으로 쓸 수 있다는건데 나중에 컴퓨터 부품으로 나왔으면 좋겠네요 글카에 내장된다거나

  • @user-bw2xt6ow4w
    @user-bw2xt6ow4w Před 11 měsíci

    소재가 미니멀해진다는건 그만큼 광범위하게 AI가 사용될 수 있고 또 그 결과또한 더 정확해 지겠죠... AI 분야가 모든 산업분야에서 활용될 수 있는 시대가 올거 갔습니다.

  • @ddolgiB
    @ddolgiB Před 2 lety

    Wow~!

  • @user-qy5id5xb1k
    @user-qy5id5xb1k Před 8 měsíci

    Cnn에 대해서 좀 설명을 해줬으면 더 좋았을 듯 하네용

  • @mtnko9180
    @mtnko9180 Před 2 lety +5

    01:09 Vsauce 깜짝등장

  • @user-uw6ii2vc6x
    @user-uw6ii2vc6x Před 2 lety +5

    아날로그를 AI에 적용할 수 있다는 놀라운 사실을 알게 해 주셔서 감사합니다~

    • @coinwhere
      @coinwhere Před rokem

      아날로그 신호를 신경학습망에 사용하는 것이지 아직 신경학습망(Neural Network) 이 AI는 아니지.
      신경학습망은 확률로 출력이 되는 그런 확률 데이터를 입출력으로 하는 것.

  • @user-kt8pm8ln2o
    @user-kt8pm8ln2o Před rokem +1

    아날로그 컴퓨터는 말 그대로 “ 물 흐르듯이 ” 계산하겠네요

  • @Kamael66
    @Kamael66 Před 2 lety +14

    아니 제목을 완전히 변경해 놓고 2편이라고 하면 곤란하죠.

  • @snowmanlee3360
    @snowmanlee3360 Před 2 lety +24

    아마도 디지털 방식과 아날로그 방식의 적절한 조합을 통한 컴퓨터 성능의 최적화가 바람직한 방향이 아닌가 싶다 마치 골디락스 존과도 같은 개념으로 접근할 필요가 있지 않을까 싶다

  • @user-bo5ex4zu3f
    @user-bo5ex4zu3f Před 8 měsíci

    모델 수정을 하려면 칩 자체를 갈아끼워야하는 문제가 있겠네요 ㅋㅋㅋㅋ

  • @thing386
    @thing386 Před 2 lety +2

    알렉스 팀이 현 그래픽카드 가격 폭등의 원인중 하나구나...ㄷㄷ

  • @akida416
    @akida416 Před 2 lety +1

    5:12 부터 가장 중요한 부분이 나오지만 나는 한 마디도 못 알아듣겠네요 ㅠㅜ

  • @ljh0412
    @ljh0412 Před 2 lety +3

    그래도 여전히 무어의 법칙은 현실화될 것 같다. 이미 3d로 칩을 구성하는 기술을 암당이 보여줬으니 최적화가 완료되면 두배는 거뜬할듯?

    • @user-ri3yy7yc4g
      @user-ri3yy7yc4g Před 2 lety

      맞습니다 finfer도 그러한 해결책의 일환이고 인류는 해낼겁니다.

  • @gepard7659
    @gepard7659 Před 2 lety +16

    너무너무 재밌게 봤습니다. 너무 꿀잼입니다. 구독 추천함 =)
    기억나는거 적어봄 총 3가지로 분류할 수 있음
    천째, 인공지능이나 어떠한 것을 판단하고 계산할때 행열이 쓰인다. 기존의 디지털 방식으로 아주 놀라운 정확도를 가진다. 그러나 에너지와 시간의 소모가 크다.
    둘째, 여기서 아날로그 칩이 각광 받고 있다. 닭인가를 판단할때 디지털 침으로는 98퍼센트를 자랑한다. 인간의 오차범위는 5퍼다. 인간의 판단력보다 더 높다. 그러나 아주 불필요하다 95퍼나 98퍼나 닭일 뿐이다. 반면, 아날로그 칩은 적은 배선으로 순식간에 계산하고 판단할 수 있다. 그러나 오차범위는 디지털보다는 클것이다. 그러나 이게 무슨 문제인가 판단하고자 하는건 닭일 뿐인데
    셋째, 결론적으로 폰노이만은 디지털이 계산범위가 크면 클수록 무어의 법칙처럼 아주 불필요한 에너지와 시간이 들어간다. 이걸 병목현상이라 한다. 디지털 칩의 물리적 한계가 왔다. 이제 미래에는 구닥다리 아날로그 칩은 디지털 칩을 대체할 것이고 가능성 또한 무한할 것이다. 행열을 구하는데 디지털 칩보다 아날로그 칩이 더 낫기 때문이다.

  • @JJ-pf7qo
    @JJ-pf7qo Před rokem +1

    정말 쉽게 풀어놧네요. 뉴런 컴퓨터가 어떻게 0 1 그 사이를 만드나 햇더니. 간단한 I vr 이거 하나로 트랜지스터 전류양으로 조절을 하는거네요.
    Ai 방식이 그 옛날 50년대 연구와 기초가 다르지 않다는것도 놀랍습니다.
    비전공자 이지만 정말 짧은시간에 엄청난건 배우고 가는거 같아요.

    • @coinwhere
      @coinwhere Před rokem

      가변 저항을 영어 약어로 어렵게 이야기 하네요? 공돌이 부심인가요?

    • @youdieee
      @youdieee Před rokem +3

      ​@@coinwhere영상에 나온거 그냥 말한건데 공돌이가 되다니, 부럽네요

    • @dhdhas3786
      @dhdhas3786 Před rokem +1

      ​@@coinwhere열등감 오지시네요

    • @coinwhere
      @coinwhere Před rokem

      @@dhdhas3786 니깟게 뭔지도 모르는 판에 무슨 열등감? 댓글봇에 인간이 왜?

  • @user-wf6cj8sw5c
    @user-wf6cj8sw5c Před 2 lety

    나중에 상용화 되면 그래픽카드에 실장되어서 나오려나
    만약 나온다면 그래픽카드 제원에 글자 몇개 추가에 PCI 규격도 새로 만들어서 나오면 좋겠군요.

  • @user-xw2zz2wv2x
    @user-xw2zz2wv2x Před rokem

    대규모 병렬 행렬곱은 그동안 GPU 또는 전용 처리장치 (NPU, TPU) 등을 사용하였으나 아날로그 컴퓨터를 이용하여 빠르게 연산 할 수 있다.
    단점은 아날로그 데이터는 왜곡이 심하여 디지털 데이터로 변환해야 실사용이 가능하다. 그리고 이 변환과정이 매우 전력소모가 크고 어렵다.
    정리 끝
    영상 잘 봤습니다. 생각할 거리가 생기는 좋은 시간이었습니다

    • @coinwhere
      @coinwhere Před rokem

      단점은 아날로그 데이터는 왜곡이 심하여 디지털 데이터로 변환해야 실사용이 가능하다. 그리고 이 변환과정이 매우 전력소모가 크고 어렵다. --->> 그래서 AI 이미지 학습같이 확율적으로 인식하는 경우에 쓴다고 하자나, 보고도 몰라? 아날로그 데이터를 받아서 디지털로 전환해서 정확하게 반응하게 작동하는 시스템이면 그냥 기존의 디지털 컴퓨터를 쓰면 되지 무슨 말이 하고 싶니?

    • @user-xw2zz2wv2x
      @user-xw2zz2wv2x Před rokem

      @@coinwhere 너 보라고 쓴거 아닌데 ㅋㅋ 왜 이렇개 화났음?

    • @coinwhere
      @coinwhere Před rokem

      @@user-xw2zz2wv2x 유튜브 댓글을 달지 말던가? 무슨 회괴한 소리냐?

    • @user-xw2zz2wv2x
      @user-xw2zz2wv2x Před rokem

      @@coinwhere ㅋㅋㅋ 댓글을 봐서 화가 나셨구나 거 죄송하게 됐수다~ 근데 저도 당신의 "회괴"한 맞춤법에 화났는데 사과해라

  • @user-sn6dg5uf4m
    @user-sn6dg5uf4m Před rokem

    영상보니까 ssd멀티셀 개념 비슷하게 가네요

  • @aldb0309
    @aldb0309 Před 2 lety +1

    뇌의 부분은 디지털처럼 작동하고 전체는 아날로그처럼 작동한다..

  • @user-zy5ph3ox7w
    @user-zy5ph3ox7w Před 2 měsíci

    아날로그 컴퓨터 관련주 사야겠네

  • @procyonq
    @procyonq Před 2 lety +1

    7:32 아날로그컴퓨터로 Training 어렵지만 Inference는 가능하다 로 이해하면 될까요?

    • @user-nf3nt4wi1m
      @user-nf3nt4wi1m Před 2 lety +1

      학습할 때는 gpu같은 디지털 연산장치를 사용하고 추론(정확히 아날로그 컴퓨팅이 바라는 특정 분야)할 때는 소비전력이 훨씬 낮은 아날로그 연산장치를 사용한다는 뜻인 것 같네요

  • @hyun-87
    @hyun-87 Před 2 lety +2

    그럼 AI의 마지막은 아날로그...라는 말이 되는군요...

  • @VtuberHotelVKing
    @VtuberHotelVKing Před 2 lety +4

    6:57 아날로그칩은 3와트를 소모하고 GPU는 50~100와트를 소모하는 백만원짜리 부품이라는게 웃음포인트네요 ㅋㅋㅋㅋㅋ

    • @coinwhere
      @coinwhere Před rokem

      가장 최신 글카 GTX 4090 소비전력은 600W입니다.

    • @youdieee
      @youdieee Před rokem

      ​@@coinwhere추측해보자면 해당 영역 연산에 필요한 에너지가 100와트 정도란 것으로, 그래픽 카드를 OS를 통해서 사용하는 것이 아닌 커널에 쓰는 커스텀 장치를 이용해서 해당 부분만 사용하는건가봄

  • @위즈WisdomIT
    @위즈WisdomIT Před 9 měsíci

    세상엔 똑똑한 사람들이 너무 많다..

  • @user-sn1ww4xv6d
    @user-sn1ww4xv6d Před 2 lety

    한국어 채널을 운영하는 당신은 누구입니까? 너무나 궁금합니다.

  • @user-bb1xf2rr1c
    @user-bb1xf2rr1c Před rokem +1

    ㅇㄴㅋㅋㅋㅋㅋ진짜 드립이 섞인 ㅋㅋㅋㅋㅋㅋ

  • @warden5055
    @warden5055 Před 2 lety

    양자컴이 실용화 되는 방법밖에 없겠구만

  • @InminKing
    @InminKing Před 2 lety

    학부때 배운 SNR이랑 PER생각나네

  • @user-tz6mb8pf1t
    @user-tz6mb8pf1t Před 9 měsíci

    이제 유명무실한 사운드카드 자리에 소형화 아날로그 컴퓨팅 보조장비 꽂는 시대 오겠네

  • @TaejoonOh
    @TaejoonOh Před rokem

    재미있는데, 머리가 너무 아파용... 근데 재밌어...
    내가 학창시절에 공부를 더 해놨었다면, 이 시리즈를 이해하는데에 조금은 어려움이 덜했을까...?

  • @user-gc7cq9ef7z
    @user-gc7cq9ef7z Před rokem

    디지털은 1 또는 0
    아날로그는 가변값을 가진다는거네요

  • @bighand9558
    @bighand9558 Před rokem

    30년전에 군생활때 고참이 그러더군요. 디지털 컴퓨터가 한계가 오면 아나로그 컴퓨터가 떠오를거라고.. 그고참은 지금 무슨일하고 있을까..

    • @sweetmankim
      @sweetmankim Před 5 měsíci

      그 당시 방공부대나 공군 무장 쪽에 계셨고 전자 쪽에 조예가 깊은 분이라면 충분히 예상할 수 있었겠죠.
      80년대에 쓰던 크루즈 미사일이나 방공 미사일들은 모두 아날로그 컴퓨터들을 썼고 ( 최하 초속 300미터를 날아가고 당시 디지탈 CPU는 4-20MHz - 명령어 하나에 약 1-2us 정도 걸렸으니 아차하면 오차... ).
      지금 테슬라의 FSD도 진화하면 아날로그적 해석이 많이 들어갈 것입니다...

  • @ymkim4698
    @ymkim4698 Před 2 lety +1

    한 7년전에 박사과정 친구한테 아날로그의 힘에 대한 이런 비슷한 이야기를 했다가 미친 놈 보는듯한 표정으로 날 쳐다봤던 기억이 나네.

  • @Echoseok
    @Echoseok Před 2 lety

    양자컴퓨터랑 비슷한 듯 다른 듯…

  • @coinwhere
    @coinwhere Před rokem +1

    사람과 관련된 모든 작용과 반작용 자극과 대응은 모두 아날로그인데 그걸 이때까지 디지탈로 변환해서 이것의 벡터값을 계산하여 컴퓨터가 인식하고 이를 다시 변환하여 출력하고
    너무 많은 컴퓨팅 자원을 낭비해온게 디지털 컴퓨터 였다는 것
    따라서 원래 입력값을 아날로그로 가변 저항값같은 하고 이를 같은 아날로그 값으로 변환하여 출력하면 엄청난 디지털 행렬 계산 연산 프로세싱을 줄일수 있다는 것.

  • @mathsciencefancier
    @mathsciencefancier Před 2 lety

    6:47 6:56 미틴...!!ㅁ

  • @Sopiro
    @Sopiro Před 2 lety

    맞네.. 사람 뇌도 continuous space니까..

  • @F-15E
    @F-15E Před rokem

    7:14 지금 쓰는 그래픽카드를 저기서 보네ㅋㅋㅋㅋㅋㅋㅋㅋ
    하여튼 아날로그가 이렇게 되살아 날줄은 몰랐네

  • @ehfns
    @ehfns Před 2 lety +3

    6:14 보고 무릎을 탁 쳤다;

  • @FGSRL
    @FGSRL Před 7 měsíci

    8:57
    오...이게 우리의 의식과도 연결된 말이 아닌가요?
    우리가 무언가를 생각할 때, 뇌 속에서는 디지털 방식으로 수많은 0, 1 사이의 신호가 오고가지만
    정작 우리의 의식은 그 중 가장 강력한 신호값(가령 0.99987)이고 우린 그걸 "생각한다"라고 느끼는 게 아닌지...

  • @fakezero4129
    @fakezero4129 Před 2 lety +1

    점점 비싸져가고 고갈되어가는 반도체, 한계에 도달한 트랜지스터의 크기 등의 여러가지 문제를 해결할 수 있는 엄청난 방법인 것 같습니다. 아날로그 값과 디지털 값의 자유로운 형변환. 이것이 제 4차 산업 혁명에 새로운 바람을 만들어 줄 것 같습니다.
    스마트폰이 세상에 등장한지 10년이 넘었습니다. 그리고 스마트폰은 결국 한계에 도달했죠. 현재 나오고 있는 스마트폰은 외형이나 성능에서 차이가 날 뿐 근본적으로 혁신적인 무언가를 가져다 줄 수 없는 디바이스가 되었습니다. 사람들이 말하는 가장 이상적인 제 4차 산업혁명의 미래. 이것에 도달하기 위해서는 5G 기술의 진정한 실현과 애플이 스마트폰을 세상에 등장시켰던 것처럼 사람들의 생활을 바꿀 범지구적인 새로운 디바이스가 필요합니다. 제 개인적으로는 AR/VR 기술이 접목된 디바이스가 될 것으로 예상합니다만 기술의 한계로 시간이 더 걸릴 것으로 예상했습니다. 다만 이 영상을 보고 다시 한 번 생각을 바꾸었습니다. 세계에서 이런 연구가 이루어지고 있다면 어쩌면 멀지 않겠구나라는 생각이 듭니다.

  • @isaaclee6719
    @isaaclee6719 Před 2 lety +6

    1. 굉장히 흥미롭고 영감을 자극하는 영상이다.
    2. 아날로그로 계산하는것이 현재까지는 정확도는 떨어지지만 병렬로 추세를 갖는 것의 무한 계산에는 훨씬 강력하다는 얘기다.
    3. 즉 인간의 뇌의 작동방식에 훨씬 가깝다는 것이다. 22.06.27(월)

  • @mekopark3201
    @mekopark3201 Před 2 lety +1

    사실 지금의 인공지능 이슈 이전에도 아날로그컴퓨팅에 대한 장점과 수요는 늘 이야기 됐지만 규모화 시키지 못해서 결국 기존 컴퓨터의 범용성을 뒤집을 수가 없었음. 지금도 큰 차이는 없고. 그나마 비트코인처럼 대놓고 자산으로 명확하게 치환시킬 수 있는것들에나 특수목적용의 칩이 적용될 가능성이 생기는거지 그외엔 좀 미묘...

  • @dhp5865
    @dhp5865 Před rokem +1

    이런 식으로 나가면 소심한 사람이 그러듯이, 갈대처럼 오락가락 생각하는 AI도 보게 되겠군요?

  • @jaeholee3816
    @jaeholee3816 Před rokem +4

    우리뇌의 뉴런 자체가 아나로그+디지털 컴퓨터군요...결국 생명은 수십억년전부터 이 둘다 활용하고 있었음...

    • @packpack758
      @packpack758 Před rokem +3

      철학과 수학이 시작되면서 신을 부정했는데 다시 신을 믿게 될 수준임 ㅋㅋㅋㅋㅋㅋ

    • @youdieee
      @youdieee Před rokem

      ​@@packpack758처음에는 철학자들은 신을 믿었고, 부분적으로 인류를 통합 (종교) 하였죠. 그 이후 세상이 바뀌고, 수천년의 세월이 지나자 어느덧 어딘가의 철학자들은 신을 부정하였죠. 신이란게 존재한다면 어찌 이리도 역설적인 존재인가 하면서요. 허나, 철학에서 나온 여러 분파들은 다시 신을 믿습니다.
      이것이 우연의 일치로 만들어졌다는게 믿기지 않거든요. 그저 작은 피조물이자 수십억년의 세월이 이토록 복잡한 생물을 만들었다는게, 이토록 거대한 세계가 만들어졌다는게
      신을 믿을 정도로 경이롭고, 말도 안되는 세계란것을 알수록 느끼고 있죠.
      그저 일반인이 전체적으로 본다면, 그저 쉬운것으로 넘기고 신을 부정하지만, 조금이라도 깊게 파는 자들은 신을 믿게 되었습니다. 과거에도, 지금에도 말이죠. 다만 영역이 달라졌어요. 그때도 지금도 그 분야의 최전선이지만, 지금과 그때의 전선의 거리는 한참 동 떨어져 있으니까요

    • @jaaj5290
      @jaaj5290 Před 8 měsíci

      신: 어 형이야

  • @Ikmujn
    @Ikmujn Před 8 měsíci

    영상 말미에서 진행자는 다음과 같이 말합니다.
    "우리의 두뇌는 뉴런이 활성화 되거나 되지 않는다는 점에서 디지털이지만 사고가 모든 곳에서 동시에 발생한다는 점에서는 아날로그입니다."
    결국 진화의 방향은 에너지를 적게 쓰기 위한 방향으로 진화했다고 보여지네요.
    뉴런이 비활성화되면 결국 매개변수가 줄어들어 계산량이 줄어들 것이고, 순차성이 아닌 동시성으로 사고가 진행되면 느리게 작동하더라도 충분히 외부 변화에 반응하게 되겠지요.
    결국 자연에 적응한 결과가 진화라고 봐야겠지요.

  • @user-js1zt2hc1k
    @user-js1zt2hc1k Před 2 lety +1

    앞으로의 인공지능은 소프트웨어가 아니라 하드웨어가 된다는 건데 암호화폐 채굴이 GPU에서 ASIC으로 넘어가는게 생각나네

    • @user-nf3nt4wi1m
      @user-nf3nt4wi1m Před 2 lety

      gpu도 하드웨어인데영... 특정 연산에 특화된 장치를 지향한다는 의미에서는 동일한 것 같네요

  • @jaaj5290
    @jaaj5290 Před 8 měsíci

    딴건 몰라도 인간처럼 '알아서 잘' 하도록 인공지능을 만드려면 결국 인간처럼 불완전한 존재가 되어버린다는건 알겠다.
    인간의 실수도 그럼 근본적으로 연산이 딸려서 나오는 확률적 오류겠구나.. 진짜 뇌에 보조장치만 잘 심으면 현제 나온 인공지능들이 해주는 일 따위는 필요없어지는거 아닐까 싶어 무섭네

  • @whowho1693
    @whowho1693 Před rokem

    어쩌면 이 아날로그 단위 소자를 이용해서 큐비트를 구현할 수도 있지 않을까요?? 잘은 모르지만 왠지 될 거 같네요 ㅋㅋㅋㅋ

  • @lovmemory
    @lovmemory Před 2 lety

    저걸로 채굴하면 1초에 100개 정도 채굴 되나여?ㅋㅋㅋ

    • @yongjunkim791
      @yongjunkim791 Před 2 lety

      놀랍게도 아직은 채굴이 불가능 합니다.. ㅎㅎ 정확도가 100프로가 되지 않은이상 아날로그 칩에서 프로세싱한 데이터가 디지털로 변환이 완벽하게 안되기 때문이죵.. 현재 디지털 환경에서, 특히 인터넷에서 데이터를 주고 받을때 가장 중요한것중 하나가 바로 정확도 입니다. 상대방이 4를 보냈는데 한쪽에서 3을 받으면 문제가 생기겠죵. 비트코인 채굴은 단순하게 풀면 정확한 영수증을 시스템이 보유하고 있어야 한다는 것인데, 저 아날로그 칩셋의 연산을 완벽하게 디지털로 변환하는건 현재 단계에선 오히려 에너지 효율이 떨어지는 고난이도 작업입니당... 미래에 아날로그 칩셋의 정확도가 100에 수렴한다면 가능할지도 모르겠지만요..ㅎㅎ

  • @violetcrown8998
    @violetcrown8998 Před rokem

    그치 인간의 뇌는 반은 아날로그로 반은 디지털로 작동하니까

    • @violetcrown8998
      @violetcrown8998 Před rokem

      디지털로 작동한다고 어느 뎃에서 봐서요

  • @chiwoo1014
    @chiwoo1014 Před rokem

    아날로그 연산기가 발전하면 그걸로 코인 채굴하는 놈들부터 나올 것 같은데...
    아니, 코인 해킹이라도 시도할런지..?

  • @pel3798
    @pel3798 Před rokem +4

    가령 이런거임... 물 5리터와 물 3리터를 더하려고함 결과가 어케 됨??? (1) 숫자를 적어서 5+3을 계산해 공책에 적는다. (님들 사용하는 nvidia) / (2) 5리터 물 담긴 비커와 3리터 물 담긴 비커 두개 한꺼번에 부어서 눈금 봄. (회로로 결론내리는거.) 그다지 신기한 방식은 아님 컴퓨팅은 항상 그래왔음 ㅇㅇ 기술이 점점 무르익는거지. 첨에는 편한 언어 사용하다가 기술 익어갈 때쯤엔 효율성 높은 언어로 바꿔서 에너지 소비 줄이고 속도 빠르게 만듬. 일반적인 컴싸 기술 발전방식임

    • @pel3798
      @pel3798 Před rokem

      비커1 안에 원자 1,627,813,678,167,283 개 있음. 비커 2 안에 원자 1,267,381,627,831,623개 있음. 총 몇개의 원자가 있는가? (1) 기존방식으로 계산기 뚜드림. (2) 기술이 익었으니 회로 만들었고... 이 회로는 비커 두개 합쳐서 합쳐진 비커 눈금보고 바로 알려줌.

  • @No_Moo_Hyun
    @No_Moo_Hyun Před 5 měsíci

    뭔 소리야?

  • @YT-ll8ns
    @YT-ll8ns Před měsícem

    AI를 공부해보면 알 수 있지
    단순한 곱셈일 뿐인데 왜 굳이 비용이 기하급수적으로 증가하는 행렬연산을 해야하지?
    아! 큰 숫자를 표현하기에는 bit수가 부족하구나! bit제한을 없애려면 아날로그 방식으로 할 수 밖에 없겠네

  • @danny04278
    @danny04278 Před 3 měsíci

    내용이 전자공 학생 아니면 이해하기 힘들긴하겠네
    반물전이랑 인공지능 내용이라 ㅋㅋ;

    • @danny04278
      @danny04278 Před 3 měsíci

      내용 이해안되면
      지금 인공지능이란건 소프트웨어로 구현한거고
      mosfet이란 트랜지스터를 통해 신경망을 하드웨어적으로도 구현할 수 있다라고 생각하셔요
      국내에서는 NINT같은 랩실에서 연구중임

  • @weird-cat
    @weird-cat Před 2 lety +2

    야옹!

  • @user-ki6bf3go1v
    @user-ki6bf3go1v Před rokem

    강아지가 아니고 개. 개. 개. 개. 마치 성인과 아기, 병아리와 닭, 송아지와 소를 구분 못하는 분 같네요.

  • @snowflakeperv
    @snowflakeperv Před 2 lety +1

    .... 둘다 칩이잖소.. 디지털..

    • @user-qm6rz2hj6r
      @user-qm6rz2hj6r Před 2 lety +3

      칩이면 디지털임? 꼭?

    • @lja3723
      @lja3723 Před 2 lety +2

      무식한 발언이네요

    • @tminsko
      @tminsko Před 2 lety +6

      아날로그 칩도 있습니다. 여기선 AI가 나오지만 실생활에서 일반적이게 사용되는 곳은 음향장비가 있어요. 그리고 현재엔 캐패시터가 소형 칩으로 많이 제조 되죠. 캐패시터는 아날로그 장치고요.

    • @tamasino52
      @tamasino52 Před 2 lety +2

      신호가 Continuous 하다는 점에서 아날로그라고 합니다

    • @finalround7719
      @finalround7719 Před 2 lety

      드립아님?? 설마 진심일까

  • @coinwhere
    @coinwhere Před rokem +1

    2D-> 3D 로 빨 리 변환해주는 칩 결국 벡터행렬 계산을 빨리해주는 칩이란 말 속도는 기존 GP에 비교하면 1000 배 빠르고 전력소비는 2만분의 1에 불과 학습을 통하면 사진 4장이면 3D 모델링이 가능할것으로 예상합니다. 여기 텍사스에 있는 스탓업과 같은 신경 학습망 칩과 같은 종류인가 봅니다. czcams.com/video/0ntrnje1g2w/video.html

  • @coinwhere
    @coinwhere Před rokem +1

    이걸보면 SS전자보나는 TSMC가 훨씬더 빨리 더 크게 성장할것 같다는 예감이 드는 건 뭘까? SS전자는 앞으로도 쭉 멘땅에 헤딩만하다가 회사가 망할 것같다는 느낌이 든다.