인공지능 시대의 간지폭풍, 아날로그 컴퓨터 (1편)
Vložit
- čas přidán 30. 03. 2022
- 아날로그 컴퓨터 2부는 2부작으로 업로드됩니다.
아날로그 컴퓨터 2부는 2부작으로 업로드됩니다.
어 왜 2번 써지지?
어 왜 2번 써지지?
이전 영상을 먼저 보시면 더 재밌게 보실 수 있습니다.
다음 영상은 금방 올라갑니다!
Thanks to Mike Henry and everyone at Mythic for the analog computing tour! www.mythic-ai.com/
Thanks to Dr. Bernd Ulmann, who created The Analog Thing and taught us how to use it. the-analog-thing.org
Moore’s Law was filmed at the Computer History Museum in Mountain View, CA.
Welch Labs’ ALVINN video
▀▀▀
References:
Crevier, D. (1993). AI: The Tumultuous History Of The Search For Artificial Intelligence. Basic Books. - ve42.co/Crevier1993
Valiant, L. (2013). Probably Approximately Correct. HarperCollins. - ve42.co/Valiant2013
Rosenblatt, F. (1958). The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain. Psychological Review, 65(6), 386-408. - ve42.co/Rosenblatt1958
NEW NAVY DEVICE LEARNS BY DOING; Psychologist Shows Embryo of Computer Designed to Read and Grow Wiser (1958). The New York Times, p. 25. - ve42.co/NYT1958
Mason, H., Stewart, D., and Gill, B. (1958). Rival. The New Yorker, p. 45. - ve42.co/Mason1958
Alvinn driving NavLab footage - ve42.co/NavLab
Pomerleau, D. (1989). ALVINN: An Autonomous Land Vehicle In a Neural Network. NeurIPS, (2)1, 305-313. - ve42.co/Pomerleau1989
ImageNet website - ve42.co/ImageNet
Russakovsky, O., Deng, J. et al. (2015). ImageNet Large Scale Visual Recognition Challenge. - ve42.co/ImageNetChallenge
AlexNet Paper: Krizhevsky, A., Sutskever, I., Hinton, G. (2012). ImageNet Classification with Deep Convolutional Neural Networks. NeurIPS, (25)1, 1097-1105. - ve42.co/AlexNet
Karpathy, A. (2014). Blog post: What I learned from competing against a ConvNet on ImageNet. - ve42.co/Karpathy2014
Fick, D. (2018). Blog post: Mythic @ Hot Chips 2018. - ve42.co/MythicBlog
Jin, Y. & Lee, B. (2019). 2.2 Basic operations of flash memory. Advances in Computers, 114, 1-69. - ve42.co/Jin2019
Demler, M. (2018). Mythic Multiplies in a Flash. The Microprocessor Report. - ve42.co/Demler2018
Aspinity (2021). Blog post: 5 Myths About AnalogML. - ve42.co/Aspinity
Wright, L. et al. (2022). Deep physical neural networks trained with backpropagation. Nature, 601, 49-555. - ve42.co/Wright2022
Waldrop, M. M. (2016). The chips are down for Moore’s law. Nature, 530, 144-147. - ve42.co/Waldrop2016
▀▀▀
Special thanks to Patreon supporters: Kelly Snook, TTST, Ross McCawley, Balkrishna Heroor, 65square.com, Chris LaClair, Avi Yashchin, John H. Austin, Jr., OnlineBookClub.org, Dmitry Kuzmichev, Matthew Gonzalez, Eric Sexton, john kiehl, Anton Ragin, Benedikt Heinen, Diffbot, Micah Mangione, MJP, Gnare, Dave Kircher, Burt Humburg, Blake Byers, Dumky, Evgeny Skvortsov, Meekay, Bill Linder, Paul Peijzel, Josh Hibschman, Mac Malkawi, Michael Schneider, jim buckmaster, Juan Benet, Ruslan Khroma, Robert Blum, Richard Sundvall, Lee Redden, Vincent, Stephen Wilcox, Marinus Kuivenhoven, Clayton Greenwell, Michael Krugman, Cy 'kkm' K'Nelson, Sam Lutfi, Ron Neal
▀▀▀
Written by Derek Muller, Stephen Welch, and Emily Zhang
Filmed by Derek Muller, Petr Lebedev, and Emily Zhang
Animation by Iván Tello, Mike Radjabov, and Stephen Welch
Edited by Derek Muller
Additional video/photos supplied by Getty Images and Pond5
Music from Epidemic Sound
Produced by Derek Muller, Petr Lebedev, and Emily Zhang
Dubbed by Mingi Kwon
Additional Edited by Jaehyuk Jung - Věda a technologie
소수의 지식인들만 이해, 적용할 수 있던 정보를 누구나 활용 할 수 있게 만드는 과정은 위대한 것입니다
공학자들한테 경외심을 느껴야하는 이유
소수의 지식인들만 이해할 수 있는 게 아니라 굳이 알려고 하지 않는 것에 가깝죠.
@@user-rd1ko4xs2k 이게 맞음.
@@user-rd1ko4xs2k 우리는 그걸 '소수의 지식인' 이라고 하기로 했어요.
지식인은 계급의 높낮이를 뜻하는 말이 아닙니다.
@@peachblackstudio 문맥 파악이 안되신거같은데, 지식인이 아니어도 충분히 이해할 수 있음에도 이해하려는 시도조차 없다는 말입니다. 님도 이해하려는 시도도 안하고 님 생각이랑 같은 댓에 반박글 달리니까 득달같이 달려들어서 물으뜯으시잖아요?
번역해주셔서 감사해요!!
진짜 아날로그 컴퓨터로 대공포 사격통제하는거 보면 정말 인간이 이게 가능하구나를 느낍니다.
딥러닝에 대해 공부하고 있는데 정말 흥미롭고 유익한 영상입니다
좋은 내용 감사합니다
항상 잘 보고 있습니다.😊
너무 감사합니다
잘봤습니다 너무재밌네요
너무 설명을 잘 하시네요...
실무자 입니다. 저 포함해서 쉬운개념을 어렵게 설명하는 많은 사람들이 있는데 반성하게 되고 또 너무나 정확한 지식이라 놀랍습니다. 모든 학생이 공부전에 한번씩 이 영상을 봤으면 좋겠네요.
독서 지문에서 봤는데 이렇게 보니 새롭네요
으흐흐 너무 좋아
세상이 앞으로 나아가는 이유를 보고 있으니 학문적 욕구가 샘솟네요.
사랑합니다 베리타시움...
트랜지스터의 원리도 대단한데 아날로그 인공지능이라니...
음.. 완벽히 이해했어..!
인공신경망에 대한 직관적인 이해를 하는 건 이번이 처음입니다. 가중치들이 입력과 비슷해지는 게 소름돋네요.
추천 하고 갑니다
정말 좋은 영상 깊이 감사드립니다. 혹시, 원과 사각형 구분하며 가중치가 변하는 프로그램이 무엇인지 알 수 있을까요? 수업용으로 사용할 수 있다면, 학생들이 인공지능을 직관적으로 이해하는데 큰 도움이 될 것 같습니다.
빨리다음영상만들어주세요 현기증난단말이에요 ㅠ
0:15 우리가 맞는 표현입니다
이 영상이 떳네요ㅠㅜㅜ 목소리도 점점 좋아지시는거같습니다!! 잘 보겠습니다
4:32 뉴런 작동 원리
옛날에 학교에서 배웠던 기억이 나네요. 디지털컴퓨터와 아날로그 컴퓨터의 차이점...
1950년도에 이미 기초적인 인공신경망에 대한 개념이 완성돼 있엇구나 ㄷㄷ.. 과학자들은 정말 대단하네여
인공지능이 지금에서야 뜨는 이유는 컴퓨팅 파워가 압도적으로 큰 범위를 차지합니다... 현재 딥러닝같은 경우도 개념은 있었지만 그당시는 컴퓨팅성능이...
현재~잇섯지만 뭐임ㅋㅋㅋ
진짜 유튜브 썸네일이랑 제목때매 못참아서라도 들어옴 ㅋㅋㅋㅋㅋ
3:45 와 대학에서 인공지능 수업들었을때 이해 못했던게 여기서 한번에 이해가 되네 ;;;;
이게 이런 방식이었구나... ㅋㅋㅋㅋㅋㅋㅋㅋ
진짜요 ㅋㅋㅋㅋ 전 저거 이해하려고 난리쳤었는데 여긴 진짜 너무 깔끔하게 잘 설명돼 있는 것 같아요
@@pscad5439 그건 교수나 조교도 몰랐다는 거. 원래 아는 사람이 가르치면 배우는쪽이 모를수가 없어요. 일부러 모르게 알려주는거면 몰라도.
이거땜에 이 영상 좋아요 눌름
@@Snowflake_tv 그럼 사람이 다 수능 만점이게요 ㅋㅋ? 논리보소 딱봐도 가난 불우한 논리네
@@Snowflake_tv 아는거랑 가르치는건 다르죠. 뉴턴을 비롯해서 학문적 업적은 뛰어난데 가르친건 끔찍한걸로 유명한 사람이 한둘이 아닙니다.
오 공식 한국채널이 생겼었었네요
머리 한 대 맞은 것 같다. 빨리 대학에 진학하고 싶다. 그 곳에선 이런 것들을 배우는 것인가.
2022.06.25.토요일.
오후 18:52 작성.
짱구야.
아날로그나 디지털이나 이밖에 미분이던 적분이던 그에 맞게 만들어진것에서 알수 있도록 되어있다는것인데 이것에서 같은 값이 나오는게 맞는거 아닐까!.
수치를 말하는것이고 이속에 시간이나 비용 등은 다르겠지.
그렇기에 어떤것이 더 실용적인지에 있어서 알수가 있잖니!
세상엔 똑똑한 사람들이 참 많네..
그와중에 로건형 얼굴 보면 중간중간 침착맨이 보여...
아날로그 컴퓨터는 오차를 제쳐두고도 입력값을 원하는대로 통제하는 거부터 힘듦. 그걸 해결하는거 보다 뉴럴엔진, NPU 연구가 훨씬 저렴함.
원작 고대로 베낀줄알고 클릭했더니 번역이였음 ㅋㅋㅋ
실생활은 몰라도 우주에서는 쓸수있겠다.
기계기사 자격증따면서 시퀀스 회로 짜기 배우긴했는데 모선에서....
2:56 인풋과 아웃풋의 입력이 정확하지 않은게 단점이라면,
그 인풋과 아웃풋은 디지털식으로 하면 정확하지 않을까요?
아날로그 시스템의 인풋과 아웃풋은 영상에서 설명했듯이 전압과 전류 등등의 값을 활용합니다. 디지털식으로 입력을 해도, 이것을 다시 전류와 전압으로 변환할때 부품, 환경, 심지어는 양자역학 때문에 값이 요동치게 될거에요. 전류계를 건전지에 꽂았을때 그 값이 항상 일정한 선으로 나오는게 아니라 그래프처럼 요동치게 되는것과 비슷한 느낌일것 같네용. 물론 이제 시그널 프로세싱 등등으로 이 오차범위를 줄여 특정 시스템에 실제로 적용은 하고 있습니다 ㅎㅎ 다만 실제 우리가 사용하는 컴퓨터는 0과 1로 되어있어 값이 특정되기 때문에 정확도가 중요한 여러 분야에서 활발하게 사용되고 있는거죠
@@yongjunkim791 그러네요.
양자역학 혹은 우주방사선등의 오차를 막기위해 디지털을 안쓰는게 아날로그인데 그걸 또 디지털쓰면 역설이네요.
5:45 ~ 7:00의 내용을 좀 더 쉽고 자세히 알 수 있을까요?
6:50 왜지 왜 수렴하지..? 궁금하네요
입력과 출력을 정량적인 수치로 입력 가능하게 디지털에 아날로그 연산장치를 껴넣으면 더 좋지않을까???
이미 인공지능 분야에서 mixed signal processor가 활발히 연구되고 있습니다
디지털에 아날로그 연산장치를 사용하려면 우선 디지털 데이터를 아날로그 데이터로 변환해주는 과정을 거쳐야합니다. Digital to analog라고 하죠. 그렇게 변환한 아날로그 신호를 처리후 다시 디지털 값으로 변환해주면 가능은합니다. 물론 변환 과정에서 '손실'이 발생합니다. 우리는 이미 이러한 기술을 오래전부터 써오고 있습니다. mp3같은 압축음원 파일들이 대표적이죠. 소리는 아날로그 신호입니다. 그것을 디지털 기기에 담기 위해서는 디지털 신호로 변환이 필요합니다. 그리고 그 변환된 데이터를 압축해주면 MP3 파일이 되는 것이죠. 그리고 우리 귀로 다시 들려주기 위해선 아날로그 값으로의 변환이 필요합니다. 그런 일들을 컴퓨터가 처리하죠.
아날로그 컴퓨팅은 그러한 전환 과정이 없는 것을 의미합니다. 아날로그 그 자체는 정량화하기 매우 어렵습니다. sin이나 cosin 같은 곡선을 어떻게 정량화 할 수 있을까요? 우리는 peak-to-peak값은 쉽게 정량화 할 수 있지만 그 중간 중간의 연속적인 값들은 아무리 나누어도 정량화할 수 없습니다. 왜냐하면 그것은 '연속적'이기 때문이지요.
정량화를 위해서는 그 연속된 것들을 잘라내어서 불연속한 '점'들로 만들어야합니다. 그리고 그것은 디지털화 할 수 있게되죠.
미분과 적분이 그래서 필요한 것이기도 하지요. 미분은 연속에서 불연속으로, 다시 말해 아날로그 값을 디지털값으로, 적분은 불연속한 것들은 연속한 것으로, 다시 말해 디지털값을 아날로그 값으로 바꾸어주는 과정이라고 이해해도 무방할 것입니다
@@paul09111 헐 미분적분이 그렇게도 쓰이는구나 진짜 신기하네요...
아 읽기시러;
신디사이저인줄
잘보고갑니다. 여기서 끊네 ㄷㄷㄷ
컴 퓨터만들기는즐거워노이만 박사님 따흐흑...
암 호해독은모두다잘해튜링 박사님 따흐흑....
아! 그날의 그리운 수학 지식의 향연이여!!
미친놈인가 ㅋㅋㅋㅋ
씹ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ
6:51 이게 항상 수렴하는지는 어떻게 밝혀졌어요?
이런 쪽으로 공부하고 싶은데 어떤 종목?인가여?
전자.
9;34 너무 궁금해요... 찾아보고싶다
와! MLP 아시는구나~
오실로만 보면 전회실 생각나서 토할 것 같네요..
1:35 오실로스코프에 이런 파형은 처음보네요
XY모드로 해서 리사주 도형 그리면 저렇게 나와요
@@ApertureScience_KR 보드에 연결한거보니까 임의로 그린게 아니라, O/P 파형을 유도한거 아닌가요?
@@SP-kg3gr 잘 보면 C1 C2가 각각 X축Y축에 있는걸로 봐서 XY모드가 맞는 듯 합니다
다른건 몰라도 볼륨조절은 미세조절가능한 아날로그가 짱이었음-0-
가변저항(볼륨)도 미세조정가능한건 지금도 비싸고 심지어 초정밀 볼륨은 discrete 저항들 떡칠해서 만들지요
3D 프린팅 로켓 영상은 번역 계획 없으신가요?
기다려 주시면 차차 올리겠습니다!
아 저래서 AI 배우는 과정에 선형대수가 들어가는구나
굳이 안배워도 괜찮기는 합니다
선대 안배우면 느낌따라 네트워크 쌓는 코드몽키 그 이상도 이하도 안될듯...
ai가 그냥 선형대수임 그걸 안배우면 ai를 전공하는게 아니고 다른 분야를 하면서 인공지능을 활용하는거임
8:30 인공지능 자동차....?? 우리나라에서 90년대에 어느 자율주행 자동차를 교수님이 만들었는데...
자율주행차
독일에서 배워갈정도로 대단햏죠
현대가 9년정도 지원하다가 포기함
으 박스에 매직긁는소리 소름돋아
생물의 신경망 진화과정과 놀라울 정도로 흡사함.
어떻게요? 진짜요? 그렇게 안보이는뎅...
ㅇㅅㅇ?ㅋ
2편은 대체 언제나???
그래픽카드콘텐츠가 2부일듯
뭐라고 하는지 모르겠네 역시 난 문과인
가중치의 합과 bias 의 값이 같으면 어떻게 되나요
이상이냐 초과냐로 바뀌지 않을까요?
3차원 공간에서의 소리, 사람의 움직임, 자극과 반작용은 모두 아날로그 반응이다.
이걸 인간은 이제 것 디지털 벡터 값으로 변환하여 엄청난 에너지로 고속 연산하여 이를 계산하여 대응했다.
하지만 이걸 아날로그 신호로 입력하고 이를 아날로그 파형으로 연산하여 보관하고 이를 아날로그 신호로 출력하면
엄청난 에너지를 아낄 수 있고 좀 더 그럴싸한 출력 값을 내놓을 수 있다.
예를 들어 사람의 목소리를 변화시키는 음성 소프트웨어는 일단 사람 목소리를 DSP 칩으로 디지털 행렬 값으로 변환 시킨 다음
중후한 저음으로 변환하려면 그 주파수 대역으로 음성 벡터(행렬값)로 변환시켜 이를 스피커로 출력하면 중저음으로 바뀐다.
그런데 이를 아예 가변 저항값(아날로그 신호)으로 입력하여 이를 중저음 목소리에 가까운 값(저항값을 변환)으로 바꾸면
엄청난 벡터 행렬 계산 없이 바로 출력을 할 수 있다. 엄청난 에너지를 아끼는 것이다.
사람이 3차원 공간 안에서 행하는 모든 행동이나 자극과 반작용 등은 이런 아날로그 신호이다. 이를 디지털로 바꾸지 않고
바로 아날로그로 입력하고 아날로그로 원하는 변환을 하여 출력하면 엄청나네 에너지도 아끼고 쉽게 컴퓨팅을 할 수 있다.
결국 21세기 컴퓨터는 디지털과 아날로그 입출력을 적절히 배분하여 자료를 처리하는 아키텍처로 구성될 것이다.
음........
영상속에 있는 0:24초에 나오는거 쓸데없이 갖고싶네; 구매좌표 아시는분? 오실로스코프만 구하면 장난감으로 딱인데
czcams.com/video/WBlYlbJ8srs/video.html
이 제품이네요.
저도 너무 놀라운 걸 본 것 같아서 뭔지 찾아보니 이걸 파는 회사를 확인할 수 있었습니다만,
구성 만으로 봤을 때 브레드보드에 조립된 적분기/비교기/곱셈기/덧셈기의 조합회로에 비해 정교한 것 외에는 크게 다른 부분이 없어보입니다.
실물이 없더라도 우리는 익히 pspice와 같은 시뮬레이터를 사용해 이런 시스템을 모의 가능함을 알고 있습니다. 이 관점에서, 자원 측면으로 접근했을 때 매트랩보다 나은 점은 없을지 하는 부분이 추가로 고민해 볼 여지가 있는 것 같습니다.
@@SigmaDFreud많이 늦은감이 없지않아 있지만 감사합니다...!
미래인들이 보면 지금의 인공지능 계산에 쓰이는 컴퓨터도 돼지목에 진주목걸이일듯
라즈베리파이로 자동주행 하는거 아니야? ㅋㅋㅋㅋ
6:07 그럼 학습 안되요 이사람아 ';;
인공지능 knn 뉴럴네트워크 이런거 뭔가 싶었는데 이거보니깐 이해가가노
뉴런이 어떻게 가중치를 가지는지 알고 싶네요..
팔에 있는 감각 신호를 거쳐 뇌로 다시 팔로 이런 식으로
:)
박스에 글씨 쓰는 소리 너무 싫어
04:22 부교감 교감신경으로 부르는게 좋긴해요 교과서에있는표현이니,물론 하나하나 설명을 곁들일수없어서 이렇게 표현하는것도 이해가안가는것도아님
교감/부교감 신경과 흥분/억제성 신경은 전혀 다른 개념입니다! 영상에서처럼 절후 신경의 활성을 억제시키는 역할로서 흥분성 또는 억제성 신경이라 표현한 것이 맞는 표현입니다
어설프게 배운 좆문가가 이상한 태클거네.
아날로그 컴퓨터보다 수백배는 더 비싸보이는 오실로....
@서와나란 작성자님 학교에 있던 모델이 뭔지는 모르겠지만 일반적인 오실로스코프는 몇십에서 백만원대 정도 해요. 고등학교에 있었다면 아마 그렇게 비싼 모델은 아니었을 확률이 높아요
저희 학교 오실로는 대부분 200~500정도였어요 근데 기능이랑 성능은 가격 상관없이 가격 좀 나가는 모델이면 신형이 더 다양하고 좋았네요. 천만원대 오실로면 전문 연구용..? 이나 특수목적같은데 신기하네요 본 적은 없어요
오히려 펑션제너레이터가 3천만원짜리였는데 이거랑 헷갈린걸수도..ㅡ
오늘날에는 저가형은 비슷비슷할겁니다..
@@radio.m.i.x 오실로 라즈베리기반 저가형이 4만원이었나 5만원이었나 그랬는데
저런게 진짜 컴이다. 현재 컴은 모니터속의 점에 불과... 그냥, virtual 일뿐...
그건 아닙니다
그건 아님ㅋㅋㅋㅋㅋ
와.. 미치겠다.
여기 댓글단 사람들은
이게 무슨 말인지 알고 있다는 뜻이잖아
.
.
ㅈᆢ내 천재의 나라인가... 대단...
더빙 그냥 잼민이 목소리로 해주시면 안되나요?ㅎㅎㅎㅎ
왜요? 기존 목소리가 불편하기라도 해요?
굳이 잼민이 목소리로 바꿔야 할 이유라도 있나요?