************************************************ Соцсети: Telegram: t.me/engineerspock_it CZcams: www.youtube.com/@EngineerSpock Дзен: dzen.ru/engineerspock VK: vk.com/engineerspock ************************************************ НАШ САЙТ И КУРСЫ: www.engineerspock.com/offer-spock-youtube Поддержать: pay.cloudtips.ru/p/1f080f72 ************************************************ СЕРВИСЫ И БРЕНДЫ, которые я люблю и которыми пользуюсь сам: Адресная ПОМОЩЬ пожилым и больным детям, ссылка для смартфонов: : www.engineerspock.com/helpapp Бизнес в Альфа-Банке: www.engineerspock.com/alfabusiness Биржевой дракон - сервис автоматической торговли криптой для РИСКОВОЙ части инвестиционного портфеля: Почитать их ТГ-канал: www.engineerspock.com/bdtg Для оформления подписки на их сервис: www.engineerspock.com/bdtgs - писать сюда и назвать кодовое слово "DragonElias" ************************************************ Статья Шели Айзековича: dzen.ru/a/ZlbXzzBBSlv5VW-p Про Цетлин-машины: tsetlinmachine.org/
Определение интеллекта нет у кого? у ИИ или у человека? Ему (ИИ) понятно что такое интеллект, НО зрительные, слуховые, обонятельные, тактильные (осязательные), вкусовые и кинестетические ощущения создают этот интеллект, но у ИИ пока этого всего нет. Когда люди определили интеллект, то сами забыли обобщить все эти факторы в одно! Без этих чувств, если их убрать всё у человека, то и не будет никакого интеллекта, будет только мозг - без интеллекта, но если добавить хотя бы два чувства, зрительное и слуховое, то интеллект появится. Так и произойдет у ИИ. Когда ИИ получит своё тело со всеми чувствами, хоть эти чувства будут и цифровыми, то он может начать обобщать и у него может появится интеллект. Дело времени, когда это случится. Когда ИИ дадут все сенсоры и он через них познает мир, что изучал до этого чуть, тогда и будет цифровое сознание подобное нашему.
Треть видео - представление гостя. Треть видео истории как шмойлович научился пользоваться чат жпт. И треть видео о выдающихся и великолепных шмуйлях двадцатого века. Браво браво брависимо.
И что ты понял о сложном? Может расскажешь как обратная связь в перцептронах работает? :) Докажи нам всем, насколько дед великолепен и как хорошо тебя научил. :)
Какой-то поток сознания на видео, прыгает с математики в воспоминания и раз за разом теряет нить повествования. Очень тяжело воспринимать, как и большинство пожилых людей. Я так и не понял что он пытался сказать, услышал только скомканные обрывки мыслей и местами критику ради критики. Что вы там понять смогли о сложном, даже интересно Человек пожилой, все понимаю, но у меня есть вопросы к автору канала, который поставил кликбейтный заголовок совершенно не соответствующий содержанию
А что он рассказал? Верхушек нахватался и ничего по-существу. Особенно рассмешило что он отец распознавание алгоритмов текста которыми пользуется весь мир. Это враньё! P.S. Люди определенной национальности умеют хорошо спекулировать на чём-то, но ничего не умеют создавать собственными руками.
@@dronovdmitry про проблему переобучения достаточно доходчиво. Также про галлюцинации ИИ, чему я был сам свидетелем - уверенная чушь иногда бывает. также высказал мнение (достаточно спорное наверное ), что современные нейросети больше берут мощью и увеличением обучающей выборки ( спич про буквы и цифры и их распознавание)
Низкий поклон и глубокая благодарность за Гостя!! Вот это Человечище!! восхищение и восторг!!! Моего советского архитектурно-строительного образования оказалось достаточно, чтобы понять все!!!🎉😊 Елена, инженер 60 лет
Благодарю за такой контент! Ты приглашаешь уникальных гостей, увидев Арлазарова я вообще прикурил. Браво. Продолжай в том же духе. Больше так никто не делает.
Вот честно скажу начал смотреть со скепсисом, мол чего там он может внятного сказать. До смотрел до конца, не смог оторваться дядя Шелия просто красавчик. Живой ум, глобальные знания, способность посмотреть на проблему в целом. Очень интересный человек. Желаю ему еще долгих лет качественной жизни.
Верни скепсис обратно, дед Америку не открыл, просто поругал ребенок за то что он гений но человеки лучше. Что явно спорно, выгляни в окно ) там интеллекта мало ходит ;)
Мне вот вообще не понятно, как можно доверять информации ChatGPT (или любой другой нейронки) которая натренирована/черпает информацию из сети… Которую туда добавили люди! А это означает - непроверенная информация, шуточная информаци, обрывочные сведения, ошибочные описания, случайные или заведомые ошибки в инструкциях/рецептах и т.п., все различные фейки. Надеюсь понятно объяснил… Бывает гуглишь информацию очень узкоспециализированную, и все возможные гайды НЕ РАБОТАЮТ! Ну вот неправильные они и/или устаревшие. Потом перерыв весь интернет где нибудь на 5 странице в выдаче Гугла, натыкаешься на заброшенный древний форум где кто-то мимходом при обсуждении другой проблемы оставил одно маленькое сообщение с правильными параметрами. В моей работе даже в качестве просто продвинутого поисковика пока что ИИ ни разу не помог. Это как ИИ на полном серьезе советовал скреплять продукты на пицце клеем… потому что это какой-то шутник когда-то давно предложил такое решение, а ИИ взяло это за чистую монету. И все эти писалки кода-программы, основывающиеся в т.ч. на коде ламеров… ИМХО. ИИ сильно переоценены. Как в свое время бунт доткомов.
Вы мне можете объяснить, почему программисты выбросили Фортран и начали писать на языках, коих наверно тысячи, хотя Фортран быстрее всех и на нем можно написать все. Это я клоню к тому, что есть ли у вас интеллект и можно ли вам в чем-то верить в чем-то более сложном.
@@cyy5747во-первых Фортран прекрасно применяется в том числе и на суперкомпьютерах просто потому, что жалко выбрасывать уже имеющиеся программы. А так, для нового, есть более удобные языки которые не уступают ни в чем Фортрану.
@@cyy5747Фортран никто не "выбрасывал". Исторически остается один из старейших, если не первый, язык программирования. С появлением ЭВМ на них решались в первую очередь математические задачи, поэтому и была объективная потребность в создании специализированного языка программирования - ФОР-мула ТРАН-слэшион. На Фортране самая большая в мире библиотека математических и научных программ, которую можно считать достижением всего человечества. Современные IDE-средства разработки на Фортране с успехом работают и сейчас, например, Intel Fortran. Как говорят, для каждой работы требуется свой инструмент: кому-то лопата, кому-то отвёртка, кому-то молоток, кому-то С++, кому-то Java, а кому-то и старичок Fortran.
@cyy5747 Фортран никто не "выбрасывал". Исторически остается одним из старейших, если не первым, языков программирования. С появлением ЭВМ на них решались в первую очередь математические задачи, поэтому и была объективная потребность в создании специализированного языка программирования - ФОР-мула ТРАН-слэшион. На Фортране самая большая в мире библиотека математических и научных программ, которую можно считать достижением всего человечества. Современные IDE-средства разработки на Фортране с успехом работают и сейчас, например, Intel Fortran. Как говорят, для каждой работы требуется свой инструмент: кому-то лопата, кому-то отвёртка, кому-то молоток, кому-то С++, кому-то Java, а кому-то и старичок Fortran.@@cyy5747
Вы разве хотите уничтожить этот прекрасный рыночег?) Может пусть поживет, а то скоро барыги, шлюхи и мусора станут вымирающим видом и их придётся искуственно синтезировать и держать в спецрассадниках
Ну а теперь сядьте, запустите Visual Studio и попробуйте написать простейшую программу по распознаванию текста? Или программу которая бы обучилась играть в крестики-нолики?
Дело не в науке. Наука позволяет заиметь этот живой ум. Но сохранить его позволяет только большая физическая активность и чистые капиляры. Это уже доказано. Если вы будете сидеть на заднице ровно и лопать всякое дерьмо, то кровь не сможет поступать и питать весь мозг и начнется деменция. И никакая наука вам не поможет.
Когда в 80-е я учился на кафедре прикладной геофизики УИИ, после экзаменов мы спрашивали друг у друга какие были доп.вопросы к билету. Тогда логики для нас небыло никакой, могли поставить самую неожиданную задачу. Даже сильные студенты сдавали со второго, третьего раза. Эту логику я понял когда начал работать - безграничная адаптация к любому материалу и задаче. Тогда нам всем повезло, мы учились у высоких профессионалов и больших людей.
@@manOfPlanetEarth замудрённое у вас имя. В разведочной геофизике работал до начала 90-х. Потом начался первый передел и социальная коммуникативность стала важнее аналитических способностей. Пришлось освоить профессию химика аналитика, но без диплома. Нужно было зарабатывать деньги. Так и занимался узкими местами в геохимии нефтянки. Если ты с молодости раб логики, то карьера и большие деньги в этой стране тебе не светят. Осталось ремесло и память о тех, у кого учился и с кем работал.
@CuriousPassenger На ваш вопрос давно ответили классики русской литературы - все мы живём в немытой России, стране рабов, стране господ. Похоже что это навсегда. Система управления государством и обществом здесь осталась на уровне 16 - 17 века, она упорно воспроизводит себя и не может измениться. Всё остальное это частные случаи отдельных людей в лучшую, или худшую сторону.
Долгих лет Шелии Айзековичу ! Когда он говорил про кучу точек в пространстве я буквально представлял все себе. У него очень живая фантазия и способность визуально представлять систему . Хотел бы я чтоб у меня в такие годы так же работал аппарат )
Поразительный ученый. Очень глубокие вещи сказал. Великий респект. То, что он очень стар и при этом не дряхл, радует. Бытие демонстрирует очередное чудо.
Ваша оценка внешнего вида и "технического состояния" ученого выглядит некорректной и неэтичной. А отношение к человеку как к объекту, продемонстрированному вам мифическим "бытием" выглядит как попытка обесценить достижения этого человека.
Огромное спасибо, видно что человек очень умный и знающий, очень интересный собеседник. Его слова позволяют взглянуть с нового ракурса на обсуждаемые проблемы.
@@EngineerSpockбудет очень интересно! Еще Крайнов вроде тоже интервью охотно дает. Я вообще ни разу не программист, и многого не понимаю, но познавать очень интересно.
то что является для одной стороны чушью а другой не чушью для третей все оба варианта чушь полнейшая.. речь идет об исинном и бесспорном распознавании бесспорных вещей.. вы же пишите о каких то эфемерных вещах. Политика, культура, история..( если вы говорите что яблоко квадратное, то это ошибка интеллекта, а не какой политический строй или движение является чушью. любой кто скажет что любит сою страну и свой народ по вашим словам нечет чушь. Ибо он должен любить все человечество целиком) вы сами несете чушь разделяя людей на проживания в странах.
Спасибо, Илья, интересное интервью получилось. Буду ждать вторую часть и ещё хотелось бы подробней про шведских ребят, которые придумали что-то альтернативное нейронным сетям...
Вот он, интеллект! И советское образование, и мощнейшая тяга к познанию, и бесстрашие ученого, и безграничная потребность делиться своими знаниями, и способность высказать сомнения. Спасибо!
пишу не со своего аккаунта - Хасан Штымов: - ОЧЕНЬ интересная Передача-Встреча! СПАСИБО!!! 😊❤🤗❤ Я учился в ТИАСУРе, на факультете Систем Управления (ФСУ), кафедра ОАСУ - оптимальные и адаптивные системы управления. Затем, ещё и на кафедре МИиРО - моделирование изображений и распознавание образов. Избирался членом Учёного совета Института, имел свободный график обучения.
такой совет - раньше когда человек должен был выйти - сначала о нем рассказывают, а потом уже он выходит и здороваются. подсказываю - это не просто так сделано именно в таком порядке.
Ну такое себе. "Мы не мыслим картинками" - мы как раз мыслим образами, рваными событиями, которые то и дело всплывают, пока не устаканятся в воспоминание или ответ. "Это тупиковая идея" - так говорил еще один предсказатель авторитетный, что масштабирование языковой модели не приведет ни к чем и лй, как он ошибся, там возникли способности, которые как раз и исследуют разработчики. Было 10к параметров - тупая нейронка, стало 100млн параметров на входе - стала непредсказуемо умной с возможностями, которые не закладывались. И так много моментов спорных
он неверно выразился. "ИИ" как раз оперирует не картинками, а весами токенов. Пытаясь "захейтить" чат-гопоту он прибегнул к неудачной метафоре. Тем более в узком контексте символов письма он имел ввиду мышечную память (однако недоосознав, что по сути это пространственное мышечная память)
Всё правильно Шелия говорит. Попробуйте вспомнить, виде картинки, где вы были в отпуске. А потом посмотрите фотки из того же отпуска. Вы удивитесь, сколько деталей НЕ сохранила Ваша память. Но само место с картинки Вы узнаете, более того потянутся ассоциации с другими вещами, что кушали там, о чем говорили, с кем общались и тп. 😂
@@nemocaptain3346 так я так и написал) образами рваными. НЕ прям 24 кадра в секунду, как видео, а образы, перетекающие один в другой. Он же четко имел в виду чисто "вес" каждого вычисления, то есть без какой-либо привязки в визуалу.
@@nemocaptain3346 Ты слишком сложный образ взял, плюс какой-то идиотский пример, визуальному образу противопоставить фото - это конечно, надо быть умником. Ну ты представил из отпуска, что-то как картинку, но ты вспомнил хоть что-то. А другим способом ты вспомнить и это не можешь. Возьми более простой образ, например, цифру 7, представь ее в голове как-то иначе, если хорошо покопаешься в голове, то найдешь два образа визуальный, и абстрактный. Абстрактный образ имеет характеристики и операции, которые могут быть применены на объекты того же класса, плюс еще можно найти интуицию в голове, а равно, ты быстро (а может и нет, учитывая твой пример), сможешь посчитать 7*7, у тебя образ ответа возникнет сразу, он может быть неточен, но возникнет.
он рассказывает о том почему не может получится то что уже получилось человек вообще не понял как его поезд уехал. мудрые уже поняли и не сопротивляются но глупцы продолжают отвергать давя своим авторитетом. честно сказать омерзительно было слушат все эти регалии
Что-то не так в его рассуждениях. Когда человек опознает изображение, он ориентируется прежде всего на признаки и на их сочетание. "Точка-точка-запятая-минус..." - и дальше достраивает возможный вариант. Может достроить кривую рожицу, а может достроить и математическую формулу. Нынешний ИИ уже способен и обобщать признаки, и достраивать до целых образов. И для этого совсем не надо рисовать и обладать мышечной памятью. Я профессионально обучаю детей чтению и точно знаю, что многие дети запоминают буквы без всякого их написания. А другие дети сто раз букву напишут, но запомнить не могут. Я видел котенка, который подкрадывался к нарисованной мухе. Он ее принял за настоящую муху, хотя она была нарисована очень условно, без теней и без деталей, даже без лапок. Но котенок это изображение всё-таки достроил до мухи. Но ведь он сам никогда муху не рисовал, не так ли?
Как человек (и любая другая в самом общем смысле этого слова скотина) опознает изображение - науке достоверно не известно. Но есть множество разной степени логичности гипотез на этот предмет. Вы приняли одну из гипотез. И хотите из нее достроить теорию на все случаи жизни. Получится вряд ли.
Вы путаете всë. Разумеется, дети выучивают буквы, как знаки, но у этих детей во-первых уже есть телесное представление о движении и пространстве, во-вторых чтобы опознать букву "а" не в стандартном шрифте, а в граффити на стене, условно, нужно уже иметь и опыт написания. Как знак, как означающее, если угодно, если пользоваться этой терминологией, котёнок воспринимает любой небольшой движущийся объект в качестве добычи, но он не достраивает его особо ни до чего, животные в известном смысле целиком существуют в символическом, небольшой движущийся объект - добыча, частности не важны. Если он вытянутый и довольно крупный - то это уже скорей опасность. Покажите котёнку рисунок мухи размером с ладонь в книге учебника, и никакой мухой он его не воспримет (не воспримет вообще никак), ему это не нужно, он как тело в пространстве существует совсем иначе, без мелкой моторики конечностей, порождающей абстрагирования (контур и т. д)
@@pqrize Все проще. На моих глазах и с моим участием чтению учится шестой ребенок, с которым я знаком с пеленок - самая старшая внучка. У всех все по -разному. Не обобщайте то, о чем читали в книжках. Смотрите своими глазами. Начитанность полезна, но работы собственной головы не заменяет. Короче - чушь наукообразную несете.
@@user-hy7gf1uf4s вы даже не понимаете, что такое "наукообразие", а полагать, что "умные слова" это "наукообразие" и тот, кто использует подобную терминологию (она у меня в данном случае скорей психоаналитическая и к научной вообще отношения не имеет), тот читал много книжек и не думает своей головой - это просто признак самой обыкновенной и банальной глупости. и вы, разумеется, даже не поняли, что я написал, судя по вашему комментарию. Ну и, разумеется, коммент был вообще не вам, а автору первого комментария
@@user-hy7gf1uf4s а по поводу "смотреть своими глазами" - я смотрел своими глазами и общался с людьми, ставшими таковыми в результате т.н. загорского эксперимента, в ходе которого работали со слепоглухими детьми, и если вам действительно что-то интересно в жизни, почитайте об этом и постарайтесь подумать. "у всех всё по-разному" - это слова, не имеющие никакого вообще смысла в данном контексте, потому что речь идет о вещах гораздо более фундаментальных, чем те или иные склонности конкретного ребенка, к визуальному/аудиальному и т.д., при том, что склонности эти, разумеется, есть у всех
По факту общение с GPT4 более осмьсленно нежели з 90% людей. Хотя, конечно есть баги, на вьіяалегие которьіх я потратил несколько часов. Мощности LLm систем растут на порядок за год. Так, что сИИ лишь вопрос времени, несмотря на все недочетьі.
А с чего вы взяли что там будет логарифмический рост? Между gpt 3.5 и gpt 4 нет такой уж большой разницы, некоторые виды задач вообще нет прогресса. И это при том что параметров в модели на порядок больше, и ресурсов на обучение потрачено на порядок больше. Пока что это выглядит как скачок (который уже произошел) с выходом на плато
Шелия говорит, что для распознавания рукописного текста они придумали несколько примитивов (черточка, кружочек...) и такой подход - преимущество над растризованным представлением. Возможно, в 80-е годы эта идея была новой, но в 90-е Ян Лекун уже делал нейросети для рукописного текста, которые давали запредельную точность на MNIST (стандартный рукописный датасет до эпохи картинок). В конволюционных сетях такие примитивы выучиваются автоматически. Есть статьи с рисунками этих черточек, дуг, точек на первом слое нейросети. Если не нравится автоматически, можно задать этот слой вручную, и тогда это будет называться feature engineering. В общем, вопрос изученный и решенный еще в прошлом веке. Были зафиксированы рекорды точности, они перечислены на сайте MNIST, публикации.... Результатов этой модели я там не вижу.
я так понимаю речь идет именно не о "понимании" машиной, а сравнении таргета с примитивами, которые уже есть. Человек может именно понять, чего не может нейронка, она всего лишь подгоняет веса под образцы, которые у нее есть на данный момент. Это Шелия и критикует, говоря, что это не интеллект. Просто автоматическое выучивание, про которое вы говорите, это по СУТИ не меняет того, что сравниваем с шаблоном, просто их КОЛИЧЕСТВО сильно увеличивается алгоритмом, а не человеком. Количество, а не качество. Короче: все равно сравниваем с тем что есть, но не можем сравнить с тем чего нет и тогда просто машина угадывает с помощью всяких там softmax и тп. Но если я нарисую букву А так как никто не рисовал, то нейронка затупит, а человек все еще сможет угадать даже не имея готового образца (то есть такое начертание встретилось впервые и оно по критериям расстояния между картинками относительно далеко). Если еще короче: то машина гадает (сравнивает) на основе того, что знает (есть в базе шаблонов) и не более того, какими бы крутыми и красивыми словами это не описывали. P.S. от себя добавлю (как я понял из видео), что он говорит о более глубоких научных вещах, а не инженерных, что есть принципиальные проблемы в концепции сегодняшних нейронных сетей, которые как раз связаны тупо с зазубриванием результатов, а не истинным обучением. Чем больше ресурсов у компании, тем больше она может зазубрить и удивлять людей своими "спопобсностями". Хотя на инжереном уровне часть задач, действительно, решается путем увеличения размеров модели. Но он говорит про обобщение и про непрерывный набор, где мы можем предугадывать значения быстро меняющейся функции в любой ее точке, а модель правильно работает только с заученным дискретным набором данных. P.P.S. Есть подозрение, что человеческое обучение и понимание - это не просто тупо сравнивание с шаблоном и заучивание (он кстати и говорит про зазубривание - что это неэффективный метод), но еще ряд других вещей типа интуиции, воображения и тп. Выстраивания связей между тем что знаю и тем что сейчас вижу + воображение и проверка гипотез на месте. Пока мы не до конца понимаем как это работает у человека, сложно этому научить машину. Мозг часто не по алгоритмам работает - что-то спонтанное может повлиять на окончательный выбор.
@@QScientist мозг это продукт эволюции в миллион лет, а нейросеть тренируется с нуля максимум за месяцы. Что такое интеллект и сознание никто не знает. И человек тоже не может придумать то, чего не видел. Как раз недавно обсуждали книгу-справочник по инопланетянам. Все изображения инопланетян, придуманные людьми, имеют земные прототипы. Действительно, алгоритмы обучения моделей кажутся на первый взгляд не очень эффективными, есть желание делать это лучше, на меньших данных и быстрее. Вот пусть Шелия и сделает.
@@QScientistВсе верно, что делают текущие методы, которые построены на обратном распространении, это всего лишь метод. Далее на эту концепцию прикручиваются всякие фичи, типа новых функций активации, методик оптимизации, методик оптимизации гипермараметров, самих методик оптимизации гипермараметров, типа модификации Бейса и т.д. Но это просто улучшение, фундамент кривой, а внутри красиво, но это не ии, не может быть в принципе.
Цетлин Машина действительно работает. Третий год занимаюсь рисерчем в этой области. Модифицировал оригинальный алгоритм и добился скорости распознавания рукописных цифр из датасета MNIST - 50 миллионов распознаваний в секунду на CPU.
@@user-om4qg2bz7y Ну... дай Бог, конечно, но трудно поверить. Девяносто пять -- это пигментные пятна, сухая кожа и тихий надтреснутый голос. Темп речи тоже замедляется. Может, у профессора гены со знаком качества? Или положительная мутация, восстанавливающая количество теломер? Вспомните недавно умершего Дэвида Рокфеллера, который немного не дотянул до сотки: при всех его возможностях это была развалина.
@@EngineerSpock Простите, но я очень недоверчивый человек. Если я не вижу признаков заявленного возраста, ни слова ни документы на моё мнение не повлияют. Был уже случай в какой-то из европейских стран, когда стодвадцатилетняя долгожительница оказалась собственной дочерью)) Это не значит, что я обвиняю Вас или гостя канала во лжи, просто для меня вопрос остаётся открытым. Во многом ещё и потому, что мне очень хочется, чтобы люди действительно так выглядели в 95, -- но я стараюсь не допускать, чтобы мои желания влияли на мою точку зрения.
Выводы Шелия Айзековича вполне согласуются с гегелевским определением метода. Лично для меня эта лекция внесла некоторое прояснение. Большое спасибо за знакомство с гостем👍
У меня закралось подозрение, что Губерман понимает работу нейронных сетей очень поверхностно. Сравнивая свой метод распознавания образов (основанный на алгоритмической детекции паттернов "движения") с работой тех же "нейронных" сетей, он делает определённые обтекаемые заключения о свойствах нейронных сетей, расходящиеся с действительностью. Соответственно, ценность экспертной мысли Шелии, в данном вопросе, я ставлю под сомнение...
Если он в парадигме Бонгарда рассуждает, эта одна история, но и про градиентный спуск он упоминал, кажется. Здесь как-то резонирует его понимание обобщения с тем, к чему мы привыкли в ML. “Запомнил” паттерны на training set, остановился вовремя на validation, проверил на тесте… Взял лучшую модель. А его обобщение - это некое чудо. Узнай похожее в непохожем. Еще понравилось, что в рассуждение о гештальте и правильном порождении можно увидеть связь с идеей регуляризации.
7:09 не правда, давно уже есть исследования которые говорят о том, что не у всех людей в голове есть мысленная речь, некоторые как раз представляют картинки того, что они хотят да и в принципе вся их "внутренняя речь" построена на визуальных внутренних образах. 16:00 не совсем понял... Т.е. он хочет сказать что это не интеллект если он совершает ошибки или врет?) Тогда ни один человек на земле не имеет интеллекта. И так же не каждый человек отличит чушь от не чуши... То же самое и про доверие, даже самые лучшие специалисты в своих областях делают ошибки. 20:50 Это почему же не может?) Наша история (история человечества) сплошное доказательство обратного. Проблема галлюцинаций и неправильного представления ии о вещах в том, что его в основном обучают на фиксированной базе данных. Это ЛИБО текст, ЛИБО картинки, ЛИБО звук. Это как пытаться объяснить слепому без рук или каких либо тактильных ощущений как выглядит яблоко, стол, компьютер и так далее. Согласитесь, что это довольно сложно если почти не невозможно. Если дать ии для обучения сразу ВСЕ в качестве базы данных, то он будет учиться гораздо лучше и быстрее, а неправильных и глупых ответов будет меньше. (Что вроде как сейчас делает OpenAI, обучает на тексте и изображениях) К тому же большую часть "базы данных" обучения у людей составляют еще и тактильные ощущения, запахи, вкусы и остальные реакции на разные раздражители, что недоступно сейчас для ИИ. И это я уже не говорю о том что сами люди обучаются примерно 6-8 лет (и больше)! В то время как от ИИ мы требуем такие же результаты или в несколько раз лучше, но уже за несколько месяцев/пол-года или год. А иногда мы обучаем небольшую нейронку вообще за считанные часы или минуты
@@EngineerSpock На самом деле люди так же испытывают затруднения с умножением. Для большинства умножение в уме даже двухзначных чисел уже непосильная задача. Просто мы обучены алгоритмам, а машина тупо предсказывает результат и дает довольно точные приближения.
@@SuperAether в том-то и дело что эти довольно точные приближения будут приводить к тому что иногда 2 на 2 равно 5, условно. Об этом Губерман и говорил. И скорее всего от этого мы не избавимся
@@EngineerSpock Главный тезис Губермана, что ИИ не интеллект, потому что ИИ допускает ошибки. Мой тезис, что машины испытывают сходные с естественным интеллектом проблемы. Люди тоже допускают ошибки и иногда довольно нелепые. Поэтому я считаю, что ошибки допускаемые ИИ не являются показателем отсутствия интеллекта.
Пример с буквой не корректен. Сравнивать ребёнка и машину, утверждая, что машине нужно было 6000 картинок буквы, а ребёнок её понял сразу - это искажение. Тут нужно взглянуть на то, как ребёнок видит букву в реальном времени. А видит он бесконечно подвижную букву, под разными углами, разного размера, а это сотни тысяч фотографий (если подумать об этом как о видео ). Машина видит 4 минуты видео (6000 картинок /25кс /60сек = 4мин). И уже очевидно, что ребёнок обучается отнюдь не за 4 минуты, а то алфавит бы знали с пелёнок.
О, спасибо за уточнение. Но в действительности претензия реально смешная. У ИИ нет интерфейса взаимодействия с реальностью, чтобы посадить его за парту и наяривать чисто-писание, чтобы из его уже делать представления о буквах. Поэтому, даже если обучение наложением и тупиковое, другого универсального метода не существует (не придумали).
Странно, а разве в OCR системах не используют векторное представление и топологичекий анализ? Не знал что там растровая матрица. Если бы я придумывал OCR я бе не пошёл по этому пути) Но кто я)
Пример с буквой корректен на все 100. Сколько по вашему изображений людей плащей и велосипедов и в каких фазах их движений, нужно ребенку, чтоб с 100%ной вероятностью распознать, что это человек в плаще в дождь ночью ведет за ручки велосипед по обочине дороги?
@@MaxiRPD тогда и ваше объяснение не корректно. МЫ не знаем как работает мышление ребенка, вернее вы не учитываете этого. Как сказал Губерман тут нужно понимать предмет изучения, а именно мышление ребенка. Пока то, что вы говорите умозрительное предположение. Вероятно вы в чем то правы, и это интересно.
Сам г-н Губерман - пример Интелекта! Какие чистые суждения и глубокие выводы! С ними более оформилось и собствнное отношение к ии. Интеллект: однажды в купе играли с женой в Кинга вместе с проф игроком в Преф, он проиграл, мы, дилетанты - в плюсах; условия задачки изменились, он не перестроился на дилетантов, коротающих время в дороге.
Спасибо за такую встречу!!! Часто задаваемый мне вопрос,что я думаю об ИИ и т.п. Как художник, могу сказать, что главное, на что не способен ИИ это на творчество! ИИ может создавать что-то из чего-то, уже известного, как раз обобщать, анализировать данные согласно алгоритма он может. Но выйти за пределы известного может только человек. Ещё немецкий философ В.Гете в своих трактатах о форме и цвету поднимал тему работы мозга и как человек мыслит преимущественно шаблонами и привычками и том, что мозг достраивает форму до известного, сталкиваясь с неизвестным. Если ребёнка с детства не научить видеть оттенки, то он не будет их видеть до старости. Работаю сейчас с сеньерами ,учу рисовать пейзаж - и о чудо, через полгода,год они начинают видеть в множество оттенков. Тоже самое в музыке, на мой взгляд, главное, что даёт музыкальная школа, не умение играть на инструменте, а умение слышать музыку. Освободить человека от рутины, благодаря ИИ и направить на творчество и созерцание - вот достижение современной цивилизации!
Интересно, а достоверные пруфы, что " человек может выйти за пределы известного" будут? Конечно нет, ведь их и быть не может. Это оккультная мистическая идея о том, что люди черпают инфу из мира шестимерных единорогов ничем не лучше веры в магию. Сам же говоришь, человек с детства обучается видеть оттенки, то есть набирает базу данных и весь дальнейший акт "творения" такое же пережёвывание данных по заложенным в мозг на физическом, биологическом и социальном уровне алгоритмах. В чём принципиальное отличие от искусственных нейросеток? Неужели прям так сложно это понять, тем более человеку с опытом в творчестве?
@@iuxdhninhd3iucdwcefrw4rfvc19 Людям просто нравится верить в свою уникальность. Им сложно представить что машины(алгоритмы) могут оказаться более эффективными, в разных сложных творческих направлениях. С ними спорить - только время тратить)
Краткий пересказ: 1. Со времени перцептрона ничего не изменилось, нейронные сети нуждаются в примерах содержащих все возможные ответы и только тогда могут давать ответ. Как это улучшить - нужно сосредоточиться на процессе создания распознаваемого объекта, например чтобы распознавать буквы нужно знать как человек пишет буквы. Здесь спорно, потому что не обсуждаются концепции вроде свертоыных сетей, когда сеть таки может сделань нужное обобщение благодаря правильно подобранной архитектуре. 2. Теория согласно которой нейронная сеть может быть эффективной основывается на предположении что если отразить входные данные в пространство достаточно большой размерности, то всегда существует такое отражение, в котором разные распознаваемые классы находятся по разную сторону плоскости. Но высказывается мнение что многомерные пространства гораздо сложнее и эта теория не сильно адекватна и работа по этому принципу не сильно эффективна. 3. Сеть не знает когда на чего-то не знает и все равно выдает результат (галлюцинирует) потому что точки между точками которые были в обучении получают случайную позицию в пространстве и классифицируются произвольно. Здесь я бы заметил, что если пространство таки отражает все закономерности изучаемой области, то все сложнее и проблема в том что сеть не может ответить "у меня нет такой информации". 4. Мы видим два отедельных прямоугольника, потому что мозг прикидывает как это можно нарисовать. Здесь по мнению ученого разгадка загадки гештальта, но никто в действительности не понимает что это такое. Здесь я бы вспомнил про колмогоровскую сложность и поиск минимального алгоритма создания объекта. Там можно было был объяснить это лучше. 5. Нефть, землетрясения - теория глубинного происхождения нефти (не-биологическая) реально помогает искть нефть. Возможно это значит что эта теория верна? 6. Как отличить настоящий AI. Интеллект не должен делать простейших глупостей. Имеется ввиду не должен путать знак "30" и знак "Stop". Здесь спорно, если AI знает о мире достаточно много, он не делает таких ошибок, или делает их как человек - спонтанно и тут же поправляется. 7. Обычно врач сатвит задачу а математик решает, в итоге это не работает потому что каждый не знает всего. Самое главное для AI - это адекватное описание объекта, поэтому они посещали больницы сами. Опять про то, что картинка не пишется в память а пишется движение которым картинка рисуется. AI слишком зациклен на нейронах. Проблема AI становится сложной потому что мы описываем ее неправильно (допустим, через нейроны).
20:50 Я бы сказал наоборт - интеллект это то, насколько умные вещи он способен делать. А идиотские всегда может. Если отказывать интеллекту считаться таковым по критерию отсутствия идиотских вещей, то, возможно, даже многим ученым придется отказать в наличии оного, не говоря уже о всяких случайных представителях человечества. В конце концов, что идиотское, а что нет - заведомо не ясно, а потому, идиотские вещи довольно универсальный способ выбираться из локальных минимумов.
Он болен собой, и это объяснение для непонимающих. Но одновременно, мне кажется, юным блогерам не нужно беспокоить стариков. Иди программируй или чем ты там занят, не занимай время.
Обратите внимание насколько плохо стал искать Яндекс, когда стали использовать ИИ в полную силу. Раньше можно было просто набрать ключевые слова и он искал, а теперь ИИ пытается получить контекст. Но контекст задаёт большинство, поэтому чем больше будет связей с каким-то словом (словами), тем больше будет выдавать релевантные (по мнению ИИ) ответы. Но вес релевантности этих ссылок будет расти только лишь из-за того, что на них чаще кликают другие. Замкнутый круг (типа переобученность)
@@ANARCHY_13и что? Тем более, такое утверждать можно лишь в ограниченных условиях. Я ж не про то, кто/что лучше, посыл был именно про использование ИИ Яндексом.
Это человек, который чувствует красоту математики и понимает ее. Поэтому то, что он говорит очень многим из даже "хорошо" разбирающихся в тонкостях машинного обучения - непонятно.
Когда я занимался анализом данных мы всегда старались уменьшить размерность данных У нас был термин "проклятие большой размерности" -- чем выше размерность тем больше данных тебе нужно, комбинаторно больше! Например, в двумерном кубе на расстоянии 1 от центра находится более 75% точек, в 10мерном меньше 1 на миллион. Значит в 10 мерном пространстве тебе нужно а миллион раз больше данных для достижения той же точности Да, в многомерном пространстве все отличается друг от друга, но нам чаще нужно найти сходство чем различие. Распознавание это обнаружение сходства с образцом
!!! ПОЖЕЛАНИЕ !!! У вас очень интересные передачи. !!! Пожалуйста, держите комментарии / пояснения на экране подольше, иначе их не успеваешь прочитать. Спасибо
Я конечно далек от темы, ну вот ошибается ии, но если он закрывает какую то боль, а издержки из-за ошибки будут стоить не столь дорого, почему бы и нет? И ведь не обязательно рассматривать ИИ как какую то полноценну замену хуману, с его заменой справляется обычная касса самообслуживания. Лишь бы бизнес потребность закрывал. Некоторые больше боятся взбесившегося ии следующего поколения, сбежавшего из лаборатории какого нибудь гугла. Еще в видео не затронута тема спарков, типа возникновение новых свойств при увеличении мощностей.Ну вот кстати боты в комментах хотя обычно выдают себя, но порой задумываешься и вообще не понимаешь кто есть кто
Разочарован потерей времени: искажение фактов, а именно, нейронные сети игнорировались 30 + лет, пытались найти другие подходы, которые не были успешными. Теперь, когда подход с нейросетями наконец показал себя, эти люди говорят что их подход был игнорирован.
Спорно конечно что мы запоминаем букву только если её нарисуем, тогда получится что любой образ нам нужно нарисовать чтобы его запомнить и распознать, но это не так, а вот насчёт формы точно, скорее всего мы именно форму объекта мы запоминаем и распознаём в первую очередь, а растровое изображение существует только на сетчатке глаз.
Замените в вашем комментарии «запоминаем только, если нарисуем» на «запоминаем лучше, если нарисуем» и я соглашусь. А дальше уже просто вопрос, насколько лучше. Это вопрос к науке, лично я считаю, что намного.
@@jewgenijmoldawski3306 естественно лучше - у вас ещё один вид памяти добавляется к зрительной, не знаю как правильно она называется, поэтому назову её мышечной, там и свои рецепторы и свои зоны мозга которые воспринимают и обрабатывают информацию.
1. Отличное интервью! Главное высказывание - надо знать САМОМУ ту область, для которой хотят иметь автомат! 2. Ещё раз показана глубокая критика "нейронных" сетей и ИИ путем выявления погрешностей математических методик. 3. Критика гештальта может быть дополнена критикой рефлекторного подхода (Торндайк-Павлов). Или попытки биопрограммистов вырастить "мозг в колбе". 4. Замечания об обобщении и движении в обучении у людей правильны, но не полны. В ВНД это - мотивация или цель действия. 5. N-мерные сетки (или кубы) известны в курсах, скажем, ВМК с 1980х. Помню из Красновидово доклады о работающих таких программах и их ограничениях. 6. Очень важное замечание о неприложимости языка ОПИСАНИЯ нашего ума в толковании ИИ и программировании. 7. Конечно помню много работ в разных институтах СССР и США о распознавании рукописного письма в процессе движения кисти со стилусом. Такие попытки неоднократно всплывали у производителей хэндсетов. Сегодня это распознавание динамической речи (стилус проехали). 8. Не согласен с утверждением, что в живой памяти человека не хранятся картинки, а только движения. Как Вы истолкуете движениями, скажем, цветовое восприятие? 9. Заключение: в работе над ИИ нужно изучать и совершенствовать три категории: СТРУКТУРУ, ЦЕЛИ и ВРЕМЯ.
Насколько я понимаю, он учился, жил и работал во времена рукописных документов, докладов... Приходилось много рукописного текста читать и сталкваясь с непонятной буквой он мысленно проводил ручкой поверх буквы и с помощью моторной памяти понимал что там за буква. Но моторная память не лежит в основе обучения людей, она лишь вспомогательная система, кроме неё есть ещё слуховая, зрительная (хоть гость её и отрицает). У chatGPT нету моторики, чтоб писать букву "А", но есть множество уже написанных букв.
Когда кто-то начинает сравнивать ИИ и говорить что вот человеческий мозг работает иначе, я готов послать такого далеко и надолго. Достаточно посмотреть на современные самолеты, на сколько они не похожи со своими природными примерами но на сколько они ушли далеко в плане перемещения в воздушном пространстве. А ведь сто лет назад тоже никто не верил что возможно создать нечто более совершенное чем у природы. Поэтому бессмысленно слепо копировать природу, у природы весьма ограниченный интсрументарий для своих творений нежели у человека.
Очень хорошая аналогия с самолетами, нам она пришла в глову независимо. Представьте, что кто-то предъявлял бы претензии, что самолёты не машут крыльями, не вылупляются сами из яйца, что для них нужны огромные заводы, люди, исследования, испытания и т.д.
Он же не про весь ИИ говорил, а именно про ограниченность принципа обучения нейросети. Понятно, что можно увеличить число слоёв и сложность сети до уровня, когда при должной обучающей базе система сможет решать поставленные задачи с заданной точностью. Речь же про поиск какой-то более эффективной альтернативы для более общих случаев. Т.е. сейчас сети и их обучение разрабатывают под конкретные задачи. Может быть есть какой-то более универсальный подход? Я так понял.
@@ravekeeper2181 он говорил о низкой с его точки зрения эффективности машинного обучения. Там, где человеку достаточно нескольких примеров, алгоритму требуется намного больше. Более эффективных подходов пока не существует, иначе бы их знали и пользовались, а от себя Шелия не предложил ничего. Владимир Вапник в последнее время пытается разработать теорию более эффективного обучения, которая должна решать как раз эту проблему, но пока это даже не на бумаге.
@@TheAlexBellага, возьмем еще то, что человеческий мозг невероятно производительный, он год без остановки после рождения учился воспринимать мир с помощью своих органов чувств. Да еще у него и предустановки на уровне инстиктов есть, которые миллионы лет копились. Сетоввть на неэффективность ии, все равно, что смеятся над поваром, который не смог приготовить нормальной еды из испорченных продуктов
Это не зубрение, это метод проб и ошибок. Современная нейросеть не выучивает что-то, она пытается это осмыслить и чем больше её учить, тем лучше будет результат. Именно то, о чем дедушка и говорит, она пытается понимать суть автомобиля, а не молекулы, из которых он состоит. Пока получается плохо, но математики предполагают, что через 10 лет будет намного лучше человеков.
Дед разобрался как работает gpt , и как положено деду, решил докапаться. То как он ругает за ошибки чат, людям x100 можно предъявить. Знак стоп теста не распознала, а сколько пьяных и трезвых водителей не распознают светофор? Нет Интеллекта у людей, судя по его доводам в сторону gpt. И у деда этого тоже. Весь спич это просто до*б до слова интеллект. А gpt крутейшая вещь, очень помогает. И этот gpt ребенок молод и будет рости и развиваться.
Человек может определить эту троечку потому,что в отличии от ИИ ,человек может задатся вопросом зачем это ему ,если человеку не надо то он даже обычную тройку не заметит,а если ему нужно то увидет даже суслика там ,где его не видно.
Ведущий! Спасибо за Губермана Я увидел автора выдающейся книги "Неформальный анализ данных в геологии и геофизике". Если есть возможность, передайте Ш.А. благодарность за алгоритм КЧП!
Непонятно почему один человек делает выводы когда в ии замешаны целые компании и саму структуру развития ии никто не знает к тому же у каждого слоя этой структуры свои алгоритмы и что то даже предполагать в этот адрес это как вилами по воде
Сам использовал сеть, которая умеет распознавать образы в масштабе и повороте. Это уж точно не перцептрон, а именно многослойная сеть. Вот чего не видел, так это систем с возможностью выйти за свои рамки. То есть если обучали на цифры и заложено 10 объектов и показать такой системе & она не поймет, что это что-то новое и решит, что это 8
@@sgenyi С человеком будет то же самое, если он этого знака не знает, а ему скажут угадывать какая цифра нарисована. И знак бесконечности превратится в восьмерку, и стул в четверку, и лебедь в двойку. ;)
"В голове не сохраняются картинки. Их миллиарды, как их сохранишь? Сохраняются движения как вы их рисуете..." Ну, извините, сохранить миллиард картинок или все те движения, которыми вы все эти миллиард картинок должны нарисовать - что потребует больше памяти???
Что нейросети не умеют обобщать это просто не так. Конечно, смотря что понимать под этим, но уже многие десятилетия стандартная метрика измерения обученности нейросетевой модели включает точность предсказаний на данных, по которым обучение не проводилось - eval accuracy. Хотя бы одна эта метрика показывает способность модели к обобщению в сравнении с train accuracy - точности по набору данных на котором проводится обучение. Даже перцептрон Розенблата в середине прошлого века удивил исследователей как-раз таки своей способностью к обобщению - все цифиря которые ему показывают написаны по-разному, но он находит в них нечто общее - принадлежность к общему классу например цифры 4 - это и есть обобщение.
Именно. Если бы модели не умели обобщать, мы не могли бы ими пользоваться. Они не распознавали бы данные, которых не было в обучении. Проверить просто. Делаете фото объекта, показываете модели, она классифицирует объект, повторяете N раз, и это доказывает обобщение. Аналогично можно с голосом или рукописным текстом.
@@TheAlexBellа вот и нет. Вам же сказали, что имеется просто огромное количество картинок с которыми программа сравнивает. Это не обобщение, а перебор.
@@user-vc8ob4pn8s никто не сравнивает с множеством картинок. Шелия сказал, что модели учатся на множестве картинок. В любом случае, обобщение это способность правильно обрабатывать данные, которых не было при обучении
@@user-vc8ob4pn8s Нет, не перебор. Он описал перцептрон. В 2000 баловался многослойными сетями. То есть знал и мог реализовать, но не мог понять как оно работает. И даже реализовал. Пустая база буквально после нескольких обучения начинала распознавать цифры. Путаница была только с цифрами 6 и 9 и то только тогда, когда они рисовались "лёжа"
про квадраты добавлю: слышали про корреляционный анализ? Есть образ квадрата. выученный с детства. мы его видим и выявляем везде где заметим. отклик от него очень большой. поэтому, взяв корреляционное преобразование, то от квадратов будет 2 пика. намного больше чем от разных фигур разного размера.
Дед не шарит. Глубокие сверточные нейросети не мыслят буквальным наложением. Из-за множества слоев достигается тот самый уровень абстрагирования и обобщения, к которому, по его словам нейросети не способны. И тут вовсе не нужны картинки на каждый случай - это уже и в опыте ясно - простым наращиванием базы данных нейросети не могли бы достичь тех результатов, которые демонстрируют сейчас, если бы в механике все работало на все том же буквальном сравнении.
Вот когда ваш искусственный интеллект будет решать ортогональные задачи методом аналогии, вот тогда и можно будет, с некоторой натяжкой, считать его способным оперировать абстракциями.
Очевидно из-за этого самого "уровня абстрагирования и обобщения" нейронки периодически выдают лютую дичь, причем предсказать когда это произойдет не могут даже сами разработчика. Что ж отличный интеллект прям сразу с шизой его сделали)
ChatGPT это только одна проходная система - первый этап ИИ. Сейчас разрабатывается strawberry, которая уже способна мыслить. Это второй уровень -reasoner. Strawberry в свою очередь в будущем заменит какая-то другая модель - agent и т.д.
Интеллект, это способность делать достоверные прогнозы развития событий, в том числе с собственным участием. (Infology of emotions) Что считать средой обитания человека, где нужны эти прогнозы? Дом, город, планета? А для червя прогнозов хватит для области одной лопаты земли )
************************************************
Соцсети:
Telegram: t.me/engineerspock_it
CZcams: www.youtube.com/@EngineerSpock
Дзен: dzen.ru/engineerspock
VK: vk.com/engineerspock
************************************************
НАШ САЙТ И КУРСЫ: www.engineerspock.com/offer-spock-youtube
Поддержать: pay.cloudtips.ru/p/1f080f72
************************************************
СЕРВИСЫ И БРЕНДЫ, которые я люблю и которыми пользуюсь сам:
Адресная ПОМОЩЬ пожилым и больным детям, ссылка для смартфонов: : www.engineerspock.com/helpapp
Бизнес в Альфа-Банке:
www.engineerspock.com/alfabusiness
Биржевой дракон - сервис автоматической торговли криптой для РИСКОВОЙ части инвестиционного портфеля:
Почитать их ТГ-канал: www.engineerspock.com/bdtg
Для оформления подписки на их сервис:
www.engineerspock.com/bdtgs - писать сюда и назвать кодовое слово "DragonElias"
************************************************
Статья Шели Айзековича: dzen.ru/a/ZlbXzzBBSlv5VW-p
Про Цетлин-машины: tsetlinmachine.org/
😊😊
Что-то бред? Картинок в мозгу нет. А как вы видите сны? Как вы фантазируете. Как и на чем у вас строится воображение? 😅
Определение интеллекта нет у кого? у ИИ или у человека? Ему (ИИ) понятно что такое интеллект, НО зрительные, слуховые, обонятельные, тактильные (осязательные), вкусовые и кинестетические ощущения создают этот интеллект, но у ИИ пока этого всего нет. Когда люди определили интеллект, то сами забыли обобщить все эти факторы в одно! Без этих чувств, если их убрать всё у человека, то и не будет никакого интеллекта, будет только мозг - без интеллекта, но если добавить хотя бы два чувства, зрительное и слуховое, то интеллект появится. Так и произойдет у ИИ. Когда ИИ получит своё тело со всеми чувствами, хоть эти чувства будут и цифровыми, то он может начать обобщать и у него может появится интеллект. Дело времени, когда это случится. Когда ИИ дадут все сенсоры и он через них познает мир, что изучал до этого чуть, тогда и будет цифровое сознание подобное нашему.
Фантастика, человеку 95 лет, а какой живой мобильный разговор, и чудесный Одесский говорок!
Потому что мозгом активно пользуется, в отличие от большинства челиков.)
о фи..льмы
😂
Ю09.
.. тььььььь ❤❤8@@michailluuko3909😂
Человек со смыслом жизни
Для учёных это не редкость долго жить и сохранять работоспособность
Я думал ему лет 65-70😮😮😮
Только истинный профессионал способен рассказать просто о сложном да ещё и живо и интересно. 👍
Треть видео - представление гостя. Треть видео истории как шмойлович научился пользоваться чат жпт. И треть видео о выдающихся и великолепных шмуйлях двадцатого века.
Браво браво брависимо.
И что ты понял о сложном? Может расскажешь как обратная связь в перцептронах работает? :)
Докажи нам всем, насколько дед великолепен и как хорошо тебя научил. :)
Какой-то поток сознания на видео, прыгает с математики в воспоминания и раз за разом теряет нить повествования. Очень тяжело воспринимать, как и большинство пожилых людей. Я так и не понял что он пытался сказать, услышал только скомканные обрывки мыслей и местами критику ради критики. Что вы там понять смогли о сложном, даже интересно
Человек пожилой, все понимаю, но у меня есть вопросы к автору канала, который поставил кликбейтный заголовок совершенно не соответствующий содержанию
А что он рассказал? Верхушек нахватался и ничего по-существу. Особенно рассмешило что он отец распознавание алгоритмов текста которыми пользуется весь мир. Это враньё!
P.S. Люди определенной национальности умеют хорошо спекулировать на чём-то, но ничего не умеют создавать собственными руками.
@@dronovdmitry про проблему переобучения достаточно доходчиво. Также про галлюцинации ИИ, чему я был сам свидетелем - уверенная чушь иногда бывает. также высказал мнение (достаточно спорное наверное ), что современные нейросети больше берут мощью и увеличением обучающей выборки ( спич про буквы и цифры и их распознавание)
Низкий поклон и глубокая благодарность за Гостя!! Вот это Человечище!! восхищение и восторг!!! Моего советского архитектурно-строительного образования оказалось достаточно, чтобы понять все!!!🎉😊 Елена, инженер 60 лет
Интереснейшее интервью с уникальным, во всех отношениях, человеком. Большое человеческое спасибо, что вы есть!
Благодарю за такой контент! Ты приглашаешь уникальных гостей, увидев Арлазарова я вообще прикурил. Браво. Продолжай в том же духе. Больше так никто не делает.
Вот честно скажу начал смотреть со скепсисом, мол чего там он может внятного сказать. До смотрел до конца, не смог оторваться дядя Шелия просто красавчик. Живой ум, глобальные знания, способность посмотреть на проблему в целом. Очень интересный человек. Желаю ему еще долгих лет качественной жизни.
Верни скепсис обратно, дед Америку не открыл, просто поругал ребенок за то что он гений но человеки лучше. Что явно спорно, выгляни в окно ) там интеллекта мало ходит ;)
Чубайсы умеют задурить голову Иванушке-дурочку! ((((
Мне вот вообще не понятно, как можно доверять информации ChatGPT (или любой другой нейронки) которая натренирована/черпает информацию из сети…
Которую туда добавили люди! А это означает - непроверенная информация, шуточная информаци, обрывочные сведения, ошибочные описания, случайные или заведомые ошибки в инструкциях/рецептах и т.п., все различные фейки.
Надеюсь понятно объяснил…
Бывает гуглишь информацию очень узкоспециализированную, и все возможные гайды НЕ РАБОТАЮТ!
Ну вот неправильные они и/или устаревшие.
Потом перерыв весь интернет где нибудь на 5 странице в выдаче Гугла, натыкаешься на заброшенный древний форум где кто-то мимходом при обсуждении другой проблемы оставил одно маленькое сообщение с правильными параметрами.
В моей работе даже в качестве просто продвинутого поисковика пока что ИИ ни разу не помог.
Это как ИИ на полном серьезе советовал скреплять продукты на пицце клеем… потому что это какой-то шутник когда-то давно предложил такое решение, а ИИ взяло это за чистую монету.
И все эти писалки кода-программы, основывающиеся в т.ч. на коде ламеров…
ИМХО. ИИ сильно переоценены. Как в свое время бунт доткомов.
Распознавание образов - это моя научная специальность. Прекрасный ученый, информативнейшее интервью!!! Чрезвычайно полезное объяснение связи размерности разделяющей поверхности, ошибок и объема обучающей выборки!!!
Вы мне можете объяснить, почему программисты выбросили Фортран и начали писать на языках, коих наверно тысячи, хотя Фортран быстрее всех и на нем можно написать все. Это я клоню к тому, что есть ли у вас интеллект и можно ли вам в чем-то верить в чем-то более сложном.
@@cyy5747во-первых Фортран прекрасно применяется в том числе и на суперкомпьютерах просто потому, что жалко выбрасывать уже имеющиеся программы. А так, для нового, есть более удобные языки которые не уступают ни в чем Фортрану.
@@cyy5747Фортран никто не "выбрасывал". Исторически остается один из старейших, если не первый, язык программирования. С появлением ЭВМ на них решались в первую очередь математические задачи, поэтому и была объективная потребность в создании специализированного языка программирования - ФОР-мула ТРАН-слэшион. На Фортране самая большая в мире библиотека математических и научных программ, которую можно считать достижением всего человечества. Современные IDE-средства разработки на Фортране с успехом работают и сейчас, например, Intel Fortran.
Как говорят, для каждой работы требуется свой инструмент: кому-то лопата, кому-то отвёртка, кому-то молоток, кому-то С++, кому-то Java, а кому-то и старичок Fortran.
@@vladig6649вот это ответ👍👏👏👏
@cyy5747 Фортран никто не "выбрасывал". Исторически остается одним из старейших, если не первым, языков программирования. С появлением ЭВМ на них решались в первую очередь математические задачи, поэтому и была объективная потребность в создании специализированного языка программирования - ФОР-мула ТРАН-слэшион. На Фортране самая большая в мире библиотека математических и научных программ, которую можно считать достижением всего человечества. Современные IDE-средства разработки на Фортране с успехом работают и сейчас, например, Intel Fortran.
Как говорят, для каждой работы требуется свой инструмент: кому-то лопата, кому-то отвёртка, кому-то молоток, кому-то С++, кому-то Java, а кому-то и старичок Fortran.@@cyy5747
Очень интересно!!!)
Дай Бог здоровья толковому человеку!
Вот такой формат я люблю, больше ученых и инженеров. ❤❤❤
Да, с мощным фундаментальным образованием!
@@tsvigo11_70 деньги любят все, войну не любит никто.
20:20 люди тоже делают идиотские вещи
Вы разве хотите уничтожить этот прекрасный рыночег?) Может пусть поживет, а то скоро барыги, шлюхи и мусора станут вымирающим видом и их придётся искуственно синтезировать и держать в спецрассадниках
Ну а теперь сядьте, запустите Visual Studio и попробуйте написать простейшую программу по распознаванию текста? Или программу которая бы обучилась играть в крестики-нолики?
потрясающее видео и собеседники! огромное спасибо!!!!!!!
И вам спасибо!
Вот что наука с человеком делает! 95 лет, а интеллект сохранился как новенький! Слушал не отрываясь. Спасибо за интервю!!!
Дело не в науке. Наука позволяет заиметь этот живой ум. Но сохранить его позволяет только большая физическая активность и чистые капиляры. Это уже доказано. Если вы будете сидеть на заднице ровно и лопать всякое дерьмо, то кровь не сможет поступать и питать весь мозг и начнется деменция. И никакая наука вам не поможет.
Когда в 80-е я учился на кафедре прикладной геофизики УИИ, после экзаменов мы спрашивали друг у друга какие были доп.вопросы к билету. Тогда логики для нас небыло никакой, могли поставить самую неожиданную задачу. Даже сильные студенты сдавали со второго, третьего раза.
Эту логику я понял когда начал работать - безграничная адаптация к любому материалу и задаче. Тогда нам всем повезло, мы учились у высоких профессионалов и больших людей.
учиться у больших людей - это здорово просто по факту.
так а в итоге кем стали и какие большие проблемы решали?
@@manOfPlanetEarth замудрённое у вас имя.
В разведочной геофизике работал до начала 90-х. Потом начался первый передел и социальная коммуникативность стала важнее аналитических способностей. Пришлось освоить профессию химика аналитика, но без диплома. Нужно было зарабатывать деньги. Так и занимался узкими местами в геохимии нефтянки.
Если ты с молодости раб логики, то карьера и большие деньги в этой стране тебе не светят. Осталось ремесло и память о тех, у кого учился и с кем работал.
@@user-qy5ti3fq3f если в СССР всё было так прекрасно с образованием, логикой и аналитикой, то почему в остальном было плохо?
@CuriousPassenger На ваш вопрос давно ответили классики русской литературы - все мы живём в немытой России, стране рабов, стране господ. Похоже что это навсегда.
Система управления государством и обществом здесь осталась на уровне 16 - 17 века, она упорно воспроизводит себя и не может измениться. Всё остальное это частные случаи отдельных людей в лучшую, или худшую сторону.
@@user-qy5ti3fq3f бред, выдуманный для того, чтобы оставить истинные причины без рассмотрения. Учитывая, что вы схавали, все ок.
Эксцентричный дядька, слушал с удовольствием, согласен с каждым словом, наконец то вижу человека который зрит в корень.
Фундаментальное образование мощное!
Не эксцентричный, а умный, многознающий и *увлеченный!*
Долгих лет Шелии Айзековичу ! Когда он говорил про кучу точек в пространстве я буквально представлял все себе. У него очень живая фантазия и способность визуально представлять систему . Хотел бы я чтоб у меня в такие годы так же работал аппарат )
Поразительный ученый. Очень глубокие вещи сказал. Великий респект. То, что он очень стар и при этом не дряхл, радует. Бытие демонстрирует очередное чудо.
Ваша оценка внешнего вида и "технического состояния" ученого выглядит некорректной и неэтичной. А отношение к человеку как к объекту, продемонстрированному вам мифическим "бытием" выглядит как попытка обесценить достижения этого человека.
Огромное спасибо, видно что человек очень умный и знающий, очень интересный собеседник. Его слова позволяют взглянуть с нового ракурса на обсуждаемые проблемы.
Хочу позвать в подкаст учёного который занимается машиной Цетлина, чтобы углубить понимание альтернативы нейросетям
@@EngineerSpockбудет очень интересно! Еще Крайнов вроде тоже интервью охотно дает. Я вообще ни разу не программист, и многого не понимаю, но познавать очень интересно.
"Умение отличать чушь от не чуши", если это взять за аргумент, то можно сказать что целые страны населены людьми не обладающими интеллектом...
Весь мир. ;)
наверное так и есть
то что является для одной стороны чушью а другой не чушью для третей все оба варианта чушь полнейшая.. речь идет об исинном и бесспорном распознавании бесспорных вещей.. вы же пишите о каких то эфемерных вещах. Политика, культура, история..( если вы говорите что яблоко квадратное, то это ошибка интеллекта, а не какой политический строй или движение является чушью. любой кто скажет что любит сою страну и свой народ по вашим словам нечет чушь. Ибо он должен любить все человечество целиком) вы сами несете чушь разделяя людей на проживания в странах.
@@deniskinel3934 О, софистика в ход пошла. )))
@@Glariantov нее. не пошла.. просто странные выводы сделал человек посмотря данный ролик.. нести херню ему некто не запрещает, но...
Спасибо, Илья, интересное интервью получилось. Буду ждать вторую часть и ещё хотелось бы подробней про шведских ребят, которые придумали что-то альтернативное нейронным сетям...
Там Норвежец вроде бы занимается, хочу позвать его в подкаст
@@tsvigo11_70 это типа Петросянство?)
Шелию крепкого здоровья и долгих лет, спасибо.
Вот он, интеллект! И советское образование, и мощнейшая тяга к познанию, и бесстрашие ученого, и безграничная потребность делиться своими знаниями, и способность высказать сомнения. Спасибо!
Два молодых человека. Один уже умеет учиться - другой учится учиться. Очень достойная беседа разумных людей.
Я ПРОСТО в шоке приятном,как в 95 лет бЬІТЬ таким 50 летним?Браво!Може все таки 85?
94 по википедии
@@comachineтогда ерунда
94 года спикеру, офигеть
Выглядит на 60-65!
пишу не со своего аккаунта - Хасан Штымов:
- ОЧЕНЬ интересная Передача-Встреча!
СПАСИБО!!! 😊❤🤗❤
Я учился в ТИАСУРе, на факультете Систем Управления (ФСУ), кафедра ОАСУ - оптимальные и адаптивные системы управления. Затем, ещё и на кафедре МИиРО - моделирование изображений и распознавание образов.
Избирался членом Учёного совета Института, имел свободный график обучения.
Не понял! И что?
Мое почтение этому великому человеку! Просто низкий поклон и спасибо за его работу!
Спасибо, вы находите ну очень интереснейших собеседников!
Спасибо за ваше видео , очень много интересного
такой совет - раньше когда человек должен был выйти - сначала о нем рассказывают, а потом уже он выходит и здороваются.
подсказываю - это не просто так сделано именно в таком порядке.
Ну такое себе. "Мы не мыслим картинками" - мы как раз мыслим образами, рваными событиями, которые то и дело всплывают, пока не устаканятся в воспоминание или ответ. "Это тупиковая идея" - так говорил еще один предсказатель авторитетный, что масштабирование языковой модели не приведет ни к чем и лй, как он ошибся, там возникли способности, которые как раз и исследуют разработчики. Было 10к параметров - тупая нейронка, стало 100млн параметров на входе - стала непредсказуемо умной с возможностями, которые не закладывались. И так много моментов спорных
он неверно выразился. "ИИ" как раз оперирует не картинками, а весами токенов. Пытаясь "захейтить" чат-гопоту он прибегнул к неудачной метафоре. Тем более в узком контексте символов письма он имел ввиду мышечную память (однако недоосознав, что по сути это пространственное мышечная память)
@@nuclon вот, согласен. Были там неточности у него.
Всё правильно Шелия говорит. Попробуйте вспомнить, виде картинки, где вы были в отпуске. А потом посмотрите фотки из того же отпуска. Вы удивитесь, сколько деталей НЕ сохранила Ваша память. Но само место с картинки Вы узнаете, более того потянутся ассоциации с другими вещами, что кушали там, о чем говорили, с кем общались и тп. 😂
@@nemocaptain3346 так я так и написал) образами рваными. НЕ прям 24 кадра в секунду, как видео, а образы, перетекающие один в другой. Он же четко имел в виду чисто "вес" каждого вычисления, то есть без какой-либо привязки в визуалу.
@@nemocaptain3346 Ты слишком сложный образ взял, плюс какой-то идиотский пример, визуальному образу противопоставить фото - это конечно, надо быть умником. Ну ты представил из отпуска, что-то как картинку, но ты вспомнил хоть что-то. А другим способом ты вспомнить и это не можешь.
Возьми более простой образ, например, цифру 7, представь ее в голове как-то иначе, если хорошо покопаешься в голове, то найдешь два образа визуальный, и абстрактный. Абстрактный образ имеет характеристики и операции, которые могут быть применены на объекты того же класса, плюс еще можно найти интуицию в голове, а равно, ты быстро (а может и нет, учитывая твой пример), сможешь посчитать 7*7, у тебя образ ответа возникнет сразу, он может быть неточен, но возникнет.
Здорово!!! Я сейчас изучаю н.сети.Очень интересно.
Низкий поклон гостю,и вам спасибо за ваше просвещение.
Огромное спасибо за гостя. Удивительная ясность ума. Здоровья .
Приятно слушать мудрых людей. Спасибо за видео!
он рассказывает о том почему не может получится то что уже получилось человек вообще не понял как его поезд уехал.
мудрые уже поняли и не сопротивляются но глупцы продолжают отвергать давя своим авторитетом.
честно сказать омерзительно было слушат все эти регалии
Это лучшее видео об ИИ, которое я видел. Спасибо!
Что-то не так в его рассуждениях. Когда человек опознает изображение, он ориентируется прежде всего на признаки и на их сочетание. "Точка-точка-запятая-минус..." - и дальше достраивает возможный вариант. Может достроить кривую рожицу, а может достроить и математическую формулу. Нынешний ИИ уже способен и обобщать признаки, и достраивать до целых образов. И для этого совсем не надо рисовать и обладать мышечной памятью. Я профессионально обучаю детей чтению и точно знаю, что многие дети запоминают буквы без всякого их написания. А другие дети сто раз букву напишут, но запомнить не могут. Я видел котенка, который подкрадывался к нарисованной мухе. Он ее принял за настоящую муху, хотя она была нарисована очень условно, без теней и без деталей, даже без лапок. Но котенок это изображение всё-таки достроил до мухи. Но ведь он сам никогда муху не рисовал, не так ли?
Как человек (и любая другая в самом общем смысле этого слова скотина) опознает изображение - науке достоверно не известно. Но есть множество разной степени логичности гипотез на этот предмет. Вы приняли одну из гипотез. И хотите из нее достроить теорию на все случаи жизни. Получится вряд ли.
Вы путаете всë. Разумеется, дети выучивают буквы, как знаки, но у этих детей во-первых уже есть телесное представление о движении и пространстве, во-вторых чтобы опознать букву "а" не в стандартном шрифте, а в граффити на стене, условно, нужно уже иметь и опыт написания. Как знак, как означающее, если угодно, если пользоваться этой терминологией, котёнок воспринимает любой небольшой движущийся объект в качестве добычи, но он не достраивает его особо ни до чего, животные в известном смысле целиком существуют в символическом, небольшой движущийся объект - добыча, частности не важны. Если он вытянутый и довольно крупный - то это уже скорей опасность. Покажите котёнку рисунок мухи размером с ладонь в книге учебника, и никакой мухой он его не воспримет (не воспримет вообще никак), ему это не нужно, он как тело в пространстве существует совсем иначе, без мелкой моторики конечностей, порождающей абстрагирования (контур и т. д)
@@pqrize Все проще. На моих глазах и с моим участием чтению учится шестой ребенок, с которым я знаком с пеленок - самая старшая внучка. У всех все по -разному. Не обобщайте то, о чем читали в книжках. Смотрите своими глазами. Начитанность полезна, но работы собственной головы не заменяет. Короче - чушь наукообразную несете.
@@user-hy7gf1uf4s вы даже не понимаете, что такое "наукообразие", а полагать, что "умные слова" это "наукообразие" и тот, кто использует подобную терминологию (она у меня в данном случае скорей психоаналитическая и к научной вообще отношения не имеет), тот читал много книжек и не думает своей головой - это просто признак самой обыкновенной и банальной глупости. и вы, разумеется, даже не поняли, что я написал, судя по вашему комментарию. Ну и, разумеется, коммент был вообще не вам, а автору первого комментария
@@user-hy7gf1uf4s а по поводу "смотреть своими глазами" - я смотрел своими глазами и общался с людьми, ставшими таковыми в результате т.н. загорского эксперимента, в ходе которого работали со слепоглухими детьми, и если вам действительно что-то интересно в жизни, почитайте об этом и постарайтесь подумать. "у всех всё по-разному" - это слова, не имеющие никакого вообще смысла в данном контексте, потому что речь идет о вещах гораздо более фундаментальных, чем те или иные склонности конкретного ребенка, к визуальному/аудиальному и т.д., при том, что склонности эти, разумеется, есть у всех
По факту общение с GPT4 более осмьсленно нежели з 90% людей. Хотя, конечно есть баги, на вьіяалегие которьіх я потратил несколько часов. Мощности LLm систем растут на порядок за год. Так, что сИИ лишь вопрос времени, несмотря на все недочетьі.
Есть очень большие сомнения. Посмотрите выпуск на канале computerphile
@@EngineerSpock Сомнения потому что мьі плохо представляем логарифмический рост.
@@EngineerSpock
можно ссылку на тот выпуск сюда? ютюб разрешает свои ссылки.
@@EngineerSpock
или можно саму суть из упоминаемого выпуска.
А с чего вы взяли что там будет логарифмический рост? Между gpt 3.5 и gpt 4 нет такой уж большой разницы, некоторые виды задач вообще нет прогресса. И это при том что параметров в модели на порядок больше, и ресурсов на обучение потрачено на порядок больше.
Пока что это выглядит как скачок (который уже произошел) с выходом на плато
Потрясающая беседа! Лайк и подписка сразу!
Шелия говорит, что для распознавания рукописного текста они придумали несколько примитивов (черточка, кружочек...) и такой подход - преимущество над растризованным представлением. Возможно, в 80-е годы эта идея была новой, но в 90-е Ян Лекун уже делал нейросети для рукописного текста, которые давали запредельную точность на MNIST (стандартный рукописный датасет до эпохи картинок). В конволюционных сетях такие примитивы выучиваются автоматически. Есть статьи с рисунками этих черточек, дуг, точек на первом слое нейросети. Если не нравится автоматически, можно задать этот слой вручную, и тогда это будет называться feature engineering. В общем, вопрос изученный и решенный еще в прошлом веке. Были зафиксированы рекорды точности, они перечислены на сайте MNIST, публикации.... Результатов этой модели я там не вижу.
я так понимаю речь идет именно не о "понимании" машиной, а сравнении таргета с примитивами, которые уже есть. Человек может именно понять, чего не может нейронка, она всего лишь подгоняет веса под образцы, которые у нее есть на данный момент. Это Шелия и критикует, говоря, что это не интеллект. Просто автоматическое выучивание, про которое вы говорите, это по СУТИ не меняет того, что сравниваем с шаблоном, просто их КОЛИЧЕСТВО сильно увеличивается алгоритмом, а не человеком. Количество, а не качество. Короче: все равно сравниваем с тем что есть, но не можем сравнить с тем чего нет и тогда просто машина угадывает с помощью всяких там softmax и тп. Но если я нарисую букву А так как никто не рисовал, то нейронка затупит, а человек все еще сможет угадать даже не имея готового образца (то есть такое начертание встретилось впервые и оно по критериям расстояния между картинками относительно далеко). Если еще короче: то машина гадает (сравнивает) на основе того, что знает (есть в базе шаблонов) и не более того, какими бы крутыми и красивыми словами это не описывали.
P.S. от себя добавлю (как я понял из видео), что он говорит о более глубоких научных вещах, а не инженерных, что есть принципиальные проблемы в концепции сегодняшних нейронных сетей, которые как раз связаны тупо с зазубриванием результатов, а не истинным обучением. Чем больше ресурсов у компании, тем больше она может зазубрить и удивлять людей своими "спопобсностями". Хотя на инжереном уровне часть задач, действительно, решается путем увеличения размеров модели. Но он говорит про обобщение и про непрерывный набор, где мы можем предугадывать значения быстро меняющейся функции в любой ее точке, а модель правильно работает только с заученным дискретным набором данных.
P.P.S. Есть подозрение, что человеческое обучение и понимание - это не просто тупо сравнивание с шаблоном и заучивание (он кстати и говорит про зазубривание - что это неэффективный метод), но еще ряд других вещей типа интуиции, воображения и тп. Выстраивания связей между тем что знаю и тем что сейчас вижу + воображение и проверка гипотез на месте. Пока мы не до конца понимаем как это работает у человека, сложно этому научить машину. Мозг часто не по алгоритмам работает - что-то спонтанное может повлиять на окончательный выбор.
@@QScientist мозг это продукт эволюции в миллион лет, а нейросеть тренируется с нуля максимум за месяцы. Что такое интеллект и сознание никто не знает. И человек тоже не может придумать то, чего не видел. Как раз недавно обсуждали книгу-справочник по инопланетянам. Все изображения инопланетян, придуманные людьми, имеют земные прототипы.
Действительно, алгоритмы обучения моделей кажутся на первый взгляд не очень эффективными, есть желание делать это лучше, на меньших данных и быстрее. Вот пусть Шелия и сделает.
@@QScientistВсе верно, что делают текущие методы, которые построены на обратном распространении, это всего лишь метод.
Далее на эту концепцию прикручиваются всякие фичи, типа новых функций активации, методик оптимизации, методик оптимизации гипермараметров, самих методик оптимизации гипермараметров, типа модификации Бейса и т.д.
Но это просто улучшение, фундамент кривой, а внутри красиво, но это не ии, не может быть в принципе.
Ты дальше носа не видишь. Угомонись.
@@TheAlexBell Идея Лекуна проста описана в 1998 году, берет начало с перцептрона, просто добавил слои, что тут удивительного?
Пипец! Круто как рассказал! Спасибо за интервью! Я поняла, о чем упоминала Черниговская
ОЧЕНЬ !!!!!!!!!!!!!!!!!!!!!! Спасибо !!!!!!!!!!!!!!!!!!!!!!
Благодарю за видео!
Пожалуйста!
Возрасту поклон , это сильно👍
Большое спасибо за видео! Очень интересно! Очень ждем продолжения!! Спасибо. Очень крутой гость!
Цетлин Машина действительно работает. Третий год занимаюсь рисерчем в этой области. Модифицировал оригинальный алгоритм и добился скорости распознавания рукописных цифр из датасета MNIST - 50 миллионов распознаваний в секунду на CPU.
Круто
А где почитать?
@@trickLUster Опубликовал на гитхабе. Проект называется Tsetlin.jl
@@trickLUster ютуб удаляет мои комментарии. На гитхабе проект называется Tsetlin.jl
@@trickLUster я не знаю почему, но ютуб удаляет мои комментарии. На гитхаб я выложил рабочий код.
Шикарный выпуск! Классный и умный гость!!!!
Ох ёлки-палки как здорово, посмотрел на одном дыхании.
Как же жаль, что я не знаком со столь здравомыслящем человеком.
По описанию ведущего: Шелия родился в 1929 г, значит ему уже 95 лет. Сам Шелия выше ИИ! 😮❤
Учитывая далёкий от физкультуры образ жизни, гость скорее всего 1959 года рождения. Ведущий, наверное, оговорился.
В 52 году окончил университет
@@user-om4qg2bz7y Ну... дай Бог, конечно, но трудно поверить. Девяносто пять -- это пигментные пятна, сухая кожа и тихий надтреснутый голос. Темп речи тоже замедляется. Может, у профессора гены со знаком качества? Или положительная мутация, восстанавливающая количество теломер? Вспомните недавно умершего Дэвида Рокфеллера, который немного не дотянул до сотки: при всех его возможностях это была развалина.
Да Шеле Айзековичу 95 лет
@@EngineerSpock Простите, но я очень недоверчивый человек. Если я не вижу признаков заявленного возраста, ни слова ни документы на моё мнение не повлияют. Был уже случай в какой-то из европейских стран, когда стодвадцатилетняя долгожительница оказалась собственной дочерью)) Это не значит, что я обвиняю Вас или гостя канала во лжи, просто для меня вопрос остаётся открытым. Во многом ещё и потому, что мне очень хочется, чтобы люди действительно так выглядели в 95, -- но я стараюсь не допускать, чтобы мои желания влияли на мою точку зрения.
Когда слушаешь такого человека, то начинаешь за деревьями лес видеть. Конечно, нужно быть немного в теме, но слушать очень интересно.
Ну, да, RandomForest :-)
@@trickLUster сразу видно, человек "в теме". :-)
Выводы Шелия Айзековича вполне согласуются с гегелевским определением метода. Лично для меня эта лекция внесла некоторое прояснение. Большое спасибо за знакомство с гостем👍
Какой приятный, умный и талантливый у Вас гость! 😊👍
Сын Авраамов)
У меня закралось подозрение, что Губерман понимает работу нейронных сетей очень поверхностно. Сравнивая свой метод распознавания образов (основанный на алгоритмической детекции паттернов "движения") с работой тех же "нейронных" сетей, он делает определённые обтекаемые заключения о свойствах нейронных сетей, расходящиеся с действительностью. Соответственно, ценность экспертной мысли Шелии, в данном вопросе, я ставлю под сомнение...
Если он в парадигме Бонгарда рассуждает, эта одна история, но и про градиентный спуск он упоминал, кажется. Здесь как-то резонирует его понимание обобщения с тем, к чему мы привыкли в ML. “Запомнил” паттерны на training set, остановился вовремя на validation, проверил на тесте… Взял лучшую модель. А его обобщение - это некое чудо. Узнай похожее в непохожем. Еще понравилось, что в рассуждение о гештальте и правильном порождении можно увидеть связь с идеей регуляризации.
Спасибо Шелия Губерман ! Закрыл пробелы по изучению ИИ. Увидел подтверждение своих догадок в его словах !
Однако, многие его высказывания весьма сомнительны.
Главное из сказанного "вопрос в том, обладают ли интеллектом люди?"
7:09 не правда, давно уже есть исследования которые говорят о том, что не у всех людей в голове есть мысленная речь, некоторые как раз представляют картинки того, что они хотят да и в принципе вся их "внутренняя речь" построена на визуальных внутренних образах. 16:00 не совсем понял... Т.е. он хочет сказать что это не интеллект если он совершает ошибки или врет?) Тогда ни один человек на земле не имеет интеллекта. И так же не каждый человек отличит чушь от не чуши... То же самое и про доверие, даже самые лучшие специалисты в своих областях делают ошибки. 20:50 Это почему же не может?) Наша история (история человечества) сплошное доказательство обратного. Проблема галлюцинаций и неправильного представления ии о вещах в том, что его в основном обучают на фиксированной базе данных. Это ЛИБО текст, ЛИБО картинки, ЛИБО звук. Это как пытаться объяснить слепому без рук или каких либо тактильных ощущений как выглядит яблоко, стол, компьютер и так далее. Согласитесь, что это довольно сложно если почти не невозможно. Если дать ии для обучения сразу ВСЕ в качестве базы данных, то он будет учиться гораздо лучше и быстрее, а неправильных и глупых ответов будет меньше. (Что вроде как сейчас делает OpenAI, обучает на тексте и изображениях) К тому же большую часть "базы данных" обучения у людей составляют еще и тактильные ощущения, запахи, вкусы и остальные реакции на разные раздражители, что недоступно сейчас для ИИ. И это я уже не говорю о том что сами люди обучаются примерно 6-8 лет (и больше)! В то время как от ИИ мы требуем такие же результаты или в несколько раз лучше, но уже за несколько месяцев/пол-года или год. А иногда мы обучаем небольшую нейронку вообще за считанные часы или минуты
Согласен про ошибки. Думаю даже наоборот некоторые ошибки ИИ показывают насколько он похож на интеллект человека.
@@SuperAether речь о том что у человека дважды два всегда четыре, а вот у ИИ нет. Это утрированный пример, но хорошо иллюстрирующий проблему
@@EngineerSpock На самом деле люди так же испытывают затруднения с умножением. Для большинства умножение в уме даже двухзначных чисел уже непосильная задача. Просто мы обучены алгоритмам, а машина тупо предсказывает результат и дает довольно точные приближения.
@@SuperAether в том-то и дело что эти довольно точные приближения будут приводить к тому что иногда 2 на 2 равно 5, условно. Об этом Губерман и говорил. И скорее всего от этого мы не избавимся
@@EngineerSpock Главный тезис Губермана, что ИИ не интеллект, потому что ИИ допускает ошибки. Мой тезис, что машины испытывают сходные с естественным интеллектом проблемы. Люди тоже допускают ошибки и иногда довольно нелепые. Поэтому я считаю, что ошибки допускаемые ИИ не являются показателем отсутствия интеллекта.
Пример с буквой не корректен. Сравнивать ребёнка и машину, утверждая, что машине нужно было 6000 картинок буквы, а ребёнок её понял сразу - это искажение. Тут нужно взглянуть на то, как ребёнок видит букву в реальном времени. А видит он бесконечно подвижную букву, под разными углами, разного размера, а это сотни тысяч фотографий (если подумать об этом как о видео ). Машина видит 4 минуты видео (6000 картинок /25кс /60сек = 4мин). И уже очевидно, что ребёнок обучается отнюдь не за 4 минуты, а то алфавит бы знали с пелёнок.
О, спасибо за уточнение. Но в действительности претензия реально смешная. У ИИ нет интерфейса взаимодействия с реальностью, чтобы посадить его за парту и наяривать чисто-писание, чтобы из его уже делать представления о буквах. Поэтому, даже если обучение наложением и тупиковое, другого универсального метода не существует (не придумали).
Странно, а разве в OCR системах не используют векторное представление и топологичекий анализ? Не знал что там растровая матрица. Если бы я придумывал OCR я бе не пошёл по этому пути) Но кто я)
Это упрощение для наглядности
Пример с буквой корректен на все 100. Сколько по вашему изображений людей плащей и велосипедов и в каких фазах их движений, нужно ребенку, чтоб с 100%ной вероятностью распознать, что это человек в плаще в дождь ночью ведет за ручки велосипед по обочине дороги?
@@MaxiRPD тогда и ваше объяснение не корректно. МЫ не знаем как работает мышление ребенка, вернее вы не учитываете этого. Как сказал Губерман тут нужно понимать предмет изучения, а именно мышление ребенка. Пока то, что вы говорите умозрительное предположение. Вероятно вы в чем то правы, и это интересно.
Сам г-н Губерман - пример Интелекта! Какие чистые суждения и глубокие выводы! С ними более оформилось и собствнное отношение к ии. Интеллект: однажды в купе играли с женой в Кинга вместе с проф игроком в Преф, он проиграл, мы, дилетанты - в плюсах; условия задачки изменились, он не перестроился на дилетантов, коротающих время в дороге.
Шикарно !
Спасибо за такую встречу!!! Часто задаваемый мне вопрос,что я думаю об ИИ и т.п. Как художник, могу сказать, что главное, на что не способен ИИ это на творчество! ИИ может создавать что-то из чего-то, уже известного, как раз обобщать, анализировать данные согласно алгоритма он может. Но выйти за пределы известного может только человек. Ещё немецкий философ В.Гете в своих трактатах о форме и цвету поднимал тему работы мозга и как человек мыслит преимущественно шаблонами и привычками и том, что мозг достраивает форму до известного, сталкиваясь с неизвестным. Если ребёнка с детства не научить видеть оттенки, то он не будет их видеть до старости. Работаю сейчас с сеньерами ,учу рисовать пейзаж - и о чудо, через полгода,год они начинают видеть в множество оттенков. Тоже самое в музыке, на мой взгляд, главное, что даёт музыкальная школа, не умение играть на инструменте, а умение слышать музыку. Освободить человека от рутины, благодаря ИИ и направить на творчество и созерцание - вот достижение современной цивилизации!
Интересно, а достоверные пруфы, что " человек может выйти за пределы известного" будут? Конечно нет, ведь их и быть не может. Это оккультная мистическая идея о том, что люди черпают инфу из мира шестимерных единорогов ничем не лучше веры в магию. Сам же говоришь, человек с детства обучается видеть оттенки, то есть набирает базу данных и весь дальнейший акт "творения" такое же пережёвывание данных по заложенным в мозг на физическом, биологическом и социальном уровне алгоритмах. В чём принципиальное отличие от искусственных нейросеток? Неужели прям так сложно это понять, тем более человеку с опытом в творчестве?
@@iuxdhninhd3iucdwcefrw4rfvc19 Людям просто нравится верить в свою уникальность. Им сложно представить что машины(алгоритмы) могут оказаться более эффективными, в разных сложных творческих направлениях. С ними спорить - только время тратить)
Нейросети очень хорошо справляются с творчеством, создают новое на базе насмотренности
@@Good-dg9skзависит от того, сколько материала в них закинут
@@user-mj8vg3ph5u мой коммент уже снесли... Походу любые другие точки зрения тут не приветствуются. Можно только хвалить и восхищаться😄
Очень крут).
Краткий пересказ:
1. Со времени перцептрона ничего не изменилось, нейронные сети нуждаются в примерах содержащих все возможные ответы и только тогда могут давать ответ. Как это улучшить - нужно сосредоточиться на процессе создания распознаваемого объекта, например чтобы распознавать буквы нужно знать как человек пишет буквы.
Здесь спорно, потому что не обсуждаются концепции вроде свертоыных сетей, когда сеть таки может сделань нужное обобщение благодаря правильно подобранной архитектуре.
2. Теория согласно которой нейронная сеть может быть эффективной основывается на предположении что если отразить входные данные в пространство достаточно большой размерности, то всегда существует такое отражение, в котором разные распознаваемые классы находятся по разную сторону плоскости. Но высказывается мнение что многомерные пространства гораздо сложнее и эта теория не сильно адекватна и работа по этому принципу не сильно эффективна.
3. Сеть не знает когда на чего-то не знает и все равно выдает результат (галлюцинирует) потому что точки между точками которые были в обучении получают случайную позицию в пространстве и классифицируются произвольно. Здесь я бы заметил, что если пространство таки отражает все закономерности изучаемой области, то все сложнее и проблема в том что сеть не может ответить "у меня нет такой информации".
4. Мы видим два отедельных прямоугольника, потому что мозг прикидывает как это можно нарисовать. Здесь по мнению ученого разгадка загадки гештальта, но никто в действительности не понимает что это такое. Здесь я бы вспомнил про колмогоровскую сложность и поиск минимального алгоритма создания объекта. Там можно было был объяснить это лучше.
5. Нефть, землетрясения - теория глубинного происхождения нефти (не-биологическая) реально помогает искть нефть. Возможно это значит что эта теория верна?
6. Как отличить настоящий AI. Интеллект не должен делать простейших глупостей. Имеется ввиду не должен путать знак "30" и знак "Stop". Здесь спорно, если AI знает о мире достаточно много, он не делает таких ошибок, или делает их как человек - спонтанно и тут же поправляется.
7. Обычно врач сатвит задачу а математик решает, в итоге это не работает потому что каждый не знает всего. Самое главное для AI - это адекватное описание объекта, поэтому они посещали больницы сами. Опять про то, что картинка не пишется в память а пишется движение которым картинка рисуется. AI слишком зациклен на нейронах. Проблема AI становится сложной потому что мы описываем ее неправильно (допустим, через нейроны).
Впрочем, человек гениальный в части объяснений простыми словами сложнейших вещей, над которыми целые институты/лаборатории работали.
20:50
Я бы сказал наоборт - интеллект это то, насколько умные вещи он способен делать. А идиотские всегда может. Если отказывать интеллекту считаться таковым по критерию отсутствия идиотских вещей, то, возможно, даже многим ученым придется отказать в наличии оного, не говоря уже о всяких случайных представителях человечества. В конце концов, что идиотское, а что нет - заведомо не ясно, а потому, идиотские вещи довольно универсальный способ выбираться из локальных минимумов.
Все топ корпорации делают AGI на основе трансформеров типа GPT, но деду конечно виднее
Отличное интервью!
По мере совершенствования ИИ становится всё труднее осознавать наличие естесственного интеллекта у людей.
Он болен собой, и это объяснение для непонимающих. Но одновременно, мне кажется, юным блогерам не нужно беспокоить стариков. Иди программируй или чем ты там занят, не занимай время.
Обратите внимание насколько плохо стал искать Яндекс, когда стали использовать ИИ в полную силу. Раньше можно было просто набрать ключевые слова и он искал, а теперь ИИ пытается получить контекст. Но контекст задаёт большинство, поэтому чем больше будет связей с каким-то словом (словами), тем больше будет выдавать релевантные (по мнению ИИ) ответы. Но вес релевантности этих ссылок будет расти только лишь из-за того, что на них чаще кликают другие. Замкнутый круг (типа переобученность)
Яндекс ищет лучше Гугла. Особенно по картинкам.
@@ANARCHY_13и что? Тем более, такое утверждать можно лишь в ограниченных условиях. Я ж не про то, кто/что лучше, посыл был именно про использование ИИ Яндексом.
Да и гугл тоже уже не тот
Потрясающий человек!
Это человек, который чувствует красоту математики и понимает ее. Поэтому то, что он говорит очень многим из даже "хорошо" разбирающихся в тонкостях машинного обучения - непонятно.
Не все понял, но весьма познавательно. Спасибо 😊
Шеля Айзекович иногда использовал матан)
Нужно говорить - Нихрена не понял, но оочень интересно. 😅
Когда я занимался анализом данных мы всегда старались уменьшить размерность данных
У нас был термин "проклятие большой размерности" -- чем выше размерность тем больше данных тебе нужно, комбинаторно больше! Например, в двумерном кубе на расстоянии 1 от центра находится более 75% точек, в 10мерном меньше 1 на миллион. Значит в 10 мерном пространстве тебе нужно а миллион раз больше данных для достижения той же точности
Да, в многомерном пространстве все отличается друг от друга, но нам чаще нужно найти сходство чем различие. Распознавание это обнаружение сходства с образцом
Учитывая тот объем данных, которые нейросети могут воспринимать за раз, я удивляюсь, как они вообще могут работать правильно
В десяти заданных областях пространства, а не десятимерном пространстве.
!!! ПОЖЕЛАНИЕ !!!
У вас очень интересные передачи.
!!! Пожалуйста, держите комментарии / пояснения на экране подольше, иначе их не успеваешь прочитать.
Спасибо
Очень интересно и познавательно 👍
Я конечно далек от темы, ну вот ошибается ии, но если он закрывает какую то боль, а издержки из-за ошибки будут стоить не столь дорого, почему бы и нет? И ведь не обязательно рассматривать ИИ как какую то полноценну замену хуману, с его заменой справляется обычная касса самообслуживания. Лишь бы бизнес потребность закрывал. Некоторые больше боятся взбесившегося ии следующего поколения, сбежавшего из лаборатории какого нибудь гугла. Еще в видео не затронута тема спарков, типа возникновение новых свойств при увеличении мощностей.Ну вот кстати боты в комментах хотя обычно выдают себя, но порой задумываешься и вообще не понимаешь кто есть кто
что за спарки? что за новые свойства?🤔 примеры?
@@manOfPlanetEarth живой пример это как ChatGPT вдруг научился программировать
Какой же он умный и всесторонне развитый! Благодарю!
Это для знатоков, многое прояснило. Спасибо.
Разочарован потерей времени: искажение фактов, а именно, нейронные сети игнорировались 30 + лет, пытались найти другие подходы, которые не были успешными. Теперь, когда подход с нейросетями наконец показал себя, эти люди говорят что их подход был игнорирован.
Как он хорош!!!!
Спорно конечно что мы запоминаем букву только если её нарисуем, тогда получится что любой образ нам нужно нарисовать чтобы его запомнить и распознать, но это не так, а вот насчёт формы точно, скорее всего мы именно форму объекта мы запоминаем и распознаём в первую очередь, а растровое изображение существует только на сетчатке глаз.
Замените в вашем комментарии «запоминаем только, если нарисуем» на «запоминаем лучше, если нарисуем» и я соглашусь. А дальше уже просто вопрос, насколько лучше. Это вопрос к науке, лично я считаю, что намного.
@@jewgenijmoldawski3306 естественно лучше - у вас ещё один вид памяти добавляется к зрительной, не знаю как правильно она называется, поэтому назову её мышечной, там и свои рецепторы и свои зоны мозга которые воспринимают и обрабатывают информацию.
офигеть, он выглядет моложе некоторых трёхподбородочных скуфов
1. Отличное интервью! Главное высказывание - надо знать САМОМУ ту область, для которой хотят иметь автомат!
2. Ещё раз показана глубокая критика "нейронных" сетей и ИИ путем выявления погрешностей математических методик.
3. Критика гештальта может быть дополнена критикой рефлекторного подхода (Торндайк-Павлов). Или попытки биопрограммистов вырастить "мозг в колбе".
4. Замечания об обобщении и движении в обучении у людей правильны, но не полны. В ВНД это - мотивация или цель действия.
5. N-мерные сетки (или кубы) известны в курсах, скажем, ВМК с 1980х. Помню из Красновидово доклады о работающих таких программах и их ограничениях.
6. Очень важное замечание о неприложимости языка ОПИСАНИЯ нашего ума в толковании ИИ и программировании.
7. Конечно помню много работ в разных институтах СССР и США о распознавании рукописного письма в процессе движения кисти со стилусом. Такие попытки неоднократно всплывали у производителей хэндсетов. Сегодня это распознавание динамической речи (стилус проехали).
8. Не согласен с утверждением, что в живой памяти человека не хранятся картинки, а только движения. Как Вы истолкуете движениями, скажем, цветовое восприятие?
9. Заключение: в работе над ИИ нужно изучать и совершенствовать три категории: СТРУКТУРУ, ЦЕЛИ и ВРЕМЯ.
Насколько я понимаю, он учился, жил и работал во времена рукописных документов, докладов... Приходилось много рукописного текста читать и сталкваясь с непонятной буквой он мысленно проводил ручкой поверх буквы и с помощью моторной памяти понимал что там за буква. Но моторная память не лежит в основе обучения людей, она лишь вспомогательная система, кроме неё есть ещё слуховая, зрительная (хоть гость её и отрицает). У chatGPT нету моторики, чтоб писать букву "А", но есть множество уже написанных букв.
Непонятно к чему ведёт ваш тезис.
Когда кто-то начинает сравнивать ИИ и говорить что вот человеческий мозг работает иначе, я готов послать такого далеко и надолго. Достаточно посмотреть на современные самолеты, на сколько они не похожи со своими природными примерами но на сколько они ушли далеко в плане перемещения в воздушном пространстве. А ведь сто лет назад тоже никто не верил что возможно создать нечто более совершенное чем у природы. Поэтому бессмысленно слепо копировать природу, у природы весьма ограниченный интсрументарий для своих творений нежели у человека.
Очень хорошая аналогия с самолетами, нам она пришла в глову независимо. Представьте, что кто-то предъявлял бы претензии, что самолёты не машут крыльями, не вылупляются сами из яйца, что для них нужны огромные заводы, люди, исследования, испытания и т.д.
Он же не про весь ИИ говорил, а именно про ограниченность принципа обучения нейросети. Понятно, что можно увеличить число слоёв и сложность сети до уровня, когда при должной обучающей базе система сможет решать поставленные задачи с заданной точностью. Речь же про поиск какой-то более эффективной альтернативы для более общих случаев. Т.е. сейчас сети и их обучение разрабатывают под конкретные задачи. Может быть есть какой-то более универсальный подход? Я так понял.
@@ravekeeper2181 он говорил о низкой с его точки зрения эффективности машинного обучения. Там, где человеку достаточно нескольких примеров, алгоритму требуется намного больше. Более эффективных подходов пока не существует, иначе бы их знали и пользовались, а от себя Шелия не предложил ничего.
Владимир Вапник в последнее время пытается разработать теорию более эффективного обучения, которая должна решать как раз эту проблему, но пока это даже не на бумаге.
@@TheAlexBellага, возьмем еще то, что человеческий мозг невероятно производительный, он год без остановки после рождения учился воспринимать мир с помощью своих органов чувств. Да еще у него и предустановки на уровне инстиктов есть, которые миллионы лет копились. Сетоввть на неэффективность ии, все равно, что смеятся над поваром, который не смог приготовить нормальной еды из испорченных продуктов
Шелия Гоберман - это тупик😂
Это не зубрение, это метод проб и ошибок. Современная нейросеть не выучивает что-то, она пытается это осмыслить и чем больше её учить, тем лучше будет результат. Именно то, о чем дедушка и говорит, она пытается понимать суть автомобиля, а не молекулы, из которых он состоит. Пока получается плохо, но математики предполагают, что через 10 лет будет намного лучше человеков.
Дед разобрался как работает gpt , и как положено деду, решил докапаться.
То как он ругает за ошибки чат, людям x100 можно предъявить.
Знак стоп теста не распознала, а сколько пьяных и трезвых водителей не распознают светофор? Нет Интеллекта у людей, судя по его доводам в сторону gpt. И у деда этого тоже.
Весь спич это просто до*б до слова интеллект. А gpt крутейшая вещь, очень помогает. И этот gpt ребенок молод и будет рости и развиваться.
поддерживаю, дед забыл таблетки принять
Так он и говорит что нет точных признаков интелекта
Человек может определить эту троечку потому,что в отличии от ИИ ,человек может задатся вопросом зачем это ему ,если человеку не надо то он даже обычную тройку не заметит,а если ему нужно то увидет даже суслика там ,где его не видно.
Ведущий! Спасибо за Губермана
Я увидел автора выдающейся книги "Неформальный анализ данных в геологии и геофизике". Если есть возможность, передайте Ш.А. благодарность за алгоритм КЧП!
Непонятно почему один человек делает выводы когда в ии замешаны целые компании и саму структуру развития ии никто не знает к тому же у каждого слоя этой структуры свои алгоритмы и что то даже предполагать в этот адрес это как вилами по воде
Бот, завидуй молча! Это совсем не твой уровень!
Что то я не уловил связи с современными ИИ и его настольгическими воспоминаниями прошлого века
Сам использовал сеть, которая умеет распознавать образы в масштабе и повороте. Это уж точно не перцептрон, а именно многослойная сеть.
Вот чего не видел, так это систем с возможностью выйти за свои рамки.
То есть если обучали на цифры и заложено 10 объектов и показать такой системе & она не поймет, что это что-то новое и решит, что это 8
@@sgenyi С человеком будет то же самое, если он этого знака не знает, а ему скажут угадывать какая цифра нарисована. И знак бесконечности превратится в восьмерку, и стул в четверку, и лебедь в двойку. ;)
- Шеля Айзикович, здравствуйте!
- Добрый день, таки! 😂
"В голове не сохраняются картинки. Их миллиарды, как их сохранишь? Сохраняются движения как вы их рисуете..."
Ну, извините, сохранить миллиард картинок или все те движения, которыми вы все эти миллиард картинок должны нарисовать - что потребует больше памяти???
@@OlegVlCh рисуем тут скорее мышечная память уже
Что нейросети не умеют обобщать это просто не так. Конечно, смотря что понимать под этим, но уже многие десятилетия стандартная метрика измерения обученности нейросетевой модели включает точность предсказаний на данных, по которым обучение не проводилось - eval accuracy. Хотя бы одна эта метрика показывает способность модели к обобщению в сравнении с train accuracy - точности по набору данных на котором проводится обучение. Даже перцептрон Розенблата в середине прошлого века удивил исследователей как-раз таки своей способностью к обобщению - все цифиря которые ему показывают написаны по-разному, но он находит в них нечто общее - принадлежность к общему классу например цифры 4 - это и есть обобщение.
Именно. Если бы модели не умели обобщать, мы не могли бы ими пользоваться. Они не распознавали бы данные, которых не было в обучении. Проверить просто. Делаете фото объекта, показываете модели, она классифицирует объект, повторяете N раз, и это доказывает обобщение. Аналогично можно с голосом или рукописным текстом.
@@TheAlexBellа вот и нет. Вам же сказали, что имеется просто огромное количество картинок с которыми программа сравнивает. Это не обобщение, а перебор.
@@user-vc8ob4pn8s никто не сравнивает с множеством картинок. Шелия сказал, что модели учатся на множестве картинок. В любом случае, обобщение это способность правильно обрабатывать данные, которых не было при обучении
@@user-vc8ob4pn8s
Нет, не перебор. Он описал перцептрон.
В 2000 баловался многослойными сетями. То есть знал и мог реализовать, но не мог понять как оно работает.
И даже реализовал.
Пустая база буквально после нескольких обучения начинала распознавать цифры. Путаница была только с цифрами 6 и 9 и то только тогда, когда они рисовались "лёжа"
не смогу поссмотреть все 40 минут, немного промотал и так и не услышал почему, собственно, это тупик?
Потому что раньше было лучше😊
Старина повернул на 45 градусов мое виденье. Уважение, подписочка.
про квадраты добавлю:
слышали про корреляционный анализ?
Есть образ квадрата. выученный с детства. мы его видим и выявляем везде где заметим. отклик от него очень большой.
поэтому, взяв корреляционное преобразование, то от квадратов будет 2 пика. намного больше чем от разных фигур разного размера.
Дед не шарит. Глубокие сверточные нейросети не мыслят буквальным наложением. Из-за множества слоев достигается тот самый уровень абстрагирования и обобщения, к которому, по его словам нейросети не способны. И тут вовсе не нужны картинки на каждый случай - это уже и в опыте ясно - простым наращиванием базы данных нейросети не могли бы достичь тех результатов, которые демонстрируют сейчас, если бы в механике все работало на все том же буквальном сравнении.
Нет в нейронной сети базы данных.
Вот когда ваш искусственный интеллект будет решать ортогональные задачи методом аналогии, вот тогда и можно будет, с некоторой натяжкой, считать его способным оперировать абстракциями.
Очевидно из-за этого самого "уровня абстрагирования и обобщения" нейронки периодически выдают лютую дичь, причем предсказать когда это произойдет не могут даже сами разработчика. Что ж отличный интеллект прям сразу с шизой его сделали)
@@maksmad1 😂😂😂
ChatGPT это только одна проходная система - первый этап ИИ. Сейчас разрабатывается strawberry, которая уже способна мыслить. Это второй уровень -reasoner. Strawberry в свою очередь в будущем заменит какая-то другая модель - agent и т.д.
Способна мыслить? Звучит как пересказ рекламной брошюры. Или ты сам проверил?
Интеллект, это способность делать достоверные прогнозы развития событий, в том числе с собственным участием. (Infology of emotions) Что считать средой обитания человека, где нужны эти прогнозы? Дом, город, планета? А для червя прогнозов хватит для области одной лопаты земли )