DEEPFAKE - самая опасная технология будущего. История технологии Дипфейк

Sdílet
Vložit
  • čas přidán 2. 05. 2024
  • Подпишись на канал ► / @rbctrends
    Deepfake (от англ. deep learning - «глубокое обучение» и fake - «фальшивый») - реалистичная манипуляция аудио- и видеоматериалами с помощью искусственного интеллекта. Фактически эта технология заставляет человека говорить то, чего он не произносил, и делать то, чего он никогда не делал. IT-аналитики уверены: технология Deepfake может стать самой опасной в цифровой сфере за последние десятилетия. Уже сейчас дипфейки используются злоумышленниками в финансовых махинациях, создании фальшивых новостей и для дискредитации известных людей. Более того, технологии их создания постоянно совершенствуются. Не исключено, что уже через несколько лет дипфейки будут настолько естественно выглядеть и звучать, что распознать их можно будет только после тщательного анализа с использованием искусственного интеллекта.
    00:00 - Интро
    00:57 - Как и когда появился DEEPFAKE?
    02:16 - Скарлетт Йоханссон и ее отношение к технологии
    02:49 - В какой части рынка DEEPFAKE займет значимое место?
    04:38 - Коммерческая сторона
    06:11 - DEEPFAKE в России
    07:06 - Влияние на киноиндустрию
    08:44 - Минусы технологии в киноиндустрии
    09:58 - Возможности, которые предоставляет DEEPFAKE
    10:19 - Цифровые копии известных людей из прошлого
    10:56 - Кому принадлежат права на внешность?
    11:25 - Первая виртуальная fashion модель
    12:00 - Почему возникла необходимость создавать виртуальных персонажей?
    12:51 - Видеоролики на разных языках
    13:16 - Неоднозначные эмоции зрителей
    13:40 - Приложения для быстрой замены лиц
    15:25 - Могут ли технологии DEEPFAKE угрожать системам биометрической идентификации?
    17:16 - Голосовые DEEPFAKE
    18:26 - DEEPFAKE в будущем
    19:19 - Преступления с использованием технологии
    РБК Тренды ► www.rbc.ru/trends/
    Telegram ► t.me/rbc_trends
    Дзен ► zen.yandex.ru/rbc_trends
    Вконтакте ► rbc_trends
  • Věda a technologie

Komentáře • 31

  • @AntiAutis
    @AntiAutis Před 3 lety +26

    Лучше оставьте ведущего с канала технологии 4.0 он всё-таки больше ассоциируется с технологиями, а этот ведущий будто в прошлом был ведущим спортивного телеканала либо обзорщиком котировок

  • @djekarnald6915
    @djekarnald6915 Před 3 lety +12

    А где чувак ведущий его заменили дипфейком 🤔

  • @user-mm4vb4hk7m
    @user-mm4vb4hk7m Před 2 lety +11

    По моему это очень опасная технология(впрочем как и вся цифролизация), если попадет в "плохие" руки. Если ею займутся политики-можно настроить любое общество на что угодно. Господи...наше общество не достигло чистых отношений.

    • @Poison_Orchid
      @Poison_Orchid Před 3 měsíci

      потому что руководят не чистые души а уроды. пока люди будут к власти допускать таких, цивилизация так и не достигнет чистых отношений

  • @Superflywheel
    @Superflywheel Před 2 lety +7

    Косты? Может, цены? Селебы? На каком языке они говорят? Какие-то комплексы такой лексикой компенсируют?

  • @user-jc7tu9zw8u
    @user-jc7tu9zw8u Před 2 lety +4

    Мы не любим когда певец поёт под фонограмму ,дипфейк это тоже своего рода фонограмма .И я тоже отрицательно отношусь к дипфейкам .Эта технология очень опасна

  • @user-bz1fh8yl7z
    @user-bz1fh8yl7z Před 3 lety +8

    А перевод на русский будет? А то ничего не понятно

  • @golemruco8605
    @golemruco8605 Před 3 lety +4

    У ведущего слишком большие паузы между фразами. На нормальной скорости не комфортно смотреть

  • @user-br4fk7hw4h
    @user-br4fk7hw4h Před 2 lety +2

    Нож... Им можно нарезать хлеб)
    Или совершить преступление...

  • @jonchibovskiy8604
    @jonchibovskiy8604 Před 2 lety +6

    Путин давно Россиян так поздравляет!)

  • @user-sz5slm
    @user-sz5slm Před 3 lety +3

    Люди, использующие дипфейки неправильно, вот они - угроза. Сами дипфейки не представляют опасности. Не надо подменять понятия, я об этом уже говорил) Без разрешения человека явно, нельзя использовать его биометрию, особенно, которая утекла откуда-то. Хотя дальше смартфона утекать не должна...

  • @dkphotograph
    @dkphotograph Před 3 lety +13

    эксперту бы русский язык подучить, а то говорит на рунглише :)

  • @djekarnald6915
    @djekarnald6915 Před 3 lety +1

    А когда будет про цифрового двойника 🤔

  • @janaquatex
    @janaquatex Před 3 lety +1

    Классно, что канал развивается 👍

  • @trikebike
    @trikebike Před 2 lety +2

    Молчать, синтетика!🤣

  • @MrKim-pt2vm
    @MrKim-pt2vm Před 3 lety

    в сериалах уже некоторых преступники стали использовать Deepface, причем еще более продвинутую версию, со взломом серверов где храниться видео с камер наблюдения

  • @djekarnald6915
    @djekarnald6915 Před 3 lety +1

    Правда я уже пересмотрел всё 🤔

  • @specialist_from_1980
    @specialist_from_1980 Před 2 lety +2

    та дайте поспать ведущему, не издевайтесь!)

  • @wise7388
    @wise7388 Před 2 lety

    под чем ведущий?

  • @user-li7hi3es1e
    @user-li7hi3es1e Před 2 lety

    ужасы будущего и восторг

  • @eastsiberiantransit3660

    Тоска смертная...

  • @denamax1989
    @denamax1989 Před rokem

    Поддерживаю

  • @ruslan_msk
    @ruslan_msk Před 3 lety

    Круть 👍👍👍👍

  • @djekarnald6915
    @djekarnald6915 Před 3 lety

    2

  • @user-cr8mm4cu9s
    @user-cr8mm4cu9s Před 2 lety

    Турта В.Г., 66 лет, автор научного открытия, мировой лидер в создании Промышленного ИИ Токарный кибер-технолог уже тестируется, признается производственниками и скоро начнет заменять специалистов СЧПУ по всему миру. Пенсия 14 032 руб. Сделано без помощии государства и спонсоров.Росатом код воровал, но так и не смог разобраться czcams.com/video/S37VwNCQlWQ/video.html

  • @sergeysaint2870
    @sergeysaint2870 Před rokem

    Балаболизм это диагноз

  • @maxamorson2538
    @maxamorson2538 Před měsícem

    ха-ха