Темная сторона ИИ и редактирования видео

Темная сторона ИИ и редактирования видео

Темная сторона ИИ и редактирования видео

Вся эта история начинается с статьи, опубликованной исследователями в Калифорнийском университете в Беркли 22 августа 2018 года, в которой демонстрируется, как компьютер может накладывать цифровой скелет на изображение человека, чтобы человек казался хорошим танцором. , Звучит весело, верно?

Кто из нас с двумя левыми ногами не захочет представить видео о том, как мы танцуем, как следующий Майкл Джексон? Однако тот факт, что смешивание искусственного интеллекта с программным обеспечением для редактирования видео и рендеринга, может иметь некоторые весьма зловещие последствия, если технология злоупотребляет.

Представляем работу исследователей

Документ, опубликованный исследователями, о котором упоминалось ранее, был в основном демонстрацией того, как машинное обучение может использоваться для передачи движения между людьми в разных видеофильмах, эффективно накладывая движения одного человека на другого. Вы можете увидеть результаты их работы здесь:

Это выглядит неопрятно и несколько забавно, но реалии, с которыми мы могли бы столкнуться, когда такая технология продолжает развиваться, могут оказаться сложными для нас как общества в будущем. Хотя термин ИИ использовался свободно, говоря, что это демонстрация технологии редактирования видео, которая реализует эту концепцию, он, безусловно, является одним из предшественников искусственного интеллекта (например, воображение кого-то в ситуации).

Давайте поговорим о Deepfakes

Используйте Deepfake в качестве поискового запроса на YouTube, и вы найдете много удобных для работы видеороликов, в которых рассказывается о знаменитостях и полуубедительных фальсификациях, сделанных на месте. Хотя это часто делается в хорошем настроении, не у всех есть хорошие намерения с этим программным обеспечением.

Deepfakes принимают профиль лица одного человека и накладывают его поверх лица другого человека. Вы можете увидеть, где собирался с этим, и если вы не можете, вот это: Есть много людей, которые используют эту технику, чтобы создать мести порно видео других, о причастности их в очень пугающей ситуации, когда они находят свое подобие прикреплены к явному содержание и не имеют права регресса. Похоже, они делали то, что происходит в видео.

Более продвинутая технология наложения могла бы позволить компьютерам нарисовать виртуальный скелет, который затем позволил бы злоумышленникам навязать целому человеку потенциально потенциально опасную ситуацию. В итоге мы получаем набор инструментов, которые можно использовать для фабрикации доказательств. Можно сделать так, чтобы стрелок выглядел как кто-то другой на кадрах с места преступления.

Как это повлияет на законных основаниях?

В большинстве стран уже существует правовая система. это ясно определяет фальсификацию событий или лжесвидетеля.Что касается виртуальной олицетворения личности, использование этих методов для модификации видео уже подпадает под действие этих законов.

Ситуация усложняется, когда дело доходит до судов, допускающих видео доказательства. Если у нас есть технология для врачевания видео в той степени, в которой мы это делаем прямо сейчас, представьте, на что мы способны через пять лет. Как суд сможет считать представленное видео надежным? Сделать дубликат в точности как оригинал не очень сложно. В конце концов, все это в цифровой форме.

Суды уже очень неохотно принимают видео доказательства в свои материалы дела. Это прогрессирование технологии может фактически подтолкнуть их к краю, до такой степени, что они не смогут доверять всему, что было снято на видео из-за страха принять что-то, что подделано.

В конце концов, нравится нам это или нет, Похоже, что этот новый вид технологий здесь, чтобы остаться с нами, и нам придется соответствующим образом адаптироваться. Одним из первых шагов, которые мы могли бы предпринять, является распространение понимания того факта, что видео можно было бы подделать гораздо проще — и с гораздо меньшим количеством ресурсов и требований к навыкам — чем они привыкли в 80-х годах. В конце концов, люди будут более скептически относиться к видео, которые они видят.

Технология становится все более и более продвинутой. Люди будут бояться. И я искренне сочувствую им. Но так как технология не может быть изобретена, мы должны продвинуться с этим.Я гораздо больше сторонник самого алгоритма Deepfakes и его потенциала, чем того, для чего он используется в настоящее время. Но опять же, добро пожаловать в Интернет.

Это то, что один конкретный пользователь Reddit рассказал The Verge в статье, опубликованной в феврале 2018 года.

Как вы думаете, как мы должны распространять информацию? Что еще мы должны сделать, чтобы приспособиться? Давайте обсудим это в комментариях!

Эта статья полезна? Да Нет Комментарии (3)

  • Facebook
  • Tweet

0 ответы

Ответить

Хотите присоединиться к обсуждению?
Не стесняйтесь вносить свой вклад!

Добавить комментарий