Будущее стоковых видео. Нейросеть создает видео из текста. Полный разбор косяков Sora от OpenAI
Видеостоки будущего. Нейросеть создает видео из текста. Полный разбор косяков Sora от OpenAI
Привет, друзья! Давно я хотел сделать видео про нейросети, а в частности о том, как генерация видео убьет саму идею стоковых видео. И вот, на днях, компания OpenAI, известная вам как создатель ChatGPT, презентовала свою новую модель Sora. И она делает видео. И это точно больше, чем вы ожидали!
И сегодня мы вместе в сами детально разберем обильные артефакты видеороликов, сгенерированных искусственным интеллектом, а помимо этого рассмотрим следующие вопросы:
- Как нейросети генерировали видео до этого момента?
- Почему нейросеть не понимает физику? Как работает диффузионная модель?
- Как "думает" нейросеть? На каких данных обучалась нейросеть Sora и причем тут видеостоки?
- Будущее видеостоков.
- Как упрощается интерфейс взаимодействия с нейросетями и актуальны ли курсы на эти темы?
- Каков будет заработок на контенте, созданном искусственным интеллектом.
- Регулирование отрасли и маркировка сгенерированного контента.
- Что будет считаться искусством?
Содержание:
00:00 Что, черт возьми, здесь происходит? Sora от OpenAI
02:22 Как нейросети генерировали видео до этого? Почему нейросеть не понимает физику? Как работает диффузионная модель?
05:56 Как "думает" нейросеть?
07:09 На каких данных обучалась нейросеть Sora и причем тут видеостоки?
09:14 Будущее видеостоков
13:52 Упрощение интерфейса. Курсы по нейросетям
15:01 Заработок на контенте, созданном искусственным интеллектом
16:10 Регулирование и маркировки
19:37 Что будет считаться искусством?
21:03 Анализ видеороликов, сгененированных нейросетью Sora