Гари ИИ Аватар
Иконка канала Гари ИИ Аватар

Гари ИИ Аватар

114 подписчиков

3
просмотра
На Coachella — одном из крупнейших музыкальных фестивалей в Калифорнии — заметили рост контента с участием AI-инфлюенсеров. Событие давно стало площадкой не только для музыки, но и для съёмок контента и рекламных интеграций, однако в этом году в лентах появилось множество «гостей», которых не существует в реальности. Речь идёт о цифровых аватарах, визуально неотличимых от людей, которые публикуют фото и видео с фестиваля рядом с реальными знаменитостями. Один из примеров — аккаунт Grannyspills, AI-персонаж с аудиторией более 2 млн подписчиков, созданный в Higgsfield. В постах с фестиваля такие аватары могут не иметь явных пометок о генерации, из-за чего контент воспринимается как реальный. Это усиливает тренд на AI-инфлюенсеров и одновременно размывает границу между фактом и генерацией. Если значительная часть визуального контента создаётся искусственно, формат офлайн-мероприятий начинает терять прежнюю уникальность. #ai #generativeai #AIinfluencers #Coachella #Higgsfield #digitalavatars #syntheticmedia #contentcreation #socialmedia #deepfake #aicontent #futureofmedia
1
просмотр
Higgsfield представила Marketing Studio — инструмент для быстрого создания рекламных UGC-креативов на базе Seedance 2.0. Сервис собирает вертикальные ролики до 15 секунд и предлагает набор пресетов, включая UGC, Tutorial, Unboxing, Hyper Motion, Product Review, TV Spot, Wild Card и Try-On. Продукт можно добавить по ссылке или вручную через фотографии; в показанном сценарии ссылка на карточку товара с Ozon не обработалась, поэтому использовалась загрузка изображений. Название и описание формируются автоматически по фото, но их можно редактировать и сохранять в библиотеку для повторного использования. Аватар выбирается из готовых или создаётся отдельно — по текстовому описанию или по фотографии. После этого добавляется текстовый промпт и при необходимости референсы, и ролик отправляется на генерацию, которая занимает несколько минут. В примере продукт и внешний вид аватара сохраняются, но язык озвучки может определяться автоматически и требует корректировки. Отдельные режимы вроде Hyper Motion, Wild Card и Product Review задают разный стиль подачи, от динамичных сцен до фокуса на товаре. Marketing Studio выступает как оболочка для Seedance 2.0 с возможностью быстро собирать несколько версий креативов из одних и тех же ассетов. #ai #aivideo #generativeai #Higgsfield #MarketingStudio #Seedance2 #ugc #ugcads #aiads #Avatar #Claude #SyntxAI #verticalvideo #productvideo
1
просмотр
Higgsfield добавил интеграцию Seedance 2.0 и связал её с Grok Imagine. Сценарий работы двухэтапный: сначала создаётся референс в одном из доступных стилей, затем Seedance превращает его в видео с уровнем качества image-to-video. На странице сервиса заявлены мультимодальность, поддержка нескольких входов и нативная генерация аудио. Доступ к Seedance 2.0 внутри Higgsfield ограничен: функция открыта только в Business-плане с бизнес-верификацией, а не для всех пользователей. Такой тариф стартует от двух рабочих мест, где токены распределяются между участниками. Это делает модель доступной в командной работе, но повышает порог входа по сравнению с обычными планами. Интеграция усиливает позиционирование Higgsfield как платформы, объединяющей генерацию изображений и видео в одном пайплайне, однако ключевые возможности остаются привязанными к более дорогим тарифам и проверенным аккаунтам . #ai #aivideo #generativeai #Higgsfield #Seedance2 #GrokImagine #xAI #videogeneration #imagetovideo #aiworkflow
2
просмотра
HeyGen представил Avatar V — новую модель цифровых аватаров, обучаемую по 15-секундному видео вместо одной фотографии. Такой подход позволяет захватывать не только внешность, но и динамику: мимику, микродвижения, работу губ и общий ритм поведения в кадре. Это решает проблему «дрейфа личности», когда аватар со временем теряет сходство и начинает выглядеть иначе. По описанию, Avatar V сохраняет идентичность в разных ракурсах, при смене сцен и в более длинных роликах. Улучшена синхронизация губ, точность выражений лица и поддержка динамических сцен. Достаточно один раз записать короткий референс, после чего можно использовать аватар в разных форматах видео без повторной съёмки . Обновление делает упор на стабильность и воспроизводимость поведения, а не только на визуальное сходство, что отличает Avatar V от предыдущих решений с обучением по статичным изображениям. #ai #aivideo #generativeai #HeyGen #AvatarV #aiavatar #digitalavatar #videogeneration #lipsync #aicontent #deepfake #aiworkflow
1
просмотр
LTX Studio добавила функцию продолжения клипов: теперь можно расширять удачный фрагмент кусками до 12 секунд и доводить общий хронометраж примерно до минуты. Это позволяет не пересобирать сцену заново, если первые секунды уже получились — камера, свет и композиция сохраняются, а генерация продолжается в том же визуальном ключе. Вместо повторной генерации с риском смены стиля или темпа, пользователь просто «дотягивает» тот же шот. Такой подход помогает собирать более цельные сцены, удерживать один сетап дольше и избегать резких склеек между разными клипами. Однако качество исходника остаётся критичным: если в начале есть артефакты или нестабильная физика, продление лишь повторит эти проблемы на следующих секундах. Функция фактически закрывает одну из частых проблем AI-видео — разрыв коротких удачных генераций, позволяя превращать их в более длинные и согласованные фрагменты без потери визуальной логики. #ai #aivideo #generativeai #LTXStudio #videogeneration #aiediting #workflow #contentcreation #videotools #aiworkflow
4
просмотра
Google выпустила AI Edge Eloquent — офлайн-диктовку внутри приложения Google AI Edge Gallery, доступного на iOS и Android. Решение работает без интернета и подписки, а данные обрабатываются локально и не покидают устройство. Модель принимает естественную речь и автоматически «очищает» текст: убирает паузы и оговорки, структурирует фразы и приводит их к читабельному виду. Функции включают сжатие и расширение текста, а также генерацию кратких выжимок прямо на устройстве. Можно добавлять собственные слова, имена и термины, чтобы повысить точность распознавания в конкретном контексте. По тестам, на английском язык работает стабильно и точно, тогда как поддержка русского пока отсутствует. Вся обработка выполняется локально, без обращения к облаку, что делает сценарий подходящим для заметок и быстрых записей без передачи данных наружу. #ai #generativeai #Google #AIEdge #offlineai #speechrecognition #dictation #ondeviceai #privacypreserving #mobileai
1
просмотр
FLORA обновила Batch Node, упростив работу с вариациями при генерации изображений. Теперь можно задать список промптов с переменными — например, разными цветами продукта — и загрузить их напрямую или через CSV. Система автоматически разбивает данные и запускает генерацию сразу по всей пачке, без необходимости обрабатывать каждый вариант отдельно. Внутри FLORA результаты отображаются последовательно: после завершения можно быстро пролистывать варианты и сравнивать их без повторных запусков. Также поддерживается единый референс-фон, через который прогоняются все версии, что сохраняет общую сцену при изменении деталей. Это снижает количество ручных операций и ускоряет подбор нужного результата, особенно при работе с сериями однотипных изображений. Обновление Batch Node фактически переносит рутинные задачи в автоматический режим, позволяя быстрее тестировать гипотезы и получать готовые вариации в одном проходе. #ai #generativeai #FLORA #batchnode #aigeneration #prompting #workflow #automation #aicontent #imagegeneration
HeyGen интегрировал Seedance 2.0, запустив формат Avatar Shots — генерацию сцен с участием собственного аватара. Связка решает ключевое ограничение Seedance: модель блокирует «чистые» лица из-за биометрии, но у HeyGen есть встроенная верификация, поэтому система пропускает такие кейсы и позволяет использовать аватар без отказов. Теперь вместо классического talking head можно помещать своего аватара в любые сцены с высокой консистентностью. Поддерживается до трёх персонажей в кадре, что даёт возможность собирать диалоги и взаимодействие. При этом важно загружать фоны без присутствия человека — иначе Seedance может отклонить генерацию. Также остаётся ограничение по озвучке: при попытке русского языка речь может искажаться, что, по наблюдениям, связано именно с Seedance, а не с HeyGen. В результате связка HeyGen и Seedance 2.0 показывает один из первых стабильных сценариев, где можно интегрировать себя в генеративное видео без обходных приёмов и с сохранением внешности, хотя часть ограничений по языку и обработке сцен пока сохраняется. #ai #aivideo #generativeai #HeyGen #Seedance2 #AvatarShots #aiavatar #videogeneration #digitalavatar #aicontent #deepfake #aiworkflow
4
просмотра
Wan 2.7 от Alibaba выходит как обновление, которое расширяет возможности сразу в генерации изображений и видео. По описанию, модель удерживает стабильные лица, аккуратно работает с цветами и текстом, а также поддерживает до девяти референсов с генерацией вплоть до 4K. Отмечается высокая консистентность: объекты и детали не «прыгают» между кадрами, что остаётся частой проблемой в подобных системах. В видео ключевой функцией стал режим instruction editing — редактирование сцены через текстовые команды без пересъёмки или полной пересборки. Также добавлен рестайлинг, позволяющий менять визуальный стиль уже готового ролика с минимальным влиянием на движение и содержание. При этом Wan 2.7 не распространяется как open-source, в отличие от предыдущих версий линейки Wan, и делает ставку на контролируемый доступ и качество. На фоне других решений от Alibaba модель выглядит как попытка собрать инструменты продакшна внутри одной системы, но по качеству и возможностям пока уступает лидерам сегмента #ai #aivideo #generativeai #Wan27 #Alibaba #videomodel #texttoedit #aiediting #videostyle #4k #aiworkflow
6
просмотров
HappyHorse 1.0 — новая видеомодель от Alibaba (команда Taotian), которая за короткое время вышла в лидеры рейтингов Artificial Analysis по направлениям Text-to-Video и Image-to-Video . Разработку возглавляет Чжан Ди, ранее связанный с проектом Kling в Kuaishou. Модель пока остаётся относительно закрытой по деталям, но уже привлекла внимание за счёт результатов в бенчмарках. По демонстрациям, HappyHorse 1.0 показывает стабильную физику сцен, согласованные движения и удержание персонажей, а также встроенный звук с синхронизацией под происходящее. Это отличает её от многих конкурентов, где аудио либо отсутствует, либо добавляется отдельно. По качеству генерации модель сравнивают с Seedance 2.0: в субъективных оценках визуал может уступать, но в слепых тестах показатели выглядят выше На фоне усиления ограничений у закрытых решений вроде Seedance 2.0, появление альтернатив с меньшими барьерами может изменить баланс: чуть более слабые по качеству модели компенсируют это гибкостью и доступом без жёстких API-ограничений #ai #aivideo #generativeai #HappyHorse #Alibaba #Taotian #texttovideo #imagetovideo #videomodel #Seedance2 #aigeneration
8
просмотров
Netflix представила модель VOID, которая не просто удаляет объекты из видео, а пересчитывает физику сцены так, будто их изначально не существовало. При удалении человека или предмета меняются не только пиксели, но и поведение окружения: объекты продолжают движение, свет и тени перестраиваются, а взаимодействия между элементами сцены пересобираются с учётом новых условий. По демонстрациям, если убрать человека с гитарой, инструмент падает; при удалении рук предметы, с которыми они взаимодействовали, продолжают движение самостоятельно. Это выходит за рамки классической сегментации и ретуши: модель учитывает причинно-следственные связи внутри сцены и пересобирает её логику. Ранее подобные правки требовали сложного VFX и ручной доработки, теперь значительная часть процесса автоматизирована. Сообщается, что Netflix распространяет VOID как open-source решение . Такие инструменты могут упростить постпродакшн, где раньше требовались пересъёмки или сложные правки. Одновременно это снижает порог для изменения уже снятых сцен и архивных материалов, поскольку видео можно адаптировать под новый контекст без полной пересборки #ai #aivideo #generativeai #Netflix #VOID #videomodel #vfx #computervision #deeplearning #aiediting #postproduction
10
просмотров
Seedance 2.0 остаётся одной из самых сильных видеомоделей, но при загрузке конкретного лица часто выдаёт отказ. Это встроенный фильтр: модель детектит прямую биометрию, особенно на крупных планах, и блокирует генерацию из-за рисков персональных прав. В тестах показаны три способа, которые позволяют обойти это ограничение и всё же получить сцены с узнаваемым лицом. Первый вариант — превратить фото в скетч через Syntx AI (раздел Design, режимы Nano Banana 2 или Pro). После загрузки изображения и промпта получается набор ракурсов — фас, профиль, полный рост, который модель воспринимает уже как персонажа, а не конкретного человека. Второй способ — карта персонажа с несколькими ракурсами на одном изображении: это повышает консистентность, но Seedance 2.0 пропускает такой формат нестабильно. Третий подход — ухудшение качества исходного кадра: добавление шума, лёгкого блюра и зерна (примерно до 1K) снижает точность биометрии, но сохраняет узнаваемость, и такие кадры модель принимает заметно чаще. На практике лучше всего работает комбинация: скетч персонажа вместе с ухудшенным кадром. В генерации видео через Seedance 2.0 (режим Pro) именно такой вход даёт наиболее стабильный результат и удерживает лицо без отказов, тогда как «чистые» фото блокируются чаще #ai #aivideo #generativeai #Seedance2 #SyntxAI #NanoBanana #videogeneration #facegeneration #prompting #aicontent #deepfake #aiworkflow
11
просмотров
Higgsfield представила Cinema Studio 3.0 как крупное обновление своего AI-видеоредактора с упором на более реалистичную физику, сложное движение и нативную генерацию аудио. В официальном анонсе компания пишет про physics-aware generation engine, cinematic reasoning system, синхронный звук, высокую консистентность персонажей между кадрами и работу с историей через референсы, а не только через ручную сборку start/end сцен. Также заявлены жанровые режимы, до 9 референсных изображений на проект и новые speed ramp presets для управления темпом и движением, 200 тысяч стилей и 150 движений камеры. Cinema Studio 3.0 запущена в формате Exclusive Early Access и на отдельной странице сервиса прямо указано, что доступ открыт только в Business Plan через business verification. Поэтому это скорее релиз для более серьёзных команд и продакшна, чем массовое обновление для всех пользователей. #ai #aivideo #generativeai #Higgsfield #CinemaStudio #CinemaStudio3 #filmmaking #nativeaudio #characterconsistency #videogeneration #creativeai #Seedance2
9
просмотров
Fruit Love Island — вирусный AI-сериал с говорящими фруктами, изменами и абсурдной драмой — сначала собрал огромные просмотры, а потом быстро стал символом того, что в сети называют AI slop. По данным Daily Dot и Fast Company, после жалоб пользователей и волны критики часть роликов начала исчезать с TikTok, а сам формат всё чаще обсуждали не как находку, а как пример массового генеративного контента, сделанного на гиперболе и количестве. На этом фоне автор проекта публично сорвался: в публикациях и пересказах его TikTok-обращений говорится, что он начал кричать на хейтеров и аудиторию, угрожать закрыть шоу и «сжечь виллу», после чего история окончательно превратилась в мета-драму уже вокруг самого создателя. Показательно, что интернет сначала разогнал Fruit Love Island как вирусный формат, а затем теми же механизмами начал его душить. Пока корректнее говорить не о полном «конце» проекта, а о кризисе вокруг него: аккаунт и отдельные перезаливы контента всё ещё видны на других площадках, но история уже стала кейсом о том, как быстро вирусный AI-контент может превратиться в токсичный мем против своего автора. #ai #generativeai #aivideo #TikTok #FruitLoveIsland #aislop #viralcontent #internetculture #socialmedia #creator economy #contentmoderation
4
просмотра
OpenArt запустила Character Builder — инструмент для создания консистентного AI-персонажа, которого можно использовать не только в отдельных изображениях, но и дальше переносить в видео, talking video и motion sync внутри OpenArt Suite. На официальной странице сервис подаёт это как систему для сохранения персонажа, мира и стиля между разными генерациями, а после создания герой попадает в библиотеку и остаётся доступен для повторного использования в следующих проектах. При сборке персонажа можно задать базовые параметры и описание, чтобы сразу получить более управляемый результат, а затем использовать его в разных форматах без постоянной лотереи с лицом и деталями. OpenArt отдельно подчёркивает связку Character, Character Video, Talking Video и Motion Sync как единый workflow внутри одной панели. По смыслу это действительно похоже на подход с консистентными героями, который уже продвигал Higgsfield со своим Cast, но здесь акцент сделан именно на сквозном использовании персонажа в экосистеме OpenArt. #ai #aivideo #generativeai #OpenArt #CharacterBuilder #consistentcharacter #TalkingVideo #MotionSync #characterdesign #aiworkflow #virtualcreator #Higgsfield
4
просмотра
Lovart представила Move Object — инструмент для перестановки объекта в кадре без полной пересборки изображения. В демонстрации объект выделяется прямо на фото, переносится в другую точку, а модель автоматически дорисовывает освободившееся место и собирает итоговый кадр без отдельного промпта. По задумке это быстрый способ менять композицию вручную, когда нужно просто сдвинуть человека или предмет внутри уже готовой сцены. В тесте автора функция действительно сработала: персонажа удалось «посадить» на бетонный блок, но качество оказалось спорным — появились артефакты, смазанные детали и изменённые текстуры. Для сравнения тот же сценарий в Nano Banana дал более чистый результат с лучшей сохранностью внешности и фона, после чего оба кадра использовались как основа для видео через start/end workflow. По словам автора, даже слабый результат из Lovart можно частично вытянуть на этапе анимации, но для продакшна качество пока выглядит нестабильным, тогда как вариант из Nano Banana сразу смотрится аккуратнее. #ai #imageediting #aivideo #generativeai #Lovart #MoveObject #NanoBanana #Kling #photomanipulation #aiworkflow #contentcreation #image2video
6
просмотров
Связанные с иранской медиасредой AI-ролики в LEGO-эстетике превратили военную пропаганду в вирусный формат. В кадре появляются Donald Trump, Benjamin Netanyahu, удары, «ответы» и политические символы, но всё подано как игрушечная анимация с мемной подачей. Такой контраст делает ролики заметнее в ленте и помогает упаковать жёсткий политический месседж в более лёгкую визуальную оболочку. По данным The New Yorker, такие видео уже набирают миллионы просмотров, а их распространение поддерживали и аффилированные с государством иранские площадки. Это показательный пример того, как генеративный AI меняет политическую коммуникацию: пропаганда становится быстрее, дешевле и визуально гибче. Вместо привычного агитролика зрителю показывают почти развлекательный клип, который проще досмотреть, переслать и встроить в мемную культуру. При этом о прямом авторстве государства во всех случаях говорить стоит осторожно: часть проектов позиционируется как независимая инициатива, хотя их контент распространяли связанные с иранской системой медиа. #ai #generativeai #aivideo #propaganda #disinformation #Iran #politics #socialmedia #warcontent #digitalpropaganda #LEGOstyle #misinformation
3
просмотра
HeyGen добавила Interactivity — режим для интерактивных видео с ветвлением, квизами, кнопками и переходами по разным сценариям прямо внутри ролика. В официальных материалах компания показывает это как инструмент для Learning & Development: зрителю можно задавать вопросы, проверять понимание материала, вести его по разным веткам и добавлять ссылки на внешние ресурсы. По сути, видео перестаёт быть линейным и начинает работать как мини-сценарий с выбором действий. Такой формат подходит для инструктажей, обучения, онбординга и внутренних корпоративных сценариев, где важно не просто показать ролик, а добиться реакции от пользователя. В справке HeyGen отдельно указано, что branching logic и clickable elements работают без внешних инструментов, а сама функция доступна для Business и Enterprise-планов. Для массового контента это пока скорее задел на будущее, но сам вектор понятен: AI-видео постепенно движется от обычной генерации к управляемому интерактивному опыту внутри одного сценария. #ai #aivideo #generativeai #HeyGen #interactivevideo #branching #quiz #learninganddevelopment #training #videomarketing #corporatelearning #edtech
9
просмотров
Google представила Veo 3.1 Lite как самую доступную модель в линейке Veo 3.1 для генерации видео через Gemini API. По данным Google, она стоит меньше половины цены Veo 3.1 Fast при той же скорости, поддерживает text-to-video и image-to-video, работает с вертикальным и горизонтальным форматом и даёт выбор длительности 4, 6 или 8 секунд. Также заявлены разрешения 720p и 1080p, а доступ открыт через платный tier Gemini API и для тестирования в Google AI Studio. По прайсу Google, Veo 3.1 Lite стоит $0.05 за секунду в 720p и $0.08 за секунду в 1080p, тогда как Veo 3.1 Fast сейчас указан по $0.15 за секунду для 720p и 1080p, с отдельным снижением цены Fast, запланированным на 7 апреля 2026 года. Поэтому главный акцент здесь не на максимальном качестве, а на более дешёвой массовой генерации: для быстрого теста креативов, потокового продакшна и сценариев, где важна цена одной итерации. Формулировку про «ломает рынок» стоит оставлять как оценку, но сам релиз действительно снижает порог входа в AI-видео. #ai #aivideo #generativeai #Google #GoogleVeo #Veo31 #Veo31Lite #texttovideo #imagetovideo #GeminiAPI #GoogleAIStudio #videogeneration
4
просмотра
Runway представила два прикладных инструмента для продакшна и рекламных креативов. Multi-Shot собирает одно видео сразу из нескольких шотов по одному текстовому запросу: в справке Runway указано, что это может быть ролик до пяти сцен, а в описании запуска говорится о диалогах, звуковых эффектах, монтажных склейках, темпе и кинематографичном кадрировании в одном результате. Пользователь может отдать историю на интерпретацию модели или управлять сценой вручную через более детальное описание. Второй инструмент, Ad Concepter, работает на этапе идеи: Runway описывает его как генератор сторибордов из product shots для брейнсторма рекламных кампаний и коммерческих концепций. По сообщениям о запуске, в интерфейсе также используются текстовый запрос и референсное изображение, после чего система предлагает варианты композиции и ключевых сюжетных битов для рекламы. В сумме Runway закрывает сразу две задачи: сначала быстро придумать подачу продукта, затем так же быстро собрать многосценный ролик без ручной склейки отдельных шотов. #ai #aivideo #generativeai #Runway #RunwayML #MultiShot #AdConcepter #storyboard #videogeneration #advertising #creativeai #productads