Free songs
header_good

Nowa funkcja animacji w Midjourney

Nowy rozdział dla Midjourney

Midjourney, znane z generowania obrazów AI, zaprezentowało swój pierwszy model do tworzenia wideo – Image-to-Video V1. Nowa funkcja została udostępniona subskrybentom 19 czerwca 2025 i działa poprzez przeglądarkę oraz Discorda. To element większego planu: stworzenia otwartych symulacji świata 3D w czasie rzeczywistym, w których użytkownik może się poruszać i oddziaływać na otoczenie.


Proces tworzenia animacji

Tworzenie wideo zaczyna się od istniejącego obrazu – wygenerowanego lub przesłanego. Po kliknięciu „Animate” dostępne są dwa tryby: „Auto” do automatycznej animacji oraz „Manual”, w którym użytkownik opisuje scenę. Kluczową rolę odgrywa wybór dynamiki: tryb „Low motion” generuje spokojne, ambientowe sekwencje, natomiast „High motion” umożliwia pełną animację kamery i elementów sceny.


Długość i kontrola

Każde zadanie tworzy cztery pięciosekundowe klipy, które można nieznacznie wydłużyć, osiągając maksymalnie około 21 sekund filmu. Taki system pozwala na szybkie testowanie różnych scenariuszy bez znaczącego obciążenia czasowego.


Dostępność i koszty

Subskrypcja Basic zaczyna się od 10 dolarów miesięcznie i obejmuje około 200 obrazów. Wideo kosztuje około osiem razy więcej niż pojedynczy obraz, co wciąż czyni usługę wielokrotnie tańszą niż konkurencja. Testowany jest też tryb „Relax” dla planów Pro i Mega, umożliwiający tworzenie filmów bez zużycia limitu GPU.


Cel długofalowy

Midjourney wyznacza sobie ambitne cele. Image-to-Video V1 to zaledwie początek. Planowane są pełne symulacje 3D z renderingiem w czasie rzeczywistym, w których użytkownicy będą mogli wchodzić w interakcje z generowanym światem. Docelowo ma powstać system, w którym obraz, ruch, przestrzeń i czas tworzą jedno spójne środowisko.


Zagrożenia prawne

Wraz z premierą pojawiły się problemy prawne. Disney i Universal wniosły pozew przeciwko Midjourney, zarzucając naruszenie własności intelektualnej. Choć platforma blokuje animacje znanych postaci, testy wykazały możliwość obejścia ograniczeń, co budzi obawy co do moderacji treści i zgodności z prawem.


Pozycja względem konkurencji

Midjourney musi konkurować z takimi graczami jak OpenAI (Sora), Runway (Gen-4), Google (Veo 3) czy Adobe (Firefly Video). Mimo mniejszych zasobów i infrastruktury dla klientów biznesowych, ich rozwiązanie wyróżnia się przystępnością i prostotą obsługi.


Odbiór społeczności

Reakcje użytkowników są pozytywne. Na Reddicie pojawiają się komentarze zachwalające pierwsze efekty, szczególnie w kontekście kompozycji scen i dynamiki ruchu. Jednocześnie użytkownicy są ciekawi, jak model poradzi sobie z bardziej złożonymi projektami i dłuższymi animacjami.


Kierunek rozwoju

W najbliższym czasie planowane jest udoskonalenie jakości i stabilności modelu, optymalizacja interfejsu oraz testowanie nowych opcji. W dalszej perspektywie celem jest rozwój pełnych interaktywnych środowisk, integrujących wszystkie komponenty generatywne.


Model jako fundament większej zmiany

Midjourney V1 to nie tylko efektowna funkcja, lecz strategiczny krok w kierunku nowego paradygmatu tworzenia cyfrowych światów. Choć wiąże się to z ryzykiem, zarówno prawnym, jak i technologicznym, projekt przyciąga uwagę i pokazuje potencjał rozwoju na wielu płaszczyznach.


Midjourney udostępnia narzędzie, które przy niewielkim koszcie umożliwia generowanie sekwencji wideo z obrazów statycznych, a przy tym otwiera drogę do symulacji AI jako formy interaktywnej przestrzeni cyfrowej.



RSS
Follow by Email
LinkedIn
LinkedIn
Share
YouTube
Instagram
Tiktok
WhatsApp
Copy link
Adres URL został pomyślnie skopiowany!