كانت خطوة Midjourney نحو الفيديو إحدى أكبر قصص التقنية الإبداعية في عام 2025. ما بدأ كأداة محبوبة تركّز على الصور أضاف تدفق "Image-to-Video" يحوّل الصور الثابتة إلى مقاطع قصيرة متحركة — والنظام يتغير بسرعة.
قدرة الفيديو في Midjourney هي سير عمل "صورة إلى فيديو" يُحوّل صورة واحدة إلى مقطع قصير عبر تدفق “Animate”، منتجًا مقاطع بطول افتراضي خمس ثوانٍ مع السماح بالامتداد حتى ~21 ثانية. انطلقت هذه الميزة في منتصف 2025 كنموذج الفيديو V1 من Midjourney وهي متاحة عبر CometAPI من خلال Midjourney Video V1 API.
ما هو Midjourney V1
ماذا يفعل Midjourney V1 وكيف يُعرض للمستخدمين
يحوّل نموذج الفيديو V1 من Midjourney صورة ثابتة واحدة (إما صورة مُنشأة داخل Midjourney أو صورة مستضافة خارجيًا) إلى مقاطع قصيرة متحركة — بطول افتراضي حوالي 5 ثوانٍ — باستخدام أوضاع تحريك تلقائية أو يدوية وعلامات شدة الحركة (--motion low / --motion high). يمكن للمستخدمين تمديد المقاطع بزيادات 4 ثوانٍ (حتى ~21 ثانية) والتحكم في حجم الدفعة، والتكرار، والإطار النهائي؛ مخرجات الفيديو بصيغة MP4. نموذج Midjourney’s V1 Video هو نموذج Image-to-Video مُحسَّن للمقاطع القصيرة، المُصفَّحة، والقابلة للتكرار. الخصائص النموذجية لـ V1 تشمل:
- طول مقطع أساسي ~5 ثوانٍ، مع آلية امتداد مُتحكَّم بها (زيادات 4 ثوانٍ، حتى حد موثّق).
- التركيز على الحفاظ على الأسلوب الفني للصورة المصدر (ضربات الفرشاة، الألوان، المزاج).
- مفاضلات الدقة والجودة من أجل سرعة التكرار؛ V1 مُوجّه لمحتوى الشبكات الاجتماعية والويب أكثر من الإنتاج السينمائي الكامل.
هذه القيود تشكّل طريقة تصميم الأصول والمحفزات: V1 مناسب للحركة المقتضبة، تحريك الصور الثابتة، حلقات إبراز المنتج، أو حركات قصيرة للشخصيات بدلًا من المشاهد الطويلة.
كيف تُظهر CometAPI نموذج Midjourney Video
CometAPI هي بوابة متعددة النماذج تجمع الوصول إلى مئات نماذج الذكاء الاصطناعي (نص، صورة، صوت، والآن صورة إلى فيديو) عبر واجهة REST موحّدة. تقدم خدمة Midjourney Video في CometAPI تغليفًا لقدرة الفيديو V1 من Midjourney بحيث يستطيع المهندسون استدعاء توليد الصورة إلى فيديو برمجيًا بدل الاعتماد حصريًا على تفاعل Discord/الويب. هذا يجعلها مفيدة لأتمتة خطوط الإبداع، وبناء النماذج الأولية، ودمج الأصول المتحركة القصيرة في التطبيقات أو سير عمل إنتاج المحتوى.
خدمة CometAPI’s Midjourney Video تُمكّن المطورين من المصادقة، واستدعاء نقطة النهاية /mj/submit/video وتمرير معلمات مثل prompt (يمكن أن يتضمن عنوان URL للصورة البداية)، وvideoType (مثل vid_1.1_i2v_480)، وmode (fast/relax)، وanimateMode (automatic/manual). تقدّم CometAPI تسعيرًا أقل لكل استدعاء وراحة (مفتاح API واحد + واجهة REST) مقارنةً بالتكامل مباشرة عبر سير عمل Midjourney القائم على Discord.
كيف أستعد قبل استدعاء واجهة API؟
ما بيانات الاعتماد والحسابات التي أحتاجها؟
- سجّل في CometAPI وأنشئ مفتاح API من لوحة معلومات حسابك (تستخدم CometAPI رمز Bearer مثل
sk-xxxxx). - تأكّد من أن لديك أصول صور متاحة عبر الإنترنت (عنوان URL عام يمكن الوصول إليه) إذا كنت تخطط لاستخدام صور خارجية كنقطة بداية. يحتاج Midjourney إلى روابط قابلة للوصول لسير عمل الصورة→الفيديو الخارجي.
قرارات يجب اتخاذها مسبقًا
- الصورة البداية — اختر صورة ذات موضوع واضح وتكوين محدد؛ يؤثر نسبة العرض إلى الارتفاع على دقة/نسبة الفيديو النهائي (يقوم Midjourney بمواءمة نسب البداية مع أحجام بكسل SD/HD).
- أسلوب الحركة — قرر بين حركة منخفضة مقابل عالية (
--motion lowمقابل--motion high) وما إذا كنت تريد استدلالًا تلقائيًا أم تحكمًا يدويًا بحركة الكاميرا/الموضوع. - الطول وحجم الدفعة — الافتراضي 5 ثوانٍ؛ يمكنك التمديد حتى ~21 ثانية. حجم الدفعة الافتراضي 4 (يُرجع Midjourney 4 متغيرات)، ويمكنك طلب 1 أو 2 لتوفير الحوسبة.
- الدقة — V1 أساسًا SD (480p) افتراضيًا؛ HD (720p) يتطلّب توصيف المَعلمة، مثل vid_1.1_i2v_480.
كيف أستدعي نقطة نهاية الفيديو في CometAPI الخاصة بـ Midjourney (خطوة بخطوة مع أمثلة)؟
ما حمولة الطلب الدنيا؟
في الحد الأدنى، ترسل:
prompt: عنوان URL للصورة البداية ونص حركة اختياري (مثل"https://.../frame.png add a dog running from left to right").videoType: مثلvid_1.1_i2v_480.mode:"fast"(أو"relax"إذا سمح به خطتك).animateMode:"automatic"أو"manual".
هذا مثال curl يوضح طلب POST إلى https://api.cometapi.com/mj/submit/video. إليك مثال curl نظيف وجاهز للنسخ مُقتبس من مثال CometAPI:
curl --location --request POST 'https://api.cometapi.com/mj/submit/video' \
--header 'Authorization: Bearer sk-YOUR_COMETAPI_KEY' \
--header 'Content-Type: application/json' \
--data-raw '{
"prompt": "https://cdn.midjourney.com/example/0_0.png A peaceful seaside scene — camera slowly zooms out and a gull flies by",
"videoType": "vid_1.1_i2v_480",
"mode": "fast",
"animateMode": "manual",
"motion": "low",
"bs": 1
}'
مثال Python (requests)
إذا كنت تفضّل Python، فإليك مثالًا قويًا باستخدام requests يقدّم مهمة فيديو ويستعلم حالتها حتى الاكتمال (استبدل العناصر النائبة). هذا نمط عملي: إرسال → استعلام → تنزيل. المثال أدناه مقصود أن يكون بسيطًا وينبغي تكييفه مع نظام المهام/اللا متزامن في تطبيقك الإنتاجي.
import time
import requests
API_KEY = "sk-YOUR_COMETAPI_KEY"
BASE = "https://api.cometapi.com"
HEADERS = {"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"}
payload = {
"prompt": "https://cdn.midjourney.com/example/0_0.png A calm city street — camera pans left, rain falling",
"videoType": "vid_1.1_i2v_480",
"mode": "fast",
"animateMode": "manual",
"motion": "low",
"bs": 1
}
# Submit job
r = requests.post(f"{BASE}/mj/submit/video", json=payload, headers=HEADERS)
r.raise_for_status()
job = r.json()
job_id = job.get("id") or job.get("job_id")
# Poll for completion (example polling)
status_url = f"{BASE}/mj/status/{job_id}"
for _ in range(60): # poll up to ~60 times
s = requests.get(status_url, headers=HEADERS)
s.raise_for_status()
st = s.json()
if st.get("status") == "completed":
download_url = st.get("result", {}).get("video_url")
print("Video ready:", download_url)
break
elif st.get("status") in ("failed", "error"):
raise RuntimeError("Video generation failed: " + str(st))
time.sleep(2)
كيف أضيف الصوت (تعليق صوتي، موسيقى، مؤثرات) إلى فيديو Midjourney/CometAPI؟
هل ينتج Midjourney صوتًا بشكلٍ أصيل؟
لا — حتى V1، مخرجات الفيديو في Midjourney صامتة (MP4 بدون صوت مُضمَّن). يضيف المستخدمون الصوت خارجيًا. (توجد أنظمة ذكاء اصطناعي أخرى تولّد صوتًا/فيديو معًا، لكن V1 من Midjourney يركّز على الحركة البصرية).
مسارات مُوصى بها لإضافة الصوت والتعليق
- تحويل النص إلى كلام (TTS) للتعليق/الصوت — استخدم ElevenLabs أو Replica أو خدمات مشابهة للاستنساخ الصوتي/TTS لإنتاج مسارات كلام من نصوص. تتيح هذه الخدمات إنتاج أساليب كلام طبيعية وغالبًا بتكلفة منخفضة لكل دقيقة. (منشورات المجتمع/LinkedIn توصي بـ ElevenLabs كخيار خفيف للصوت).
- أدوات تصميم الصوت بالذكاء الاصطناعي للموسيقى/المؤثرات — أدوات مثل MM Audio وMagicshot أو مولّدات مؤثرات متخصصة يمكنها توليد خلفيات ومؤثرات تناسب المقطع. أدلة المجتمع والدروس تُظهر جودة جيدة من MM Audio وأدوات صوتية أخرى.
- منهج محرّر/منصة عمل صوتية (تحكم دقيق) — استورد ملف MP4 إلى DaVinci Resolve / Premiere / Audacity، أضف صوت TTS، مؤثرات صوتية، وقم بالمزج. هذا أفضل مسار للتزامن الدقيق لحركة الشفاه والتوقيت. دروس المجتمع وفيديوهات YouTube تعرض خطوات لمطابقة الصوت مع فيديوهات Midjourney.
مثال سريع: دمج الصوت + الفيديو باستخدام ffmpeg
بافتراض أن video.mp4 (صامت) وspeech.mp3 (TTS) جاهزان:
# Normalize audio length (optional), then combine:
ffmpeg -i video.mp4 -i speech.mp3 -c:v copy -c:a aac -shortest output_with_audio.mp4
للمزج المتقدم (موسيقى خلفية + حوار + مؤثرات)، صدّر مسارًا صوتيًا واحدًا مُختلطًا من منصّة العمل الصوتية ثم امزجه داخل الفيديو كما في الأمر أعلاه.
كيف أكتب محفزات الحركة للتحكم في التحريك؟
أنماط محفزات الحركة
التحفيز بالحركة في Midjourney V1 يعتمد على اللغة الطبيعية. أنماط مفيدة:
- اتجاه/فعل: "الكاميرا تتحرك دوللي يسار بينما يمشي الموضوع إلى الأمام"
- حركة الكائن: "ورقة تتساقط من الشجرة وتنجرف نحو الكاميرا"
- تعليمات الكاميرا: "تكبير بطيء للداخل، بارالاكس خفيف، سرعة 2x"
- جودة زمنية: "حركة خفيفة، قابلة للتكرار، إيقاع سينمائي"
ابدأ بجملة حركة موجزة، ثم أضف صفات للأسلوب والتوقيت: مثل "start_frame_url animate: 'slow spiral camera, subject bobs gently, loopable', style: 'film grain, cinematic, 2 fps tempo'". التجربة والتكرارات الصغيرة ضرورية.
التحريك اليدوي مقابل التلقائي
- التلقائي: دع النموذج يستنتج حركة مُحتملة. الأفضل للتجارب السريعة.
- اليدوي: زوّد مسارات كاميرا ومتجهات موضوع صريحة لنتائج ثابتة وقابلة للتكرار — مفيد عندما تحتاج إلى رقصات متوقعة أو لمطابقة لقطات حية.
كيف أمدّد المقاطع، أغيّر حجم الدفعة، أو أصنع حلقات؟
تمديد طول الفيديو
بعد التوليد، يوفّر Midjourney (والأغلفة مثل CometAPI) عناصر تحكم "Extend". تسمح واجهة Midjourney بتمديد مقطع 5 ثوانٍ بـ 4 ثوانٍ لكل تمديد (حتى ~21 ثانية). برمجيًا، إمّا تستدعي نفس نقطة النهاية بعلامة extend أو تقدّم مهمة extend جديدة تُشير إلى المقطع الأصلي (تُظهر وثائق CometAPI نقاط النهاية ذات المعلمات والأزرار في نظرتها العامة). توقّع أن تكون تكلفة التمديد مشابهة لتوليد أولي.
إنشاء فيديوهات حلقية أو تحديد إطارات النهاية
- لصنع حلقة، أعد استخدام الإطار البداية كإطار النهاية أو أضف المعامل
--loop. - لإطار نهاية مختلف، قدّم عنوان URL لصورة أخرى (كـ
end) وتأكد من توافق نسبة العرض إلى الارتفاع. يدعم Midjourney معامل--end. فكّر في استخدام التمديدmanualلضبط المحفزات أثناء التمديد لضمان الاستمرارية.
حجم الدفعة والتحكم في التكلفة
يُنشئ Midjourney عدة متغيرات افتراضيًا (حجم دفعة 4). للإنتاج أو التدفقات الحساسة للتكلفة، اضبط bs:1 لتقليل الحوسبة. تتضمن وثائق Midjourney تقديرات وقت GPU لـ SD مقابل HD ولأحجام دفعات مختلفة (مفيدة لتوقع التكلفة). تُقدّم CometAPI تسعيرًا تنافسيًا.
الخلاصة
نموذج الفيديو V1 من Midjourney هو الخطوة العلنية الأولى نحو الفيديو البرمجي — إنه محافظ تصميميًا ولكنه واعد. نتوقع تحديثات نموذجية تدريجية تُحسّن التسلسلات الأطول، الدقة الأعلى، ومسارات كاميرا أكثر قابلية للتحكم. دور CometAPI كجامع يقلّل حاجز الدمج للمطورين الذين يريدون إضافة فيديو Midjourney إلى التطبيقات دون التعامل مع مصادقات متعددة خاصة بالمزود وخواص التزامن لديهم.
يمكن للمطورين الوصول إلى MIdjourney Video API عبر CometAPI. للبدء، استكشف قدرات النماذج في CometAPI ضمن Playground واطلع على دليل واجهة API للتعليمات التفصيلية. قبل الوصول، يُرجى التأكد من تسجيل الدخول إلى CometAPI والحصول على مفتاح API. CometAPI تقدّم سعرًا أقل بكثير من السعر الرسمي لمساعدتك على الدمج.
جاهز للانطلاق؟→ نسخة تجريبية مجانية من Midjourney!
