מודל ה-Qwen 2.5-Max החדש של עליבאבא טוב יותר מ-DeepSeek V3

Qwen (מקור alibaba cloud) Qwen (מקור alibaba cloud)

Alibaba Cloud, זרוע הענן של קבוצת עליבאבא (Alibaba) הסינית, הכריזה על ה-Qwen 2.5-Max, מודל הבינה המלאכותית המתקדם ביותר במשפחת מודלי ה-Qwen 2.5 של החברה, המגיע כמודל "מומחים מעורבים" MoE (ר"ת Mixture of Experts) שאומן על מעל מ-20 טריליון טוקנים ומציג ביצועים טובים יותר ממודלי הבינה המלאכותית של OpenAI, מטא ואף DeepSeek הסינית.

אם יכולנו להגיד עד כה כי קיים "מרוץ חימוש" בין ענקיות הטכנולוגיה בתחום ה-AI, עכשיו ניתן לומר כי אנחנו עומדים לפני "מלחמה קרה" בתחום ה-AI, זאת לאחר שהשוק עבר זעזוע לא קטן אחרי שחברת דיפסיק (DeepSeek) הסינית הציגה את מודלי DeepSeek-V3 ו-DeepSeek-R1, מודלים שהצליחו לעורר לא מעט פאנקיה בשווקים ולגרום לאנבידיה ירידת ערך שהגיע בשיא של כ~600 מיליארד דולר.

עכשיו נראה כי עליבאבא לא מתכוונת לעמוד מנגד ולתת לדיפסיק לתפוס את הכותרות, מה שגרם לחברה להציג את מודל ה-Qwen2.5-Max החדש, שאומן על מעל מ-20 טריליון טוקנים בשילוב טכניקות ה-SFT (ר"ת Supervised Fine-Tuning) ו-RLHF (ר"ת Reinforcement Learning from Human Feedback) לכיול ושיפור הביצועים.

המודל החדש מצליח להציג ביצועים מקבילים או טובים יותר ברוב המקרים ממודלי ה-GPT-4o, Llama 3.1, Claude 3.5 Sonnet ואף ממודל ה-DeepSeek V3 הסיני.

ניתן להתנסות במודל ה-Qwen2.5-Max דרך צ'אטבוט דמו באתר Hugging Face, כאשר קוד המקור שלו עדיין לא נוסף לעמודי ה-GitHub ו-Hugging Face הרשמיים.


חלק מהפוסטים באתר כוללים קישורי תכניות שותפים, עבורם נקבל עמלה עם ביצוע רכישה בפועל של מוצרים. עמלה זו לא מייקרת את העלות הסופית של המוצרים עבורכם.

הסקירות והתכנים המופיעים באתר מהווים המלצה בלבד, וכך יש להתייחס אליהם. כל המחירים המופיעים באתר נכונים ליום הפרסום בלבד והאחריות לקניית מוצר או שירות כזה או אחר מוטלת עליך בלבד – השימוש באתר בהתאם לתנאי השימוש והפרטיות.

השוואת מפרטים