חברת מיסטרל (Mistral AI) הצרפתית הכריזה על Mistral Small 3, מודל שפה זעיר SLM (ר"ת small language model) ויעיל בגודל 24 מיליארד פרמטרים, המצליח להציג ציון של 81% במבחן הבינה המלאכותית MMLU (ר"ת Massive Multitask Language Understanding) עם ביצועים של 150 טוקנים בשניה ועיבוד מהיר יותר בכ~30% ממודל ה-GPT-4o-mini של OpenAI.
שוק הבינה המלאכותית ממשיך להיות סוער לאחר השקת מודלי ה-DeepSeek-V3 ו-DeepSeek-R1 של דיפסיק הסינית, כאשר מיסטרל אף מתייחסת למודל ה-R1 וקוראת לו מרשים.
בניגוד למודלי AI מתחרים, החברה בחרה שלא להשתמש במידע סינטטי או "למידת חיזוק" (reinforcement learning) במטרה לאפשר להשתמש במודל כבסיס בעבור מודלי AI אחרים.
מודל ה-Mistral Small 3 מגיע עם 24 מיליארד פרמטרים ואפשרות להרצה מקומית שלו על כרטיס RTX 4090 גרפי בודד או נייד מקבוק בעל 32GB זיכרון.
המודל החדש אומן עם מיטוב לכ-80% ממשימות הבינה המלאכותית הגנרטיבית במטרה להגיע לזמני שיהוי נמוכים במיוחד, עם ביצועים טובים יותר ממודל ה-GPT4o-mini הזעיר של OpenAI, אך גם ממודלים גדולים יותר, דוגמת Qwen2.5-32B ו-Llama-3.3-70B מבית עליבאבא ומטא.
לפי החברה, המודל מסוגל להציע מהירות גבוהה פי 3 בהשוואה ל-Llama-3.3-70B על אותה החומרה.
מודל ה-Mistral Small 3 החדש זמין ב-Hugging Face וב-GitHub תחת רישיון ה-Apache 2.0 הפתוח.
חלק מהפוסטים באתר כוללים קישורי תכניות שותפים, עבורם נקבל עמלה עם ביצוע רכישה בפועל של מוצרים. עמלה זו לא מייקרת את העלות הסופית של המוצרים עבורכם.
הסקירות והתכנים המופיעים באתר מהווים המלצה בלבד, וכך יש להתייחס אליהם. כל המחירים המופיעים באתר נכונים ליום הפרסום בלבד והאחריות לקניית מוצר או שירות כזה או אחר מוטלת עליך בלבד – השימוש באתר בהתאם לתנאי השימוש והפרטיות.