xAI ने Claude के लिए Anthropic को Colossus सुपरकंप्यूटर खोला
xAI ने Anthropic के साथ साझेदारी की, जिससे Claude मॉडल के प्रशिक्षण और संचालन को बढ़ाने के लिए दुनिया के सबसे बड़े AI सुपरकंप्यूटरों में से एक Colossus 1 तक पहुंच प्रदान की गई।
SpaceXAI ने घोषणा की कि वह AnthropicAI को Colossus 1 तक पहुंच प्रदान करेगा। यह साझेदारी Claude मॉडल के प्रशिक्षण और संचालन के लिए अतिरिक्त कंप्यूट क्षमता उपलब्ध कराएगी। Colossus 1 में 2,20,000 से अधिक NVIDIA GPU हैं, जो इसे AI उद्योग के लिए एक महत्वपूर्ण बुनियादी ढांचा बनाते हैं। xAI ने स्वयं Grok नामक AI चैटबॉट विकसित किया है, जिसमें वॉयस डायलॉग, इमेज और वीडियो जनरेशन, रियल-टाइम सर्च और उन्नत रीज़निंग क्षमताएं शामिल हैं। यह सहयोग AI कंप्यूट पार्टनरशिप का एक नया अध्याय खोलता है।
Claude Managed Agents में मल्टी-एजेंट ऑर्केस्ट्रेशन और सेल्फ-लर्निंग जोड़ा गया
Anthropic ने Claude Managed Agents में नई सुविधाएँ जारी कीं, जिनमें मल्टी-एजेंट ऑर्केस्ट्रेशन, नियम-आधारित सेल्फ-इम्प्रूवमेंट लूप, सेल्फ-लर्निंग और वेबहुक शामिल हैं। Outcomes लूप एजेंटों को रूब्रिक-संचालित आत्म-सुधार की क्षमता देता है, जबकि Dreaming सुविधा सेल्फ-लर्निंग को सक्षम करती है। यह सभी सुविधाएँ डेवलपर्स को अधिक स्वायत्त और बुद्धिमान एजेंट वर्कफ़्लो बनाने में सक्षम बनाती हैं।
Anthropic ने Claude Code की सीमाएँ और API दरें बढ़ाईं
Pro, Max, Team और Enterprise उपयोगकर्ताओं के लिए Claude Code की 5 घंटे की सीमा दोगुनी की गई; पीक आवर्स की गति सीमा हटाई गई; Opus मॉडल के लिए API दरों में भारी वृद्धि।
Anthropic ने Claude Code की 5 घंटे की सीमा को दोगुना कर दिया, पीक आवर्स की स्पीड लिमिट हटा दी, और Opus मॉडल के लिए API दर सीमा में काफी वृद्धि की। Pro और Max उपयोगकर्ताओं के लिए पीक आवर्स में पहले कम की जाने वाली सीमा अब समाप्त कर दी गई है। यह बदलाव आज से प्रभावी हैं। API ट्रैफ़िक में साल-दर-साल 17 गुना वृद्धि हुई है, जो Claude प्लेटफ़ॉर्म की तीव्र वृद्धि को दर्शाता है। टीम और सीट-आधारित Enterprise योजनाओं के लिए भी सीमाएँ दोगुनी की गई हैं।
OpenAI, AMD, Nvidia ने नया नेटवर्क प्रोटोकॉल MRC लॉन्च किया
OpenAI ने AMD, Broadcom, Intel, Microsoft और Nvidia के साथ मिलकर ओपन-सोर्स नेटवर्क प्रोटोकॉल MRC जारी किया, जिसका उद्देश्य बड़े AI प्रशिक्षण क्लस्टर की गति और विश्वसनीयता में सुधार करना और GPU के निष्क्रिय समय को कम करना है।
मल्टीपाथ रिलायबल कनेक्शन (MRC) एक नया ओपन नेटवर्किंग प्रोटोकॉल है, जो बड़े पैमाने पर AI प्रशिक्षण क्लस्टरों को तेज़ और अधिक विश्वसनीय रूप से चलाने में मदद करता है। इस प्रोटोकॉल का उपयोग ChatGPT जैसे मॉडलों के प्रशिक्षण में किया जाता है। छह प्रमुख तकनीकी कंपनियों के सहयोग से विकसित यह प्रोटोकॉल GPU समय की बर्बादी को कम करता है और नेटवर्क विफलताओं के प्रति अधिक लचीलापन प्रदान करता है। यह AI इंफ्रास्ट्रक्चर में एक महत्वपूर्ण ओपन-सोर्स योगदान है।
"xAI और Anthropic के बीच यह साझेदारी निश्चित रूप से इस धारणा को झटका देती है कि Grok एक फ्रंटियर मॉडल बना रहेगा।"
— Ethan Mollick, व्हार्टन प्रोफ़ेसर
Perplexity ने स्वयं का ROSE इंफ़रेंस इंजन विकसित किया
Perplexity ने अपना स्वयं का इंफ़रेंस इंजन ROSE विकसित किया, जो एम्बेडिंग मॉडल से लेकर ट्रिलियन-पैरामीटर LLM तक की सेवा करता है, और GPU कर्नेल निर्माण में तेजी लाने के लिए CuTeDSL को एकीकृत किया।
Google DeepMind ने AI अनुसंधान के लिए EVE Online के साथ साझेदारी की
Google DeepMind ने EVE Online के डेवलपर के साथ साझेदारी की, ताकि इसके जटिल प्लेयर-संचालित ब्रह्मांड का उपयोग AI एजेंटों की मेमोरी, सतत सीखने और दीर्घकालिक योजना का परीक्षण करने के लिए एक सुरक्षित सैंडबॉक्स के रूप में किया जा सके।
Tencent Hunyuan Hy3 प्रीव्यू ने OpenRouter साप्ताहिक चार्ट में शीर्ष स्थान प्राप्त किया
रिलीज़ के दो सप्ताह बाद, Tencent Hunyuan Hy3 प्रीव्यू ने 3.66 ट्रिलियन टोकन प्रोसेस करके OpenRouter साप्ताहिक चार्ट में शीर्ष स्थान प्राप्त किया। साप्ताहिक वृद्धि 298% रही, और यह समग्र उपयोग, टूल कॉलिंग और कोडिंग में पहले स्थान पर रहा।
Hugging Face ने 200+ ऐप्स के साथ ओपन-सोर्स रोबोट ऐप स्टोर लॉन्च किया
Hugging Face ने Reachy Mini रोबोट के लिए एक ओपन-सोर्स ऐप स्टोर लॉन्च किया, जिसमें 200 से अधिक एप्लिकेशन हैं। इसका उद्देश्य रोबोटिक्स विकास में बाधा को कम करना और रोबोट एप्लिकेशन को मोबाइल ऐप्स की तरह सुलभ बनाना है।
Nvidia और ServiceNow ने एंटरप्राइज़ स्वायत्त AI एजेंट वितरित किए
Nvidia ने ServiceNow के साथ साझेदारी करके AI एजेंट वितरित किए जो एंटरप्राइज़ वर्कफ़्लो में स्वायत्त रूप से कार्य कर सकते हैं। इनमें गवर्नेंस, ऑडिट और सुरक्षा निष्पादन क्षमताएँ शामिल हैं। ServiceNow ने Project Arc भी पेश किया।
OpenAI ने GPT-5.5 Instant को ChatGPT डिफ़ॉल्ट मॉडल बनाया
OpenAI ने GPT-5.5 Instant मॉडल को अपडेट करके ChatGPT का डिफ़ॉल्ट मॉडल बना दिया। कानून, वित्त और चिकित्सा जैसे क्षेत्रों में हेलुसिनेशन दर में उल्लेखनीय कमी आई है। इमेज समझ और दस्तावेज़ विश्लेषण में भी सुधार हुआ है।
Zyphra ने ZAYA1-8B रीज़निंग MoE मॉडल जारी किया
Zyphra ने ZAYA1-8B रीज़निंग मॉडल जारी किया, जो DSMoE-MLA++ आर्किटेक्चर का उपयोग करता है। यह हाई-एंड RL और टेस्ट-टाइम स्केलिंग को जोड़ता है। आगामी 80B मॉडल की भी घोषणा की गई।
Cursor ने Composer के RL प्रशिक्षण के लिए Autoinstall सिस्टम बनाया
Cursor का ऑटो-इंस्टॉल सिस्टम पुराने Composer मॉडलों का उपयोग करके RL प्रशिक्षण के लिए डेव एनवायरनमेंट स्वचालित रूप से सेट करता है। इससे नई पीढ़ी के मॉडल अधिक कठिन समस्याओं को हल करने पर ध्यान केंद्रित कर सकते हैं।
Luma ने Uni-1.1 API लॉन्च किया, टोकन के बजाय ब्रीफ़ के माध्यम से तर्क करता है
Luma ने Uni-1.1 API जारी किया, जो टोकन प्रोसेस करने के बजाय ब्रीफ़ को समझकर तर्क करता है और फ़ैशन, आर्किटेक्चर, मंगा जैसे क्षेत्रों में सिनेमाई गुणवत्ता के परिणाम उत्पन्न करता है।
Perplexity Agent API में वित्तीय खोज सुविधा जोड़ी गई
Perplexity ने Agent API में Finance Search सुविधा लॉन्च की। डेवलपर्स एक टूल कॉल के माध्यम से लाइसेंस प्राप्त वित्तीय डेटासेट, रियल-टाइम मार्केट डेटा और सत्यापित वेब स्रोत प्राप्त कर सकते हैं।
Cursor 3.3 में एजेंट कॉन्टेक्स्ट उपयोग का विज़ुअलाइज़ेशन जोड़ा गया
Cursor 3.3 में उपयोगकर्ता अब अपने एजेंट के कॉन्टेक्स्ट उपयोग का विस्तृत विवरण देख सकते हैं। यह सुविधा कॉन्टेक्स्ट समस्याओं का निदान करने और सेटअप अनुकूलन में मदद करती है।
Luma ने लॉन्च किए क्रिएटिव एजेंट — ऑटोमैटिक टार्गेटेड विज्ञापन जनरेशन
Luma ने क्रिएटिव एजेंट सुविधा लॉन्च की, जो ऑडियंस परिभाषा और कंटेंट वेरिएशन के अनुसार स्वचालित रूप से टार्गेटेड विज्ञापन उत्पन्न करती है। यह प्लानिंग, जनरेशन और ऑप्टिमाइज़ेशन के सभी चरणों को कवर करता है।
Nvidia: Colossus 1 में 2,20,000+ GPU, SpaceX और Anthropic की साझेदारी को शक्ति प्रदान कर रहे हैं
Nvidia ने SpaceX और AnthropicAI की कंप्यूट साझेदारी पर बधाई दी। Colossus 1 में 2,20,000 से अधिक NVIDIA GPU कार्यरत हैं। Nvidia के अनुसार, "AI का भविष्य NVIDIA पर चलता है।"
Anthropic इंजीनियरिंग प्रमुख: अधिकांश काम फ़ोन से, सैकड़ों एजेंट चौबीसों घंटे सक्रिय
Boris Cherny ने बताया कि वे अब अपना अधिकांश काम मोबाइल से करते हैं। उनके Claude App में 5-10 सेशन और सैकड़ों एजेंट सक्रिय रहते हैं, और रात में हज़ारों एजेंट गहरे कार्य चलाते हैं।
Bun प्रोजेक्ट का GitHub बॉट robobun — योगदान में संस्थापक को पीछे छोड़ा
Code w/ Claude कार्यक्रम में खुलासा हुआ कि Bun प्रोजेक्ट के GitHub बॉट robobun ने प्रोजेक्ट में Jarred Sumner से अधिक योगदान दिया है। यह बॉट रिपॉज़िटरी प्रबंधन, इश्यू हैंडलिंग और कोड योगदान करता है।
MiMo 2.5 Pro और GLM 5.1 ने DeepSeek और Kimi को पीछे छोड़ा
नवीनतम बेंचमार्क में MiMo 2.5 Pro और GLM 5.1 ने प्रभावशाली प्रदर्शन किया। GPT 5.5 ने 77.8 अंक प्राप्त किए, जबकि MiMo 2.5 Pro ने 66.4 और GLM 5.1 ने 58.1 अंक हासिल किए। DeepSeek मॉडल अपेक्षाकृत पीछे रहे।
DeepSeek V4-Pro: क्या यह Flash एक्सपर्ट से डिस्टिल किया गया है?
विश्लेषकों का अनुमान है कि DeepSeek V4-Pro, V4-Flash एक्सपर्ट मॉडल से डिस्टिल किया गया हो सकता है, न कि इसके विपरीत। यह दोनों मॉडलों के लगभग समान प्रदर्शन की व्याख्या करता है। V3.2 128K से अधिक कॉन्टेक्स्ट का समर्थन नहीं करता।
vLLM ने Mooncake के साथ एकीकरण करके एजेंटिक वर्कलोड के लिए KV कैश वितरित किया
vLLM ब्लॉग ने Mooncake के साथ एकीकरण का वर्णन किया, जो एजेंटिक वर्कलोड में लंबे कॉन्टेक्स्ट और प्रीफ़िक्स पुन: उपयोग की समस्या को हल करता है। एजेंटिक ट्रेस 80K+ टोकन तक बढ़ते हैं, जिनमें 94%+ पुन: प्रयोज्य प्रीफ़िक्स होते हैं।
vLLM ने LightSeek Tokenspeed के MLA लाइब्रेरी को एकीकृत किया — Kimi और DeepSeek के लिए अनुकूलित
vLLM LightSeek के Tokenspeed प्रोजेक्ट का विशेष डे-0 लॉन्च पार्टनर बना। इसका MLA लाइब्रेरी विशेष रूप से Kimi 2.5/2.6 और DeepSeek R1 के लिए NVIDIA हार्डवेयर पर एजेंटिक वर्कलोड के लिए अनुकूलित है।
Gaia2: LLM एजेंटों के लिए डायनामिक और असिंक्रोनस एनवायरनमेंट बेंचमार्क
माइक्रोसॉफ़्ट रिसर्च ने Gaia2 पेश किया, जो एजेंटों का मूल्यांकन यथार्थवादी, डायनामिक वातावरण में करता है। इसमें समय की बाध्यताएँ, शोर, डायनामिक इवेंट और मल्टी-एजेंट सहयोग शामिल हैं। GPT-5 ने 42% pass@1 के साथ शीर्ष स्थान प्राप्त किया।
SVGS: स्पैटियली वैरीइंग कलर्स के साथ गॉसियन स्प्लैटिंग को बढ़ाना
SVGS प्रत्येक गॉसियन प्रिमिटिव के लिए स्पेस-वैरीइंग रंग और अपारदर्शिता फ़ंक्शन प्रस्तुत करता है, जो पारंपरिक एकल-रंग दृष्टिकोण से बेहतर प्रदर्शन करता है। शिफ़्टेबल कर्नेल वेरिएंट ने कई डेटासेट पर सर्वश्रेष्ठ नए दृश्य संश्लेषण परिणाम प्राप्त किए।
RLVE एनवायरनमेंट्स ZAYA1 प्रशिक्षण पाइपलाइन में शामिल
RLVE का अडैप्टिव वेरिफ़ायेबल एनवायरनमेंट दृष्टिकोण Zyphra की ZAYA1 प्रशिक्षण पाइपलाइन में अपनाया गया। यह प्रोग्रामेटिक रूप से समस्याएँ उत्पन्न करता है और एल्गोरिदमिक रूप से सत्यापन योग्य पुरस्कार प्रदान करता है।
LightOn का 0.1B पैरामीटर लेट-इंटरैक्शन मॉडल बड़े मॉडलों को हराता है
OBLIQ-Bench पर LightOn के 0.1B पैरामीटर मॉडल ने परिमाण में कई गुना बड़े डेंस मॉडलों से बेहतर प्रदर्शन किया। वर्तमान स्कोर 8% nDCG@10 है, जिसमें 91% तक की गुंजाइश है।
DeepSeek V4-Pro और V4-Flash — कई मूल्यांकनों में प्रदर्शन लगभग समान
GLM 5.1=58.1, MiMo 2.5 Pro=66.4, GPT 5.5=77.8 जबकि V4-Pro और V4-Flash लगभग समान स्कोर करते हैं। DeepSeek के पेपर के अनुसार, "V4-Flash-Max कई बेंचमार्क पर V4-Pro-Max के प्रदर्शन से मेल खाता है।"
DeepSeek को हार्डवेयर प्रोजेक्ट के रूप में स्थापित करके फ़ंडिंग और स्वायत्तता प्राप्त करना
विश्लेषण के अनुसार, लिआंग वेनफ़ेंग ने DeepSeek को सेमीकंडक्टर हार्डवेयर इकोसिस्टम का हिस्सा बताकर राज्य निधि और AI स्वायत्तता दोनों प्राप्त की हो सकती है।