7 Mei 2026 · Kamis

Colossus Dibuka: xAI Beri Anthropic Akses Superkomputer Raksasa

xAI mengumumkan kemitraan dengan Anthropic untuk memberikan akses ke Colossus 1, salah satu superkomputer AI terbesar dan tercepat di dunia, guna meningkatkan pelatihan dan pengoperasian model Claude. Superkomputer ini ditenagai lebih dari 220.000 GPU NVIDIA.

Colossus 1, superkomputer AI milik xAI yang kini terbuka untuk Anthropic guna memperkuat model Claude.

Dalam langkah yang mengejutkan industri AI, xAI mengumumkan kemitraan komputasi strategis dengan Anthropic. Melalui kesepakatan ini, Anthropic akan mendapatkan akses langsung ke Colossus 1 — superkomputer AI yang termasuk salah satu yang terbesar dan paling cepat diterapkan di dunia. Infrastruktur ini ditenagai oleh lebih dari 220.000 GPU NVIDIA dan diharapkan secara fundamental meningkatkan kapasitas pelatihan serta inferensi model Claude. Kemitraan ini menandai babak baru dalam kolaborasi antar laboratorium AI frontier, di mana kapasitas komputasi tidak lagi menjadi keunggulan tertutup melainkan aset yang dapat dibagikan untuk akselerasi kemajuan bersama.

Pengumuman ini disampaikan bersamaan dengan acara Code w/ Claude 2026 di San Francisco, di mana Anthropic juga mengungkapkan bahwa lalu lintas API mereka tumbuh 17 kali lipat secara tahunan. CEO Nvidia Jensen Huang secara terpisah menyampaikan selamat atas kolaborasi ini, menegaskan bahwa masa depan AI berjalan di atas infrastruktur NVIDIA. Bagi Anthropic, akses ke Colossus 1 berarti Claude dapat menangani beban kerja yang jauh lebih besar, mempercepat siklus riset dan pengembangan model generasi berikutnya.

OpenAI, AMD, dan Nvidia Luncurkan Protokol Jaringan Baru MRC

OpenAI bersama AMD, Broadcom, Intel, Microsoft, dan Nvidia merilis protokol jaringan sumber terbuka Multipath Reliable Connection (MRC), yang bertujuan meningkatkan kecepatan dan keandalan klaster pelatihan AI skala besar serta mengurangi waktu idle GPU.

Protokol MRC dirancang khusus untuk menjawab tantangan mendasar dalam pelatihan model AI berskala masif: menjaga ribuan GPU tetap sinkron melalui jaringan yang andal. Dengan menyediakan koneksi multipath yang tangguh, MRC secara signifikan mengurangi waktu GPU yang terbuang akibat kegagalan jaringan — masalah kronis dalam klaster pelatihan besar. OpenAI telah menggunakan protokol ini secara internal untuk pelatihan ChatGPT dan kini membukanya untuk seluruh komunitas. Kolaborasi enam perusahaan teknologi terkemuka ini menegaskan bahwa infrastruktur AI semakin menjadi prioritas bersama yang melampaui batas persaingan antar perusahaan.

Perplexity Kembangkan Mesin Inferensi ROSE Milik Sendiri

Perplexity mengembangkan mesin inferensi sendiri bernama ROSE (Runtime-Optimized Serving Engine), yang mampu melayani model dari embedding hingga LLM triliunan parameter. Dengan mengintegrasikan CuTeDSL ke dalam mesin inferensi, Perplexity dapat membangun kernel GPU khusus secara lebih cepat, memangkas waktu dari riset ke produksi.

Mesin inferensi buatan sendiri ini menandai langkah strategis Perplexity menuju kemandirian infrastruktur, mengurangi ketergantungan pada penyedia inferensi pihak ketiga dan memungkinkan optimasi yang lebih dalam untuk model-model yang mereka layani.

Nvidia dan ServiceNow Kirimkan Agen AI Otonom Perusahaan

Nvidia bermitra dengan ServiceNow untuk mengirimkan agen AI yang dapat bertindak secara otonom dalam alur kerja perusahaan, dengan kemampuan tata kelola, audit, dan eksekusi keamanan bawaan. Di konferensi ServiceNow Knowledge 2026, ServiceNow memperkenalkan Project Arc.

Claude Managed Agents: Orkestrasi Multi-Agen dan Pembelajaran Mandiri

Anthropic meluncurkan serangkaian fitur baru dalam Claude Managed Agents, mencakup orkestrasi multi-agen, putaran perbaikan diri berbasis rubrik (Outcomes), dan "Dreaming" — mekanisme pembelajaran mandiri yang memungkinkan agen belajar dari data historis. Webhooks juga ditambahkan untuk integrasi yang lebih luas dengan sistem eksternal.

Anthropic Tingkatkan Batas Claude Code dan Kecepatan API

Anthropic mengumumkan peningkatan signifikan pada batas penggunaan: batas 5 jam Claude Code digandakan untuk paket Pro, Max, Team, dan Enterprise per kursi. Pembatasan jam sibuk pada Claude Code untuk paket Pro dan Max dihapus sepenuhnya. Selain itu, batas kecepatan API untuk model Opus ditingkatkan secara substansial. Semua perubahan berlaku efektif segera.

"Kemitraan ini tampaknya menjadi pukulan bagi gagasan bahwa Grok akan tetap menjadi model terdepan. xAI kini lebih memilih menyewakan kapasitas komputasinya daripada mengejar frontier." Ethan Mollick

Google DeepMind Bermitra dengan EVE Online untuk Riset AI

Google DeepMind mengumumkan kemitraan dengan pengembang EVE Online untuk menggunakan alam semesta kompleks yang digerakkan pemain sebagai kotak pasir yang aman guna menguji memori, pembelajaran berkelanjutan, dan perencanaan jangka panjang agen AI. Dunia EVE yang masif dan digerakkan pemain menyediakan lingkungan yang ideal untuk mengeksplorasi batas kemampuan agen AI dalam skenario multi-agen yang realistis.

OpenAI Buka Sumber Protokol MRC yang Digunakan untuk Melatih ChatGPT

Protokol MRC yang telah digunakan OpenAI untuk melatih ChatGPT kini resmi menjadi sumber terbuka. Dikembangkan bersama AMD, Broadcom, Intel, Microsoft, dan Nvidia, protokol ini menjanjikan peningkatan efisiensi signifikan pada klaster pelatihan AI skala besar. Dengan membuka MRC, OpenAI berharap ekosistem AI yang lebih luas dapat memanfaatkan dan mengembangkannya.

Tencent Hunyuan Hy3 Preview Puncaki Grafik Mingguan OpenRouter

Dua minggu setelah dirilis, Hy3 Preview memproses 3,66 triliun token dengan peningkatan mingguan 298%, menempati peringkat pertama dalam penggunaan keseluruhan, pemanggilan alat, dan pengkodean. Pangsa pasar mencapai 15,4% di seluruh penyedia.

Hugging Face Luncurkan Toko Aplikasi Robot Sumber Terbuka

Hugging Face meluncurkan toko aplikasi sumber terbuka untuk robot Reachy Mini, berisi lebih dari 200 aplikasi. Platform ini bertujuan menurunkan hambatan pengembangan robotika dengan memungkinkan pengguna mengunduh aplikasi seperti layaknya toko aplikasi ponsel.

Live Blog Code w/ Claude: API Tumbuh 17x Lipat, Tanpa Model Baru

Dalam acara Code w/ Claude 2026, Anthropic mengungkapkan pertumbuhan lalu lintas API sebesar 17 kali lipat YoY. Meski tidak mengumumkan model baru, perusahaan memperkenalkan fitur multi-agen, Outcomes, dan Dreaming. Simon Willison melaporkan langsung dari San Francisco.

Cursor Gunakan Composer Lama untuk Melatih Generasi Berikutnya

Cursor mengungkapkan bahwa sistem autoinstall mereka menggunakan Composer generasi sebelumnya untuk menyiapkan lingkungan pengembangan RL. Pendekatan bootstrap ini memungkinkan model baru fokus pada pemecahan masalah yang lebih sulit.

GPT-5.5 Instant Kini Jadi Model Default ChatGPT

OpenAI memperbarui GPT-5.5 Instant dengan penurunan tingkat halusinasi signifikan di bidang hukum, keuangan, dan kedokteran. Kemampuan pemahaman gambar dan penguraian dokumen juga ditingkatkan. Model ini sekarang menjadi default di ChatGPT.

Perplexity Agent API Kini Dukung Pencarian Finansial

Developer dapat mengambil data keuangan berlisensi, data pasar real-time, dan sumber web terverifikasi dalam satu panggilan alat melalui Perplexity Agent API. Fitur ini dirancang bagi agen yang memerlukan jawaban finansial terkini dan terverifikasi.

Model & Riset 07·05
ZYPHRA

ZAYA1-8B: Model Inferensi MoE Arsitektur SoTA

Zyphra merilis ZAYA1-8B dengan arsitektur DSMoE-MLA++, RL canggih, dan test-time scaling. Model 80B direncanakan menyusul.

ANTHROPIC

Pimpinan Teknik Anthropic Kelola Ratusan Agen dari Ponsel

Boris Cherny menjalankan 5-10 sesi dan ratusan agen dari ponsel; ribuan agen beroperasi malam hari untuk tugas mendalam lewat fitur "Loop".

PAPER

SVGS: Warna Bervariasi Spasial Tingkatkan Gaussian Splatting

Warna dan opasitas bervariasi spasial pada setiap primitif Gaussian menggantikan warna tunggal, menghasilkan sintesis tampilan baru yang unggul.

OBLIQ-BENCH

LLM Konteks Panjang Gagal di Atas 200.000 Token

OBLIQ-Bench mengungkapkan tidak ada LLM konteks panjang yang berfungsi baik melampaui batas 200.000 token.

LIGHTON

Model Late Interaction 0,1B Kalahkan Model Padat Jauh Lebih Besar

Model 0,1 miliar parameter LightOn mengungguli model padat yang beberapa kali lipat lebih besar di OBLIQ-Bench. Masih ada ruang besar menuju 91% nDCG.

CURSOR 3.3

Cursor 3.3 Visualisasikan Penggunaan Konteks Agen

Statistik penggunaan konteks agen kini terlihat, memungkinkan diagnosis konteks dan optimasi pengaturan rules, skills, MCP, dan subagen.

BENCHMARK

MiMo 2.5 Pro dan GLM 5.1 Ungguli DeepSeek dan Kimi

MiMo 2.5 Pro dan GLM 5.1 mencetak hasil impresif di evaluasi terbaru, mengungguli DeepSeek dan Kimi secara konsisten.

DEEPSEEK

V4-Pro Diduga Hasil Distilasi dari Flash-Based Experts

Analisis berspekulasi bahwa DeepSeek V4-Pro disuling dari V4-Flash, bukan sebaliknya, menjelaskan performa keduanya yang hampir identik.

Infrastruktur & Ekosistem 07·05