🔴 CANLI
⏳ Xəbərlər yüklənir... ⏳ Xəbərlər yüklənir...

Reklam

SuniZeka.info Aktiv
📣
Bu yer sizin üçün ayrılıb
Reklamınız
Burada
Azərbaycanlı AI auditoriyasına
çatın · Gündəlik oxucular
Yer Ayırt →
🎯 AI auditoriyası
📈 Yüksək CTR
🤖 Suni İntellekt

Google "TurboQuant"u Təqdim Etdi —Yenidən Təlim Keçmədən AI Yaddaşı 6 Dəfə Azaldır

Bilgili Mart 28, 2026 Hesablanır... ✓ Faktlaşdırılıb
🤖 AI TL;DR — Qısa Xülasə

AI bu məqaləni 3-5 cümlə ilə xülasə edə bilər. Başlatmaq üçün düyməyə basın.

⚡ Google Research · Mart 2026

Google "TurboQuant"u təqdim etdi —
yenidən təlim keçmədən AI yaddaşını 6 dəfə azaldır

Daha ucuz, daha sürətli, daha səmərəli süni intellekt.
Çip bazarlarını silkələyən alqoritm artıq buradadır.

6x
Yaddaş azalması
8x
H100-də sürət artımı
3 bit
Dəyər üzrə (16 bitdən)


Google Research 25 mart 2026-cı ildə TurboQuant adlı inqilabi süni intellekt sıxışdırma alqoritmini elan etdi. Bu alqoritm böyük dil modellərinin ən böyük yaddaş darboğazı olan KV önbelleğini (key-value cache) heç bir yenidən təlim tələb etmədən ən azı 6 dəfə kiçildir və eyni zamanda dəqiqliyi tam qoruyub saxlayır. TurboQuant ICLR 2026 konfransında təqdim edilmək üçün hazırlanmış olsa da, texniki detalların açıqlanması ilk gündən qlobal texnologiya icmasında böyük rezonans doğurdu. Cloudflare-in CEO-su Matthew Prince onu "Google-un DeepSeek anı" adlandırdı. Çip bazarları isə xəbərə dərhal reaksiya verdi — Micron, Western Digital, Samsung və SK Hynix kimi yaddaş istehsalçılarının səhm qiymətləri kəskin şəkildə aşağı düşdü.

🧠 TurboQuant nədir və nə ilə fərqlənir?

Böyük dil modelləri işləyərkən hər yeni söz (token) üçün əvvəlki bütün konteksti yenidən hesablamamaq məqsədilə "KV cache" adlı müvəqqəti yaddaş sahəsindən istifadə olunur. Kontekst pəncərəsi böyüdükcə bu keş də genişlənir və GPU yaddaşını sürətlə tükəndirir. Bu məsələ uzun illərdir ki, AI infrastrukturunun ən bahalı darboğazı hesab olunur. TurboQuant isə bu problemi kökündən həll edir: hər dəyəri standart 16 bitdən cəmi 3 bitə qədər sıxışdırır — heç bir dəqiqlik itkisi olmadan.

💾

Sıfır dəqiqlik itkisi

TurboQuant KV keşini 3 bitə qədər sıxışdırır, lakin sual-cavab, kod generasiyası və xülasə testlərində heç bir ölçülə bilən dəqiqlik itkisi müşahidə edilməyib.

Yenidən təlim tələb etmir

TurboQuant "data-oblivious" üsulla işləyir — heç bir dataset üzrə kalibrasiya tələb etmir. Mövcud modellərə birbaşa tətbiq oluna bilər.

🚀

8 dəfə sürət artımı

NVIDIA H100 GPU-larında 4-bit TurboQuant tətbiqi attention hesablamalarında 32-bit versiya ilə müqayisədə 8 dəfə daha sürətli nəticə göstərdi.

TurboQuant-ı digər sıxışdırma üsullarından fərqləndirən əsas xüsusiyyət onun nəzəri hədlərə yaxın işləməsidir. Ənənəvi kvantlaşdırma metodları hər data bloku üçün əlavə normallaşdırma sabitləri saxlamalı olur ki, bu da praktiki sıxışdırmanı zəiflədir. TurboQuant isə bu "gizli xərci" tamamilə aradan qaldırır.

🔬 TurboQuant necə işləyir? — PolarQuant və QJL

TurboQuant iki ayrı alqoritmin sinerjisinə əsaslanır: PolarQuant (AISTATS 2026-da təqdim ediləcək) və Quantized Johnson-Lindenstrauss (QJL) (AAAI 2025-də dərc olunub). Bu iki mərhələli proses birlikdə yaddaş sərfiyyatını minimuma endirərkən dəqiqliyi qoruyur.

⚙️ İki mərhələli sıxışdırma prosesi

🔵 Mərhələ 1 — PolarQuant: Kartezyen → polyar koordinatlar

PolarQuant standart Kartezyen koordinatlarla ifadə olunan vektor cütlərini polyar koordinat sisteminə çevirir: hər vektor bir radius (böyüklük) və bucaq (istiqamət) kimi saxlanılır. Bucaqların paylanması proqnozlaşdırıla bildiyi üçün sistem hər blok üzrə baha başa gələn normallaşdırma mərhələsini tamamilə aradan qaldırır. Nəticə — əlavə yaddaş xərci olmadan yüksək keyfiyyətli sıxışdırma.

🟣 Mərhələ 2 — QJL: qalıq xətanı aradan qaldırır

PolarQuant mərhələsindən sonra kiçik qalıq xəta qalır. QJL (Johnson-Lindenstrauss çevrilməsi) bu qalıq vektorları tək bir işarə bitinə (+1 və ya -1) endirir. Bu mərhələ əlavə yaddaş tələb etmir. Dəqiqliyi qorumaq üçün QJL diqqət (attention) hesablamalarında yüksək dəqiqlikli sorğunu sadələşdirilmiş məlumat ilə balanslaşdıran xüsusi qiymətləndirici mexanizmdən istifadə edir.

Google Research bu texnologiyanı LongBench, Needle In A Haystack, ZeroSCROLLS, RULER və L-Eval kimi uzun kontekst benchmark-larında açıq mənbəli Gemma və Mistral modelləri üzərində sınaqdan keçirib. Bütün testlərdə TurboQuant rəqib metodlardan üstün nəticə göstərib.

💰 Praktiki təsir: xərclər, çiplər və qazanan tərəflər

TurboQuant yalnız akademik nailiyyət deyil — onun real bazarlara birbaşa təsiri var. Böyük dil modellərinin işlədilməsində ən bahalı hissə çıxarsama (inference) zamanı KV önbelleğinin tutduğu GPU yaddaşıdır. Bu tələbin 6 dəfə azalması bulud hesablama xərclərini, avadanlıq miqyasını və kiçik şirkətlər üçün əlçatanlığı kökündən dəyişir.

AI startapları

Əvvəllər aylıq 50.000 dollar GPU xərci tələb edən iş yükü potensial olaraq 10.000 dollar civarında həll oluna bilər. Bu, kiçik şirkətlər üçün böyük dönüş nöqtəsidir.

☁️

Google Cloud istifadəçiləri

Google bu texnologiyanı öz infrastrukturunda tətbiq edərsə, bulud xidmətlərinin qiymətlərinin aşağı düşməsi mümkündür.

📉

Çip bazarı

Xəbərdən sonra yaddaş istehsalçılarının səhmlərində kəskin eniş müşahidə olundu.

⚠️ Nüans: TurboQuant hər şeyi həll etmir

TurboQuant yalnız çıxarsama yaddaşını optimallaşdırır — təlim (training) mərhələsini deyil. Modellərin təlimi hələ də böyük resurslar tələb edir. Bundan əlavə, texnologiya hələ laboratoriya mərhələsindədir və geniş tətbiqi 2026-cı ilin ikinci rübündən sonra gözlənilir.

🔍 Vektor axtarışına təsiri

TurboQuant yalnız KV keşlə məhdudlaşmır — o, vektor axtarışını da əhəmiyyətli dərəcədə sürətləndirir. Bu isə Google axtarışından YouTube tövsiyələrinə qədər bir çox sistemin performansına təsir edir.

👥 TurboQuant-ı kim hazırlayıb?

TurboQuant Google Research tədqiqatçıları tərəfindən hazırlanıb və beynəlxalq akademik qurumlarla əməkdaşlıq çərçivəsində inkişaf etdirilib.

📝 Yekun

TurboQuant süni intellekt sahəsində yeni mərhələnin başlanğıcını göstərir — artıq inkişaf yalnız daha böyük modellər yaratmaqla deyil, mövcud modelləri daha səmərəli idarə etməklə əldə olunur.

📊 TurboQuant-ın benchmark nəticələri

🧪 Test modelləri

Gemma (Google) və Mistral açıq mənbəli LLM modelləri üzərində sınaqdan keçirilib. LongBench, Needle In A Haystack, ZeroSCROLLS, RULER və L-Eval benchmark-ları istifadə olunub.

💡 MLX sınağı (Apple Silicon)

İcma üzvlərindən biri MLX mühitində Qwen3.5-35B modeli üzərində TurboQuant tətbiq edib: 8.5K–64K token aralığında 100% uyğunluq əldə olunub, 2.5-bit rejimində isə KV keş 5 dəfə kiçilib — heç bir dəqiqlik itkisi olmadan.

🖥️ NVIDIA H100-də performans

4-bit TurboQuant tətbiqi NVIDIA H100 GPU-larında attention logit hesablamalarında 32-bit versiya ilə müqayisədə 8 dəfə daha sürətli nəticə göstərib.

👥 TurboQuant-ı kim hazırlayıb?

TurboQuant Google Research tədqiqatçıları Amir Zandieh və vise-prezident Vahab Mirrokni (Google Fellow) tərəfindən hazırlanıb. Layihədə həmçinin Google DeepMind, KAIST (Cənubi Koreya) və Nyu-York Universitetindən (NYU) olan tədqiqatçılar da iştirak ediblər. Rəsmi açıq mənbə kodunun 2026-cı ilin ikinci rübündə, ICLR 2026 konfransından (23–25 aprel, Rio-de-Janeyro) sonra yayımlanacağı gözlənilir.

🐦 Matthew Prince, Cloudflare CEO-su — X paylaşımı

"Bu, Google-un DeepSeek anıdır. AI çıxarsama sürəti, yaddaş istifadəsi, enerji istehlakı və çoxistifadəli sistemlər üçün optimallaşdırma baxımından hələ böyük potensial var."

— Matthew Prince, Cloudflare-in icraçı direktoru · Mart 2026

🔮 Sonrakı addımlar — AI infrastrukturunun gələcəyi

TurboQuant-ın texnologiya icmasında yaratdığı rezonans gözləniləndən daha sürətli oldu. Elanın üzərindən cəmi 24 saat keçdikdən sonra proqramçılar artıq Apple Silicon üçün MLX kitabxanasında və llama.cpp layihəsində ilkin tətbiqlər hazırlamağa başladılar. Hətta GPT-5.4 vasitəsilə cəmi 25 dəqiqəyə MLX implementasiyası yazan bir proqramçının paylaşımı texnologiyanın nə qədər sürətlə yayıldığını göstərdi. Meta, OpenAI və Anthropic kimi digər AI laboratoriyalarının da bu yanaşmadan ilhamlanaraq öz versiyalarını hazırlaması qaçılmaz görünür.

📝 Yekun dəyərləndirmə

TurboQuant süni intellekt sahəsində mühüm dönüş nöqtəsini təmsil edir: artıq irəliləyiş yalnız daha böyük modellər yaratmaqla deyil, mövcud modelləri daha səmərəli idarə etməklə əldə olunur. Yenidən təlim tələb etmədən 6 dəfə yaddaş azalması və 8 dəfə sürət artımı kimi nəticələr real sistemlərdə tətbiq olunduqda, AI xidmətlərinin qiymətində ciddi dəyişikliklər yarada bilər. Bu isə daha əlçatan və demokratik AI ekosisteminin formalaşmasına zəmin yaradır.

📎 İstinadlar və mənbələr

🔗 Google Research Blog"TurboQuant: Redefining AI efficiency with extreme compression" (25 mart 2026)
🔗 TechCrunch"Google unveils TurboQuant, a new AI memory compression algorithm" (25 mart 2026)
🔗 VentureBeat"Google's new TurboQuant algorithm speeds up AI memory 8x, cutting costs by 50% or more" (26 mart 2026)
🔗 The Next Web"Google's TurboQuant compresses AI memory by 6x, rattles chip stocks" (25 mart 2026)
🔗 Tom's Hardware"Google's TurboQuant reduces AI LLM cache memory requirements by at least six times" (25 mart 2026)
🔗 Help Net Security"Google's TurboQuant cuts AI memory use without losing accuracy" (25 mart 2026)
🔗 Android Headlines"Google TurboQuant: The AI Algorithm Reducing RAM Usage by 6x" (27 mart 2026)

Məqalədə istifadə olunan bütün məlumatlar Google Research-in 25 mart 2026-cı il tarixli rəsmi açıqlamasına, ICLR 2026 üçün hazırlanmış elmi məqaləyə və aparıcı texnologiya nəşrlərinin hesabatlarına əsaslanır.

Reklam
🤖

Süni İntellekt Köməkçisi

AI köməkçisini aktivləşdirmək üçün yuxarıdan bir funksiya seçin.

🤖 SI Xəbər Köməkçisi

Salam! Mən SI Xəbər saytının köməkçisiyəm. Suallarınızı cavablandırmaqdan məmnunam! 👋