Bist 100
8.991,6 0%
DOLAR
31,96 -0,29%
EURO
34,49 -0,2%
ALTIN
2.322,44 -0,7%

Yandex'in Yeni Sıkıştırma Yöntemleriyle Büyük Dil Modellerine Yenilik

Yandex, büyük dil modelleri için iki yeni sıkıştırma yöntemi geliştirdi. AQLM ve PV-Tuning ile verimlilik ve maliyet avantajı sağlanması hedefleniyor.

Yayın Tarihi: 23.07.2024 13:38
Güncelleme Tarihi: 23.07.2024 13:38

Yandex'in Yeni Sıkıştırma Yöntemleriyle Büyük Dil Modellerine Yenilik

Yandex'ten Gelirinizi Artıracak İnovasyon: Yeni Sıkıştırma Yöntemleri

Yandex, IST Avusturya, NeuralMagic ve KAUST ile işbirliği yaparak, büyük dil modellerinin sıkıştırılması için iki yeni yöntem geliştirdi. Bu yenilikler, 'Dil Modelleri için Eklemeli Niceleme (AQLM)' ve 'PV-Tuning' olarak adlandırılıyor.

Yapılan açıklamalara göre, bu yöntemler sayesinde model boyutunda %800 oranında bir azalma sağlanabilirken, yanıt kalitesi ise %95 oranında koruyor.

Kaynakların Optimize Edilmesi ve Verimlilik Artışı

Yeni yaklaşımlar, büyük dil modellerinin çalıştırılmasında kaynakları optimize etmeyi ve verimliliği artırmayı hedefliyor. Araştırmanın detayları ise, Viyana'da düzenlenen Uluslararası Makine Öğrenimi Konferansı (ICML)'nda sunuldu.

Donanım Maliyetlerinde Büyük Tasarruf

AQLM, sıkıştırma sürecinde geleneksel bilgi erişim yöntemlerinden faydalanarak fazla sıkıştırma altında modelin doğruluğunu korumayı sağlıyor. Bu, ev bilgisayarları gibi günlük cihazlarda kullanımı mümkün hale getirirken, bellek tüketimini de önemli ölçüde azaltıyor.

Pv-Tuning ise sıkıştırma sırasında oluşan hataları gideriyor. AQLM ve PV-Tuning birlikte kullanıldığında, sınırlı bilgi kaynaklarında dahi yüksek kaliteli yanıtlar verilebiliyor.

Uygulama ve Test Süreci

Söz konusu yöntemlerin etkinliği, LLama 2, Mistral ve Mixtral gibi popüler açık kaynak modellerle test edildi. Araştırmacılar, büyük dil modellerini sıkıştırarak yanıt kalitesini İngilizce ölçütleri olan WikiText2 ve C4 ile değerlendirdi. Modeller, %95 yanıt kalitesini koruyarak 8 kat sıkıştırılmayı başardı.

Çevrimdışı Dönüşüm ve Yeni Kullanım Alanları

AQLM ve PV-Tuning, sınırlı hesaplama kaynaklarına sahip cihazlarda çevrimdışı dağıtım imkanı sunarak, akıllı telefonlar ve akıllı hoparlörler gibi cihazlar için yeni kullanım alanları oluşturuyor. Bu gelişmiş büyük dil modelleri ile kullanıcılar, metin ve görüntü oluşturma, sesli yardım, kişiselleştirilmiş öneriler ve gerçek zamanlı dil çevirisi hizmetlerinden internet bağlantısına ihtiyaç duymadan faydalanabiliyor.

Ek olarak, sıkıştırılan modeller daha az hesaplama gücü gerektirdiği için 4 kat daha hızlı çalışabiliyor. Dünya genelindeki geliştiriciler bu yeni yöntemleri GitHub'da bulabiliyor ve tanıtım sunumları ile sıkıştırılmış büyük dil modellerini etkili bir şekilde eğitmek için rehberlik alabiliyorlar.