Haberler

Microsoft, Copilot+ Bilgisayarlara DeepSeek 7B ve 14B Yapay Zekâ Modellerini Getiriyor

Microsoft, Qualcomm Snapdragon X işlemcilerle güçlendirilmiş Copilot+ bilgisayarlar için NPU (Nöral İşlem Birimi) optimizasyonlu DeepSeek-R1 modellerini kullanıma sunma planlarını duyurdu. Şubat ayında, DeepSeek-R1-Distill-Qwen-1.5B modeli ilk kez VSCode için AIToolkit’te kullanıma açıldı.

Bugün ise Microsoft, Azure AI Foundry üzerinden Copilot+ bilgisayarlar için DeepSeek R1 7B ve 14B modellerinin kullanıma sunulduğunu açıkladı. Bu modellerin Copilot+ bilgisayarlarda yerel olarak çalıştırılabilmesi, geliştiricilere daha önce mümkün olmayan yeni nesil yapay zekâ uygulamaları geliştirme imkanı sunacak.

NPU Teknolojisi Sayesinde Verimlilik Üst Seviyeye Çıkarılacak

Modeller, NPU üzerinde çalıştığı için kullanıcılar, pil ömrü ve termal performans üzerinde daha az etkiyle sürekli bir yapay zekâ hesaplama gücü elde edebilecek. Ayrıca, CPU ve GPU’lar diğer görevler için serbest kalacak.

Microsoft, tüm DeepSeek model varyantlarını int4 ağırlıklarına dönüştürmek için Aqua adlı dahili bir otomatik nicemleme aracı kullandı. Ancak, model token hızı şu an için oldukça düşük. Microsoft, 14B modelde sadece 8 tok/sn ve 1.5B modelde yaklaşık 40 tok/sn hız bildiriyor. Şirket, hızı artırmak için optimizasyon çalışmalarına devam ettiğini belirtti.

İlgili geliştiriciler, AI Toolkit VS Code eklentisi üzerinden 1.5B, 7B ve 14B varyantlarını indirip Copilot+ bilgisayarlarda çalıştırabilir. DeepSeek modelleri, ONNX QDQ formatında optimize edilmiş olup doğrudan Azure AI Foundry’den indirilebiliyor. Bu modeller, gelecekte Intel Core Ultra 200V ve AMD Ryzen işlemcilerle güçlendirilmiş Copilot+ bilgisayarlara da gelecek.

Microsoft’un bu hamlesi, cihaz üzerinde daha güçlü yapay zekâ yeteneklerine doğru bir adım olarak görülüyor. Bu gelişme, yapay zekâ destekli uygulamalar için yeni olanaklar sunacak.

İlgili Makaleler

Bir yanıt yazın

Başa dön tuşu