Microsoft tarafından yapılan duyuruya göre, Windows Server Insider build’lerinde artık ilköğretim seviyede tek NVMe-over-Fabrics initiator mekan alıyor. Bu özellik Windows Server içerisinde yerleşik olarak geliyor ve hem NVMe/TCP hem da NVMe/RDMA protokollerini yardımliyor.
Bu sürüm preview niteliği taşıyor. Amaç, kullanıcıların öz ortamlarında NVMe-oF senaryolarını testleri edebilmesi ve geliştirme sürecine geri duyuru sağlayabilmesi.
Yeni özellik ile birlikteki Windows Server üzerinde:
- Ağ üzerinden NVMe depolar kullanımı testleri edilebilir
- Yerleşik Windows bileşenleri ile NVMe-oF bağlantısı kurulabilir
- Yeni komut satırı aracı ile yapılandırma yapılabilir
Bu geliştirme, Windows Server’ın modern bilgi orta depolar mimarilerine uyum sağlaması açısından önemli tek adım olarak görülüyor.
NVMe-over-Fabrics, aslında mahalli PCIe NVMe diskler için geliştirilen NVMe protokolünün ağ üzerinden kullanılmasını sağlayan tek teknolojidir.
Geleneksel depolar protokollerinde genelleme SCSI tabanlı iletişim kullanılır. Örneğin:
- iSCSI
- Fibre Channel
Bu protokoller NVMe SSD’lerin gerçek performansını kesinlikle kullanamayabilir.
NVMe-oF ise farklı tek yaklaşım benimser. Sistemler ırak tek depolar cihazı ile iletişim kurarken bile NVMe komut setini doğrudan kullanır. Böylece ırak depolar birimleri, sistemleri tarafından mahalli NVMe disk gibi kullanılabilir.
Windows Server Insider build’lerinde NVMe-oF şu ikisi protokol ile yardımlenmektedir:
NVMe/TCP
NVMe-oF’un norm Ethernet ağları üzerinden çalışmasını sağlar.
Avantajları:
- Özel donanım lüzumtirmez
- Standart TCP/IP altyapısı kullanılabilir
- Mevcut ağ ortamlarında basit testleri edilebilir
Bu nedenle NVMe-oF değerlendirmeleri için en uygulamalı yöntemlerden biridir.
NVMe/RDMA
NVMe-oF’un RDMA yardımli ağlar üzerinden çalışmasını sağlar.
Özellikleri:
- Çok düşük gecikme
- Yüksek throughput
- CPU yükünün azalması
Bu yöntem için RoCE ya da iWARP yardımli RDMA NIC’ler lüzumir.
Windows Server için NVMe-oF desteği, modern depolar mimarileri açısından önemli kazanımlar sunuyor.
Daha düşük protokol yükü
NVMe-oF, iSCSI gibi gelenekselliği depolar protokollerine kıyasla dahaaz protokol overhead’i oluşturur. Bu sayede NVMe disklerin sunduğu icra daha tesirli kullanılabilir.
Esnek altyapı seçenekleri
NVMe-oF hem TCP hem RDMA transport’larını yardımlediği için kurumlar ihtiyaçlarına göre farklı mimariler kurabilir.
Örneğin:
- Standart Ethernet ağları ile NVMe/TCP
- Düşük gecikmeli bilgi merkezleri için NVMe/RDMA
Geleceğe yönelik depolar mimarisi
NVMe-oF mimarisi:
- Çoklu controller
- Çoklu namespace
- Paralel queue yapısı
gibi özellikleri yardımlediği için disaggregated storage ve software-defined storage mimarileri için güçlü tek ilköğretim oluşturur.
Bu Windows Server Insider build’inde NVMe-oF için şu yetenekler testleri edilebilir durumdadır:
- Yerleşik NVMe-oF initiator (NVMe/TCP ve NVMe/RDMA desteği)
- nvmeofutil.exe komut satırı aracı
- Discovery ve I/O bağlantılarının manuel yapılandırılması
- Bağlantı kurulduğunda NVMe namespace’lerinin Windows disk olarak görünmesi
Önemli tek husus ise şu: Bu sürümde henüz PowerShell cmdlet’leri bulunmuyor. Tüm yapılandırma işlemleri nvmeofutil.exe üzerinden yapılmaktadır.
NVMe-oF değerlendirmesine başlamak için Windows Server Insider build’inde bulunan nvmeofutil.exe aracını kullanmanız lüzumir.
Windows Server Insider Build Kurulumu
Öncelikle aşağıdaki bileşenleri içeren tek Windows Server Insider build kullanmanız lüzumir:
- NVMe-oF initiator
- NVMe/TCP ve NVMe/RDMA desteği
- nvmeofutil.exe aracı
Yönetici Komut İstemi Açma
NVMe-oF komutları administrator ytesirli command teşvik eden üzerinden çalıştırılmalıdır.
Initiator Adapter’larını Listeleme
nvmeofutil.exe listeler -t iaBu komut sistemde bulunan NVMe-oF initiator adapter’larını listeler.
Host Gateway’leri Listeleme
nvmeofutil.exe listeler -t hg -ia <AdapterNumber>Host gateway’leri transport endpoint’lerini temsilcilik eder. Örneğin:
- IPv4 üzerinden NVMe/TCP
I/O Subsystem Port Yapılandırma
Bu adımda hedefleri NVMe-oF sistemi ile bağlantı parametreleri tanımlanır.
Gerekli malumatler:
- Subsystem NQN
- Target IP ya da DNS
- TCP port
Komut:
nvmeofutil.exe add -t sp -ia <Adapter> -hg <HostGateway> -dy true-pi <PortNumber> -nq <SubsystemNQN> -ta <TargetAddress> -ts <ServiceId>
Namespace’e Bağlanma
nvmeofutil.exe connect -ia <Adapter> -sp <SubsystemPort>Bağlantı kurulduktan sonraları NVMe namespace Windows içerisinde disk olarak görünür.
Bu disk daha sonra:
- Partition
- Format
işlemleri ile kullanılabilir.
NVMe-oF initiator testleri edevakıf oldu için tek NVMe-oF target sistemi lüzumir.
Microsoft, erkenden testler için Linux tabanlı NVMe target kullanmayı önermektedir.
En basit yöntem: Linux kernel NVMe target (nvmet). Bu yapı TCP üzerinden NVMe namespace paylaşabilir.
Test için aşağıdaki bileşenler lüzumir:
- Bir Linux sistemi (fiziksel ya da VM)
- Paylaşılacak tek block device
- Windows Server Insider sistemi
- TCP limanlar erişimi
Block device örnekleri:
- NVMe SSD
- SATA SSD
- Sanal disk
Fonksiyonel testler için VM istimal etmek mümkündür. Ancak icra testleri için bedensel sistemler önerilir.
Linux sistemleri üzerinde aşağıdaki adımlar uygulanır.
Kernel modüllerini yükleme
sudo modprobe nvmetsudo modprobe nvmet-tcp
configfs monte eden etme
sudo monte eden -t configfs hiçbiri /sys/kernel/configSubsystem oluşturma
Örnek NQN:
nqn.2026-02.com.contoso:win-nvmeof-testLab ortamında testleri basitlığı için tüm host’lara müsaade verilebilir.
Namespace ekleme
Örnek block device:
/dev/nvme0n1Bu device NVMe namespace olarak export edilir.
TCP limanlar oluşturma
Parametreler:
- Target IP
- TCP limanlar (genelde 4420)
Bu limanlar üzerinden NVMe-oF bağlantıları giriş edilir.
Hızlı doğrulama
Linux üzerinde aşağıdaki komut ile target doğrulanabilir:
nvme discover -t tcp -a <IP> -s <PORT>Windows tarafında nvmeofutil.exe kullanılırken şu değerler lüzumir:
SubsystemNQN
Örnek:
nqn.2026-02.com.contoso:win-nvmeof-testTargetAddress
Örnek:
192.168.1.92ServiceId
Örnek:
4420configfs ile manuel işlem etmek seçenek nvmetcli aracı da kullanılabilir.
nvmetcli ile:
- Subsystem oluşturma
- Namespace yönetimi
- Port yapılandırması
- Host erişim kontrolü
gibi işlemler yapılabilir.
Ayrıca yapılandırmalar JSON dosyası olarak kaydedilip tekrar yüklenebilir.
Daha yüksek icra hedefleyen ortamlarda SPDK NVMe-oF target da kullanılabilir.
SPDK:
- TCP
- RDMA
transport’larını yardımler ve kullanıcı alanında çalışan yüksek performanslı tek NVMe-oF implementasyonu sunar.
Bu Insider sürümü henüz erkenden aşamadadır ve bazı sınırlamalar içerir.
CLI tabanlı yönetim
Şu anda:
- GUI yok
- PowerShell cmdlet yok
Yapılandırma tamamlanmış komut satırı üzerinden yapılır.
Multipath desteği yok
Şu anda NVMe-oF bağlantılarında multipathing desteği bulunmamaktadır.
Ağ yanlışlarında sınırlı recovery
Bazı ağlar başarısızlıklar senaryolarında bağlantı iyileşmeler mekanizmaları henüz sınırlıdır.
Microsoft bu alanların etkin olarak geliştirildiğini belirtmektedir.
Windows Server Insider build’lerinde sunulan NVMe-over-Fabrics initiator desteği, Windows Server depolar mimarisinde önemli tek adımı temsilcilik ediyor.
Bu özellik sayesinde:
- Windows Server sistemleri ağ üzerinden NVMe depolamaya erişebilecek
- NVMe performansı ırak depolar sistemlerinde kullanılabilecek
- Geleceğin disaggregated storage mimarileri için güçlü tek ilköğretim oluşacak
Her ne kadar şu an yalnızca preview seviyesinde olsa da, bu gelişme Windows Server ekosisteminin modern NVMe bilgi orta mimarilerine uyum sağlama yönündeki önemli adımlarından arasında biri olarak görülüyor.
Microsoft, kullanıcıların bu özelliği testleri ederek geri duyuru sağlamasını ve NVMe-oF kullanım senaryolarını değerlendirmesini öneriyor.

4 gün önce
6














.png?format=webp&width=1200&height=630)













English (US) ·