Dopalacz Intela dla serwerowych rozwiązań SSD

Intel zapowiedział Cache Acceletarion Software dla systemu Linux (wcześniej pojawiła się już wersja dla Windows), które pozwala na kilkukrotne przyspieszenie operacji I/O w aplikacjach intensywnie wykorzystujących dowolne systemy pamięci masowych. Oprogramowanie współpracuje z dyskami SSD klasy Data Center (w tym Intel SSD DC S3700 oraz SSD 910), tworząc hierarchiczny, wielopoziomowy system buforowania danych. Jest przeznaczone dla baz danych, serwerów Microsoft Exchange i SharePoint, serwerów webowych itd.

Intel CAS może buforować dane składowane na dowolnych systemach pamięci masowych: sieciach SAN, lokalnych dyskach, macierzach RAID czy wolumenach iSCSI. Pierwszy odczyt danych z takiego źródła powoduje ich buforowanie w pamięci SSD, drugi odczyt przenosi je do bufora w pamięci RAM serwera. W ten sposób aktualnie wykorzystywane dane trafiają do pamięci flash, a te najczęściej użytkowane – najbliżej procesora. Aby zwiększyć efektywność buforowania, do pamięci trafiają tylko te fragmenty plików, które są w niej potrzebne. Gdy bufory się zapełnią, specjalny algorytm pozwala "wyprzeć" w nich najmniej potrzebne dane przez te, które wymagają buforowania.

Rozwiązania tego typu są efektywne z kilku powodów: wielokrotnie przyspieszają dostęp do danych oraz odciążają stosunkowo wolne pamięci masowe, których głównym zadaniem pozostaje zapewnienie pojemności, a nie wysokiej wydajności. Ponadto są łatwe i tanie w implementacji, bo eliminują konieczność migracji do nowych rozwiązań – w infrastrukturze przybywa tylko jeden element pełniący rolę bufora.

Intel Cache Acceletarion Software wspiera platformę Windows Server 2008 R2 (64-bitową), Red Hat Enterprise Linux 5/6, CentOS 5/6 oraz SUSE Linux Enterprise Server 11 SP1 (również 64-bitowe), a także VMware, Windows Hyper-V, KVM, Citrix XenSever. Narzędzie dla Windows jest już dostępne, a dla Linuksa ma się pojawić w ciągu 30 dni, w wersji komercyjnej oraz open source.

0 0 votes
Article Rating
Powiadomienia
Powiadom o
0 komentarzy
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x