W obliczu boomu na sztuczną inteligencję i rosnących farm serwerów zapotrzebowanie na pamięć masową nieustannie rośnie. Razem z nim rośnie także problem zużycia energii przez klasyczne kości NAND. Naukowcy z Samsung Advanced Institute of Technology twierdzą jednak, że dokonali przełomu w tym aspekcie i zaprezentowali rozwiązanie, które może radykalnie obniżyć pobór mocy pamięci flash.
Dzisiejsze NAND skalują się głównie poprzez dokładanie kolejnych warstw komórek pamięci w strukturach 3D. Problem polega na tym, że każda następna warstwa zwiększa potrzebne napięcie przejścia (pass voltage) służące do adresowania komórek. Efekt jest prosty – im większa pojemność, tym wyższy pobór prądu całego układu.
FeFET – tranzystory, które zmieniają zasady
Poprzednie podejścia do redukcji zużycia mocy często kończyły się kompromisem w postaci zawężonego „okna pamięci”, czyli mniejszego zakresu stabilnych napięć zapisu i odczytu. Także wcześniejsze eksperymenty z materiałami ferroelektrycznymi nie potrafiły połączyć dobrej skalowalności z niskim zapotrzebowaniem na energię.
Nowa propozycja Samsunga opiera się na ferroelektrycznych tranzystorach polowych (w skrócie FeFET). Ich kluczową zaletą jest całkowite wyeliminowanie tzw. pass voltage, co automatycznie redukuje pobór mocy. Co istotne, nowe komórki wciąż obsługują wielopoziomowy zapis do pięciu bitów na komórkę, czyli poziom gęstości porównywalny z najnowocześniejszym NAND. Aby obejść problemy z ograniczoną regulacją napięcia progowego w półprzewodnikach tlenkowych, Samsung połączył je z warstwą ferroelektryczną, tworząc stabilne i wydajne struktury FeFET.
Nawet 96% niższe zużycie energii
Według badań wykorzystanie FeFET pozwala obniżyć zapotrzebowanie na prąd nawet o 96% względem klasycznych kości NAND. Skalowanie ma się odbywać poprzez pionowe układanie tranzystorów z kanałami o długości około 25 nm, co umożliwia dalsze zwiększanie pojemności bez drastycznego wzrostu kosztów energetycznych.
Ulga dla centrów danych i mobilnych urządzeń
Nowa technologia może mieć ogromne znaczenie dla infrastruktury AI. Procesory akcelerujące uczenie maszynowe wymagają potężnych zasobów pamięci, a centra danych już dziś zmagają się z rosnącym zużyciem energii i niedoborem NAND i problemy te mają utrzymywać się co najmniej do 2026 roku. Redukcja poboru mocy pamięci niemal do zera mogłaby zauważalnie zmniejszyć całkowite zapotrzebowanie energetyczne serwerowni. Zyskają na tym także urządzenia mobilne, gdzie bardziej oszczędne pamięci oznaczają dłuższy czas pracy na baterii.