Promocja technologii ChatGPT dodatkowo zwiększyła popularność scenariuszy wymagających dużej mocy obliczeniowej, takich jak AI. Łącząc dużą liczbę korpusów w celu trenowania modeli i realizacji funkcji sceny, takich jak interakcja człowiek-komputer, wymaga to dużej mocy obliczeniowej. Zużycie energii potrzebnej do synchronizacji uległo znacznemu zmniejszeniu. Wraz z ciągłym i szybkim wzrostem wydajności układów scalonych, problem rozpraszania ciepła stał się bardziej widoczny.
Aby zapewnić stabilną pracę serwera, temperatura pracy wysokowydajnego układu ARM SoC (CPU + NPU + GPU), dysku twardego i innych komponentów powinna mieścić się w dopuszczalnym zakresie, co skutecznie zapewni lepszą wydajność i dłuższą żywotność serwera. Ze względu na wyższą gęstość mocy, odprowadzanie ciepła za pomocą zaawansowanych systemów zarządzania temperaturą ma kluczowe znaczenie dla spełnienia nowych standardów funkcjonalności.
Podczas pracy serwera AI o wysokiej mocy obliczeniowej jego wewnętrzne urządzenia generują dużo ciepła, zwłaszcza układ scalony serwera. Ze względu na wymagania dotyczące przewodzenia ciepła między układem scalonym a radiatorem, zalecamy stosowanie materiałów o przewodności cieplnej powyżej 8 W/mK (podkładki termiczne, żel termoprzewodzący, materiały termoprzewodzące z przemianą fazową), które charakteryzują się wysoką przewodnością cieplną i dobrą zwilżalnością. Pozwala to na lepsze wypełnienie szczeliny, efektywne i szybkie przenoszenie ciepła z układu scalonego do radiatora, a następnie współpracę z radiatorem i wentylatorem, aby utrzymać układ w niskiej temperaturze i zapewnić jego stabilną pracę.
Czas publikacji: 23 października 2023 r.

