Logo Logo
Tin công nghệ 21-04-2026

SK hynix sản xuất hàng loạt SOCAMM2 192GB, nâng chuẩn hiệu năng bộ nhớ cho máy chủ AI

SK hynix chính thức công bố sản xuất hàng loạt module bộ nhớ SOCAMM2 dung lượng 192GB, mở ra bước tiến mới trong tối ưu hiệu năng và tiết kiệm năng lượng cho hạ tầng máy chủ AI. Sản phẩm được kỳ vọng sẽ giải quyết các điểm nghẽn về bộ nhớ trong các hệ thống xử lý AI quy mô lớn.

SOCAMM2: Tiêu chuẩn bộ nhớ mới cho máy chủ AI

SK hynix vừa công bố bắt đầu sản xuất hàng loạt SOCAMM2 192GB – dòng module bộ nhớ thế hệ mới dựa trên DRAM LPDDR5X tiết kiệm điện, sử dụng tiến trình 1cnm (thuộc thế hệ thứ sáu của công nghệ 10nm).

SOCAMM2 (Small Outline Compression Attached Memory Module 2) là giải pháp bộ nhớ được thiết kế riêng cho môi trường máy chủ AI. Khác với các loại bộ nhớ truyền thống, SOCAMM2 tận dụng công nghệ LPDDR – vốn phổ biến trên thiết bị di động – và tối ưu lại để đáp ứng các yêu cầu về hiệu năng, mật độ và năng lượng trong trung tâm dữ liệu.

Thiết kế dạng mỏng, khả năng mở rộng cao cùng cơ chế kết nối nén giúp tăng cường độ toàn vẹn tín hiệu, đồng thời cho phép thay thế module linh hoạt hơn trong quá trình vận hành.

Hiệu năng vượt trội và tối ưu năng lượng

Theo SK hynix, SOCAMM2 dựa trên tiến trình 1cnm mang lại băng thông cao hơn gấp đôi và cải thiện hơn 75% hiệu quả năng lượng so với các module RDIMM truyền thống. Đây là một bước tiến quan trọng trong việc tối ưu hóa hạ tầng cho các tác vụ AI hiệu năng cao.

RDIMM (Registered Dual In-Line Memory Module) hiện là tiêu chuẩn phổ biến trong máy chủ và workstation, sử dụng chip đệm để đảm bảo ổn định tín hiệu giữa bộ điều khiển và DRAM. Tuy nhiên, trong bối cảnh khối lượng dữ liệu và yêu cầu xử lý ngày càng tăng, các kiến trúc mới như SOCAMM2 đang dần trở thành lựa chọn thay thế phù hợp hơn cho các hệ thống AI hiện đại.

Tối ưu cho nền tảng AI thế hệ mới

SK hynix cho biết SOCAMM2 được thiết kế nhằm phục vụ các nền tảng AI tiên tiến, trong đó có kiến trúc NVIDIA Vera Rubin platform.

Với các mô hình ngôn ngữ lớn (LLM) có quy mô hàng trăm tỷ tham số, bộ nhớ đang trở thành một trong những điểm nghẽn lớn nhất trong cả quá trình huấn luyện và suy luận. SOCAMM2 được kỳ vọng sẽ giải quyết hiệu quả bài toán này, qua đó góp phần tăng tốc đáng kể hiệu suất xử lý của toàn hệ thống.

Việc cải thiện đồng thời cả băng thông và hiệu quả năng lượng giúp các trung tâm dữ liệu tối ưu chi phí vận hành, đặc biệt trong bối cảnh nhu cầu xử lý AI ngày càng tăng mạnh.

Đáp ứng nhu cầu từ các nhà cung cấp dịch vụ đám mây

Khi thị trường AI chuyển dần trọng tâm từ suy luận sang huấn luyện, nhu cầu về các giải pháp bộ nhớ hiệu năng cao nhưng tiết kiệm điện ngày càng trở nên cấp thiết. SOCAMM2 đang thu hút sự quan tâm lớn từ các nhà cung cấp dịch vụ đám mây (CSP) toàn cầu.

SK hynix cho biết công ty đã sớm xây dựng và ổn định hệ thống sản xuất hàng loạt, đồng thời phát triển danh mục cung ứng nhằm đáp ứng nhu cầu ngày càng tăng của thị trường. Điều này giúp doanh nghiệp chủ động hơn trong việc cung cấp các giải pháp bộ nhớ cho hạ tầng AI quy mô lớn.

Khẳng định vị thế trong thị trường bộ nhớ AI

Ông Justin Kim, Chủ tịch kiêm Giám đốc AI Infrastructure (CMO) của SK hynix, cho biết:

“Việc cung cấp SOCAMM2 192GB đã giúp SK hynix thiết lập một tiêu chuẩn mới cho hiệu năng bộ nhớ AI. Chúng tôi sẽ tiếp tục củng cố vị thế là nhà cung cấp giải pháp bộ nhớ AI đáng tin cậy thông qua hợp tác chặt chẽ với các khách hàng toàn cầu.”

Với bước tiến này, SK hynix tiếp tục khẳng định vai trò quan trọng trong chuỗi giá trị hạ tầng AI, đặc biệt trong bối cảnh cuộc đua công nghệ đang ngày càng tập trung vào năng lực xử lý dữ liệu và tối ưu hiệu năng hệ thống.

Chia sẻ bài viết

Bình luận

( 0 bình luận )
Không có bình luận nào

Bình luận của bạn

Tin tức liên quan