HBM
| Các loại bộ nhớ máy tính và lưu trữ dữ liệu |
|---|
| Bộ nhớ khả biến |
| Bộ nhớ bất biến |
HBM (viết tắt của High Bandwidth Memory, tạm dịch: Bộ nhớ băng thông cao) là một giao diện bộ nhớ máy tính dành cho bộ nhớ truy cập ngẫu nhiên động đồng bộ (SDRAM) xếp chồng 3D, do Samsung, AMD và SK Hynix tiên phong phát triển. Công nghệ này được ứng dụng kết hợp với các thiết bị tăng tốc đồ họa (GPU) hiệu năng cao, thiết bị mạng, ASIC hiệu năng cao, làm bộ nhớ đệm hoặc RAM tích hợp trên đế (on-package) trong CPU,[1] FPGA, và trong một số siêu máy tính (như NEC SX-Aurora TSUBASA và Fujitsu A64FX).[2] SK Hynix là công ty đầu tiên sản xuất chip nhớ HBM vào năm 2013.[3] Đến năm 2015, các GPU AMD Fiji thuộc dòng AMD Radeon Rx 300 Series đã trở thành những thiết bị đầu tiên ứng dụng công nghệ HBM.[4][5]
Tháng 10 năm 2013, JEDEC đã chính thức thông qua HBM làm tiêu chuẩn chung của ngành.[6] Thế hệ thứ hai, HBM2, tiếp tục được JEDEC phê chuẩn vào tháng 1 năm 2016.[7] JEDEC cũng đã công bố tiêu chuẩn HBM3 vào ngày 27 tháng 1 năm 2022,[8] và tiêu chuẩn HBM4 vào tháng 4 năm 2025.[9][10]
Tính đến năm 2025, các nhà sản xuất HBM lớn nhất thế giới bao gồm SK Hynix, Samsung Electronics và Micron Technology.
TSMC hiện đang đảm nhận việc sản xuất đế vi mạch cơ sở (base die)[11] cho HBM và dự kiến sẽ trở thành xưởng đúc gia công cho một số công ty HBM vào năm 2026.[12]
Nhu cầu đối với HBM đã tăng đột biến chưa từng có. Tình trạng này khiến giá DRAM nói chung (bao gồm DDR4, DDR và bộ nhớ flash/NAND) vào đầu năm 2026 "chứng kiến mức tăng kép, một số trường hợp tăng vọt hơn 200% so với đầu năm 2025 .. [bởi vì] nhu cầu khổng lồ chưa từng thấy đến từ lĩnh vực AI .. HBM đang lấn át năng lực sản xuất của các dòng DRAM thương mại thông thường. Micron lưu ý rằng tỷ lệ chuyển đổi năng lực sản xuất tấm wafer giữa HBM và DDR5 là 3:1, nghĩa là mỗi đợt tăng tốc sản xuất HBM đều trực tiếp thu hẹp nguồn cung của các bộ nhớ đa dụng."[13]
Công nghệ HBM
HBM sở hữu băng thông vượt trội hơn so với DDR4 hay GDDR5, song lại tiêu tốn ít năng lượng hơn và được thiết kế với hình thái nhỏ gọn hơn đáng kể so với trước đây.[14] Để làm được điều này, nhà sản xuất đã xếp chồng lên nhau tối đa tám đế (die) DRAM và một đế cơ sở (base die) tùy chọn chứa mạch đệm cùng các tín hiệu logic dùng để kiểm tra.[15] Khối ngăn xếp (stack) này thường được liên kết với bộ điều khiển bộ nhớ trên GPU hoặc CPU qua một nền (substrate) trung gian, ví dụ như lớp chuyển tiếp (interposer) silicon.[16][17] Ngoài ra, đế bộ nhớ cũng có thể được xếp chồng trực tiếp lên chip CPU hoặc GPU. Bên trong khối ngăn xếp, các lớp đế được liên kết theo chiều dọc với nhau bằng các cổng kết nối xuyên qua silicon (Through-silicon via - TSV) và các vi bướu (microbump). Về nguyên lý, công nghệ HBM cũng tương tự nhưng lại không tương thích với giao diện Hybrid Memory Cube (HMC) do Micron Technology phát triển.[18]
Bus của bộ nhớ HBM rộng hơn rất nhiều khi đặt lên bàn cân với các dòng bộ nhớ DRAM khác như DDR4 hay GDDR5. Lấy một khối HBM gồm bốn lớp DRAM (4-Hi) làm ví dụ, mỗi lớp đế (die) của nó sẽ cung cấp hai kênh 128-bit, tạo nên tổng cộng 8 kênh với độ rộng bus chạm ngưỡng 1024-bit. Như vậy, một chiếc card đồ họa/GPU được tích hợp 4 khối HBM 4-Hi sẽ sở hữu bus bộ nhớ lên tới 4096-bit. Trong khi đó, con số này ở bộ nhớ GDDR chỉ dừng lại ở 32-bit, với 16 kênh dành cho một chiếc card đồ họa được trang bị giao diện bộ nhớ 512-bit.[19] HBM có khả năng hỗ trợ dung lượng lên tới 4 GB cho mỗi thiết bị được đóng gói (package).
Vì số lượng chân kết nối với bộ nhớ nhiều hơn hẳn so với DDR4 hay GDDR5, các nhà phát triển buộc phải tìm kiếm một phương thức mới để gắn kết bộ nhớ HBM với GPU (hoặc các bộ xử lý khác).[20] Cả AMD và Nvidia đều tin dùng những con chip silicon chế tạo chuyên biệt, mang tên lớp chuyển tiếp (interposer), làm cầu nối giữa bộ nhớ và GPU. Hướng đi này không chỉ kết nối hai thành phần mà còn kéo gần khoảng cách vật lý giữa chúng, qua đó thu hẹp độ trễ truyền tải dữ liệu bộ nhớ. Tuy nhiên, do quy trình chế tạo bán dẫn đòi hỏi chi phí đắt đỏ hơn nhiều lần so với việc sản xuất bảng mạch in, nên phương pháp này vô hình trung đã đội giá thành của sản phẩm cuối cùng lên cao.
- Đế (die) DRAM HBM
- Đế vi điều khiển HBM
- Bộ nhớ HBM trên bộ vi xử lý đồ họa (GPU package) của card màn hình AMD Radeon R9 Nano
Giao diện

DRAM HBM được kết nối chặt chẽ với bộ xử lý trung tâm (host compute die) nhờ vào một giao diện mang tính phân tán. Giao diện này được chia thành các kênh hoàn toàn độc lập, không bị ràng buộc lẫn nhau và cũng không nhất thiết phải đồng bộ thời gian với nhau. DRAM HBM áp dụng kiến trúc giao diện rộng rãi để vừa đạt tốc độ cực cao vừa tiêu hao ít điện năng. Hệ thống sử dụng xung nhịp vi sai ở tần số 500 MHz được ký hiệu là CK_t / CK_c (với "_t" là tín hiệu "thật" hoặc "dương", còn "_c" là tín hiệu "bù"). Các lệnh sẽ được ghi nhận tại sườn lên (rising edge) của các xung CK_t, CK_c. Mỗi giao diện kênh kiểm soát một đường truyền dữ liệu (data bus) 128-bit hoạt động ở tốc độ dữ liệu gấp đôi (DDR). HBM hỗ trợ tốc độ truyền tải lên tới 1 tỷ lần/giây (1 GT/s) cho mỗi chân pin (tương đương 1 bit dữ liệu), mang lại tổng băng thông gói (package bandwidth) đạt 128 GB/s.[21]
HBM2
Thế hệ thứ hai của Bộ nhớ Băng thông Cao, mang tên HBM2, tiếp tục duy trì khả năng xếp chồng tối đa tám lớp đế trên mỗi khối, nhưng đã nâng gấp đôi tốc độ truyền tải trên mỗi chân pin, đạt tới 2 GT/s. Mặc dù vẫn giữ nguyên độ rộng băng thông truy cập 1024-bit, HBM2 lại có khả năng vươn tới mức băng thông bộ nhớ 256 GB/s trên mỗi gói (package). Không chỉ vậy, thông số kỹ thuật của HBM2 còn cho phép dung lượng mỗi gói lên tới 8 GB. HBM2 được giới chuyên môn dự đoán sẽ là mảnh ghép đặc biệt hữu ích cho các ứng dụng tiêu dùng đòi hỏi hiệu năng khắt khe, chẳng hạn như thực tế ảo.[22]
Vào ngày 19 tháng 1 năm 2016, Samsung công bố sản xuất hàng loạt HBM2 ở giai đoạn đầu, với dung lượng lên đến 8 GB mỗi khối ngăn xếp.[23][24] SK Hynix cũng thông báo tung ra thị trường các khối HBM2 dung lượng 4 GB vào tháng 8 năm 2016.[25]
- Đế (die) DRAM HBM2
- Đế vi điều khiển HBM2
- Lớp chuyển tiếp HBM2 của một GPU Radeon RX Vega 64, với các đế HBM đã bị tháo rời; GPU vẫn giữ nguyên vị trí
HBM2E
Cuối năm 2018, JEDEC đã đưa ra một bản cập nhật cho thông số kỹ thuật HBM2, mang tới những bước tiến vượt bậc về băng thông và dung lượng.[26] Thông số kỹ thuật chính thức hiện nay đã hỗ trợ băng thông lên tới 307 GB/s cho mỗi khối ngăn xếp (với tốc độ truyền tải dữ liệu hữu dụng là 2,5 Tbit/s), mặc dù trên thực tế, các sản phẩm đạt mức tốc độ này đã có mặt trên thị trường từ trước. Đáng chú ý, bản cập nhật còn tích hợp thêm khả năng hỗ trợ khối xếp chồng 12 lớp (12-Hi), mở đường cho dung lượng cực khủng lên tới 24 GB cho mỗi khối.
Vào ngày 20 tháng 3 năm 2019, Samsung đã giới thiệu dòng bộ nhớ HBM2E Flashbolt của mình. Sản phẩm nổi bật với cấu trúc 8 lớp đế trên mỗi khối, tốc độ truyền tải đạt mức 3,2 GT/s, qua đó cung cấp tổng dung lượng 16 GB cùng mức băng thông ấn tượng 410 GB/s cho mỗi khối.[27]
Tiếp bước vào ngày 12 tháng 8 năm 2019, SK Hynix cũng cho ra mắt dòng HBM2E của riêng mình, với kết cấu 8 lớp đế mỗi khối ngăn xếp, đạt tốc độ truyền tải lên đến 3,6 GT/s, mang lại tổng dung lượng 16 GB và mức băng thông cao 460 GB/s cho mỗi khối.[28][29] Ngày 2 tháng 7 năm 2020, hãng công bố dòng bộ nhớ này đã chính thức đi vào sản xuất hàng loạt.[30]
Đến tháng 10 năm 2019, Samsung tiếp tục tung ra phiên bản HBM2E 12 lớp ngăn xếp.[31]
HBM4
Vào tháng 7 năm 2024, JEDEC đã công bố các thông số kỹ thuật sơ bộ cho HBM4.[32] Tiêu chuẩn mới này đã giảm tốc độ dữ liệu trên mỗi chân (pin) xuống mức 6,4 Gbit/s/chân (ngang bằng với mức của HBM3), nhưng bù lại, nó hiện sử dụng giao diện 2048-bit cho mỗi khối ngăn xếp (gấp đôi so với các thế hệ trước). Điều này đồng nghĩa với việc nó vẫn đạt được tốc độ dữ liệu trên mỗi khối lớn hơn (1,6TB/s)[33] so với HBM3E. Tiêu chuẩn này cũng sẽ hỗ trợ các lớp dung lượng 4GB (mang lại 64GB trong các cấu hình 16 lớp).
Vào tháng 4 năm 2025, JEDEC đã công bố thông số kỹ thuật HBM4 chính thức.[9] Tiêu chuẩn mới này hỗ trợ tốc độ truyền tải lên tới 8 Gb/s thông qua giao diện 2048-bit, với tổng băng thông chạm ngưỡng 2 TB/s. Chiều cao khối ngăn xếp (stack height) dao động từ 4 đến 16, đi cùng với mật độ đế DRAM là 24Gb hoặc 32Gb, cho phép đạt dung lượng lên đến 64GB. Đặc biệt, HBM4 có khả năng tương thích ngược với các bộ vi điều khiển HBM3. Samsung, Micron và SK hynix đều có những đóng góp vào tiêu chuẩn này.[10]
Lịch sử HBM
Bối cảnh
Bộ nhớ xếp chồng khuôn (die-stacked) ban đầu được thương mại hóa trong ngành công nghiệp bộ nhớ flash. Tháng 4 năm 2007, Toshiba đã giới thiệu chip bộ nhớ NAND flash với tám đế xếp chồng lên nhau,[34] tiếp đó là Hynix Semiconductor với việc trình làng chip NAND flash gồm 24 lớp đế xếp chồng vào tháng 9 năm 2007.[35]
Bộ nhớ truy cập ngẫu nhiên (RAM) xếp chồng 3D sử dụng công nghệ cổng kết nối xuyên qua silicon (TSV) đã được thương mại hóa bởi Elpida Memory. Hãng này đã phát triển chip DRAM 8 GB đầu tiên (gồm 4 đế SDRAM DDR3 xếp chồng) vào tháng 9 năm 2009, và phát hành nó vào tháng 6 năm 2011. Cũng trong năm 2011, SK Hynix đã giới thiệu bộ nhớ DDR3 16 GB (công nghệ 40 nm) sử dụng TSV,[3] Samsung Electronics trình làng bộ nhớ DDR3 32 GB xếp chồng 3D (công nghệ 30 nm) dựa trên TSV vào tháng 9, và sau đó Samsung cùng với Micron Technology đã công bố công nghệ Hybrid Memory Cube (HMC) dựa trên TSV vào tháng 10.[36]
Tháng 12 năm 2011, sau nhiều năm nghiên cứu, JEDEC đã lần đầu tiên phát hành tiêu chuẩn JESD229 cho bộ nhớ Wide IO.[37] Đây chính là tiền thân của HBM, nổi bật với 4 kênh 128-bit cùng xung nhịp tốc độ dữ liệu đơn (single data rate clocking). Tiêu chuẩn HBM đầu tiên JESD235 được ban hành sau đó vào tháng 10 năm 2013.
Quá trình phát triển

Quá trình phát triển Bộ nhớ Băng thông Cao được AMD khởi động vào năm 2008, nhằm giải quyết bài toán nan giải về mức tiêu thụ điện năng và kích thước của bộ nhớ máy tính ngày càng tăng cao. Trong suốt nhiều năm sau đó, AMD đã dốc sức nghiên cứu các quy trình để khắc phục các vấn đề liên quan đến việc xếp chồng các đế (die-stacking), dưới sự dẫn dắt của nghiên cứu viên cấp cao (Senior Fellow) thuộc AMD là Bryan Black.[38] Để hiện thực hóa tầm nhìn về HBM, AMD đã kêu gọi sự hợp tác từ các đối tác trong ngành công nghiệp bộ nhớ, nổi bật nhất là công ty SK Hynix của Hàn Quốc,[38] một tên tuổi đã có kinh nghiệm dày dặn với bộ nhớ xếp chồng 3D.[3][35] Bên cạnh đó, các đối tác từ ngành công nghiệp lớp chuyển tiếp (interposer) (như công ty UMC của Đài Loan) và ngành công nghiệp đóng gói (packaging) (Amkor Technology và ASE) cũng góp mặt.[38]
Quá trình phát triển HBM chính thức khép lại vào năm 2013, đánh dấu bằng việc SK Hynix chế tạo thành công con chip bộ nhớ HBM đầu tiên trên thế giới.[3] Cũng trong tháng 10 năm đó, HBM đã được JEDEC chính thức công nhận là tiêu chuẩn chung của ngành công nghiệp (JESD235), theo đề xuất từ AMD và SK Hynix vào năm 2010.[6] Việc sản xuất với quy mô lớn đã được triển khai tại nhà máy của Hynix ở Icheon, Hàn Quốc vào năm 2015.
AMD Fiji là dòng GPU đầu tiên ứng dụng công nghệ HBM, chính thức ra mắt thị trường vào tháng 6 năm 2015, tiếp sức mạnh cho dòng card đồ họa AMD Radeon R9 Fury X.[4][39][40]
Vào tháng 1 năm 2016, Samsung Electronics đã bắt đầu giai đoạn sản xuất hàng loạt HBM2 sớm.[23][24] Cùng tháng, HBM2 cũng đã được JEDEC chính thức công nhận là tiêu chuẩn JESD235a.[7] Chip GPU đầu tiên sử dụng HBM2 là Nvidia Tesla P100, được công bố chính thức vào tháng 4 năm 2016.[41][42]
Đến tháng 6 năm 2016, Intel đã tung ra thị trường dòng vi xử lý Xeon Phi với 8 khối ngăn xếp (stack) HCDRAM, một phiên bản HBM do Micron tùy biến. Tại hội nghị Hot Chips diễn ra vào tháng 8 năm 2016, cả Samsung và Hynix đều hé lộ về thế hệ công nghệ bộ nhớ HBM mới.[43][44] Hai hãng này cùng thông báo về các sản phẩm hiệu năng cao, dự kiến sẽ mang đến những cải tiến vượt bậc về mật độ, băng thông và tiết kiệm điện năng tiêu thụ hơn. Thêm vào đó, Samsung cũng chia sẻ về việc đang nghiên cứu phát triển một phiên bản HBM giá thành rẻ hơn, hướng đến thị trường đại chúng. Bằng cách loại bỏ đế (die) vi đệm (buffer) và giảm số lượng kết nối TSV, hãng đã thành công trong việc hạ giá thành sản phẩm, mặc dù điều này đồng nghĩa với việc băng thông tổng thể sẽ giảm (xuống còn 200 GB/s).
GPU P100 (thuộc Kiến trúc Pascal) và H100 của Nvidia lần lượt là những sản phẩm đầu tiên sử dụng bộ nhớ HBM2 và HBM3;[45] trong khi dòng MI430X của AMD là cái tên đầu tiên tiên phong ứng dụng HBM4.
Xem thêm HBM
- Stacked DRAM
- eDRAM
- Chip stack multi-chip module
- Hybrid Memory Cube (HMC): tiêu chuẩn bộ nhớ xếp chồng của Micron Technology (2011)
- Danh sách các phát minh và khám phá của Hàn Quốc
Tham khảo HBM
- ↑ Shilov, Anton (ngày 30 tháng 12 năm 2020). "Intel Confirms On-Package HBM Memory Support for Sapphire Rapids". Tom's Hardware (bằng tiếng Anh). Truy cập ngày 1 tháng 1 năm 2021.
- ↑ ISSCC 2014 Trends Lưu trữ ngày 6 tháng 2 năm 2015 tại Wayback Machine trang 118 "High-Bandwidth DRAM"
- 1 2 3 4 "History: 2010s". SK Hynix. Truy cập ngày 7 tháng 3 năm 2023.
- 1 2 Smith, Ryan (ngày 2 tháng 7 năm 2015). "The AMD Radeon R9 Fury X Review". Anandtech. Bản gốc lưu trữ ngày 3 tháng 7 năm 2015. Truy cập ngày 1 tháng 8 năm 2016.
- ↑ Morgan, Timothy Prickett (ngày 25 tháng 3 năm 2014). "Future Nvidia 'Pascal' GPUs Pack 3D Memory, Homegrown Interconnect". EnterpriseTech. Bản gốc lưu trữ ngày 26 tháng 8 năm 2014. Truy cập ngày 26 tháng 8 năm 2014.
Nvidia sẽ áp dụng biến thể High Bandwidth Memory (HBM) của DRAM xếp chồng do AMD và Hynix phát triển
- 1 2 High Bandwidth Memory (HBM) DRAM (JESD235), JEDEC, tháng 10 năm 2013
- 1 2 "JESD235a: High Bandwidth Memory 2". ngày 12 tháng 1 năm 2016.
- ↑ "JEDEC Publishes HBM3 Update to High Bandwidth Memory (HBM) Standard". JEDEC (Thông cáo báo chí) (bằng tiếng Anh). Arlington, VA. ngày 27 tháng 1 năm 2022. Truy cập ngày 11 tháng 12 năm 2022.
- 1 2 "High Bandwidth Memory (HBM4) DRAM | JEDEC". www.jedec.org. Truy cập ngày 17 tháng 8 năm 2025.
- 1 2 Kunal Khullar (ngày 17 tháng 4 năm 2025). "JEDEC finalizes HBM4 memory standard with major bandwidth and efficiency upgrades". Tom's Hardware (bằng tiếng Anh). Truy cập ngày 17 tháng 8 năm 2025.
- ↑ SEMIVISION (ngày 13 tháng 10 năm 2025). "The Infinite AI Compute Loop: HBM Big Three + TSMC × NVIDIA × OpenAI Shaping the Next-Generation Industry Chain". SEMIVISION. Truy cập ngày 5 tháng 12 năm 2025.
- ↑ 기자, 배태용. "HBM의 숨은 열쇠 '베이스 다이'…삼성·SK·마이크론이 다른 길을 택한 이유[소부장반차장]". 디지털데일리 (bằng tiếng Hàn). Truy cập ngày 5 tháng 12 năm 2025.
- ↑ "Memory price increase timeline QoQ in 2026 | Sourceability". sourceability.com (bằng tiếng Anh). Truy cập ngày 5 tháng 4 năm 2026.
- ↑ HBM: Memory Solution for Bandwidth-Hungry Processors Lưu trữ ngày 24 tháng 4 năm 2015 tại Wayback Machine, Joonyoung Kim and Younsu Kim, SK Hynix // Hot Chips 26, tháng 8 năm 2014
- ↑ Sohn et.al. (Samsung) (tháng 1 năm 2017). "A 1.2 V 20 nm 307 GB/s HBM DRAM With At-Speed Wafer-Level IO Test Scheme and Adaptive Refresh Considering Temperature Distribution". IEEE Journal of Solid-State Circuits. 52 (1): 250–260. Bibcode:2017IJSSC..52..250S. doi:10.1109/JSSC.2016.2602221. S2CID 207783774.
- ↑ "What's Next for High Bandwidth Memory". ngày 17 tháng 12 năm 2019.
- ↑ "Interposers".
- ↑ Where Are DRAM Interfaces Headed? Lưu trữ ngày 15 tháng 6 năm 2018 tại Wayback Machine // EETimes, 4/18/2014 "The Hybrid Memory Cube (HMC) and a competing technology called High-Bandwidth Memory (HBM) are aimed at computing and networking applications. These approaches stack multiple DRAM chips atop a logic chip."
- ↑ Highlights of the HighBandwidth Memory (HBM) Standard Lưu trữ ngày 13 tháng 12 năm 2014 tại Wayback Machine. Mike O'Connor, Sr. Research Scientist, NVidia // The Memory Forum – 14 tháng 6 năm 2014
- ↑ Smith, Ryan (ngày 19 tháng 5 năm 2015). "AMD Dives Deep On High Bandwidth Memory – What Will HBM Bring to AMD?". Anandtech. Bản gốc lưu trữ ngày 28 tháng 8 năm 2015. Truy cập ngày 12 tháng 5 năm 2017.
- ↑ "High-Bandwidth Memory (HBM)" (PDF). AMD. ngày 1 tháng 1 năm 2015. Truy cập ngày 10 tháng 8 năm 2016.
- ↑ Valich, Theo (ngày 16 tháng 11 năm 2015). "NVIDIA Unveils Pascal GPU: 16GB of memory, 1TB/s Bandwidth". VR World. Bản gốc lưu trữ ngày 14 tháng 7 năm 2019. Truy cập ngày 24 tháng 1 năm 2016.
- 1 2 "Samsung Begins Mass Producing World's Fastest DRAM – Based on Newest High Bandwidth Memory (HBM) Interface". news.samsung.com.
- 1 2 "Samsung announces mass production of next-generation HBM2 memory – ExtremeTech". ngày 19 tháng 1 năm 2016.
- ↑ Shilov, Anton (ngày 1 tháng 8 năm 2016). "SK Hynix Adds HBM2 to Catalog". Anandtech. Bản gốc lưu trữ ngày 2 tháng 8 năm 2016. Truy cập ngày 1 tháng 8 năm 2016.
- ↑ "JEDEC Updates Groundbreaking High Bandwidth Memory (HBM) Standard" (Thông cáo báo chí). JEDEC. ngày 17 tháng 12 năm 2018. Truy cập ngày 18 tháng 12 năm 2018.
- ↑ "Samsung Electronics Introduces New High Bandwidth Memory Technology Tailored to Data Centers, Graphic Applications, and AI | Samsung Semiconductor Global Website". www.samsung.com (bằng tiếng Anh). Truy cập ngày 22 tháng 8 năm 2019.
- ↑ "SK Hynix Develops World's Fastest High Bandwidth Memory, HBM2E". www.skhynix.com. ngày 12 tháng 8 năm 2019. Bản gốc lưu trữ ngày 3 tháng 12 năm 2019. Truy cập ngày 22 tháng 8 năm 2019.
- ↑ "SK Hynix Announces its HBM2E Memory Products, 460 GB/S and 16GB per Stack". TechPowerUp. ngày 12 tháng 8 năm 2019.
- ↑ "SK hynix Starts Mass-Production of High-Speed DRAM, "HBM2E"". ngày 2 tháng 7 năm 2020.
- ↑ "Samsung 3D Stacks 12-Layer HBM2E Chips, Now 24GB of Capacity". ngày 7 tháng 10 năm 2019.
- ↑ "JEDEC Approaches Finalization of HBM4 Standard, Eyes Future Innovations | JEDEC".
- ↑ Nhân 6,4 giga transfer (tỷ lần truyền) trên giây với số bit là 2048, sau đó chia cho 8 để quy đổi từ bit sang byte
- ↑ "TOSHIBA COMMERCIALIZES INDUSTRY'S HIGHEST CAPACITY EMBEDDED NAND FLASH MEMORY FOR MOBILE CONSUMER PRODUCTS". Toshiba. ngày 17 tháng 4 năm 2007. Bản gốc lưu trữ ngày 23 tháng 11 năm 2010. Truy cập ngày 23 tháng 11 năm 2010.
- 1 2 "Hynix Surprises NAND Chip Industry". The Korea Times. ngày 5 tháng 9 năm 2007. Truy cập ngày 8 tháng 7 năm 2019.
- ↑ Kada, Morihiro (2015). "Research and Development History of Three-Dimensional Integration Technology". Three-Dimensional Integration of Semiconductors: Processing, Materials, and Applications. Springer. tr. 15–8. ISBN 9783319186757.
- ↑ "WIDE I/O SINGLE DATA RATE (WIDE I/O SDR) standard JESD229" (PDF).
- 1 2 3 High-Bandwidth Memory (HBM) from AMD: Making Beautiful Memory, AMD
- ↑ Smith, Ryan (ngày 19 tháng 5 năm 2015). "AMD HBM Deep Dive". Anandtech. Bản gốc lưu trữ ngày 28 tháng 8 năm 2015. Truy cập ngày 1 tháng 8 năm 2016.
- ↑ AMD Ushers in a New Era of PC Gaming including World's First Graphics Family with Revolutionary HBM Technology
- ↑ Smith, Ryan (ngày 5 tháng 4 năm 2016). "Nvidia announces Tesla P100 Accelerator". Anandtech. Bản gốc lưu trữ ngày 6 tháng 4 năm 2016. Truy cập ngày 1 tháng 8 năm 2016.
- ↑ "NVIDIA Tesla P100: The Most Advanced Data Center GPU Ever Built". www.nvidia.com.
- ↑ Smith, Ryan (ngày 23 tháng 8 năm 2016). "Hot Chips 2016: Memory Vendors Discuss Ideas for Future Memory Tech – DDR5, Cheap HBM & More". Anandtech. Bản gốc lưu trữ ngày 24 tháng 8 năm 2016. Truy cập ngày 23 tháng 8 năm 2016.
- ↑ Walton, Mark (ngày 23 tháng 8 năm 2016). "HBM3: Cheaper, up to 64GB on-package, and terabytes-per-second bandwidth". Ars Technica. Truy cập ngày 23 tháng 8 năm 2016.
- ↑ "NVIDIA Announces Hopper Architecture, the Next Generation of Accelerated Computing".
Liên kết ngoài HBM
- High Bandwidth Memory (HBM) DRAM (JESD235), JEDEC, tháng 10 năm 2013
- Lee, Dong Uk; Kim, Kyung Whan; Kim, Kwan Weon; Kim, Hongjung; Kim, Ju Young; và đồng nghiệp (9–13 Feb 2014). "25.2 a 1.2V 8 Gb 8-channel 128 GB/S high-bandwidth memory (HBM) stacked DRAM with effective microbump I/O test methods using 29nm process and TSV". 2014 IEEE International Solid-State Circuits Conference Digest of Technical Papers (ISSCC). IEEE (xuất bản ngày 6 tháng 3 năm 2014). tr. 432–433. doi:10.1109/ISSCC.2014.6757501. ISBN 978-1-4799-0920-9. S2CID 40185587.
- HBM vs HBM2 vs GDDR5 vs GDDR5X Memory Comparison