【Bán dẫn】Micron Technology của Mỹ có thể xâm nhập vào thị trường Hàn Quốc đến mức nào? HBM (Bộ nhớ băng thông cao) thúc đẩy sự tăng trưởng của ngành | 5 cổ phiếu xu hướng của chứng khoán Mỹ do Ishihara Jun phân tích | Manekuri - Thông tin đầu tư và phương tiện hữu ích về tiền tệ của Monex Securities
Hiệu suất học tập và suy luận của AI bị ảnh hưởng bởi "bộ nhớ"
DRAM là bộ nhớ "tạm thời", NAND là bộ nhớ "lưu trữ lâu dài"
Bộ nhớ DRAM và NAND trong lĩnh vực bán dẫn đều là thiết bị lưu trữ dùng để lưu trữ dữ liệu, nhưng mỗi loại có cách sử dụng và đặc điểm khác nhau. DRAM là bộ nhớ được sử dụng cho "bộ nhớ tạm thời" của máy tính và điện thoại thông minh. Nó là "bộ nhớ bay hơi" chỉ giữ dữ liệu khi có nguồn điện, và dữ liệu sẽ biến mất khi nguồn điện bị ngắt. DRAM có tốc độ xử lý đọc và ghi dữ liệu rất nhanh, là một thành phần quan trọng để nâng cao khả năng xử lý.
Một bên của NAND là bộ nhớ được sử dụng cho "lưu trữ lâu dài" như USB, điện thoại thông minh, SSD (ổ cứng thể rắn: thiết bị lưu trữ). Đây là "bộ nhớ không bay hơi" mà dữ liệu vẫn còn sau khi tắt nguồn, được sử dụng để lưu trữ dữ liệu như ảnh, video và ứng dụng. Việc ghi dữ liệu mất một chút thời gian, nhưng đặc điểm nổi bật là khả năng lưu trữ một lượng lớn dữ liệu.
Từ các đặc tính khác nhau, có thể nói rằng DRAM đóng vai trò như một "bàn làm việc" tập trung vào tốc độ, trong khi NAND đóng vai trò như một "ngăn kéo" tập trung vào lưu trữ. Ba công ty lớn trong ngành sản xuất bộ nhớ bao gồm Samsung Electronics, SK Hynix của Hàn Quốc và Micron Technology của Mỹ [MU], trong khi công ty Nhật Bản có thị phần cao là Kioxia Holdings (285A), formerly Toshiba Memory.
Sự phổ biến của AI (trí tuệ nhân tạo) và đám mây đã khiến nhu cầu về bộ nhớ như DRAM và NAND tăng trở lại. Đặc biệt, nhu cầu về HBM (High Bandwidth Memory: bộ nhớ băng thông cao) trong số các loại DRAM đang mở rộng một cách nhanh chóng. Trong việc phát triển máy chủ AI, việc nâng cao dung lượng lưu trữ và tốc độ đọc ghi của bộ nhớ sẽ cải thiện hiệu suất tổng thể hơn là việc sử dụng các vi mạch xử lý hình ảnh tiên tiến (GPU) đắt đỏ. Nói cách khác, hiệu suất của việc học và suy luận AI phụ thuộc vào bộ nhớ.
HBM được trang bị nhiều trên GPU tiên tiến của NVIDIA [NVDA]
HBM là công nghệ bộ nhớ thế hệ mới có đặc điểm tốc độ truyền dữ liệu nhanh hơn so với DRAM truyền thống bằng cách xếp chồng các chip bộ nhớ theo chiều dọc và đạt được băng thông cao (đường truyền dữ liệu rộng), đồng thời tiêu thụ ít điện năng. Ban đầu, nó được phát triển với mục đích xử lý đồ họa hiệu suất cao, nhưng hiện nay nhu cầu cho các bộ gia tốc phục vụ AI và HPC (tính toán hiệu suất cao), trung tâm dữ liệu đang ngày càng gia tăng.
GPU (bán dẫn xử lý hình ảnh) tiên tiến nhất của NVIDIA [NVDA] được trang bị một lượng lớn HBM. Trên thực tế, trong các mô hình AI quy mô lớn như ChatGPT của OpenAI, GPU tích hợp HBM trở nên thiết yếu.
Theo tỷ lệ tăng trưởng theo lĩnh vực sản phẩm trong "Dự báo thị trường bán dẫn mùa xuân 2025" được công bố vào ngày 3 tháng 6 bởi WSTS (Tổ chức thống kê thị trường bán dẫn toàn cầu), tỷ lệ tăng trưởng của thị trường bộ nhớ vào năm 2024 được xác nhận là 79,3%, cho thấy sự tăng trưởng vượt trội so với các sản phẩm khác. Mặc dù tỷ lệ tăng trưởng sẽ chậm lại từ năm 2025 đến 2026, nhưng tỷ lệ tăng trưởng dự kiến vẫn sẽ vượt qua các lĩnh vực analog và vi điều khiển.
【Hình 1】Sự thay đổi tỷ lệ tăng trưởng của thị trường bán dẫn theo sản phẩm
Nguồn: Dữ liệu từ WSTS do tác giả biên soạn
【図表2】Doanh thu DRAM và tỷ lệ HBM trong năm 2022, 2023, 2024 (dự đoán)
Nguồn: Dữ liệu từ TrendForce do tác giả biên soạn
Yếu tố kéo dài sự tăng trưởng này là HBM. Theo công ty nghiên cứu thị trường TrendForce, doanh thu của thị trường bộ nhớ, sau khi suy giảm vào năm 2023, dự kiến sẽ phục hồi trở lại mức 80 tỷ đô la vào năm 2024. Doanh thu của HBM, trước đây chưa tới 10% tổng doanh thu, đã mở rộng gấp đôi và dự kiến sẽ chiếm 20% tổng doanh thu vào năm 2024. Trong tương lai, sự phát triển của HBM được cho là sẽ trở thành động lực chính thúc đẩy sự tăng trưởng của toàn bộ ngành công nghiệp bán dẫn.
Nhu cầu HBM tăng mạnh, khả năng sinh lời có thể gấp 10 lần DRAM trước đây?
Micron Technology, một trong những tập đoàn hàng đầu về bộ nhớ bán dẫn, đã công bố kết quả tài chính cho quý 3 của năm tài chính kết thúc vào tháng 8 năm 2025 (tháng 3 - tháng 5 năm 2025) vào ngày 25 tháng 6, với doanh thu đạt 9,310 triệu đô la, tăng 37% so với cùng kỳ năm trước, và lợi nhuận ròng đạt 1,885 triệu đô la, tăng 5,7 lần. Doanh thu từ trung tâm dữ liệu đã tăng hơn gấp đôi so với cùng kỳ năm trước, thiết lập kỷ lục cho quý. Đặc biệt, doanh thu từ HBM (High Bandwidth Memory) được sử dụng trong các máy chủ AI đã đạt mức cao kỷ lục. HBM có tính sinh lợi cao gấp 5 đến 10 lần so với các loại DRAM khác.
【図表3】Doanh thu và lỗ ròng cuối cùng của Micron
Nguồn: Tài liệu báo cáo tài chính do tác giả biên soạn
Doanh thu theo đơn vị kinh doanh của Micron Technology cho lĩnh vực tính toán và mạng, bao gồm HBM cho trung tâm dữ liệu và DRAM dung lượng lớn, đã tăng 11% so với quý trước (tăng 97% so với cùng kỳ năm trước). Ngoài ra, do sự gia tăng của SSD (ổ đĩa trạng thái rắn: thiết bị lưu trữ bổ sung sử dụng mạch tích hợp) cho trung tâm dữ liệu, doanh thu từ lưu trữ đã tăng 45% so với quý trước (giảm 2% so với cùng kỳ năm trước).
【Hình 4】Doanh thu theo đơn vị kinh doanh của Micron Technology (Đơn vị: triệu đô la)
Nguồn: Tác giả biên soạn từ tài liệu báo cáo tài chính
Micron Technology[MU]bắt đầu giao hàng mẫu sản phẩm thế hệ tiếp theo, cuộc cạnh tranh giữa các nhà sản xuất bộ nhớ bán dẫn càng trở nên khốc liệt.
Micron Technology cho biết việc mở rộng sản xuất HBM và lộ trình phát triển sản phẩm đang diễn ra thuận lợi, và dự đoán rằng vào cuối năm 2025, thị phần HBM sẽ đạt mức tương đương với thị phần DRAM hiện tại. Điều này sẽ đạt được sớm hơn so với kế hoạch trước đó. Hiện tại, Micron đang vận chuyển HBM số lượng lớn cho bốn khách hàng, nhắm vào cả hai nền tảng GPU (bán dẫn xử lý hình ảnh) và ASIC (mạch tích hợp dành riêng cho ứng dụng), nhưng cũng có sự chuyển động từ phía khách hàng muốn đảm bảo sản phẩm sớm hơn so với lịch trình thông thường.
CEO của Micron Technology, Sanjay Mehrotra, cho biết rằng có nhu cầu chưa từng có đối với bộ nhớ và lưu trữ hiệu suất cao nhờ vào AI, và "chúng tôi đang trên đà đạt được doanh thu kỷ lục, tỷ suất lợi nhuận ổn định và dòng tiền tự do trong năm tài chính 2025. Đồng thời, chúng tôi sẽ tiếp tục đầu tư có kỷ luật để củng cố khả năng lãnh đạo công nghệ và xuất sắc trong sản xuất nhằm đáp ứng sự mở rộng nhu cầu bộ nhớ do AI thúc đẩy."
Về quý 4, nhu cầu mạnh mẽ đối với bộ nhớ sẽ tiếp tục, với dự báo doanh thu đạt 10,7 tỷ USD (mức trung bình của hướng dẫn), tăng 15% so với quý trước, lập kỷ lục cao nhất trong lịch sử. Các điều kiện thuận lợi cho sự phát triển liên tục của AI trong trung tâm dữ liệu đã được thiết lập, và công ty tự tin rằng có thể đạt được doanh thu tăng mạnh trong năm tài chính kết thúc vào tháng 8 năm 2025.
Micron Technology đã thông báo rằng họ đã bắt đầu xuất khẩu mẫu sản phẩm HBM thế hệ tiếp theo "HBM4" cho một số khách hàng từ đầu tháng 6. Dự kiến sẽ bắt đầu sản xuất hàng loạt vào năm 2026. Nó được cho là sẽ tăng tốc độ hiệu suất suy diễn trong các hệ thống LLM (mô hình ngôn ngữ lớn). So với sản phẩm hiện tại dành cho AI của Micron Technology "HBM3E", hiệu suất được cải thiện hơn 60% và hiệu quả năng lượng cải thiện 20%.
Micron Technology đã bắt đầu xây dựng nhà máy đóng gói HBM tiên tiến tại Singapore hướng tới việc đi vào hoạt động vào năm 2026. Tổng số vốn đầu tư là 7 tỷ đô la. Hiện tại, Micron Technology đang ở vị trí theo đuổi các công ty Hàn Quốc như SK Hynix và Samsung Electronics, nhưng không biết họ có thể chiếm lĩnh bao xa. Cạnh tranh giữa các nhà sản xuất nhớ bán dẫn sẽ càng trở nên khốc liệt hơn trong việc giành lấy thị trường ngày càng mở rộng cho AI.
5 mã chứng khoán đáng chú ý của Ishihara Jun
Micron Technologies [MU]
Nguồn: Trạm giao dịch
NVIDIA[NVDA]
Nguồn: Trạm giao dịch
Amazon.com[AMZN]
Nguồn: Trạm giao dịch
Chữ cái[GOOGL]
Nguồn: Trạm giao dịch
Microsoft[MSFT]
Nguồn: Trạm giao dịch
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
【Bán dẫn】Micron Technology của Mỹ có thể xâm nhập vào thị trường Hàn Quốc đến mức nào? HBM (Bộ nhớ băng thông cao) thúc đẩy sự tăng trưởng của ngành | 5 cổ phiếu xu hướng của chứng khoán Mỹ do Ishihara Jun phân tích | Manekuri - Thông tin đầu tư và phương tiện hữu ích về tiền tệ của Monex Securities
Hiệu suất học tập và suy luận của AI bị ảnh hưởng bởi "bộ nhớ"
DRAM là bộ nhớ "tạm thời", NAND là bộ nhớ "lưu trữ lâu dài"
Bộ nhớ DRAM và NAND trong lĩnh vực bán dẫn đều là thiết bị lưu trữ dùng để lưu trữ dữ liệu, nhưng mỗi loại có cách sử dụng và đặc điểm khác nhau. DRAM là bộ nhớ được sử dụng cho "bộ nhớ tạm thời" của máy tính và điện thoại thông minh. Nó là "bộ nhớ bay hơi" chỉ giữ dữ liệu khi có nguồn điện, và dữ liệu sẽ biến mất khi nguồn điện bị ngắt. DRAM có tốc độ xử lý đọc và ghi dữ liệu rất nhanh, là một thành phần quan trọng để nâng cao khả năng xử lý.
Một bên của NAND là bộ nhớ được sử dụng cho "lưu trữ lâu dài" như USB, điện thoại thông minh, SSD (ổ cứng thể rắn: thiết bị lưu trữ). Đây là "bộ nhớ không bay hơi" mà dữ liệu vẫn còn sau khi tắt nguồn, được sử dụng để lưu trữ dữ liệu như ảnh, video và ứng dụng. Việc ghi dữ liệu mất một chút thời gian, nhưng đặc điểm nổi bật là khả năng lưu trữ một lượng lớn dữ liệu.
Từ các đặc tính khác nhau, có thể nói rằng DRAM đóng vai trò như một "bàn làm việc" tập trung vào tốc độ, trong khi NAND đóng vai trò như một "ngăn kéo" tập trung vào lưu trữ. Ba công ty lớn trong ngành sản xuất bộ nhớ bao gồm Samsung Electronics, SK Hynix của Hàn Quốc và Micron Technology của Mỹ [MU], trong khi công ty Nhật Bản có thị phần cao là Kioxia Holdings (285A), formerly Toshiba Memory.
Sự phổ biến của AI (trí tuệ nhân tạo) và đám mây đã khiến nhu cầu về bộ nhớ như DRAM và NAND tăng trở lại. Đặc biệt, nhu cầu về HBM (High Bandwidth Memory: bộ nhớ băng thông cao) trong số các loại DRAM đang mở rộng một cách nhanh chóng. Trong việc phát triển máy chủ AI, việc nâng cao dung lượng lưu trữ và tốc độ đọc ghi của bộ nhớ sẽ cải thiện hiệu suất tổng thể hơn là việc sử dụng các vi mạch xử lý hình ảnh tiên tiến (GPU) đắt đỏ. Nói cách khác, hiệu suất của việc học và suy luận AI phụ thuộc vào bộ nhớ.
HBM được trang bị nhiều trên GPU tiên tiến của NVIDIA [NVDA]
HBM là công nghệ bộ nhớ thế hệ mới có đặc điểm tốc độ truyền dữ liệu nhanh hơn so với DRAM truyền thống bằng cách xếp chồng các chip bộ nhớ theo chiều dọc và đạt được băng thông cao (đường truyền dữ liệu rộng), đồng thời tiêu thụ ít điện năng. Ban đầu, nó được phát triển với mục đích xử lý đồ họa hiệu suất cao, nhưng hiện nay nhu cầu cho các bộ gia tốc phục vụ AI và HPC (tính toán hiệu suất cao), trung tâm dữ liệu đang ngày càng gia tăng.
GPU (bán dẫn xử lý hình ảnh) tiên tiến nhất của NVIDIA [NVDA] được trang bị một lượng lớn HBM. Trên thực tế, trong các mô hình AI quy mô lớn như ChatGPT của OpenAI, GPU tích hợp HBM trở nên thiết yếu.
Theo tỷ lệ tăng trưởng theo lĩnh vực sản phẩm trong "Dự báo thị trường bán dẫn mùa xuân 2025" được công bố vào ngày 3 tháng 6 bởi WSTS (Tổ chức thống kê thị trường bán dẫn toàn cầu), tỷ lệ tăng trưởng của thị trường bộ nhớ vào năm 2024 được xác nhận là 79,3%, cho thấy sự tăng trưởng vượt trội so với các sản phẩm khác. Mặc dù tỷ lệ tăng trưởng sẽ chậm lại từ năm 2025 đến 2026, nhưng tỷ lệ tăng trưởng dự kiến vẫn sẽ vượt qua các lĩnh vực analog và vi điều khiển.
【Hình 1】Sự thay đổi tỷ lệ tăng trưởng của thị trường bán dẫn theo sản phẩm
Nguồn: Dữ liệu từ WSTS do tác giả biên soạn
【図表2】Doanh thu DRAM và tỷ lệ HBM trong năm 2022, 2023, 2024 (dự đoán)
Nguồn: Dữ liệu từ TrendForce do tác giả biên soạn
Yếu tố kéo dài sự tăng trưởng này là HBM. Theo công ty nghiên cứu thị trường TrendForce, doanh thu của thị trường bộ nhớ, sau khi suy giảm vào năm 2023, dự kiến sẽ phục hồi trở lại mức 80 tỷ đô la vào năm 2024. Doanh thu của HBM, trước đây chưa tới 10% tổng doanh thu, đã mở rộng gấp đôi và dự kiến sẽ chiếm 20% tổng doanh thu vào năm 2024. Trong tương lai, sự phát triển của HBM được cho là sẽ trở thành động lực chính thúc đẩy sự tăng trưởng của toàn bộ ngành công nghiệp bán dẫn.
Nhu cầu HBM tăng mạnh, khả năng sinh lời có thể gấp 10 lần DRAM trước đây?
Micron Technology, một trong những tập đoàn hàng đầu về bộ nhớ bán dẫn, đã công bố kết quả tài chính cho quý 3 của năm tài chính kết thúc vào tháng 8 năm 2025 (tháng 3 - tháng 5 năm 2025) vào ngày 25 tháng 6, với doanh thu đạt 9,310 triệu đô la, tăng 37% so với cùng kỳ năm trước, và lợi nhuận ròng đạt 1,885 triệu đô la, tăng 5,7 lần. Doanh thu từ trung tâm dữ liệu đã tăng hơn gấp đôi so với cùng kỳ năm trước, thiết lập kỷ lục cho quý. Đặc biệt, doanh thu từ HBM (High Bandwidth Memory) được sử dụng trong các máy chủ AI đã đạt mức cao kỷ lục. HBM có tính sinh lợi cao gấp 5 đến 10 lần so với các loại DRAM khác.
【図表3】Doanh thu và lỗ ròng cuối cùng của Micron
Nguồn: Tài liệu báo cáo tài chính do tác giả biên soạn
Doanh thu theo đơn vị kinh doanh của Micron Technology cho lĩnh vực tính toán và mạng, bao gồm HBM cho trung tâm dữ liệu và DRAM dung lượng lớn, đã tăng 11% so với quý trước (tăng 97% so với cùng kỳ năm trước). Ngoài ra, do sự gia tăng của SSD (ổ đĩa trạng thái rắn: thiết bị lưu trữ bổ sung sử dụng mạch tích hợp) cho trung tâm dữ liệu, doanh thu từ lưu trữ đã tăng 45% so với quý trước (giảm 2% so với cùng kỳ năm trước).
【Hình 4】Doanh thu theo đơn vị kinh doanh của Micron Technology (Đơn vị: triệu đô la)
Nguồn: Tác giả biên soạn từ tài liệu báo cáo tài chính
Micron Technology[MU]bắt đầu giao hàng mẫu sản phẩm thế hệ tiếp theo, cuộc cạnh tranh giữa các nhà sản xuất bộ nhớ bán dẫn càng trở nên khốc liệt.
Micron Technology cho biết việc mở rộng sản xuất HBM và lộ trình phát triển sản phẩm đang diễn ra thuận lợi, và dự đoán rằng vào cuối năm 2025, thị phần HBM sẽ đạt mức tương đương với thị phần DRAM hiện tại. Điều này sẽ đạt được sớm hơn so với kế hoạch trước đó. Hiện tại, Micron đang vận chuyển HBM số lượng lớn cho bốn khách hàng, nhắm vào cả hai nền tảng GPU (bán dẫn xử lý hình ảnh) và ASIC (mạch tích hợp dành riêng cho ứng dụng), nhưng cũng có sự chuyển động từ phía khách hàng muốn đảm bảo sản phẩm sớm hơn so với lịch trình thông thường.
CEO của Micron Technology, Sanjay Mehrotra, cho biết rằng có nhu cầu chưa từng có đối với bộ nhớ và lưu trữ hiệu suất cao nhờ vào AI, và "chúng tôi đang trên đà đạt được doanh thu kỷ lục, tỷ suất lợi nhuận ổn định và dòng tiền tự do trong năm tài chính 2025. Đồng thời, chúng tôi sẽ tiếp tục đầu tư có kỷ luật để củng cố khả năng lãnh đạo công nghệ và xuất sắc trong sản xuất nhằm đáp ứng sự mở rộng nhu cầu bộ nhớ do AI thúc đẩy."
Về quý 4, nhu cầu mạnh mẽ đối với bộ nhớ sẽ tiếp tục, với dự báo doanh thu đạt 10,7 tỷ USD (mức trung bình của hướng dẫn), tăng 15% so với quý trước, lập kỷ lục cao nhất trong lịch sử. Các điều kiện thuận lợi cho sự phát triển liên tục của AI trong trung tâm dữ liệu đã được thiết lập, và công ty tự tin rằng có thể đạt được doanh thu tăng mạnh trong năm tài chính kết thúc vào tháng 8 năm 2025.
Micron Technology đã thông báo rằng họ đã bắt đầu xuất khẩu mẫu sản phẩm HBM thế hệ tiếp theo "HBM4" cho một số khách hàng từ đầu tháng 6. Dự kiến sẽ bắt đầu sản xuất hàng loạt vào năm 2026. Nó được cho là sẽ tăng tốc độ hiệu suất suy diễn trong các hệ thống LLM (mô hình ngôn ngữ lớn). So với sản phẩm hiện tại dành cho AI của Micron Technology "HBM3E", hiệu suất được cải thiện hơn 60% và hiệu quả năng lượng cải thiện 20%.
Micron Technology đã bắt đầu xây dựng nhà máy đóng gói HBM tiên tiến tại Singapore hướng tới việc đi vào hoạt động vào năm 2026. Tổng số vốn đầu tư là 7 tỷ đô la. Hiện tại, Micron Technology đang ở vị trí theo đuổi các công ty Hàn Quốc như SK Hynix và Samsung Electronics, nhưng không biết họ có thể chiếm lĩnh bao xa. Cạnh tranh giữa các nhà sản xuất nhớ bán dẫn sẽ càng trở nên khốc liệt hơn trong việc giành lấy thị trường ngày càng mở rộng cho AI.
5 mã chứng khoán đáng chú ý của Ishihara Jun
Micron Technologies [MU]
Nguồn: Trạm giao dịch
NVIDIA[NVDA]
Nguồn: Trạm giao dịch
Amazon.com[AMZN]
Nguồn: Trạm giao dịch
Chữ cái[GOOGL]
Nguồn: Trạm giao dịch
Microsoft[MSFT]
Nguồn: Trạm giao dịch