SK Hynix lập kỷ lục lợi nhuận nhờ nhu cầu chip AI tăng mạnh
| SK Hynix báo lãi kỷ lục nhờ cơn sốt bộ nhớ AI SK Hynix chi 13 tỷ USD xây nhà máy mới, chạy đua đáp ứng cơn khát chip nhớ AI SK Hynix lần đầu vượt Samsung về lợi nhuận nhờ bùng nổ AI |
![]() |
| SK Hynix ghi nhận lợi nhuận cao hơn nhờ nhu cầu về trí tuệ nhân tạo (AI) đẩy giá bộ nhớ tăng, nhưng doanh thu lại không đạt dự báo. Ảnh: Getty. |
SK Hynix vừa công bố kết quả kinh doanh quý I năm 2026 với lợi nhuận kỷ lục, phản ánh rõ xu hướng bùng nổ nhu cầu chip AI trên toàn cầu. Tuy nhiên, bức tranh tăng trưởng không hoàn toàn trọn vẹn khi doanh thu chưa đạt kỳ vọng của giới phân tích.
Doanh thu quý I đạt 52,58 nghìn tỷ won, tăng gần gấp ba lần so với cùng kỳ năm trước và lần đầu vượt mốc 50 nghìn tỷ won. Dù vậy, con số này vẫn thấp hơn mức dự báo 53,55 nghìn tỷ won. Lợi nhuận hoạt động đạt 37,61 nghìn tỷ won, tăng gấp năm lần so với cùng kỳ, với biên lợi nhuận đạt mức kỷ lục 72%.
Diễn biến này cho thấy một thực tế rõ ràng: giá chip tăng mạnh đã kéo lợi nhuận lên cao, nhưng sản lượng hoặc cơ cấu doanh thu chưa theo kịp kỳ vọng thị trường.
Động lực từ làn sóng AI
Tăng trưởng của SK Hynix gắn chặt với nhu cầu bùng nổ từ trí tuệ nhân tạo. Công ty hiện là nhà cung cấp hàng đầu thế giới về bộ nhớ băng thông cao HBM, loại chip đóng vai trò cốt lõi trong các trung tâm dữ liệu AI.
HBM là một dạng nâng cấp của DRAM, cho phép truyền dữ liệu với tốc độ rất cao, phù hợp cho việc huấn luyện và vận hành các mô hình AI quy mô lớn. Khi AI chuyển từ giai đoạn huấn luyện sang suy luận thời gian thực, nhu cầu bộ nhớ thậm chí còn tăng mạnh hơn.
Điều này lý giải vì sao SK Hynix vẫn tăng trưởng mạnh ngay cả trong quý đầu năm, vốn thường là giai đoạn thấp điểm theo chu kỳ ngành.
Cạnh tranh khốc liệt trên thị trường DRAM
Thị trường DRAM đang bước vào giai đoạn tăng trưởng nóng với giá chip liên tục leo thang. Tuy nhiên, cạnh tranh cũng ngày càng gay gắt giữa các ông lớn.
Samsung Electronics đã giành lại vị trí dẫn đầu doanh thu DRAM trong quý cuối năm 2025, dù SK Hynix vẫn chiếm ưu thế trong mảng HBM với khoảng 57% thị phần.
Trong khi đó, Micron Technology cũng đang tăng tốc đầu tư để thu hẹp khoảng cách công nghệ.
Một yếu tố quan trọng giúp SK Hynix duy trì lợi thế là mối quan hệ cung ứng với Nvidia, nhà sản xuất chip AI lớn nhất thế giới. Đây là khách hàng then chốt trong cuộc đua hạ tầng AI toàn cầu.
Tuy nhiên, lợi thế này không phải tuyệt đối. Samsung đã bắt đầu cung cấp chip HBM4, thế hệ mới nhất, và đang tăng tốc để cạnh tranh trực tiếp.
SK Hynix, một trong những nhà sản xuất chip nhớ lớn nhất thế giới, vừa công bố kế hoạch đầu tư quy mô lớn nhằm ... |
Nút thắt nguồn cung và cuộc đua mở rộng công suất
Đằng sau tăng trưởng lợi nhuận là một vấn đề lớn: hạn chế về năng lực sản xuất. Nhu cầu HBM tăng quá nhanh đã khiến nguồn cung chip nhớ trở nên khan hiếm.
Theo lãnh đạo Tập đoàn SK, tình trạng thiếu hụt wafer có thể kéo dài đến năm 2030. Việc xây dựng nhà máy bán dẫn mới cần từ bốn đến năm năm, khiến nguồn cung khó bắt kịp nhu cầu trong ngắn hạn.
Để giải quyết bài toán này, SK Hynix đã công bố kế hoạch đầu tư 19 nghìn tỷ won vào nhà máy mới tại Hàn Quốc. Đồng thời, công ty cũng chuẩn bị ra mắt dòng HBM4E trong nửa cuối năm nay, với mục tiêu sản xuất hàng loạt vào năm 2027.
Bên cạnh cơ hội, SK Hynix cũng đối mặt với rủi ro từ môi trường toàn cầu. Xung đột địa chính trị có thể làm gián đoạn nguồn cung nguyên liệu quan trọng như heli, brom và vonfram.
Công ty cho biết đã đa dạng hóa nhà cung cấp và tích trữ đủ nguyên liệu để hạn chế tác động trong ngắn hạn. Các hợp đồng khí tự nhiên hóa lỏng dài hạn cũng giúp giảm áp lực chi phí năng lượng.
Tuy nhiên, nếu bất ổn kéo dài, toàn bộ chuỗi cung ứng AI có thể chịu ảnh hưởng, từ sản xuất chip đến triển khai trung tâm dữ liệu.
Kết quả của SK Hynix phản ánh một xu hướng lớn: bộ nhớ đang trở thành “nút thắt cổ chai” trong kỷ nguyên AI. Khi nhu cầu vượt cung, khách hàng sẵn sàng ưu tiên đảm bảo nguồn hàng hơn là giá.
Điều này tạo ra chu kỳ tăng trưởng lợi nhuận hiếm thấy trong ngành bán dẫn, nhưng cũng đặt ra bài toán dài hạn về đầu tư công suất và cân bằng thị trường.
| HBM là gì và vì sao quan trọng với AI HBM là loại bộ nhớ xếp chồng nhiều lớp, cho phép truyền dữ liệu nhanh hơn nhiều lần so với DRAM truyền thống. Đây là thành phần không thể thiếu trong các chip AI, đặc biệt là GPU của Nvidia. Khi mô hình AI ngày càng lớn, nhu cầu HBM tăng theo cấp số nhân. |
Có thể bạn quan tâm
VPBank thông qua kế hoạch tăng vốn và đặt mục tiêu tăng trưởng trên 30% trong năm 2026
Thị trường
Phiên điều trần của Kevin Warsh hé lộ tranh cãi về độc lập Fed
Thị trường
Thị trường chứng khoán châu Á phân hóa khi Tổng thống Trump gia hạn ngừng bắn Iran
Thị trường
