Nvidia thống lĩnh thị trường AI với chip Blackwell Ultra và định hướng tương lai với Rubin
![]() |
Tổng giám đốc điều hành Jensen Huang đã tiết lộ Blackwell Ultra, một dòng chip sẽ ra mắt vào cuối năm nay, và Vera Rubin, GPU thế hệ tiếp theo của công ty dự kiến sẽ ra mắt vào năm 2026 |
Hai chip đột phá vừa được Nvidia công bố là những sản phẩm này không chỉ khẳng định vị thế dẫn đầu của Nvidia trong lĩnh vực AI mà còn mở ra những khả năng mới cho các ứng dụng trí tuệ nhân tạo tiên tiến.
Blackwell Ultra - Tăng tốc hiệu suất và tạo lợi thế kinh tế
Blackwell Ultra là phiên bản nâng cấp mạnh mẽ của dòng chip Blackwell, được thiết kế đặc biệt để xử lý hiệu quả các mô hình AI phức tạp. Theo thông tin từ Nvidia, chip này có khả năng tạo ra nhiều token hơn mỗi giây, cho phép tạo nhiều nội dung hơn trong cùng một khoảng thời gian so với thế hệ trước.
Điều này mang lại lợi thế kinh tế rõ rệt cho các nhà cung cấp dịch vụ đám mây. Họ có thể sử dụng Blackwell Ultra để cung cấp dịch vụ AI cao cấp cho các ứng dụng nhạy cảm về thời gian, mang lại doanh thu gấp 50 lần so với thế hệ Hopper được xuất xưởng vào năm 2023.
Blackwell Ultra sẽ có nhiều phiên bản khác nhau:
- GB300: Tích hợp hai GPU với CPU Nvidia Arm
- B300: Phiên bản chỉ có GPU
- Phiên bản với tám GPU trong một lưỡi máy chủ duy nhất
- Phiên bản giá đỡ với 72 chip Blackwell
Nvidia cho biết bốn công ty điện toán đám mây hàng đầu đã đặt hàng số lượng chip Blackwell nhiều gấp ba lần so với chip Hopper trước đó.
Vera Rubin - Tương lai của AI với hiệu suất vượt trội
Vera Rubin, được đặt theo tên của nhà thiên văn học nổi tiếng, là GPU thế hệ tiếp theo của Nvidia dự kiến ra mắt vào nửa cuối năm 2026. Hệ thống này bao gồm hai thành phần chính:
- Vera: CPU tùy chỉnh đầu tiên của Nvidia, dựa trên thiết kế cốt lõi Olympus. Thay vì sử dụng thiết kế sẵn có từ Arm như trước đây, Nvidia đã phát triển CPU riêng, cho phép nhiều tùy chỉnh và hiệu suất tốt hơn. Vera được cho là nhanh gấp đôi so với CPU trong chip Grace Blackwell.
- Rubin: GPU tiên tiến với khả năng xử lý 50 petaflops khi suy luận - gấp đôi so với 20 petaflops của chip Blackwell hiện tại. Rubin có thể hỗ trợ đến 288 gigabyte bộ nhớ nhanh, một thông số kỹ thuật cốt lõi mà các nhà phát triển AI quan tâm.
Đáng chú ý, Nvidia đang thực hiện thay đổi về cách họ định nghĩa GPU. Bắt đầu từ Rubin, khi kết hợp hai hoặc nhiều die để tạo thành một chip duy nhất, họ sẽ gọi chúng là các GPU riêng biệt. Vào nửa cuối năm 2027, Nvidia có kế hoạch phát hành "Rubin Next" kết hợp bốn die, tăng gấp đôi tốc độ của Rubin.
Sự tăng trưởng vượt bậc của Nvidia
Doanh số của Nvidia đã tăng hơn sáu lần kể từ khi ChatGPT của OpenAI ra mắt vào cuối năm 2022. Các GPU của công ty hiện đang chiếm phần lớn thị trường phát triển AI tiên tiến.
"Năm ngoái là năm mà hầu như toàn bộ thế giới đều tham gia. Yêu cầu tính toán, quy luật mở rộng của AI, có khả năng phục hồi cao hơn và trên thực tế, được tăng tốc cực nhanh", CEO Jensen Huang chia sẻ tại sự kiện.
Hội nghị GTC ở San Jose với hơn 25.000 người tham dự cũng là nơi thể hiện sức mạnh của Nvidia. Nhiều công ty lớn như Waymo, Microsoft, Ford và General Motors đã tham dự để thảo luận về cách họ sử dụng công nghệ của Nvidia.
Đáng chú ý, Nvidia không chỉ công bố chip mới mà còn thể hiện khả năng thích ứng với sự cạnh tranh từ các sản phẩm như DeepSeek R1 của Trung Quốc. Thay vì lo sợ, Nvidia đã chấp nhận phần mềm này và sử dụng nó để đánh giá chuẩn một số sản phẩm mới.
Theo Jensen Huang, DeepSeek thực sự là dấu hiệu tốt cho Nvidia vì nó sử dụng quy trình "lý luận", đòi hỏi nhiều sức mạnh tính toán hơn để cung cấp câu trả lời tốt hơn. Chip Blackwell Ultra mới được thiết kế đặc biệt để xử lý hiệu quả các mô hình lập luận này.
"Trong 2 đến 3 năm trở lại đây, một bước đột phá lớn đã xảy ra, một tiến bộ cơ bản trong trí tuệ nhân tạo đã xảy ra. Chúng tôi gọi đó là AI đại lý", Huang nói. "Nó có thể lý luận về cách trả lời hoặc cách giải quyết một vấn đề".
Với việc ra mắt các sản phẩm đột phá như Blackwell Ultra và định hướng tương lai với Vera Rubin, Nvidia tiếp tục khẳng định vị thế dẫn đầu trong cuộc đua công nghệ AI, đồng thời mở ra những khả năng mới cho các ứng dụng trí tuệ nhân tạo tiên tiến trong tương lai.
GPU (Graphics Processing Unit) là một chip xử lý chuyên dụng được thiết kế ban đầu để xử lý và tăng tốc đồ họa máy tính. Không giống như CPU (Central Processing Unit) được thiết kế để xử lý nhiều loại tác vụ khác nhau, GPU được tối ưu hóa đặc biệt để xử lý song song một lượng lớn dữ liệu đồng thời. Các đặc điểm chính của GPU: Xử lý song song: GPU có hàng nghìn lõi nhỏ cho phép xử lý đồng thời nhiều phép tính, trong khi CPU thường chỉ có vài lõi lớn hơn. Hiệu suất cao trong các tác vụ đặc thù: GPU đặc biệt hiệu quả trong các phép tính ma trận và vector, rất quan trọng cho đồ họa 3D và các ứng dụng AI. Bộ nhớ chuyên dụng: GPU có bộ nhớ riêng tốc độ cao (VRAM) để lưu trữ và truy cập nhanh dữ liệu đồ họa. Ngày nay, GPU đã vượt ra khỏi vai trò ban đầu về xử lý đồ họa để trở thành thành phần quan trọng trong: Huấn luyện và suy luận mô hình trí tuệ nhân tạo Khai thác tiền điện tử Mô phỏng khoa học phức tạp Xử lý video Dựng hình 3D Trong lĩnh vực AI, như đề cập trong bài báo về Nvidia, GPU đóng vai trò then chốt trong việc xây dựng và vận hành các mô hình trí tuệ nhân tạo lớn do khả năng xử lý song song mạnh mẽ của chúng. |
Có thể bạn quan tâm


Google Messages sắp có giao diện cài đặt hoàn toàn mới trong Android 16
Phần mềm - Ứng dụng
Keysight và Samsung thúc đẩy AI-for-RAN trên nền tảng AI Aerial của NVIDIA
Công nghệ số
Apple phát triển tính năng dịch trực tiếp cho AirPods với iOS 19
Công nghệ số