Theo Business Insider, tỷ phú Elon Musk vừa qua đã gây xôn xao cộng đồng công nghệ khi tiết lộ chatbot AI Grok 3 của xAI sẽ được huấn luyện trên 100.000 chip xử lý đồ họa (GPU) Nvidia H100. Đây là một con số khổng lồ, cho thấy tham vọng của ông trong việc tạo ra một chatbot AI mạnh mẽ và vượt trội.

Với mỗi chip H100 có giá trị ước tính từ 30.000-40.000 USD, tổng giá trị đầu tư cho việc huấn luyện Grok 3 có thể lên tới 3-4 tỷ USD. Tuy chưa rõ xAI đã mua đứt số chip này hay thuê từ các nhà cung cấp dịch vụ đám mây, nhưng thông tin này đã phần nào cho thấy quy mô đầu tư đáng kể của Musk vào dự án chatbot AI của mình.

Việc sử dụng 100.000 GPU H100 cũng đánh dấu một bước tiến lớn so với phiên bản Grok 2 trước đó, vốn chỉ cần khoảng 20.000 GPU để huấn luyện. Điều này cho thấy xAI đang nỗ lực không ngừng để nâng cao khả năng của chatbot Grok, hướng tới mục tiêu tạo ra một sản phẩm AI vượt trội.

Tuy nhiên, xAI không phải là công ty duy nhất đầu tư mạnh vào chip H100. Gã khổng lồ công nghệ Meta cũng đã công bố kế hoạch sở hữu khoảng 350.000 GPU H100 vào cuối năm 2024, với tổng giá trị đầu tư ước tính lên tới 18 tỷ USD.

Cuộc đua phát triển AI đang diễn ra ngày càng khốc liệt, và việc tích trữ chip H100 đã trở thành một yếu tố quan trọng trong việc thu hút và giữ chân nhân tài AI. Điều này cho thấy tiềm năng to lớn của AI và sự cạnh tranh gay gắt giữa các công ty công nghệ trong lĩnh vực này.