Tin buồn cho người dùng ChatGPT: Thời 'xài thoải mái' có thể sắp kết thúc
OpenAI đang phát đi tín hiệu thu phí đối với người dùng ChatGPT, đặc biệt là các gói “gần như không giới hạn”, giữa bối cảnh chi phí vận hành AI ngày càng phình to.
Người dùng ‘quay lưng’ với ứng dụng ChatGPT vì lý do này
Luật AI đầu tiên của Việt Nam: Những điểm mới quan trọng định hình cách quản trị trí tuệ nhân tạo
AI trong quản trị doanh nghiệp truyền thông: Cách tiếp cận mới cho kỷ nguyên số
Với hàng trăm triệu người dùng toàn cầu, ChatGPT từng được xem là biểu tượng của làn sóng AI “dễ tiếp cận” - nơi bất kỳ ai cũng có thể sử dụng trí tuệ nhân tạo chỉ với vài thao tác đơn giản. Nhưng thời kỳ đó có thể đang đi đến hồi kết.
Khi AI không còn “rẻ” như chúng ta nghĩ
Trong một chia sẻ gần đây, ông Nick Turley - người đứng đầu bộ phận ChatGPT tại OpenAI thẳng thắn thừa nhận rằng, việc giữ nguyên giá dịch vụ là điều “khó xảy ra” trong bối cảnh công nghệ đang phát triển với tốc độ chóng mặt.
Thực tế, mô hình thu phí hiện tại của ChatGPT vốn không phải là một chiến lược dài hạn. Ban đầu, sản phẩm này được phát triển như một thử nghiệm ngắn hạn, thậm chí từng được dự kiến chỉ tồn tại trong khoảng một tháng. Nhưng khi mức độ phổ biến bùng nổ, OpenAI buộc phải “ứng biến” bằng cách triển khai các gói thuê bao như hiện nay.
Hiện tại, ChatGPT đang cung cấp nhiều tầng dịch vụ: từ gói miễn phí có giới hạn, đến gói Plus khoảng 20 USD/tháng và gói Pro khoảng 200 USD/tháng với hiệu năng cao hơn. Tuy nhiên, cách tiếp cận này được chính OpenAI thừa nhận là mang tính tạm thời.
Vấn đề nằm ở chỗ: AI ngày càng mạnh thì cũng ngày càng… tốn kém. Các tác vụ nâng cao như lập luận phức tạp hay vận hành các “AI agent” tiêu thụ lượng tài nguyên tính toán lớn hơn rất nhiều so với những câu hỏi thông thường. Điều này đồng nghĩa với việc chi phí hạ tầng, đặc biệt là GPU và trung tâm dữ liệu tăng theo cấp số nhân.
Trả tiền theo mức dùng trong tương lai?
Trước áp lực chi phí, OpenAI đang cân nhắc một hướng đi mới: tính phí dựa trên mức sử dụng thực tế thay vì thuê bao cố định.
Nói cách khác, ChatGPT trong tương lai có thể không còn khái niệm “dùng không giới hạn”. Thay vào đó, người dùng sẽ trả tiền theo số lượng tác vụ, độ phức tạp hoặc tài nguyên tiêu thụ - tương tự cách chúng ta trả tiền điện hay nước hàng tháng.
Ý tưởng này không phải là mới trong ngành. CEO Sam Altman của OpenAI từng đề cập rằng AI sẽ được định giá như một dạng tiện ích tiêu dùng. Trong khi đó, CEO Satya Nadella của Microsoft cũng gợi ý về khả năng tính phí dựa trên từng “AI agent” thay vì mỗi người dùng.
Thực tế, nhiều công ty công nghệ như Google hay Anthropic đã áp dụng mô hình trả tiền theo mức sử dụng (pay-as-you-go) hoặc theo token trong các sản phẩm AI của họ. Điều này cho thấy một xu hướng rõ ràng: ngành AI đang dần rời bỏ mô hình thuê bao “dễ đoán” để chuyển sang mô hình linh hoạt hơn nhưng cũng khó kiểm soát chi phí hơn với người dùng.
Người dùng sẽ được gì và mất gì?
Sự thay đổi này, nếu xảy ra, chắc chắn sẽ tác động mạnh đến hàng triệu người dùng ChatGPT.
Ở góc độ tiêu cực, việc không còn gói “không giới hạn” đồng nghĩa với việc người dùng phải cân nhắc nhiều hơn trước mỗi lần sử dụng. Những tác vụ phức tạp vốn mang lại giá trị cao nhất cũng có thể trở nên đắt đỏ hơn.
Ngoài ra, OpenAI cũng đang xem xét thử nghiệm quảng cáo như một nguồn thu bổ sung, mở ra khả năng trải nghiệm ChatGPT trong tương lai sẽ khác đáng kể so với hiện tại.
Tuy nhiên, ở chiều ngược lại, mô hình mới có thể giúp tối ưu tài nguyên tốt hơn, đảm bảo hiệu suất ổn định và tạo điều kiện để công nghệ tiếp tục phát triển. Khi AI ngày càng đóng vai trò quan trọng trong công việc và đời sống, việc xây dựng một mô hình kinh doanh bền vững là điều gần như không thể tránh khỏi.
Và sự thật là, AI chưa bao giờ “rẻ”, chỉ là chúng ta chưa phải trả đủ chi phí của nó. Khi ngành công nghệ bước vào giai đoạn trưởng thành hơn, câu hỏi không còn là “có thay đổi hay không”, mà là “chúng ta sẽ phải trả bao nhiêu cho trí tuệ nhân tạo” trong tương lai.