Sau một thời gian úp mở, OpenAI mới đây công bố phiên bản cao cấp ChatGPT Plus, cho phép người dùng được quyền ưu tiên sử dụng chatbot AI - vốn đang tạo nên cơn sốt trên khắp thế giới nhờ khả năng trả lời trôi chảy và hết sức tự nhiên mọi câu hỏi trong nhiều lĩnh vực mà người dùng đặt ra.
ChatGPT Plus sẽ hoạt động theo mô hình thu phí hàng tháng. Khi mua và sử dụng ChatGPT Plus, người dùng sẽ vẫn sử dụng dịch vụ một cách bình thường ngay cả trong thời gian cao điểm, trong khi người dùng miễn phí sẽ phải đợi một khoảng thời gian để chờ đến lượt. Ngoài ra, ChatGPT Plus cũng sẽ cung cấp cho người dùng "thời gian phản hồi nhanh hơn" và "quyền truy cập ưu tiên vào các tính năng và cải tiến mới".
Tuy nhiên, OpenAI vẫn chưa tiết lộ ChatGPT Plus có 'thông minh' và đưa ra các câu trả lời chính xác hơn so với phiên bản miễn phí hay không. Khá thú vị, phiên bản trả phí của ChatGPT từng được cho là "được đào tạo trên một tập dữ liệu lớn hơn nhiều và được tinh chỉnh để thực hiện các tác vụ cụ thể như tạo đối thoại, tóm tắt và dịch ngôn ngữ. Nó cũng có thể tạo ra nhiều phản hồi giống con người hơn, khiến nó trở nên hữu ích cho các ứng dụng như dịch vụ khách hàng, trợ lý cá nhân và chatbot", theo câu trả lời được đưa ra từ chính chatbot này.
OpenAI cho biết họ sẽ gửi lời mời sử dụng dịch vụ tới những người ở Mỹ và trong danh sách chờ của công ty "trong những tuần tới". Đồng thời, OpenAI dự kiến sẽ mở rộng việc triển khai mô hình thu phí sang các quốc gia và khu vực khác trong tương lai.
Một điểm rất đáng chú ý, đó là chi phí người dùng phải bỏ ra để dùng ChatGPT Plus chỉ khoảng 20 USD/tháng (tức 469 nghìn đồng). Mức giá được OpenAI công bố này thấp hơn rất nhiều so với con số từng được đồn đoán trước đó là 42 USD (khoảng gần 1 triệu đồng)
Theo The Verge, 42 USD là một mức giá có thể khiến những người dùng cảm thấy chùn bước, đặc biệt là những người dùng chỉ muốn trải nghiệm và chưa có kế hoạch tận dụng ChatGPT để kiếm tiền.
Ở mức 20 USD, OpenAI vẫn có thể thu được doanh thu để duy trì dịch vụ, thậm chí có lãi, đồng thời vẫn duy trì được sức hấp dẫn của ChatGPT với người dùng. OpenAI gợi ý rằng ChatGPT Plus có thể là một trong số nhiều gói thu phí sẽ được công ty này hé lộ thời gian sắp tới. Trong bài đăng trên blog, OpenAI khẳng định họ đang "tích cực khám phá" các tùy chọn cho các gói trả phí thấp hơn, được tùy biến theo từng nhu cầu của người dùng.
Cũng phải nói thêm, ở thời điểm hiện tại, mức giá 20 USD cũng sẽ thiết lập ra một ngưỡng giá tiêu chuẩn cho các chatbot AI trả phí sắp tới, vốn gần như chắc chắn sắp được tung ra thị trường. Trong bối cảnh OpenAI gần như là người tiên phong trong lĩnh vực đưa AI ra mắt rộng rãi tới công chúng, bất kỳ bên cố gắng phát hành chat bot có phí hơn 20 USD/ tháng sẽ phải giải thích việc tại sao AI của họ đáng giá hơn ChatGPT Plus.
Tất nhiên, ChatGPT vẫn sẽ duy trì phiên bản miễn phí. OpenAI cho biết họ sẽ tiếp tục cung cấp quyền truy cập miễn phí vào ChatGPT, khẳng định những người dùng trả phí sẽ "giúp hỗ trợ khả năng truy cập miễn phí cho càng nhiều người càng tốt".
Trước đó, theo thừa nhận của Sam Altman, CEO OpenAI, việc xử lý tất cả các truy vấn từ một lượng người dùng khiến công ty này tốn rất nhiều chi phí điện toán. Đây là điều dễ hiểu, khi ChatGPT cần một lượng lớn tài nguyên máy tính để xử lý các câu hỏi của người dùng.
Theo đó, chi phí chạy ChatGPT của OpenAI được cho là rơi vào khoảng 100.000 USD mỗi ngày. Theo nhiều nguồn tin, dịch vụ điện toán đám mây Azure của Microsoft đã tích hợp ChatGPT để OpenAI không phải đầu tư vào các máy chủ vật lý.
Xem xét mức giá hiện tại của Microsoft, OpenAI mất khoảng 3 USD một giờ cho một GPU chuyên xử lý AI A100, với mỗi từ được tạo trên ChatGPT có giá 0,0003 USD.
Ít nhất tám GPU A100 đang được sử dụng để hoạt động trên một ChatGPT duy nhất. Vì vậy, khi ChatGPT tạo ra phản hồi trung bình gồm 30 từ, OpenAI sẽ phải trả gần 1 xu. Thông qua ước tính như vậy, OpenAI có thể chi ít nhất 100.000 USD mỗi ngày hoặc 3 triệu USD hàng tháng cho chi phí vận hành.
Một nguồn khác khẳng định rằng một GPU NVIDIA A100 duy nhất có thể chạy mô hình 3 tỷ tham số trong khoảng 6ms. Coi tốc độ này là điểm tham chiếu, một GPU NVIDIA A100 có thể mất 350 mili giây để tạo ra chỉ một từ trên ChatGPT.
Vì phiên bản mới nhất, ChatGPT-3.5, có hơn 175 tỷ tham số nên sẽ cần khoảng 5 GPU A100 tính toán để có được đầu ra cho một truy vấn. Số lượng trung bình của ít nhất 8 GPU A100 được tính sau dựa trên khả năng tạo ra khoảng 15-20 từ mỗi giây của ChatGPT. Có thể thấy rõ, chi phí phải bỏ ra quá lớn đã khiến OpenAI buộc phải tiến hành thu phí từ ChatGPT.
Bình luận