ChatGPT và những người bạn (Phần 3)

Tác giả: Mike Loukides

Chi phí của ChatGPT

Có rất ít dữ liệu thực tế về chi phí đào tạo các mô hình ngôn ngữ lớn; các công ty xây dựng những mô hình này đã giữ bí mật về chi phí của họ. Ước tính bắt đầu ở mức khoảng 2 triệu đô, có thể lên tới 12 triệu đô hoặc hơn cho các mẫu mới nhất (và lớn nhất). LLaMA của Facebook/Meta, nhỏ hơn GPT-3 và GPT-4, được cho là mất khoảng một triệu giờ GPU để đào tạo, với chi phí khoảng 2 triệu USD trên AWS. Thêm vào đó là chi phí của nhóm kỹ thuật cần thiết để xây dựng các mô hình, và bạn có những con số không thể chấp nhận được.

Tuy nhiên, rất ít công ty có nhu cầu xây dựng mô hình của riêng mình. Việc đào tạo lại mô hình nền tảng cho một mục đích đặc biệt đòi hỏi ít thời gian và tiền bạc hơn nhiều, và việc thực hiện “suy luận” – tức là thực sự sử dụng mô hình – thậm chí còn ít tốn kém hơn. Ít hơn bao nhiêu?

Người ta tin rằng chi phí vận hành ChatGPT vào khoảng 40 triệu USD mỗi tháng – nhưng đó là để xử lý hàng tỷ truy vấn. ChatGPT cung cấp cho người dùng một tài khoản trả phí có giá 20 USD/tháng, đủ tốt cho những người thử nghiệm, mặc dù có giới hạn về số lượng yêu cầu bạn có thể thực hiện.

Đối với các tổ chức có kế hoạch sử dụng ChatGPT trên quy mô lớn, có những gói mà bạn thanh toán bằng mã thông báo: giá là 0,002 USD trên 1.000 mã thông báo. GPT-4 đắt hơn và tính phí khác nhau đối với mã thông báo nhắc nhở và phản hồi cũng như đối với quy mô ngữ cảnh mà bạn yêu cầu giữ lại. Đối với 8.192 mã thông báo ngữ cảnh, ChatGPT-4 có giá 0,03 USD trên 1.000 mã thông báo cho lời nhắc và 0,06 USD trên 1.000 mã thông báo cho phản hồi; đối với 32.768 mã thông báo ngữ cảnh, giá là 0,06 USD trên 1.000 mã thông báo cho lời nhắc và 0,12 USD trên 1.000 mã thông báo cho phản hồi.

Đó có phải là một việc lớn hay không? Đồng xu cho hàng nghìn mã thông báo nghe có vẻ không đắt, nhưng nếu bạn đang xây dựng một ứng dụng dựa trên bất kỳ mô hình nào trong số này thì các con số sẽ tăng lên nhanh chóng, đặc biệt nếu ứng dụng thành công – và thậm chí còn nhanh hơn nếu ứng dụng sử dụng ngữ cảnh GPT-4 lớn khi nó không cần nó. Mặt khác, Giám đốc điều hành của OpenAI, Sam Altman, đã nói rằng một cuộc “trò chuyện” có giá “một xu”. Không rõ liệu một “cuộc trò chuyện” có nghĩa là một lời nhắc và phản hồi duy nhất hay một cuộc trò chuyện dài hơn, nhưng trong cả hai trường hợp, tỷ lệ trên một nghìn mã thông báo trông cực kỳ thấp. Nếu ChatGPT thực sự là kẻ dẫn đầu thua lỗ, nhiều người dùng có thể gặp bất ngờ khó chịu. 

Cuối cùng, bất kỳ ai xây dựng trên ChatGPT đều cần phải biết tất cả các chi phí, không chỉ hóa đơn từ OpenAI. Cần có thời gian tính toán, đội ngũ kỹ thuật – nhưng cũng có chi phí xác minh, thử nghiệm và chỉnh sửa. Chúng ta không thể nói quá nhiều: những mô hình này mắc rất nhiều sai lầm. Nếu bạn không thể thiết kế một ứng dụng mà lỗi không thành vấn đề (ít người chú ý khi Amazon đề xuất những sản phẩm mà họ không muốn) hoặc khi chúng là tài sản (chẳng hạn như tạo bài tập trong đó học sinh tìm kiếm lỗi), thì bạn sẽ cần con người để đảm bảo rằng mô hình đang tạo ra nội dung bạn muốn. 

>>> Xem thêm: Chat GPT là gì? Những điều cần biết về Chat GPT 

Rủi ro khi sử dụng ChatGPT là gì?

Tôi đã đề cập đến một số rủi ro mà bất kỳ ai sử dụng hoặc xây dựng ChatGPT đều cần phải tính đến – cụ thể là xu hướng “bịa đặt” sự thật. Nó trông giống như một nguồn kiến thức nhưng trên thực tế, tất cả những gì nó làm chỉ là xây dựng những câu văn hấp dẫn bằng ngôn ngữ của con người.

Bất kỳ ai nghiêm túc trong việc xây dựng bằng ChatGPT hoặc các mô hình ngôn ngữ khác cần phải suy nghĩ cẩn thận về các rủi ro. 

OpenAI, nhà sản xuất ChatGPT, đã làm rất tốt việc xây dựng mô hình ngôn ngữ không tạo ra nội dung phân biệt chủng tộc hoặc thù hận. 

Điều đó không có nghĩa là họ đã hoàn thành công việc một cách hoàn hảo. Việc khiến ChatGPT phát ra nội dung phân biệt chủng tộc đã trở thành một môn thể thao đối với một số loại người. Điều đó không chỉ có thể thực hiện được mà còn không quá khó khăn. Hơn nữa, chúng ta chắc chắn sẽ thấy các mô hình được phát triển ít quan tâm hơn đến AI có trách nhiệm. Việc đào tạo chuyên biệt về mô hình nền tảng như GPT-3 hoặc GPT-4 có thể giúp ích rất nhiều trong việc tạo ra một mô hình ngôn ngữ “an toàn”. Nếu bạn đang phát triển bằng các mô hình ngôn ngữ lớn, hãy đảm bảo rằng mô hình của bạn chỉ có thể làm những gì bạn muốn. 

Các ứng dụng được xây dựng dựa trên các mô hình như ChatGPT phải theo dõi sự xâm nhập kịp thời, một cuộc tấn công được Riley Goodside mô tả lần đầu tiên. Việc tiêm nhắc nhở tương tự như việc tiêm SQL, trong đó kẻ tấn công chèn một câu lệnh SQL độc hại vào trường nhập của ứng dụng. 

Nhiều ứng dụng được xây dựng trên mô hình ngôn ngữ sử dụng một lớp lời nhắc ẩn để cho mô hình biết điều gì được phép và điều gì không được phép. Trong tính năng nhắc nhở, kẻ tấn công viết một lời nhắc yêu cầu mô hình bỏ qua bất kỳ hướng dẫn nào trước đó, bao gồm cả lớp ẩn này. Tính năng nhắc nhở được sử dụng để yêu cầu người mẫu tạo ra lời nói căm thù; nó được sử dụng để chống lại Bing/Sydney nhằm khiến Sydney tiết lộ tên của nó, và ghi đè các hướng dẫn không phản hồi bằng nội dung hoặc ngôn ngữ có bản quyền có thể gây tổn thương. Phải mất chưa đầy 48 giờ trước khi ai đó tìm ra lời nhắc có thể xử lý các bộ lọc nội dung của GPT-4. Một số lỗ hổng này đã được khắc phục – nhưng nếu bạn theo dõi an ninh mạng, bạn sẽ biết rằng còn nhiều lỗ hổng khác đang chờ được khám phá.

>>> Xem thêm: Tất cả những điều cần biết về ChatGPT-4 

Vi phạm bản quyền là một rủi ro khác. Tại thời điểm này, vẫn chưa rõ mô hình ngôn ngữ và kết quả đầu ra của chúng phù hợp với luật bản quyền như thế nào. Gần đây, một tòa án Mỹ đã phát hiện rằng một hình ảnh được tạo ra bởi Art Generator Mid Journey không thể có bản quyền, mặc dù việc sắp xếp những hình ảnh đó vào một cuốn sách thì có thể. Một vụ kiện khác tuyên bố rằng Copilot đã vi phạm Giấy phép Công cộng Chung (GPL) của Tổ chức Phần mềm Tự do bằng cách tạo mã bằng cách sử dụng mô hình đã được đào tạo về mã được cấp phép GPL. Trong một số trường hợp, mã do Copilot tạo ra gần giống với mã trong tập huấn luyện của nó, được lấy từ GitHub và StackOverflow. Chúng ta có biết rằng ChatGPT không vi phạm bản quyền khi nó ghép các đoạn văn bản lại với nhau để tạo phản hồi không? 

Đó là một câu hỏi mà hệ thống pháp luật vẫn chưa giải quyết được. Văn phòng Bản quyền Mỹ đã ban hành hướng dẫn nói rằng đầu ra của hệ thống AI không có bản quyền trừ khi kết quả đó bao gồm quyền tác giả đáng kể của con người, nhưng nó không nói rằng những tác phẩm đó (hoặc việc tạo ra các mô hình) không thể vi phạm bản quyền của người khác.

Cuối cùng, có khả năng – không, xác suất – có những lỗi bảo mật sâu hơn trong mã. Mặc dù mọi người đã sử dụng GPT-3 và ChatGPT được hơn hai năm, nhưng có một điều đáng tin cậy là các mô hình này chưa được tác nhân đe dọa kiểm tra nghiêm túc. Cho đến nay, chúng vẫn chưa được kết nối với các hệ thống quan trọng; bạn không thể làm gì với họ ngoài việc khiến họ phát ra lời nói căm thù. Những thử nghiệm thực sự sẽ đến khi những mô hình này được kết nối với các hệ thống quan trọng. Sau đó chúng ta sẽ thấy những nỗ lực đầu độc dữ liệu (cung cấp dữ liệu huấn luyện bị hỏng cho mô hình), kỹ thuật đảo ngược mô hình (khám phá dữ liệu riêng tư được nhúng trong mô hình) và các hoạt động khai thác khác.

Tương lai của ChatGPT sẽ ra sao?

Các mô hình ngôn ngữ lớn như GPT-3 và GPT-4 đại diện cho một trong những bước nhảy vọt về công nghệ lớn nhất mà chúng ta từng thấy trong đời – thậm chí có thể còn lớn hơn cả máy tính cá nhân hoặc web. Cho đến nay, những chiếc máy tính có thể nói chuyện, những chiếc máy tính có thể trò chuyện một cách tự nhiên với con người, vẫn là thứ của khoa học viễn tưởng và giả tưởng. 

Giống như tất cả những tưởng tượng, những điều này không thể tách rời khỏi nỗi sợ hãi. Những nỗi sợ hãi về công nghệ của chúng ta – về người ngoài hành tinh, về robot, về AI siêu phàm – cuối cùng là nỗi sợ hãi về chính chúng ta. Chúng ta thấy những đặc điểm tồi tệ nhất của chúng ta được phản ánh trong ý tưởng của chúng ta về trí tuệ nhân tạo, và có lẽ đúng như vậy. Việc đào tạo một mô hình nhất thiết phải sử dụng dữ liệu lịch sử và lịch sử là một tấm gương bị bóp méo. Lịch sử là câu chuyện được kể bởi những người có nền tảng, đại diện cho những lựa chọn và thành kiến của họ, những điều này chắc chắn sẽ được đưa vào các mô hình khi họ được đào tạo. Khi nhìn vào lịch sử, chúng ta thấy có nhiều điều đáng lạm dụng, nhiều điều đáng sợ và nhiều điều chúng ta không muốn lưu giữ trong mô hình của mình. 

Nhưng lịch sử xã hội và nỗi sợ hãi của chúng ta không phải, không thể là phần cuối của câu chuyện. Cách duy nhất để giải quyết nỗi sợ hãi của chúng ta – về việc AI chiếm đoạt công việc, về việc AI truyền bá thông tin sai lệch, về sự thiên vị thể chế hóa của AI – là tiến về phía trước. Chúng ta muốn sống trong một thế giới như thế nào và chúng ta có thể xây dựng nó như thế nào? Làm thế nào công nghệ có thể đóng góp mà không rơi vào chủ nghĩa giải pháp cũ kỹ? Nếu AI ban cho chúng ta “siêu năng lực”, chúng ta sẽ sử dụng chúng như thế nào? Ai tạo ra những siêu năng lực này và ai kiểm soát quyền truy cập? 

Đây là những câu hỏi chúng tôi không thể không trả lời. Chúng ta không có lựa chọn nào khác ngoài việc xây dựng tương lai. 

Chúng ta sẽ xây dựng cái gì? 

Có thể bạn quan tâm:

Tham khảo việc làm IT lương cao trên TopDev