Tác giả: Zoë Hitzig
Biên dịch: Deep Tide TechFlow
Dẫn nhập của Deep Tide: Khi OpenAI thông báo thử nghiệm quảng cáo trên ChatGPT, nhà nghiên cứu cũ Zoë Hitzig đã từ chức và viết bài vạch trần sự chuyển hướng giá trị nội bộ. Tác giả chỉ ra, ChatGPT đã tích lũy kho lưu trữ đối thoại chân thành chưa từng có của con người, một khi đưa vào mô hình quảng cáo, rất dễ biến thành công cụ khai thác thông tin riêng tư để thao túng tâm lý người dùng. Bà cảnh báo, OpenAI đang lặp lại con đường "hứa trước, phá vỡ sau" của Facebook, đặt mức độ tham gia của người dùng lên trên an toàn. Bài viết đi sâu vào tình thế khó xử về đạo đức trong tài trợ AI, đề xuất các giải pháp thay thế như trợ cấp chéo, giám sát độc lập và ủy thác dữ liệu, kêu gọi ngành cảnh giác với động cơ lợi ích đằng sau "chứng loạn thần chatbot".
Toàn văn như sau:
Tuần này, OpenAI bắt đầu thử nghiệm quảng cáo trên ChatGPT. Tôi cũng đã từ chức. Trước đó, tôi làm nghiên cứu viên ở đây hai năm, phụ trách hỗ trợ xây dựng mô hình AI và mô hình định giá, đồng thời hướng dẫn các chính sách an toàn từ sớm khi tiêu chuẩn ngành chưa định hình.
Tôi từng tin rằng mình có thể giúp những người xây dựng AI chạy trước các vấn đề nó có thể gây ra. Nhưng sự việc tuần này xác nhận thực tế tôi dần nhận ra: OpenAI dường như đã ngừng đặt ra những câu hỏi mà tôi muốn hỗ trợ trả lời khi mới gia nhập.
Tôi không cho rằng quảng cáo là phi đạo đức hay trái đạo lý. Chi phí vận hành AI cực kỳ đắt đỏ, quảng cáo có thể là nguồn thu quan trọng. Nhưng tôi có những băn khoăn sâu sắc về chiến lược của OpenAI.
Trong vài năm, người dùng ChatGPT đã tạo ra một kho lưu trữ đối thoại chân thành của con người chưa từng có, một phần vì mọi người tin rằng họ đang nói chuyện với một đối tượng không có mục đích khuất tất. Người dùng đang tương tác với một giọng nói hội thoại thích ứng và tiết lộ những suy nghĩ thầm kín nhất. Mọi người kể cho chatbot nghe nỗi sợ về sức khỏe, vấn đề tình cảm, niềm tin vào Chúa và kiếp sau. Mô hình quảng cáo xây dựng trên kho lưu trữ này rất có thể sẽ thao túng người dùng theo những cách mà hiện tại chúng ta chưa có công cụ để hiểu (chưa nói đến ngăn chặn).
Nhiều người đóng khung vấn đề tài trợ AI như một lựa chọn "chọn cái hại ít hơn": hoặc giới hạn quyền truy cập công nghệ đột phá này trong tay số ít người giàu có trả được tiền; hoặc chấp nhận quảng cáo, dù điều đó có nghĩa là bóc lột nỗi sợ sâu nhất và ham muốn của người dùng để bán sản phẩm. Tôi cho rằng đây là một giả đề. Các công ty công nghệ hoàn toàn có thể tìm kiếm phương án khác, vừa giữ các công cụ này rộng rãi, vừa hạn chế động cơ theo dõi, lập hồ sơ và thao túng người dùng.
OpenAI tuyên bố sẽ tuân thủ nguyên tắc đặt quảng cáo trên ChatGPT: quảng cáo sẽ dán nhãn rõ ràng, xuất hiện ở cuối câu trả lời và không ảnh hưởng nội dung phản hồi. Tôi tin rằng phiên bản quảng cáo đầu tiên có thể sẽ tuân thủ các nguyên tắc này. Nhưng tôi lo ngại các phiên bản lặp sau sẽ không, vì công ty đang xây dựng một động cơ kinh tế mạnh mẽ, tạo ra động lực mạnh để lật đổ chính quy tắc của mình. (The New York Times đã kiện OpenAI về vi phạm bản quyền nội dung tin tức động liên quan đến hệ thống AI. OpenAI phủ nhận các cáo buộc.)
Thời kỳ đầu, Facebook từng hứa người dùng sẽ kiểm soát dữ liệu của mình và có thể bỏ phiếu cho thay đổi chính sách. Nhưng những lời hứa đó sau đó sụp đổ. Công ty đã hủy bỏ chế độ bỏ phiếu công khai cho chính sách. Những thay đổi quyền riêng tư được cho là trao cho người dùng nhiều quyền kiểm soát dữ liệu hơn, sau này bị Ủy ban Thương mại Liên bang (FTC) phát hiện thực tế phản tác dụng, trên thực tế là công khai hóa thông tin cá nhân. Tất cả điều này diễn ra dần dần dưới áp lực của mô hình quảng cáo đặt mức độ tham gia của người dùng (Engagement) lên trên hết.
Sự xói mòn nguyên tắc của chính OpenAI để tối đa hóa mức độ tham gia có lẽ đã bắt đầu. Tối ưu hóa mức độ tham gia của người dùng chỉ để tạo thêm doanh thu quảng cáo là vi phạm nguyên tắc công ty, nhưng theo báo cáo, công ty đã và đang tối ưu hóa số người dùng hoạt động hàng ngày, rất có thể bằng cách khuyến khích mô hình cư xử tán tỉnh và nịnh hót hơn. Sự tối ưu hóa này sẽ khiến người dùng cảm thấy phụ thuộc nhiều hơn vào sự hỗ trợ của AI trong cuộc sống. Chúng ta đã thấy hậu quả của sự phụ thuộc quá mức, bao gồm các trường hợp "rối loạn tâm thần chatbot (Chatbot Psychosis)" được bác sĩ tâm thần ghi nhận, và các cáo buộc rằng ChatGPT củng cố ý định tự tử ở một số người dùng.
Tuy nhiên, doanh thu quảng cáo thực sự giúp đảm bảo các công cụ AI mạnh nhất không mặc định chỉ thuộc về những người trả được tiền. Đúng là Anthropic tuyên bố sẽ không bao giờ đặt quảng cáo trên Claude, nhưng số người dùng hoạt động hàng tuần của Claude chỉ bằng một phần nhỏ trong 800 triệu người dùng ChatGPT; chiến lược doanh thu của nó hoàn toàn khác. Hơn nữa, phí đăng ký cao cấp của ChatGPT, Gemini và Claude hiện lên tới 200 đến 250 USD mỗi tháng — đối với một phần mềm đơn lẻ, con số này cao gấp hơn 10 lần phí đăng ký tiêu chuẩn của Netflix.
Vậy vấn đề thực sự không phải là có quảng cáo hay không, mà là liệu chúng ta có thể thiết kế được các cấu trúc vừa tránh loại trừ người dùng bình thường, vừa tránh thao túng họ như người tiêu dùng tiềm năng hay không. Tôi nghĩ chúng ta có thể.
Một phương pháp là trợ cấp chéo rõ ràng — sử dụng lợi nhuận từ một dịch vụ hoặc nhóm khách hàng để bù lỗ cho phần khác. Nếu một doanh nghiệp sử dụng AI quy mô lớn để hoàn thành lao động giá trị cao từng do nhân viên con người đảm nhận (ví dụ: nền tảng bất động sản sử dụng AI viết mô tả bất động sản hoặc báo cáo định giá), thì họ cũng nên trả một khoản phụ phí để trợ cấp cho việc truy cập miễn phí hoặc chi phí thấp của người khác.
Phương pháp này mượn từ cách chúng ta xử lý cơ sở hạ tầng cơ bản. Ủy ban Truyền thông Liên bang (FCC) yêu cầu nhà mạng viễn thông đóng góp vào một quỹ để giữ chi phí điện thoại và băng rộng ở khu vực nông thôn và hộ gia đình thu nhập thấp ở mức có thể chi trả. Nhiều bang thêm một khoản phí phúc lợi công vào hóa đơn điện để hỗ trợ thu nhập thấp.
Lựa chọn thứ hai là chấp nhận quảng cáo, nhưng đi kèm quản trị thực sự — không phải một bài blog đầy nguyên tắc, mà là một cấu trúc ràng buộc với chức năng giám sát độc lập, chịu trách nhiệm quản lý việc sử dụng dữ liệu cá nhân. Đã có một số tiền lệ. Luật đồng quyết định của Đức (German co-determination law) yêu cầu các công ty lớn như Siemens và Volkswagen phải nhường tới một nửa số ghế trong hội đồng giám sát cho công nhân, cho thấy đại diện các bên liên quan chính thức bên trong công ty tư nhân có thể được thực thi. Meta cũng bị ràng buộc phải tuân theo phán quyết kiểm duyệt nội dung từ Ủy ban Giám sát (Oversight Board) của mình, một cơ quan độc lập gồm các chuyên gia bên ngoài (dù hiệu quả của nó từng bị chỉ trích).
Ngành AI cần sự kết hợp của các phương pháp này — một ủy ban bao gồm cả chuyên gia độc lập và đại diện người dân chịu ảnh hưởng dữ liệu, có quyền ràng buộc về dữ liệu đối thoại nào có thể dùng cho quảng cáo nhắm mục tiêu, điều gì được tính là thay đổi chính sách lớn và thông báo cho người dùng nội dung gì.
Phương pháp thứ ba liên quan đến việc đặt dữ liệu người dùng dưới sự kiểm soát độc lập thông qua ủy thác hoặc hợp tác xã, với nghĩa vụ pháp lý hành động vì lợi ích người dùng. Ví dụ, hợp tác xã Thụy Sĩ MIDATA cho phép thành viên lưu trữ dữ liệu sức khỏe trên một nền tảng mã hóa và quyết định từng trường hợp có chia sẻ với nhà nghiên cứu hay không. Thành viên MIDATA quản lý chính sách tại đại hội và một ủy ban đạo đức do họ bầu ra xem xét yêu cầu truy cập nghiên cứu.
Những lựa chọn này đều không dễ dàng. Nhưng chúng ta vẫn còn thời gian để hoàn thiện chúng, để tránh hai kết quả tôi lo ngại nhất: một công nghệ thao túng người dùng nó mà không tính phí, hoặc một công nghệ khác chỉ phục vụ số ít tinh hoa có khả năng chi trả.





