Tác giả: Nancy, PANews
Các mạng xã hội hiện nay, thoạt nhìn vẫn sôi động như xưa, nhưng cảm giác "con người thật" đang dần biến mất. Khi lượng rác AI (AI slop) tràn ngập các nền tảng chủ lưu, nội dung giả mạo, câu view tràn lan, ngày càng nhiều người dùng thực tế mất hứng chia sẻ, thậm chí bắt đầu rời bỏ.
Trước tình trạng rác AI tràn lan, việc kiểm duyệt thuần túy bằng thuật toán tỏ ra không đủ sức. Gần đây, quỹ đầu tư mạo hiểm hàng đầu a16z đã đề xuất khái niệm Staked Media (Truyền thông đặt cọc), dùng tiền thật để lọc nhiễu AI, thu hút sự chú ý của thị trường.
Khi AI bắt đầu tự nhân bản, Internet đang bị nhấn chìm bởi "nội dung đóng gói sẵn"
“AI đang bắt chước chính AI.”
Gần đây, các moderator của “Reddit phiên bản Mỹ” đã kiệt sức khi phải vật lộn với lượng lớn nội dung được tạo bởi AI. Trên diễn đàn r/AmItheAsshole với 24 triệu người dùng, các moderator than phiền rằng hơn một nửa nội dung thậm chí đều do AI tạo ra.
Chỉ trong nửa đầu năm 2025, Reddit đã xóa hơn 40 triệu nội dung rác và giả mạo. Hiện tượng này cũng lan rộng như virus tới các nền tảng như Facebook, Instagram, X, YouTube, Xiaohongshu và TikTok.
Hiện tại, trong thời đại thông tin thoạt nhìn có vẻ bùng nổ nhưng tiếng nói chân thực ngày càng ít đi, rác nội dung do AI sản xuất gần như tràn ngập khắp Internet, âm thầm bào mòn suy nghĩ của con người. Trên thực tế, với sự phổ biến của các công cụ tạo sinh như ChatGPT và Gemini, việc sáng tạo nội dung thủ công đang bị AI thay thế, biến thành một “dây chuyền nhà máy”.
Nghiên cứu mới nhất từ công ty tối ưu hóa công cụ tìm kiếm Graphite cho thấy, kể từ khi ChatGPT ra mắt công khai vào cuối năm 2022, tỷ lệ bài viết được tạo bởi AI đã tăng mạnh, từ khoảng 10% năm đó lên hơn 40% vào năm 2024. Tính đến tháng 5 năm nay, tỷ lệ này đã tăng lên 52%.
Tuy nhiên, phần lớn nội dung do AI tạo ra này giống như “món ăn đóng gói sẵn”, có công thức cố định và quy trình sản xuất tiêu chuẩn hóa, nhưng thiếu linh hồn, đọc rất nhạt nhẽo. Không chỉ vậy, AI ngày nay không còn vụng về, chúng không chỉ có thể bắt chước giọng điệu con người, mà thậm chí còn sao chép được cảm xúc. Từ hướng dẫn du lịch đến tranh chấp tình cảm, thậm chí là cố ý kích động mâu thuẫn xã hội để câu view, AI đều có thể làm dễ dàng.
Nguy hiểm hơn, khi AI gặp ảo giác, nó sẽ nói những điều vô lý một cách nghiêm túc, không chỉ tạo ra rác thông tin, mà còn gây ra khủng hoảng niềm tin.
Trong thời đại AI tràn lan, dùng tiền thật để xây dựng niềm tin truyền thông
Trước tình trạng nội dung rác AI hoành hành trên Internet, các nền tảng lớn dù có cập nhật cơ chế kiểm duyệt, đưa vào trợ lý AI, thì hiệu quả quản lý vẫn hạn chế. Trong báo cáo thường niên quan trọng của a16z crypto, Robert Hackett đã đề xuất khái niệm “Staked Media” (Truyền thông đặt cọc). (Bài đọc liên quan: a16z: 17 hướng đi mới đầy phấn khích về crypto cho năm 2026)
Báo cáo chỉ ra rằng, mô hình truyền thông truyền thống đề cao tính khách quan, nhưng những mặt hạn chế của nó đã lộ rõ từ lâu. Internet cho mỗi người một kênh phát ngôn, ngày càng nhiều người hành nghề, người thực hành và người xây dựng trực tiếp truyền tải quan điểm tới công chúng, góc nhìn của họ phản ánh mối quan tâm lợi ích của chính họ trong thế giới đó. Điều trớ trêu là, khán giả tôn trọng họ, thường không phải “mặc dù họ có liên quan đến lợi ích”, mà là “chính vì họ có liên quan đến lợi ích”.
Sự thay đổi mới của xu hướng này, không phải là sự trỗi dậy của mạng xã hội, mà là “sự xuất hiện của các công cụ mã hóa”, những công cụ cho phép mọi người đưa ra các cam kết có thể xác minh công khai. Khi AI làm giảm đáng kể chi phí tạo ra lượng nội dung khổng lồ, quá trình thuận tiện hơn (có thể tạo nội dung dựa trên bất kỳ góc nhìn, bất kỳ danh tính nào bất kể thật hay giả), việc chỉ dựa vào lời nói của con người (hoặc robot) là không đủ để thuyết phục. Các tài sản được mã hóa (tokenized assets), khóa lập trình được (programmable lockups), thị trường dự đoán (prediction markets), lịch sử trên chuỗi (on-chain history) cung cấp nền tảng vững chắc hơn cho niềm tin: các nhà bình luận khi đưa ra quan điểm có thể chứng minh bản thân nói và làm nhất quán (dùng tiền để hậu thuẫn quan điểm); chủ podcast có thể khóa token, chứng minh họ sẽ không cơ hội chuyển đổi lập trình hoặc pump and dump; nhà phân tích có thể liên kết dự đoán với thị trường thanh toán công khai, tạo thành hồ sơ có thể kiểm toán.
Đây chính là hình thái ban đầu của cái được gọi là “Staked Media”: loại hình truyền thông này không chỉ thừa nhận quan điểm về sự liên quan lợi ích, mà còn có thể cung cấp bằng chứng thực tế. Trong mô hình này, độ tin cậy không đến từ việc giả vờ trung lập, không đến từ những tuyên bố không có cơ sở, mà đến từ cam kết lợi ích minh bạch, công khai, có thể xác minh được. Staked Media sẽ không thay thế các hình thức truyền thông khác, mà là sự bổ sung cho hệ sinh thái truyền thông hiện có. Nó truyền tải một tín hiệu mới: không còn là “hãy tin tôi, tôi trung lập”, mà là “đây là rủi ro tôi sẵn sàng chấp nhận, đây là cách bạn có thể xác minh những gì tôi nói là thật”.
Robert Hackett dự đoán, lĩnh vực này sẽ tiếp tục phát triển, giống như truyền thông đại chúng thế kỷ 20 để thích ứng với công nghệ và cơ chế khuyến khích thời đó (thu hút đại chúng và nhà quảng cáo), trên bề mặt theo đuổi “khách quan” và “trung lập”. Ngày nay, AI khiến việc tạo ra hoặc làm giả bất kỳ nội dung nào trở nên dễ dàng, và thứ thực sự khan hiếm, lại là bằng chứng, những người sáng tạo có thể đưa ra cam kết có thể xác minh và thực sự ủng hộ quan điểm của chính mình, lại có lợi thế hơn.
Sử dụng cơ chế staking để tăng chi phí làm giả, đề xuất đưa vào cơ chế xác minh nội dung kép
Và ý tưởng sáng tạo này cũng nhận được sự đồng tình từ những người trong ngành crypto và đưa ra đề xuất.
Nhà phân tích crypto Chen Jian cho biết, từ truyền thông lớn đến truyền thông cá nhân, các tin giả xuất hiện liên tục, một sự kiện có thể được đưa tin lật đi lật lại. Nguyên nhân cốt lõi là chi phí làm giả thấp, lợi nhuận cao. Nếu xem mỗi người phát tán thông tin như một node, tại sao không thể dùng cơ chế kinh tế博弈 (game theory) của POS (Proof of Stake - Bằng chứng cổ phần) trên blockchain để giải quyết vấn đề này? Ông đề xuất, ví dụ có thể yêu cầu mỗi node trước khi đưa ra quan điểm đều cần staking (đặt cọc) tiền, staking càng nhiều, độ tin cậy càng cao; và người khác có thể thu thập bằng chứng để thách thức, nếu thách thức thành công, hệ thống sẽ tịch thu tiền staking và thưởng cho người thách thức. Tất nhiên, quá trình này cũng liên quan đến vấn đề riê tư và hiệu suất, hiện có giải pháp như Swarm Network kết hợp ZK và AI, vừa bảo vệ quyền riêng tư của người tham gia, cũng dùng phân tích dữ liệu đa mô hình hỗ trợ xác minh, tương tự như chức năng xác minh sự thật của Grok trên Twitter.
KOL crypto Lan Hu cũng cho rằng, có thể thông qua công nghệ mã hóa như zero-knowledge proof (zk - bằng chứng không tiết lộ thông tin), cho phép truyền thông hoặc cá nhân có thể chứng minh độ tin cậy của mình trực tuyến, tương tự như “lập字据” (lập giấy cam kết) trên mạng, và không thể sửa đổi trên chuỗi. Nhưng chỉ có giấy cam kết là chưa đủ, còn cần “stake” (đặt cọc) một số tài sản nhất định làm bảo đảm, như ETH, USDC hoặc các token mã hóa khác.
Logic của cơ chế staking rất trực tiếp, nếu nội dung đăng tải bị chứng minh là tin giả, tài sản staking sẽ bị tịch thu; nếu nội dung chân thực đáng tin cậy, tài sản staking sẽ được trả lại sau một thời gian nhất định, thậm chí có thể nhận thưởng thêm (như token do truyền thông staking phát hành hoặc được chia từ số tiền bị tịch thu của kẻ làm giả). Cơ chế này tạo ra một môi trường khuyến khích nói thật. Đối với truyền thông, staking thực sự làm tăng chi phí vốn, nhưng nó đổi lại là niềm tin thực sự từ khán giả, điều này đặc biệt quan trọng trong thời đại tin giả tràn lan.
Ví dụ, một YouTuber đăng video giới thiệu một sản phẩm nào đó, cần “lập字据” (lập giấy cam kết) trên chuỗi Ethereum và stake ETH hoặc USDC. Nếu nội dung video không đúng sự thật, số tiền staking sẽ bị tịch thu, người xem có thể yên tâm tin tưởng vào tính xác thực của nội dung video; một blogger giới thiệu một chiếc điện thoại, cần stake 100 USD ETH và tuyên bố: “Nếu tính năng làm đẹp của điện thoại này không đạt hiệu quả, tôi sẽ bồi thường.” Người xem thấy blogger stake tiền, tự nhiên cảm thấy đáng tin hơn. Nếu nội dung là do AI tạo giả, blogger sẽ mất số tiền staking.
Để đánh giá nội dung thật giả, Lan Hu đề xuất có thể sử dụng cơ chế xác minh kép “cộng đồng + thuật toán”. Về phía cộng đồng, người dùng có quyền bỏ phiếu (cần stake tài sản mã hóa) bỏ phiếu trên chuỗi, vượt quá một tỷ lệ nhất định (ví dụ 60%) thì được xác định là giả; hỗ trợ thuật toán: thông qua phân tích dữ liệu để hỗ trợ xác minh kết quả bỏ phiếu; cơ chế trọng tài: nếu người đăng nội dung không phục với phán quyết, có thể khởi động trọng tài từ ủy ban chuyên gia; nếu phát hiện người bỏ phiếu thao túng ác ý, tịch thu tài sản của người bỏ phiếu; tham gia bỏ phiếu và ủy ban chuyên gia đều có thưởng, nguồn thưởng bao gồm tiền bị tịch thu và token truyền thông. Ngoài ra, người sáng tạo nội dung có thể sử dụng công nghệ zero-knowledge proof, tạo bằng chứng xác thực về nguồn gốc nội dung từ đầu nguồn, ví dụ như nguồn gốc thực của video được tạo ra.
Đối với những người có thực lực tài chính cố gắng lợi dụng cơ chế staking để làm giả, Lan Hu đề xuất nâng cao chi phí làm giả trong dài hạn, không chỉ là tiền bạc, mà còn thời gian, lịch sử, hệ thống danh tiếng và trách nhiệm pháp lý. Ví dụ, tài khoản bị tịch thu sẽ bị đánh dấu, sau này đăng nội dung cần stake nhiều tiền hơn; nếu tài khoản nhiều lần bị tịch thu, độ tin cậy nội dung của họ sẽ giảm mạnh; trường hợp nghiêm trọng thậm chí có thể phải đối mặt với trách nhiệm pháp lý.






