Thư ngỏ của Anthropic: Sam Altman đạo đức giả, bậc thầy thao túng tâm lý (PUA)

marsbitXuất bản vào 2026-03-05Cập nhật gần nhất vào 2026-03-05

Tóm tắt

Trong một bức thư nội bộ, Giám đốc điều hành Anthropic Dario Amodei chỉ trích OpenAI và Sam Altman vì "màn trình diễn an toàn" trong hợp tác với Bộ Quốc phòng Mỹ. Amodei tiết lộ Anthropic chấm dứt hợp tác do bất đồng về điều khoản an ninh, trong khi OpenAI ký hợp đồng cho phép sử dụng mô hình AI vào "mọi mục đích hợp pháp" với các biện pháp bảo vệ mà ông cho là phần lớn chỉ mang tính hình thức. Ông nhấn mạnh các cơ chế từ chối của mô hình dễ bị bypass, không thể ngăn chặn hiệu quả việc sử dụng trong vũ khí tự động hoặc giám sát hàng loạt. Amodei cũng nghi ngờ động cơ chính trị đằng sau thỏa thuận, cho rằng OpenAI được ưu ái do ủng hộ chính trị và khoản quyên góp cho chính quyền Trump. Ông cáo buộc Altman thao túng truyền thông, tạo nội dung an toàn giả để xoa dịu nhân viên trong khi làm xói mòn nguyên tắc của Anthropic.

Lời biên tập: Chỉ vài giờ sau khi OpenAI thông báo đạt được thỏa thuận hợp tác AI với Lầu Năm Góc, chính Lầu Năm Góc đã chấm dứt hợp tác với Anthropic với lý do công ty này khăng khăng các điều khoản an ninh. Ngay sau đó, CEO Anthropic Dario Amodei đã gửi một bản ghi nhớ nội bộ với ngôn từ cực kỳ gay gắt cho nhân viên, chỉ thẳng rằng phần lớn các "cơ chế an toàn" mà OpenAI tuyên bố chỉ là "màn kịch an ninh", và đặt nghi vấn về lập trường của họ đối với vũ khí tự động và giám sát quy mô lớn.

Trong bức thư dài khoảng 1600 chữ này, Amodei không chỉ tiết lộ một số chi tiết đàm phán giữa hai bên với hệ thống quốc phòng Mỹ, mà còn trực tiếp nhắm mũi dùi vào CEO OpenAI Sam Altman, cáo buộc ông ta dùng tuyên truyền quan hệ công chúng (PR) để che giấu cấu trúc hợp tác thực sự. Cuộc tranh cãi xoay quanh ứng dụng quân sự của AI, ranh giới an ninh đỏ và các mối quan hệ chính trị này đang đẩy sự bất đồng giữa hai công ty AI lớn của Thung lũng Silicon ra ánh sáng.

Dưới đây là nguyên văn:

Tôi muốn nói rõ ràng về thông tin mà OpenAI hiện đang phát tán, và sự đạo đức giả tồn tại trong những thông tin đó. Đây chính là cách làm thực sự của họ, tôi hy vọng mọi người đều có thể nhìn thấu.

Mặc dù chúng ta vẫn còn nhiều điều chưa biết về hợp đồng mà họ ký với Bộ Chiến tranh (DoW) (thậm chí chính họ cũng chưa chắc đã hoàn toàn rõ, vì các điều khoản hợp đồng rất có thể khá mơ hồ), nhưng có một số điểm là chắc chắn: Từ các mô tả công khai của Sam Altman và Bộ Chiến tranh (tất nhiên vẫn cần xem văn bản hợp đồng để xác nhận cuối cùng), mô hình hợp tác của họ đại khái là như thế này: Bản thân mô hình không có bất kỳ hạn chế sử dụng nào ở cấp độ pháp lý, tức là cái gọi là "tất cả mục đích hợp pháp"; đồng thời thiết lập một lớp gọi là "lớp an ninh". Theo tôi, "lớp an ninh" này về bản chất là cơ chế từ chối của mô hình, dùng để ngăn chặn mô hình thực hiện một số tác vụ hoặc tham gia vào một số ứng dụng.

Cái gọi là "lớp an ninh", cũng có thể ám chỉ giải pháp mà các đối tác (ví dụ: Palantir, đối tác thương mại của Anthropic khi phục vụ khách hàng chính phủ Mỹ) đã cố gắng bán cho chúng tôi trong các cuộc đàm phán. Họ đề xuất một bộ phân loại hoặc hệ thống học máy, tuyên bố có thể cho phép một số ứng dụng thông qua, đồng thời chặn lại những ứng dụng khác. Ngoài ra, cũng có dấu hiệu cho thấy OpenAI sẽ bố trí nhân viên (FDE, tức kỹ sư triển khai tiền tuyến) giám sát việc sử dụng mô hình để ngăn chặn các ứng dụng không phù hợp.

Đánh giá tổng thể của chúng tôi là: Những giải pháp này không phải là hoàn toàn vô dụng, nhưng trong bối cảnh ứng dụng quân sự, khoảng 20% là bảo vệ thực sự, 80% là màn kịch an ninh.

Gốc rễ của vấn đề nằm ở chỗ: Việc mô hình có được sử dụng cho hệ thống giám sát quy mô lớn hay vũ khí hoàn toàn tự động hay không, thường phụ thuộc vào thông tin ngữ cảnh rộng hơn. Bản thân mô hình không biết mình đang ở trong hệ thống nào, nó không biết liệu có con người ở "trong vòng lặp" (human-in-the-loop, tức điểm mấu chốt của vấn đề vũ khí tự động) hay không; nó cũng không biết nguồn dữ liệu mà nó đang phân tích là gì. Ví dụ, là dữ liệu trong nước Mỹ hay dữ liệu nước ngoài, là dữ liệu do doanh nghiệp cung cấp sau khi được người dùng đồng ý, hay là dữ liệu mua qua các kênh xám, v.v.

Nhân viên làm công tác an ninh đã sớm thấm thía điều này: Cơ chế từ chối của mô hình không đáng tin cậy. Các cuộc tấn công vượt ngục (jailbreak) rất phổ biến, nhiều khi chỉ cần nói dối mô hình về tính chất của dữ liệu là có thể vượt qua các hạn chế này.

Ở đây còn có một điểm khác biệt then chốt, khiến vấn đề phức tạp hơn so với bảo vệ an ninh thông thường: Việc phán đoán mô hình có đang thực hiện tấn công mạng hay không, thường có thể nhận ra từ đầu vào và đầu ra; nhưng phán đoán tính chất của cuộc tấn công cũng như ngữ cảnh cụ thể, lại là chuyện hoàn toàn khác, và đây chính là khả năng phán đoán mà ở đây cần có. Trong nhiều trường hợp, nhiệm vụ này cực kỳ khó khăn, thậm chí căn bản là không thể hoàn thành.

Tình hình của "lớp an ninh" mà Palantir bán cho chúng tôi (tôi nghĩ họ cũng đã bán giải pháp tương tự cho OpenAI) còn tệ hơn. Đánh giá của chúng tôi là, đây gần như hoàn toàn là một màn kịch an ninh.

Logic cơ bản của Palantir dường như là: "Trong công ty các bạn có thể có một số nhân viên bất mãn, các bạn cần cho họ một thứ gì đó để xoa dịu họ, hoặc làm cho những việc đang xảy ra trở nên vô hình với họ. Đây chính là dịch vụ chúng tôi cung cấp."

Về vấn đề để nhân viên Anthropic hoặc OpenAI trực tiếp giám sát việc triển khai, chúng tôi cũng đã thảo luận nội bộ vài tháng trước khi mở rộng Chính sách sử dụng chấp nhận được (AUP) trong môi trường cơ mật. Kết luận rất rõ ràng: Cách này chỉ khả thi trong một số ít trường hợp. Chúng tôi sẽ cố gắng hết sức, nhưng nó tuyệt đối không phải là cơ chế đảm bảo cốt lõi có thể dựa vào, đặc biệt khó thực hiện trong môi trường cơ mật. Nhân tiện nói luôn, chúng tôi thực sự đã cố gắng làm như vậy hết mức có thể, ở điểm này chúng tôi không khác biệt với OpenAI.

Vì vậy, điều tôi muốn nói là: Những biện pháp mà OpenAI áp dụng về cơ bản không thể giải quyết vấn đề.


Lý do bản chất khiến họ chấp nhận những giải pháp này, còn chúng tôi thì không, nằm ở chỗ: Họ quan tâm đến cách xoa dịu nhân viên, còn chúng tôi thực sự quan tâm đến việc ngăn chặn lạm dụng.

Những giải pháp này không phải là hoàn toàn vô giá trị, bản thân chúng tôi cũng đang sử dụng một phần trong số đó, nhưng chúng hoàn toàn không đủ để đạt được tiêu chuẩn an toàn cần có. Đồng thời, Bộ Chiến tranh rõ ràng đối xử không nhất quán với OpenAI và chúng tôi.

Trên thực tế, chúng tôi đã từng thử thêm vào hợp đồng một số điều khoản an ninh tương tự OpenAI (như một phần bổ sung cho AUP. Theo chúng tôi, AUP mới là phần quan trọng hơn), nhưng Bộ Chiến tranh đã từ chối. Bằng chứng liên quan nằm trong chuỗi thảo luận email lúc đó. Do hiện tại tôi có quá nhiều việc, có thể sẽ nhờ đồng nghiệp tìm lại cách diễn đạt cụ thể sau. Vì vậy, cách nói "Các điều khoản của OpenAI đã từng được cung cấp cho chúng tôi và bị chúng tôi từ chối" là không đúng sự thật; tương tự, cách nói "Các điều khoản của OpenAI có thể ngăn chặn hiệu quả giám sát trong nước quy mô lớn hoặc vũ khí hoàn toàn tự động" cũng không đúng sự thật.

Ngoài ra, cách diễn đạt của Sam và OpenAI còn ngụ ý rằng, ranh giới đỏ mà chúng tôi đề xuất, tức vũ khí hoàn toàn tự động và giám sát trong nước quy mô lớn, bản thân đã là hành vi vi phạm pháp luật, do đó chính sách sử dụng liên quan là thừa. Cách nói này gần như hoàn toàn trùng khớp với tuyên bố của Bộ Chiến tranh, trông giống như đã được phối hợp trước.

Nhưng điều này không phù hợp với sự thật.

Như chúng tôi đã giải thích trong tuyên bố ngày hôm qua, Bộ Chiến tranh thực sự có thẩm quyền tiến hành giám sát trong nước. Trong thời đại không có AI trước đây, ảnh hưởng của những thẩm quyền này còn tương đối hạn chế, nhưng trong thời đại AI, ý nghĩa của nó đã hoàn toàn khác.

Ví dụ: Bộ Chiến tranh có thể hợp pháp mua số lượng lớn dữ liệu cá nhân của công dân Mỹ từ các nhà cung cấp (những nhà cung cấp này thường có quyền bán lại thông qua các điều khoản đồng ý của người dùng được ngụy trang), sau đó sử dụng AI để phân tích quy mô lớn các dữ liệu này, dùng để xây dựng hồ sơ công dân, đánh giá khuynh hướng chính trị, theo dõi hành trình di chuyển trong không gian thực, dữ liệu họ có thể thu được thậm chí bao gồm cả thông tin GPS, v.v.

Còn một điểm đáng chú ý: Vào lúc gần kết thúc đàm phán, Bộ Chiến tranh đề xuất, nếu chúng tôi xóa một điều khoản cụ thể về "phân tích dữ liệu mua số lượng lớn" (analysis of bulk acquired data) trong hợp đồng, thì họ sẵn sàng chấp nhận tất cả các điều khoản khác của chúng tôi. Mà điều khoản này lại chính là điều khoản duy nhất trong hợp đồng tương ứng chính xác với tình huống chúng tôi lo ngại nhất. Chúng tôi cảm thấy rất đáng ngờ về điều này.

Về vấn đề vũ khí tự động, Bộ Chiến tranh tuyên bố "con người trong vòng lặp" là yêu cầu pháp lý. Nhưng sự thật không phải vậy. Đây thực chất chỉ là một chính sách của Lầu Năm Góc từ thời chính quyền Biden, yêu cầu phải có sự tham gia của con người trong quyết định phóng vũ khí. Và chính sách này có thể được Bộ trưởng Quốc phòng đương nhiệm Pete Hegseth sửa đổi đơn phương—đây chính là điều chúng tôi thực sự lo ngại. Vì vậy, từ góc độ thực tế, đây không phải là một ràng buộc thực sự.

Rất nhiều lời lẽ tuyên truyền quan hệ công chúng của OpenAI và Bộ Chiến tranh về những vấn đề này, hoặc là đang nói dối, hoặc là đang cố ý tạo ra sự nhập nhằng. Những sự thật này tiết lộ một kiểu hành vi, mà kiểu hành vi này tôi đã thấy rất nhiều lần trên người Sam Altman. Tôi hy vọng mọi người có thể nhận ra nó.

Sáng nay, trước tiên anh ta nói rằng mình đồng tình với ranh giới đỏ của Anthropic, mục đích làm vậy là để tỏ ra ủng hộ chúng tôi, nhằm chia bớt một số công lao, đồng thời tránh bị chỉ trích khi họ tiếp nhận hợp đồng này. Anh ta còn cố gắng tự tạo dựng hình ảnh một nhân vật mong muốn "thiết lập tiêu chuẩn hợp đồng thống nhất cho toàn ngành"—tức là người kiến tạo hòa bình và người môi giới giao dịch.

Nhưng trong hậu trường, anh ta đang ký kết hợp đồng với Bộ Chiến tranh, chuẩn bị thay thế chúng tôi vào khoảnh khắc chúng tôi bị đánh dấu là rủi ro chuỗi cung ứng.

Đồng thời, anh ta phải đảm bảo quá trình này trông không giống như "khi Anthropic kiên trì ranh giới đỏ, thì OpenAI lại từ bỏ nguyên tắc". Lý do có thể làm được điều này là vì:

Thứ nhất, anh ta có thể ký kết tất cả các biện pháp "màn kịch an ninh" mà chúng tôi từ chối, và Bộ Chiến tranh cùng các đối tác của họ cũng sẵn sàng phối hợp, đóng gói những biện pháp này đủ đáng tin để xoa dịu nhân viên của anh ta.

Thứ hai, Bộ Chiến tranh sẵn sàng chấp nhận một số điều khoản mà anh ta đề xuất, trong khi lúc chúng tôi đề xuất nội dung tương tự lại bị từ chối.

Chính hai điểm này khiến OpenAI có thể đạt được thỏa thuận, còn chúng tôi thì không.

Nguyên nhân thực sự khiến Bộ Chiến tranh và chính quyền Trump không thích chúng tôi là: Chúng tôi không đóng góp chính trị cho Trump (còn OpenAI và Greg Brockman thì đóng góp rất nhiều); chúng tôi không ca ngợi Trump theo kiểu độc tài (còn Sam thì có); chúng tôi ủng hộ quản lý AI, điều này trái với chương trình nghị sự chính sách của họ; chúng tôi chọn nói sự thật về nhiều vấn đề chính sách AI (ví dụ vấn đề AI thay thế việc làm); và, chúng tôi thực sự kiên trì ranh giới đỏ, chứ không phải cùng họ tạo ra "màn kịch an ninh" để xoa dịu nhân viên.

Sam hiện đang cố gắng mô tả tất cả những điều này thành: chúng tôi khó hợp tác, thái độ của chúng tôi cứng nhắc, chúng tôi thiếu linh hoạt, v.v. Tôi hy vọng mọi người nhận ra rằng, đây chính là một kiểu thao túng tâm lý điển hình (gaslighting).

Cách nói mơ hồ kiểu "một người nào đó khó hợp tác", thường được dùng để che giấu những nguyên nhân khó coi thực sự—chính là những điều tôi vừa đề cập: đóng góp chính trị, lòng trung thành chính trị, và màn kịch an ninh.

Mỗi người cần hiểu rõ điều này, và phản bác lại cách tường thuật này khi trao đổi riêng với nhân viên OpenAI.

Nói cách khác, Sam đang làm suy yếu lập trường của chúng tôi dưới vẻ bề ngoài "ủng hộ chúng tôi". Tôi hy vọng mọi người giữ tỉnh táo về điều này: anh ta làm suy yếu sự ủng hộ của công chúng dành cho chúng tôi, khiến chính phủ dễ dàng trừng phạt chúng tôi hơn. Thậm chí, tôi nghi ngờ anh ta còn có thể âm thầm xúi giục, mặc dù điểm này hiện tôi chưa có bằng chứng trực tiếp.

Ở cấp độ công chúng và truyền thông, chiêu thuật và sự thao túng này dường như đã thất bại. Hầu hết mọi người đều cho rằng thương vụ giữa OpenAI và Bộ Chiến tranh đáng cảnh giác, thậm chí đáng lo ngại, đồng thời coi chúng tôi là bên kiên trì nguyên tắc (nhân tiện nói luôn, hiện chúng tôi đã đứng thứ hai trên bảng xếp hạng tải xuống App Store rồi).

【Chú thích: Sau đó Claude đã leo lên vị trí số một trên App Store.】

Tất nhiên, cách tường thuật này có tác dụng với một số kẻ ngốc trên twitter, nhưng điều đó không quan trọng. Điều tôi thực sự lo ngại là: Đảm bảo nó không gây ảnh hưởng trong nội bộ nhân viên OpenAI.

Do hiệu ứng sàng lọc, bản thân họ vốn là một nhóm người tương đối dễ bị thuyết phục. Nhưng việc phản bác lại những cách tường thuật mà Sam đang rao bán cho chính nhân viên của mình, vẫn vô cùng quan trọng.

Câu hỏi Liên quan

QTại sao CEO của Anthropic, Dario Amodei, chỉ trích OpenAI và Sam Altman là 'đạo đức giả'?

ADario Amodei chỉ trích OpenAI và Sam Altman vì họ ký kết hợp đồng với Bộ Quốc phòng Mỹ (DoW) trong khi sử dụng các biện pháp 'an ninh biểu diễn' (security theater) để che giấu thực tế rằng mô hình AI của họ không có hạn chế pháp lý rõ ràng, có thể dẫn đến lạm dụng trong vũ khí tự động và giám sát hàng loạt. Amodei cho rằng OpenAI quan tâm nhiều hơn đến việc xoa dịu nhân viên thay vì ngăn chặn lạm dụng thực sự.

QSự khác biệt chính giữa cách tiếp cận của Anthropic và OpenAI trong hợp tác với Bộ Quốc phòng Mỹ là gì?

AAnthropic kiên định với các 'đường đỏ' (red lines) của mình, từ chối hợp tác nếu không có điều khoản rõ ràng ngăn chặn vũ khí tự trị hoàn toàn và giám sát hàng loạt trong nước. Ngược lại, OpenAI chấp nhận các biện pháp 'an ninh biểu diễn'—như cơ chế từ chối của mô hình hoặc giám sát nhân viên—mà Anthropic cho là không đủ hiệu quả và chủ yếu mang tính biểu tượng.

QTại sao Bộ Quốc phòng Mỹ từ chối hợp tác với Anthropic nhưng chấp nhận OpenAI?

ATheo Amodei, Bộ Quốc phòng Mỹ và chính quyền Trump không thích Anthropic vì công ty này không quyên góp chính trị cho Trump, không ca ngợi Trump, ủng hộ quản lý AI và nói sự thật về các vấn đề chính sách AI. Ngược lại, OpenAI và các lãnh đạo của họ có quyên góp và bày tỏ lòng trung thành chính trị. Ngoài ra, Bộ Quốc phòng sẵn sàng chấp nhận các điều khoản 'an ninh biểu diễn' của OpenAI để hợp đồng có vẻ an toàn.

QAmodei đã đưa ra những ví dụ cụ thể nào về 'an ninh biểu diễn'?

AAmodei nêu ví dụ về 'lớp an ninh' do Palantir đề xuất—một hệ thống phân loại hoặc machine learning được cho là cho phép một số ứng dụng và chặn những ứng dụng khác, nhưng thực tế gần như hoàn toàn là biểu diễn. Ông cũng chỉ ra cơ chế từ chối của mô hình dễ bị bypass qua các cuộc tấn công jailbreak, và việc giám sát bởi nhân viên triển khai tiền tuyến (FDE) là không đáng tin cậy trong môi trường mật.

QSam Altman bị cáo buộc sử dụng chiến thuật gì để thao túng narrative?

AAmodei cáo buộc Sam Altman sử dụng chiến thuật 'thao túng gaslighting'—cố gắng làm Anthropic trông như khó hợp tác và cứng nhắc, trong khi thực tên OpenAI từ bỏ các nguyên tắc an ninh. Altman công khai ủng hộ các đường đỏ của Anthropic để tỏ ra đồng thuận, nhưng sau lưng lại ký hợp đồng với Bộ Quốc phòng và tận dụng cơ hội khi Anthropic bị loại khỏi chuỗi cung ứng.

Nội dung Liên quan

Polymarket Bị Kẹt: Bài Kiểm Tra Thực Sự Sau Khi Vượt Qua Giai Đoạn Lưu Lượng Tăng Đột Biến

Polymarket, nền tảng dự đoán thị trường hàng đầu, đang đối mặt với thách thức lớn khi trải nghiệm giao dịch xuống cấp do hạ tầng không theo kịp đà tăng trưởng. Phó chủ tịch kỹ thuật Josh Stevens thừa nhận vấn đề và công bố kế hoạch cải tổ toàn diện, bao gồm: giảm độ trễ dữ liệu, sửa lỗi hủy lệnh, xây dựng lại hệ thống order book (CLOB), nâng cao hiệu suất website, và quan trọng nhất là di chuyển chain (chain migration). Nguyên nhân sâu xa nằm ở việc Polymarket không còn là ứng dụng dự đoán đơn thuần mà đã phát triển thành một nền tảng giao dịch tần suất cao. Polygon, từng là lựa chọn chi phí thấp hoàn hảo, giờ đây trở thành rào cản kỹ thuật. Động thái này ngay lập tức thu hút sự quan tâm của các blockchain khác như Solana, Sui, Algorand... trong khi Polygon nỗ lực giữ chân ứng dụng quan trọng này - nguồn đóng góp phí giao dịch đáng kể cho hệ sinh thái của họ. Bài kiểm tra thực sự của Polymarket không chỉ là chọn chain mới, mà là xây dựng một hệ thống giao dịch đủ mạnh và ổn định để giữ chân người dùng trong giai đoạn tăng trưởng mới, nơi độ tin cậy quan trọng hơn bao giờ hết.

Odaily星球日报12 giờ trước

Polymarket Bị Kẹt: Bài Kiểm Tra Thực Sự Sau Khi Vượt Qua Giai Đoạn Lưu Lượng Tăng Đột Biến

Odaily星球日报12 giờ trước

Điều chỉnh kỳ vọng giảm cho chu kỳ tăng giá tiếp theo của BTC

Tác giả Alex Xu, một nhà đầu tư Bitcoin lâu năm, đã chia sẻ quyết định giảm dần tỷ trọng BTC trong danh mục đầu tư của mình, từ vị thế lớn nhất xuống còn khoảng 30%, và giải thích lý do cho việc điều chỉnh kỳ vọng về đỉnh giá trong chu kỳ bull market tiếp theo. Các lý do chính bao gồm: 1. **Năng lượng tăng trưởng tiềm năng giảm:** Các chu kỳ trước được thúc đẩy bởi việc mở rộng đối tượng đầu tư theo cấp số nhân (từ cá nhân đến tổ chức). Chu kỳ tới cần sự chấp nhận từ các quỹ đầu tư quốc gia hoặc ngân hàng trung ương, điều này khó xảy ra trong 2-3 năm tới. 2. **Chi phí cơ hội cá nhân:** Tìm thấy nhiều cơ hội đầu tư hấp dẫn khác (cổ phiếu công ty) với mức giá hợp lý. 3. **Tác động tiêu cực từ sự thu hẹp của ngành crypto:** Nhiều mô hình Web3 (SocialFi, GameFi...) không thành công, dẫn đến sự thu hẹp của toàn ngành và làm chậm tốc độ tăng trưởng số người nắm giữ BTC. 4. **Áp lực từ nhà mua lớn nhất (MicroStrategy):** Chi phí huy động vốn của MicroStrategy tiếp tục tăng cao (lãi suất 11.5%), có thể làm giảm tốc độ mua vào và gây áp lực bán. 5. **Sự cạnh tranh từ Vàng được token hóa:** Sản phẩm vàng token hóa (tokenized gold) đã thu hẹp khoảng cách về tính dễ chia nhỏ, dễ mang theo và dễ xác minh so với BTC. 6. **Vấn đề ngân sách bảo mật:** Phần thưởng khối giảm sau mỗi lần halving làm trầm trọng thêm vấn đề ngân sách cho bảo mật mạng lưới. Tác giả vẫn giữ một phần BTC đáng kể và sẵn sàng mua lại nếu các lý kiến trên được giải quyết hoặc xuất hiện các yếu tố tích cực mới, với điều kiện giá cả phù hợp.

marsbit13 giờ trước

Điều chỉnh kỳ vọng giảm cho chu kỳ tăng giá tiếp theo của BTC

marsbit13 giờ trước

Giao dịch

Giao ngay
Hợp đồng Tương lai
活动图片