Anh toàn an ninh bị ép bởi thực tế, Anthropic rơi vào khủng hoảng danh tính như thế nào?

比推Xuất bản vào 2026-02-27Cập nhật gần nhất vào 2026-02-27

Tóm tắt

Trong vòng 72 giờ, Anthropic - công ty AI từng tuyên bố có "linh hồn" - rơi vào khủng hoảng danh tính giữa ba vai trò mâu thuẫn: người tử vì đạo an ninh, kẻ đánh cắp sở hữu trí tuệ và kẻ phản bội Lầu Năm Góc. Sự việc bắt đầu khi Bộ trưởng Quốc phòng Mỹ ra tối hậu thư: Anthropic phải dỡ bỏ hạn chế với Claude cho mục đích quân sự (bao gồm nhắm mục tiêu vũ khí tự động và giám sát quy mô lớn) trước 17:01 thứ Sáu, nếu không sẽ hủy hợp đồng 200 triệu USD và liệt công ty vào danh sách rủi ro chuỗi cung ứng. Cùng ngày, Anthropic công bố "Chính sách Mở rộng Có trách nhiệm 3.0", bí mật xóa bỏ cam kết cốt lõi: ngừng đào tạo mô hình mạnh hơn nếu không đảm bảo an toàn. Đồng thời, Elon Musk cáo buộc công ty ăn cắp dữ liệu huấn luyện và phải trả 1,5 tỷ USD để dàn xếp. Anthropic cũng tố cáo ba công ty Trung Quốc tấn công "chưng cất" mô hình Claude, nhưng bị chỉ trích là đạo đức giả khi chính họ dùng dữ liệu vi phạm bản quyền. Với định giá 380 tỷ USD và doanh thu tăng gấp 10 lần hàng năm, Anthropic đang đánh mất sự khác biệt: từ công ty an toàn thành tài sản thương hiệu giảm giá trị. Họ buộc phải lựa chọn giữa nhượng bộ Lầu Năm Góc, từ bỏ cam kết an ninh, hoặc làm hài lòng giới đầu tư - và cuối cùng, trở nên giống mọi công ty AI khác.

Tác giả: Ada, Shenchao TechFlow

Tiêu đề gốc: Bảy mươi hai giờ khủng hoảng danh tính của Anthropic


Ngày 24 tháng 2, thứ Ba. Washington, Lầu Năm Góc.

CEO Anthropic Dario Amodei ngồi đối diện Bộ trưởng Quốc phòng Pete Hegseth. Theo nhiều nguồn tin tiết lộ với NPR và CNN, bầu không khí cuộc gặp "lịch sự" nhưng nội dung hoàn toàn không nhẹ nhàng.

Hegseth đưa ra cho ông một tối hậu thư: Trước 5:01 chiều thứ Sáu, dỡ bỏ các hạn chế sử dụng quân sự đối với Claude, cho phép Lầu Năm Góc sử dụng nó cho "tất cả các mục đích hợp pháp", bao gồm nhắm mục tiêu vũ khí tự động và giám sát quy mô lớn trong nước.

Nếu không, hủy bỏ hợp đồng 200 triệu USD. Kích hoạt Đạo luật Sản xuất Quốc phòng, trưng dụng bắt buộc. Xếp Anthropic vào danh sách "rủi ro chuỗi cung ứng", điều này tương đương với việc đưa nó vào danh sách đen các thực thể thù địch của Nga và Trung Quốc.

Cùng ngày, Anthropic đã phát hành phiên bản thứ ba của "Chính sách Mở rộng Có trách nhiệm" (RSP 3.0), âm thầm xóa bỏ cam kết cốt lõi nhất kể từ khi thành lập công ty: nếu không thể đảm bảo các biện pháp an toàn, sẽ không đào tạo các mô hình mạnh hơn.

Cũng trong ngày hôm đó, Elon Musk đăng trên X: "Anthropic ăn cắp quy mô lớn dữ liệu đào tạo, đây là sự thật." Đồng thời, ghi chú cộng đồng X bổ sung thông tin Anthropic đã trả 1,5 tỷ USD để dàn xếp vụ kiện sử dụng sách vi phạm bản quyền để đào tạo Claude.

Trong vòng bảy mươi hai giờ, công ty AI tự nhận có "linh hồn" này, đồng thời đóng ba vai trò: kẻ tử vì đạo an ninh, kẻ trộm tài sản trí tuệ, kẻ phản bội Lầu Năm Góc.

Đâu mới là sự thật?

Có lẽ tất cả đều đúng.

"Tuân theo hoặc biến đi" của Lầu Năm Góc

Tầng đầu tiên của câu chuyện rất đơn giản.

Anthropic là công ty AI đầu tiên có quyền truy cập cấp độ mật vào Bộ Quốc phòng Hoa Kỳ. Hợp đồng được ký vào mùa hè năm ngoái, trị giá tối đa 200 triệu USD. OpenAI, Google, xAI sau đó cũng nhận được các hợp đồng quy mô tương đương.

Theo Al Jazeera, Claude đã được sử dụng trong một hoạt động quân sự của Mỹ vào tháng 1 năm nay. Báo cáo cho biết hoạt động này liên quan đến vụ bắt cóc Tổng thống Venezuela Maduro.

Nhưng Anthropic đã vạch ra hai ranh giới đỏ: không hỗ trợ nhắm mục tiêu vũ khí hoàn toàn tự động, không hỗ trợ giám sát quy mô lớn đối với công dân Mỹ. Anthropic cho rằng độ tin cậy của trí tuệ nhân tạo không đủ để vận hành vũ khí, và hiện chưa có luật pháp nào quy định việc ứng dụng AI trong giám sát quy mô lớn.

Lầu Năm Góc không chấp nhận.

Cố vấn AI của Nhà Trắng David Sacks vào tháng 10 năm ngoái đã công khai cáo buộc Anthropic trên X "sử dụng nỗi sợ hãi làm vũ khí, thực hiện chiêu thức bắt giữ quản lý".

Đối thủ cạnh tranh đã đầu hàng. OpenAI, Google, xAI đều đồng ý để quân đội sử dụng AI của họ cho "tất cả các tình huống hợp pháp". Grok của Musk vừa được phê duyệt vào hệ thống mật trong tuần này.

Anthropic là người cuối cùng còn đứng vững.

Tính đến thời điểm hiện tại, Anthropic trong tuyên bố mới nhất cho biết họ không có ý định nhượng bộ. Nhưng hạn chót 5:01 thứ Sáu đã đến rất gần.

Một cựu liên lạc viên Bộ Tư pháp và Bộ Quốc phòng giấu tên bày tỏ sự bối rối với CNN: "Làm sao bạn có thể đồng thời tuyên bố một công ty là 'rủi ro chuỗi cung ứng', lại ép công ty đó làm việc cho quân đội của bạn?"

Câu hỏi hay, nhưng điều đó không nằm trong phạm vi xem xét của Lầu Năm Góc. Họ quan tâm là, nếu Anthropic không thỏa hiệp, sẽ áp dụng biện pháp cưỡng chế, hoặc, trở thành kẻ bị Washington ruồng bỏ.

"Tấn công chưng cất": Một cáo buộc kiểu tát vào mặt

Ngày 23 tháng 2, Anthropic đăng một blog với ngôn từ gay gắt, cáo buộc ba công ty AI Trung Quốc đã thực hiện "tấn công chưng cất cấp độ công nghiệp" vào Claude.

Bị đơn là DeepSeek, Moonshot AI, MiniMax.

Anthropic cáo buộc họ thông qua 24.000 tài khoản giả mạo, đã thực hiện hơn 16 triệu lần tương tác với Claude, định hướng trích xuất năng lực cốt lõi của Claude trong lập luận tác nhân thông minh, gọi công cụ và lập trình.

Anthropic định tính sự việc này là mối đe dọa an ninh quốc gia, tuyên bố rằng mô hình sau khi chưng cất "khó có thể giữ lại các rào chắn an toàn", có thể bị chính phủ chuyên chế sử dụng cho tấn công mạng, thông tin sai lệch và giám sát quy mô lớn.

Tường thuật thật hoàn hảo, thời cơ thật hoàn hảo.

Vừa đúng lúc chính phủ Trump vừa nới lỏng kiểm soát xuất khẩu chip sang Trung Quốc, vừa đúng lúc Anthropic cần tìm đạn dược cho lập trường vận động hành lang kiểm soát xuất khẩu chip của mình.

Nhưng Musk đã khai hỏa: "Anthropic ăn cắp quy mô lớn dữ liệu đào tạo, và đã trả hàng chục tỷ USD để dàn xếp. Đây là sự thật."

Đồng sáng lập công ty cơ sở hạ tầng AI IO.Net Tory Green nói: "Các người dùng dữ liệu toàn mạng để đào tạo mô hình của mình, rồi người khác dùng API công khai của các người để học hỏi các người, thì gọi là 'tấn công chưng cất'?"

Anthropic gọi chưng cất là "tấn công", nhưng việc này trong ngành AI là chuyện thường ngày. OpenAI dùng nó để nén GPT-4, Google dùng nó để tối ưu hóa Gemini, ngay cả chính Anthropic cũng đang làm. Điểm khác biệt duy nhất là, lần này bị chưng cất là chính nó.

Theo Giáo sư AI Erik Cambria của Đại học Công nghệ Nanyang Singapore nói với CNBC: "Ranh giới giữa sử dụng hợp pháp và khai thác độc hại thường mờ nhạt."

Trớ trêu hơn, Anthropic vừa trả 1,5 tỷ USD để dàn xếp vụ sử dụng sách vi phạm bản quyền đào tạo Claude. Nó dùng dữ liệu toàn mạng để đào tạo mô hình, rồi cáo buộc người khác dùng API công khai của nó để học nó. Đây không phải là hai tiêu chuẩn, mà là ba tiêu chuẩn.

Anthropic vốn định đóng vai nạn nhân, kết quả bị lột thành bị đơn.

Tháo dỡ cam kết an toàn: RSP 3.0

Ngay trong ngày đối đầu với Lầu Năm Góc và đấu khẩu với Thung lũng Silicon, Anthropic đã phát hành phiên bản thứ ba của Chính sách Mở rộng Có trách nhiệm.

Nhà khoa học trưởng Anthropic Jared Kaplan trả lời phỏng vấn truyền thông: "Chúng tôi cảm thấy ngừng đào tạo mô hình AI không giúp ích cho bất kỳ ai. Trong bối cảnh AI phát triển nhanh chóng, đơn phương đưa ra cam kết... trong khi đối thủ cạnh tranh đang tiến hành hết tốc lực, điều này không có ý nghĩa."

Nói cách khác, người khác không giữ võ đức, chúng tôi cũng không giả vờ nữa.

Điểm cốt lõi của RSP 1.0 và 2.0 là một cam kết cứng, nếu năng lực mô hình vượt quá phạm vi bao phủ của các biện pháp an toàn, thì tạm dừng đào tạo. Cam kết này đã mang lại cho Anthropic danh tiếng độc nhất vô nhị trong giới an ninh AI.

Nhưng phiên bản 3.0 đã xóa nó.

Thay vào đó là một khuôn khổ "linh hoạt" hơn, tức là chia các biện pháp an toàn mà Anthropic tự có thể làm và các khuyến nghị an toàn cần sự hợp tác toàn ngành thành hai đường ray. Cứ 3-6 tháng phát hành một báo cáo rủi ro. Mời chuyên gia bên ngoài xem xét.

Nghe có vẻ có trách nhiệm?

Nhà kiểm tra độc lập Chris Painter từ tổ chức phi lợi nhuận METR sau khi xem bản dự thảo chính sách sớm cho biết: "Điều này cho thấy Anthropic cho rằng cần phải vào 'chế độ phân loại', bởi vì phương pháp đánh giá và giảm thiểu rủi ro không theo kịp tốc độ tăng trưởng năng lực. Điều này chứng minh nhiều hơn rằng xã hội chưa sẵn sàng cho các rủi ro thảm khốc tiềm ẩn của AI."

Theo TIME đưa tin, Anthropic đã dành gần một năm thảo luận nội bộ về lần viết lại này, CEO Amodei và hội đồng quản trị đã thông qua với số phiếu tuyệt đối. Lời giải thích chính thức là, chính sách ban đầu được thiết kế với mục đích thúc đẩy sự đồng thuận trong ngành, nhưng kết quả là ngành hoàn toàn không theo kịp. Chính phủ Trump đã có thái độ buông lỏng đối với sự phát triển trí tuệ nhân tạo, thậm chí cố gắng bãi bỏ các quy định liên quan của các bang. Luật liên bang về AI còn xa vời. Mặc dù vào năm 2023, việc thiết lập khuôn khổ quản trị toàn cầu dường như vẫn còn khả thi, nhưng ba năm đã trôi qua, cánh cửa này rõ ràng đã đóng lại.

Một nhà nghiên cứu theo dõi quản trị AI lâu năm nói ẩn danh còn trực tiếp hơn: "RSP là tài sản thương hiệu có giá trị nhất của Anthropic. Xóa bỏ cam kết tạm dừng đào tạo, giống như một công ty thực phẩm hữu cơ lặng lẽ xé hai chữ 'hữu cơ' trên bao bì, rồi nói với bạn rằng việc kiểm tra của họ bây giờ minh bạch hơn."

Sự xé rách danh tính dưới mức định giá 3800 tỷ

Đầu tháng 2, Anthropic hoàn thành vòng gọi vốn 300 tỷ USD với định giá 3800 tỷ USD, Amazon là nhà đầu tư mỏ neo. Kể từ khi thành lập, đã đạt doanh thu hàng năm 140 tỷ USD. Ba năm qua, con số này mỗi năm đều tăng trưởng hơn 10 lần.

Đồng thời, Lầu Năm Góc đe dọa đưa nó vào danh sách đen. Musk công khai cáo buộc nó ăn cắp dữ liệu. Cam kết an toàn cốt lõi của chính mình bị xóa bỏ. Người phụ trách an ninh AI của Anthropic, Mrinank Sharma, từ chức và viết trên X: "Thế giới đang gặp nguy hiểm."

Mâu thuẫn?

Có lẽ mâu thuẫn là gen của Anthropic.

Công ty này được thành lập bởi các cựu lãnh đạo OpenAI, vì họ lo ngại OpenAI đi quá nhanh về vấn đề an toàn. Sau đó họ tự xây dựng một công ty, với tốc độ nhanh hơn để xây dựng các mô hình mạnh hơn, đồng thời nói với cả thế giới rằng những mô hình này nguy hiểm như thế nào.

Mô hình kinh doanh có thể tóm gọn trong một câu: chúng tôi sợ AI hơn bất kỳ ai, vì vậy bạn nên bỏ tiền cho chúng tôi chế tạo AI.

Tường thuật này vận hành hoàn hảo trong năm 2023-2024. An ninh AI là từ khóa nóng ở Washington, Anthropic là nhà vận động hành lang được ưa chuộng nhất.

Năm 2026, hướng gió đã thay đổi.

"AI tỉnh thức" (woke AI) trở thành nhãn hiệu tấn công, dự luật quản lý AI cấp bang bị Nhà Trắng ngăn chặn, SB 53 của California do Anthropic hỗ trợ mặc dù đã được ký thành luật, nhưng cấp liên bang hoang vu.

Lá bài an toàn của Anthropic, đang trượt từ "lợi thế khác biệt" sang "tài sản nợ chính trị".

Anthropic đang thực hiện một màn cân bằng phức tạp, nó cần đủ "an toàn" để duy trì thương hiệu, lại cần đủ "linh hoạt" để không bị thị trường và chính phủ ruồng bỏ. Vấn đề là, không gian khoan dung ở cả hai đầu đang thu hẹp.

Tường thuật an toàn, còn đáng giá bao nhiêu?

Xếp ba sự việc lại với nhau, bức tranh sẽ rõ ràng.

Cáo buộc công ty Trung Quốc chưng cất Claude, là để củng cố tường thuật vận động hành lang kiểm soát xuất khẩu chip. Để không bị tụt lại trong cuộc chạy đua vũ trang, đã xóa bỏ cam kết tạm dừng an toàn. Từ chối yêu cầu vũ khí tự động của Lầu Năm Góc, là để giữ lại lớp áo đạo đức cuối cùng.

Mỗi bước đều có logic, nhưng giữa các bước lại mâu thuẫn lẫn nhau.

Bạn không thể vừa nói công ty Trung Quốc "chưng cất" mô hình của bạn sẽ gây hại cho an ninh quốc gia, vừa xóa bỏ cam kết ngăn mô hình của chính bạn mất kiểm soát. Nếu mô hình thực sự nguy hiểm như vậy, bạn nên thận trọng hơn, chứ không phải tích cực hơn.

Trừ khi bạn là Anthropic.

Trong ngành AI, danh tính không được định nghĩa bởi tuyên bố của bạn, mà bởi bảng cân đối kế toán của bạn. Tường thuật "an toàn" của Anthropic, về bản chất là một khoản phí thương hiệu.

Vào giai đoạn đầu của cuộc chạy đua vũ trang AI, khoản phí này có giá trị. Nhà đầu tư sẵn sàng trả định giá cao hơn cho "AI có trách nhiệm", chính phủ sẵn sàng bật đèn xanh cho "AI đáng tin cậy", khách hàng sẵn sàng trả tiền cho "AI an toàn hơn".

Nhưng năm 2026, khoản phí này đang bốc hơi.

Anthropic hiện đang đối mặt, không phải là câu hỏi lựa chọn "có thỏa hiệp hay không", mà là câu hỏi sắp xếp "thỏa hiệp với ai trước". Thỏa hiệp với Lầu Năm Góc, thương hiệu bị tổn hại. Thỏa hiệp với đối thủ cạnh tranh, cam kết an toàn bị hủy bỏ. Thỏa hiệp với nhà đầu tư, cả hai đầu đều phải nhượng bộ.

5:01 chiều thứ Sáu, Anthropic sẽ đưa ra câu trả lời của mình.

Nhưng dù câu trả lời là gì, có một điều đã chắc chắn: Anthropic từng dựa vào "chúng tôi khác với OpenAI" để đứng vững, đang trở nên giống tất cả mọi người.

Điểm cuối của khủng hoảng danh tính, thường là sự biến mất của danh tính.


Twitter:https://twitter.com/BitpushNewsCN

Nhóm trao đổi Telegram của Bitpush:https://t.me/BitPushCommunity

Đăng ký Telegram của Bitpush: https://t.me/bitpush

Liên kết bài gốc:https://www.bitpush.news/articles/7615114

Câu hỏi Liên quan

QBộ Quốc phòng Mỹ (Lầu Năm Góc) đã đưa ra tối hậu thư nào cho Anthropic và hậu quả nếu công ty này không tuân thủ là gì?

ABộ trưởng Quốc phòng Pete Hegseth đã yêu cầu Anthropic dỡ bỏ các hạn chế sử dụng quân sự đối với Claude, cho phép Lầu Năm Góc sử dụng nó cho 'tất cả các mục đích hợp pháp', bao gồm nhắm mục tiêu vũ khí tự động và giám sát quy mô lớn trong nước, trước 5:01 chiều thứ Sáu. Nếu không tuân thủ, hợp đồng trị giá 200 triệu USD sẽ bị hủy bỏ, Lầu Năm Góc sẽ khởi động Đạo luật Sản xuất Quốc phòng để trưng dụng cưỡng bức, và liệt Anthropic vào danh sách 'rủi ro chuỗi cung ứng', tương đương với việc xếp công ty vào danh sách đen của các thực thể thù địch như Nga và Trung Quốc.

QElon Musk đã cáo buộc Anthropic điều gì trên mạng xã hội X?

AElon Musk đã đăng trên X rằng: 'Anthropic ăn cắp dữ liệu đào tạo trên quy mô lớn, đây là sự thật.' Bài đăng cũng được bổ sung thông tin từ Cộng đồng Ghi chú (Community Note) về việc Anthropic đã trả 1,5 tỷ USD để dàn xếp vụ kiện liên quan đến việc sử dụng sách vi phạm bản quyền để đào tạo Claude.

QAnthropic đã thay đổi cam kết an toàn cốt lõi nào trong Chính sách Mở rộng có Trách nhiệm (RSP) phiên bản 3.0?

ATrong RSP 3.0, Anthropic đã xóa bỏ cam kết cốt lõi nhất từ khi thành lập công ty: nếu không thể đảm bảo các biện pháp an toàn được áp dụng, họ sẽ không đào tạo các mô hình mạnh hơn. Thay vào đó, họ áp dụng một khuôn khổ 'linh hoạt' hơn, phân tách các biện pháp an toàn do chính Anthropic thực hiện và các khuyến nghị an toàn cần sự hợp tác toàn ngành thành hai tuyến riêng biệt, đồng thời công bố báo cáo rủi ro mỗi 3-6 tháng và mời chuyên gia bên ngoài thẩm định.

QAnthropic đã cáo buộc ba công ty AI Trung Quốc nào về 'tấn công chưng cất' (distillation attack) và nội dung cáo buộc là gì?

AAnthropic đã cáo buộc ba công ty AI Trung Quốc là DeepSeek, Moonshot AI và MiniMax. Họ tuyên bố rằng các công ty này đã sử dụng 24.000 tài khoản giả mạo để thực hiện hơn 16 triệu lần tương tác với Claude, nhằm mục đích trích xuất có chủ đích các khả năng cốt lõi của Claude trong lập luận tác nhân AI, gọi công cụ và lập trình. Anthropic coi đây là mối đe dọa an ninh quốc gia.

QTheo bài viết, mâu thuẫn cốt lõi trong mô hình kinh doanh và định danh của Anthropic là gì?

AMâu thuẫn cốt lõi nằm ở chỗ Anthropic được thành lập bởi các cựu lãnh đạo OpenAI do lo ngại về vấn đề an toàn, nhưng chính họ lại xây dựng một công ty để tạo ra các mô hình mạnh hơn với tốc độ nhanh hơn, đồng thời cảnh báo thế giới về sự nguy hiểm của những mô hình đó. Mô hình kinh doanh của họ có thể được tóm tắt là: 'Chúng tôi sợ AI hơn bất kỳ ai, vì vậy bạn nên trả tiền để chúng tôi chế tạo AI.' Định danh 'an toàn' vốn là lợi thế khác biệt và tài sản thương hiệu quý giá, nhưng trong bối cảnh cuộc chạy đua AI năm 2026, nó đang dần trở thành gánh nặng chính trị, buộc Anthropic phải cân bằng giữa việc duy trì thương hiệu 'an toàn' và đáp ứng áp lực từ thị trường và chính phủ.

Nội dung Liên quan

Bạn đặt cược tin tức, đầu tàu đọc quy tắc: Chênh lệch nhận thức thực sự khi thua lỗ trên Polymarket

Tại sao nhiều người thua lỗ trên Polymarket? Vì họ chỉ tập trung vào sự kiện thực tế mà bỏ qua yếu tố then chốt: **luật chơi**. Bài viết lấy ví dụ từ thị trường dự đoán lãnh đạo Venezuela năm 2026, nơi người chơi đặt cược vào Delcy (người đang nắm quyền) nhưng kết quả lại nghiêng về Maduro (người được công nhận chính thức dù đang trong tù), chỉ vì điều khoản thị trường quy định "người nắm giữ chức vụ chính thức" (officially holds) dựa trên sự công nhận của LHQ và văn bản hành chính, không phải thực tế nắm quyền. Polymarket xây dựng một quy trình giải quyết tranh chấp phức tạp gồm 5 bước: 1. **Đề xuất kết quả** (Propose) - Đặt cọc 750 USDC 2. **Khiếu nại** (Dispute) - Tranh chấp trong 2 giờ 3. **Thảo luận** - Trên Discord trong 48 giờ 4. **Bỏ phiếu** - Bởi holder UMA (ẩn danh & công khai) 5. **Kết quả cuối cùng** - Không kháng cáo Tuy nhiên, hệ thống này có điểm khác biệt lớn so với tòa án truyền thống: **người bỏ phiếu (thẩm phán) có thể đồng thời là người nắm giữ vị thế trên thị trường (người chơi)**, dẫn đến xung đột lợi ích. Điều này khiến cho các cuộc thảo luận dễ bị ảnh hưởng bởi hiệu ứng đám đông và thay đổi lập trường, đồng thời kết quả bỏ phiếu không được giải thích rõ ràng, không tạo ra tiền lệ để tham khảo cho sau này. Bài học rút ra: Polymarket không chỉ là nơi dự đoán sự kiện, mà là nơi diễn dịch **ngôn ngữ pháp lý** của các điều khoản thị trường. "Xe đầu" (người chơi chuyên nghiệp) thắng nhờ khả năng đọc kỹ và hiểu sâu luật chơi, từ đó tận dụng được khoảng chênh lệch giữa thực tế và quy tắc để kiếm lợi nhuận.

marsbit43 phút trước

Bạn đặt cược tin tức, đầu tàu đọc quy tắc: Chênh lệch nhận thức thực sự khi thua lỗ trên Polymarket

marsbit43 phút trước

Hiện trường thứ hai của ngôi sao hàng đầu vĩ mô Phó Bằng

Nhà kinh tế trưởng nổi tiếng Phó Bằng chính thức gia nhập Tập đoàn Tân Hỏa (Bitfire Group), đánh dấu bước chuyển mình sang lĩnh vực tài sản số sau gần một năm vắng bóng. Sự kiện này ngay lập tức đẩy giá cổ phiếu Tân Hỏa tăng hơn 11%. Phó Bằng, cựu Chuyên gia kinh tế trưởng của Đông Bắc Chứng quyền, sẽ đảm nhiệm vị trí tương tự tại Tân Hỏa, tập trung tích hợp tài sản số (C) vào khung phân bổ tài sản toàn cầu, kết hợp với chuyên môn FICC (thu nhập cố định, ngoại hối và hàng hóa) của ông. Bài viết điểm lại hành trình sự nghiệp của Phó Bằng, từ kinh nghiệm tại Lehman Brothers và các tổ chức tài chính truyền thống, đến phong cách phân tích phổ biến kiến thức vĩ mô phức tạp cho công chúng qua mạng xã hội, giúp ông có hơn 4 triệu người theo dõi. Năm 2024, một bài phát biểu trực tiếp về kinh tế Trung Quốc đã dẫn đến việc tài khoản của ông bị đình chỉ và ông rời Đông Bắc Chứng quyền, một phần vì lý do sức khỏe. Động thái này được xem là chiến lược cùng có lợi. Tân Hỏa, một công ty quản lý tài sản số có trụ sở tại Hồng Kông, đang tìm cách xây dựng niềm tin với các khách hàng tổ chức và gia đình giàu có. Danh tiếng và chuyên môn của Phó Bằng trong tài chính truyền thống được kỳ vọng sẽ cung cấp một "bộ não chiến lược" uy tín, giúp công ty thu hút dòng tiền truyền thống vào thị trường tài sản số đầy biến động.

marsbit2 giờ trước

Hiện trường thứ hai của ngôi sao hàng đầu vĩ mô Phó Bằng

marsbit2 giờ trước

Giao dịch

Giao ngay
Hợp đồng Tương lai

Bài viết Nổi bật

Làm thế nào để Mua ADA

Chào mừng bạn đến với HTX.com! Chúng tôi đã làm cho mua Cardano (ADA) trở nên đơn giản và thuận tiện. Làm theo hướng dẫn từng bước của chúng tôi để bắt đầu hành trình tiền kỹ thuật số của bạn.Bước 1: Tạo Tài khoản HTX của BạnSử dụng email hoặc số điện thoại của bạn để đăng ký tài khoản miễn phí trên HTX. Trải nghiệm hành trình đăng ký không rắc rối và mở khóa tất cả tính năng. Nhận Tài khoản của tôiBước 2: Truy cập Mua Crypto và Chọn Phương thức Thanh toán của BạnThẻ Tín dụng/Ghi nợ: Sử dụng Visa hoặc Mastercard của bạn để mua Cardano (ADA) ngay lập tức.Số dư: Sử dụng tiền từ số dư tài khoản HTX của bạn để giao dịch liền mạch.Bên thứ ba: Chúng tôi đã thêm những phương thức thanh toán phổ biến như Google Pay và Apple Pay để nâng cao sự tiện lợi.P2P: Giao dịch trực tiếp với người dùng khác trên HTX.Thị trường mua bán phi tập trung (OTC): Chúng tôi cung cấp những dịch vụ được thiết kế riêng và tỷ giá hối đoái cạnh tranh cho nhà giao dịch.Bước 3: Lưu trữ Cardano (ADA) của BạnSau khi mua Cardano (ADA), lưu trữ trong tài khoản HTX của bạn. Ngoài ra, bạn có thể gửi đi nơi khác qua chuyển khoản blockchain hoặc sử dụng để giao dịch những tiền kỹ thuật số khác.Bước 4: Giao dịch Cardano (ADA)Giao dịch Cardano (ADA) dễ dàng trên thị trường giao ngay của HTX. Chỉ cần truy cập vào tài khoản của bạn, chọn cặp giao dịch, thực hiện giao dịch và theo dõi trong thời gian thực. Chúng tôi cung cấp trải nghiệm thân thiện với người dùng cho cả người mới bắt đầu và người giao dịch dày dạn kinh nghiệm.

Tổng lượt xem 926Xuất bản vào 2024.12.10Cập nhật vào 2025.03.21

Làm thế nào để Mua ADA

Thảo luận

Chào mừng đến với Cộng đồng HTX. Tại đây, bạn có thể được thông báo về những phát triển nền tảng mới nhất và có quyền truy cập vào thông tin chuyên sâu về thị trường. Ý kiến ​​của người dùng về giá của ADA (ADA) được trình bày dưới đây.

活动图片