Anh toàn an ninh bị ép bởi thực tế, Anthropic rơi vào khủng hoảng danh tính như thế nào?

比推Xuất bản vào 2026-02-27Cập nhật gần nhất vào 2026-02-27

Tóm tắt

Trong vòng 72 giờ, Anthropic - công ty AI từng tuyên bố có "linh hồn" - rơi vào khủng hoảng danh tính giữa ba vai trò mâu thuẫn: người tử vì đạo an ninh, kẻ đánh cắp sở hữu trí tuệ và kẻ phản bội Lầu Năm Góc. Sự việc bắt đầu khi Bộ trưởng Quốc phòng Mỹ ra tối hậu thư: Anthropic phải dỡ bỏ hạn chế với Claude cho mục đích quân sự (bao gồm nhắm mục tiêu vũ khí tự động và giám sát quy mô lớn) trước 17:01 thứ Sáu, nếu không sẽ hủy hợp đồng 200 triệu USD và liệt công ty vào danh sách rủi ro chuỗi cung ứng. Cùng ngày, Anthropic công bố "Chính sách Mở rộng Có trách nhiệm 3.0", bí mật xóa bỏ cam kết cốt lõi: ngừng đào tạo mô hình mạnh hơn nếu không đảm bảo an toàn. Đồng thời, Elon Musk cáo buộc công ty ăn cắp dữ liệu huấn luyện và phải trả 1,5 tỷ USD để dàn xếp. Anthropic cũng tố cáo ba công ty Trung Quốc tấn công "chưng cất" mô hình Claude, nhưng bị chỉ trích là đạo đức giả khi chính họ dùng dữ liệu vi phạm bản quyền. Với định giá 380 tỷ USD và doanh thu tăng gấp 10 lần hàng năm, Anthropic đang đánh mất sự khác biệt: từ công ty an toàn thành tài sản thương hiệu giảm giá trị. Họ buộc phải lựa chọn giữa nhượng bộ Lầu Năm Góc, từ bỏ cam kết an ninh, hoặc làm hài lòng giới đầu tư - và cuối cùng, trở nên giống mọi công ty AI khác.

Tác giả: Ada, Shenchao TechFlow

Tiêu đề gốc: Bảy mươi hai giờ khủng hoảng danh tính của Anthropic


Ngày 24 tháng 2, thứ Ba. Washington, Lầu Năm Góc.

CEO Anthropic Dario Amodei ngồi đối diện Bộ trưởng Quốc phòng Pete Hegseth. Theo nhiều nguồn tin tiết lộ với NPR và CNN, bầu không khí cuộc gặp "lịch sự" nhưng nội dung hoàn toàn không nhẹ nhàng.

Hegseth đưa ra cho ông một tối hậu thư: Trước 5:01 chiều thứ Sáu, dỡ bỏ các hạn chế sử dụng quân sự đối với Claude, cho phép Lầu Năm Góc sử dụng nó cho "tất cả các mục đích hợp pháp", bao gồm nhắm mục tiêu vũ khí tự động và giám sát quy mô lớn trong nước.

Nếu không, hủy bỏ hợp đồng 200 triệu USD. Kích hoạt Đạo luật Sản xuất Quốc phòng, trưng dụng bắt buộc. Xếp Anthropic vào danh sách "rủi ro chuỗi cung ứng", điều này tương đương với việc đưa nó vào danh sách đen các thực thể thù địch của Nga và Trung Quốc.

Cùng ngày, Anthropic đã phát hành phiên bản thứ ba của "Chính sách Mở rộng Có trách nhiệm" (RSP 3.0), âm thầm xóa bỏ cam kết cốt lõi nhất kể từ khi thành lập công ty: nếu không thể đảm bảo các biện pháp an toàn, sẽ không đào tạo các mô hình mạnh hơn.

Cũng trong ngày hôm đó, Elon Musk đăng trên X: "Anthropic ăn cắp quy mô lớn dữ liệu đào tạo, đây là sự thật." Đồng thời, ghi chú cộng đồng X bổ sung thông tin Anthropic đã trả 1,5 tỷ USD để dàn xếp vụ kiện sử dụng sách vi phạm bản quyền để đào tạo Claude.

Trong vòng bảy mươi hai giờ, công ty AI tự nhận có "linh hồn" này, đồng thời đóng ba vai trò: kẻ tử vì đạo an ninh, kẻ trộm tài sản trí tuệ, kẻ phản bội Lầu Năm Góc.

Đâu mới là sự thật?

Có lẽ tất cả đều đúng.

"Tuân theo hoặc biến đi" của Lầu Năm Góc

Tầng đầu tiên của câu chuyện rất đơn giản.

Anthropic là công ty AI đầu tiên có quyền truy cập cấp độ mật vào Bộ Quốc phòng Hoa Kỳ. Hợp đồng được ký vào mùa hè năm ngoái, trị giá tối đa 200 triệu USD. OpenAI, Google, xAI sau đó cũng nhận được các hợp đồng quy mô tương đương.

Theo Al Jazeera, Claude đã được sử dụng trong một hoạt động quân sự của Mỹ vào tháng 1 năm nay. Báo cáo cho biết hoạt động này liên quan đến vụ bắt cóc Tổng thống Venezuela Maduro.

Nhưng Anthropic đã vạch ra hai ranh giới đỏ: không hỗ trợ nhắm mục tiêu vũ khí hoàn toàn tự động, không hỗ trợ giám sát quy mô lớn đối với công dân Mỹ. Anthropic cho rằng độ tin cậy của trí tuệ nhân tạo không đủ để vận hành vũ khí, và hiện chưa có luật pháp nào quy định việc ứng dụng AI trong giám sát quy mô lớn.

Lầu Năm Góc không chấp nhận.

Cố vấn AI của Nhà Trắng David Sacks vào tháng 10 năm ngoái đã công khai cáo buộc Anthropic trên X "sử dụng nỗi sợ hãi làm vũ khí, thực hiện chiêu thức bắt giữ quản lý".

Đối thủ cạnh tranh đã đầu hàng. OpenAI, Google, xAI đều đồng ý để quân đội sử dụng AI của họ cho "tất cả các tình huống hợp pháp". Grok của Musk vừa được phê duyệt vào hệ thống mật trong tuần này.

Anthropic là người cuối cùng còn đứng vững.

Tính đến thời điểm hiện tại, Anthropic trong tuyên bố mới nhất cho biết họ không có ý định nhượng bộ. Nhưng hạn chót 5:01 thứ Sáu đã đến rất gần.

Một cựu liên lạc viên Bộ Tư pháp và Bộ Quốc phòng giấu tên bày tỏ sự bối rối với CNN: "Làm sao bạn có thể đồng thời tuyên bố một công ty là 'rủi ro chuỗi cung ứng', lại ép công ty đó làm việc cho quân đội của bạn?"

Câu hỏi hay, nhưng điều đó không nằm trong phạm vi xem xét của Lầu Năm Góc. Họ quan tâm là, nếu Anthropic không thỏa hiệp, sẽ áp dụng biện pháp cưỡng chế, hoặc, trở thành kẻ bị Washington ruồng bỏ.

"Tấn công chưng cất": Một cáo buộc kiểu tát vào mặt

Ngày 23 tháng 2, Anthropic đăng một blog với ngôn từ gay gắt, cáo buộc ba công ty AI Trung Quốc đã thực hiện "tấn công chưng cất cấp độ công nghiệp" vào Claude.

Bị đơn là DeepSeek, Moonshot AI, MiniMax.

Anthropic cáo buộc họ thông qua 24.000 tài khoản giả mạo, đã thực hiện hơn 16 triệu lần tương tác với Claude, định hướng trích xuất năng lực cốt lõi của Claude trong lập luận tác nhân thông minh, gọi công cụ và lập trình.

Anthropic định tính sự việc này là mối đe dọa an ninh quốc gia, tuyên bố rằng mô hình sau khi chưng cất "khó có thể giữ lại các rào chắn an toàn", có thể bị chính phủ chuyên chế sử dụng cho tấn công mạng, thông tin sai lệch và giám sát quy mô lớn.

Tường thuật thật hoàn hảo, thời cơ thật hoàn hảo.

Vừa đúng lúc chính phủ Trump vừa nới lỏng kiểm soát xuất khẩu chip sang Trung Quốc, vừa đúng lúc Anthropic cần tìm đạn dược cho lập trường vận động hành lang kiểm soát xuất khẩu chip của mình.

Nhưng Musk đã khai hỏa: "Anthropic ăn cắp quy mô lớn dữ liệu đào tạo, và đã trả hàng chục tỷ USD để dàn xếp. Đây là sự thật."

Đồng sáng lập công ty cơ sở hạ tầng AI IO.Net Tory Green nói: "Các người dùng dữ liệu toàn mạng để đào tạo mô hình của mình, rồi người khác dùng API công khai của các người để học hỏi các người, thì gọi là 'tấn công chưng cất'?"

Anthropic gọi chưng cất là "tấn công", nhưng việc này trong ngành AI là chuyện thường ngày. OpenAI dùng nó để nén GPT-4, Google dùng nó để tối ưu hóa Gemini, ngay cả chính Anthropic cũng đang làm. Điểm khác biệt duy nhất là, lần này bị chưng cất là chính nó.

Theo Giáo sư AI Erik Cambria của Đại học Công nghệ Nanyang Singapore nói với CNBC: "Ranh giới giữa sử dụng hợp pháp và khai thác độc hại thường mờ nhạt."

Trớ trêu hơn, Anthropic vừa trả 1,5 tỷ USD để dàn xếp vụ sử dụng sách vi phạm bản quyền đào tạo Claude. Nó dùng dữ liệu toàn mạng để đào tạo mô hình, rồi cáo buộc người khác dùng API công khai của nó để học nó. Đây không phải là hai tiêu chuẩn, mà là ba tiêu chuẩn.

Anthropic vốn định đóng vai nạn nhân, kết quả bị lột thành bị đơn.

Tháo dỡ cam kết an toàn: RSP 3.0

Ngay trong ngày đối đầu với Lầu Năm Góc và đấu khẩu với Thung lũng Silicon, Anthropic đã phát hành phiên bản thứ ba của Chính sách Mở rộng Có trách nhiệm.

Nhà khoa học trưởng Anthropic Jared Kaplan trả lời phỏng vấn truyền thông: "Chúng tôi cảm thấy ngừng đào tạo mô hình AI không giúp ích cho bất kỳ ai. Trong bối cảnh AI phát triển nhanh chóng, đơn phương đưa ra cam kết... trong khi đối thủ cạnh tranh đang tiến hành hết tốc lực, điều này không có ý nghĩa."

Nói cách khác, người khác không giữ võ đức, chúng tôi cũng không giả vờ nữa.

Điểm cốt lõi của RSP 1.0 và 2.0 là một cam kết cứng, nếu năng lực mô hình vượt quá phạm vi bao phủ của các biện pháp an toàn, thì tạm dừng đào tạo. Cam kết này đã mang lại cho Anthropic danh tiếng độc nhất vô nhị trong giới an ninh AI.

Nhưng phiên bản 3.0 đã xóa nó.

Thay vào đó là một khuôn khổ "linh hoạt" hơn, tức là chia các biện pháp an toàn mà Anthropic tự có thể làm và các khuyến nghị an toàn cần sự hợp tác toàn ngành thành hai đường ray. Cứ 3-6 tháng phát hành một báo cáo rủi ro. Mời chuyên gia bên ngoài xem xét.

Nghe có vẻ có trách nhiệm?

Nhà kiểm tra độc lập Chris Painter từ tổ chức phi lợi nhuận METR sau khi xem bản dự thảo chính sách sớm cho biết: "Điều này cho thấy Anthropic cho rằng cần phải vào 'chế độ phân loại', bởi vì phương pháp đánh giá và giảm thiểu rủi ro không theo kịp tốc độ tăng trưởng năng lực. Điều này chứng minh nhiều hơn rằng xã hội chưa sẵn sàng cho các rủi ro thảm khốc tiềm ẩn của AI."

Theo TIME đưa tin, Anthropic đã dành gần một năm thảo luận nội bộ về lần viết lại này, CEO Amodei và hội đồng quản trị đã thông qua với số phiếu tuyệt đối. Lời giải thích chính thức là, chính sách ban đầu được thiết kế với mục đích thúc đẩy sự đồng thuận trong ngành, nhưng kết quả là ngành hoàn toàn không theo kịp. Chính phủ Trump đã có thái độ buông lỏng đối với sự phát triển trí tuệ nhân tạo, thậm chí cố gắng bãi bỏ các quy định liên quan của các bang. Luật liên bang về AI còn xa vời. Mặc dù vào năm 2023, việc thiết lập khuôn khổ quản trị toàn cầu dường như vẫn còn khả thi, nhưng ba năm đã trôi qua, cánh cửa này rõ ràng đã đóng lại.

Một nhà nghiên cứu theo dõi quản trị AI lâu năm nói ẩn danh còn trực tiếp hơn: "RSP là tài sản thương hiệu có giá trị nhất của Anthropic. Xóa bỏ cam kết tạm dừng đào tạo, giống như một công ty thực phẩm hữu cơ lặng lẽ xé hai chữ 'hữu cơ' trên bao bì, rồi nói với bạn rằng việc kiểm tra của họ bây giờ minh bạch hơn."

Sự xé rách danh tính dưới mức định giá 3800 tỷ

Đầu tháng 2, Anthropic hoàn thành vòng gọi vốn 300 tỷ USD với định giá 3800 tỷ USD, Amazon là nhà đầu tư mỏ neo. Kể từ khi thành lập, đã đạt doanh thu hàng năm 140 tỷ USD. Ba năm qua, con số này mỗi năm đều tăng trưởng hơn 10 lần.

Đồng thời, Lầu Năm Góc đe dọa đưa nó vào danh sách đen. Musk công khai cáo buộc nó ăn cắp dữ liệu. Cam kết an toàn cốt lõi của chính mình bị xóa bỏ. Người phụ trách an ninh AI của Anthropic, Mrinank Sharma, từ chức và viết trên X: "Thế giới đang gặp nguy hiểm."

Mâu thuẫn?

Có lẽ mâu thuẫn là gen của Anthropic.

Công ty này được thành lập bởi các cựu lãnh đạo OpenAI, vì họ lo ngại OpenAI đi quá nhanh về vấn đề an toàn. Sau đó họ tự xây dựng một công ty, với tốc độ nhanh hơn để xây dựng các mô hình mạnh hơn, đồng thời nói với cả thế giới rằng những mô hình này nguy hiểm như thế nào.

Mô hình kinh doanh có thể tóm gọn trong một câu: chúng tôi sợ AI hơn bất kỳ ai, vì vậy bạn nên bỏ tiền cho chúng tôi chế tạo AI.

Tường thuật này vận hành hoàn hảo trong năm 2023-2024. An ninh AI là từ khóa nóng ở Washington, Anthropic là nhà vận động hành lang được ưa chuộng nhất.

Năm 2026, hướng gió đã thay đổi.

"AI tỉnh thức" (woke AI) trở thành nhãn hiệu tấn công, dự luật quản lý AI cấp bang bị Nhà Trắng ngăn chặn, SB 53 của California do Anthropic hỗ trợ mặc dù đã được ký thành luật, nhưng cấp liên bang hoang vu.

Lá bài an toàn của Anthropic, đang trượt từ "lợi thế khác biệt" sang "tài sản nợ chính trị".

Anthropic đang thực hiện một màn cân bằng phức tạp, nó cần đủ "an toàn" để duy trì thương hiệu, lại cần đủ "linh hoạt" để không bị thị trường và chính phủ ruồng bỏ. Vấn đề là, không gian khoan dung ở cả hai đầu đang thu hẹp.

Tường thuật an toàn, còn đáng giá bao nhiêu?

Xếp ba sự việc lại với nhau, bức tranh sẽ rõ ràng.

Cáo buộc công ty Trung Quốc chưng cất Claude, là để củng cố tường thuật vận động hành lang kiểm soát xuất khẩu chip. Để không bị tụt lại trong cuộc chạy đua vũ trang, đã xóa bỏ cam kết tạm dừng an toàn. Từ chối yêu cầu vũ khí tự động của Lầu Năm Góc, là để giữ lại lớp áo đạo đức cuối cùng.

Mỗi bước đều có logic, nhưng giữa các bước lại mâu thuẫn lẫn nhau.

Bạn không thể vừa nói công ty Trung Quốc "chưng cất" mô hình của bạn sẽ gây hại cho an ninh quốc gia, vừa xóa bỏ cam kết ngăn mô hình của chính bạn mất kiểm soát. Nếu mô hình thực sự nguy hiểm như vậy, bạn nên thận trọng hơn, chứ không phải tích cực hơn.

Trừ khi bạn là Anthropic.

Trong ngành AI, danh tính không được định nghĩa bởi tuyên bố của bạn, mà bởi bảng cân đối kế toán của bạn. Tường thuật "an toàn" của Anthropic, về bản chất là một khoản phí thương hiệu.

Vào giai đoạn đầu của cuộc chạy đua vũ trang AI, khoản phí này có giá trị. Nhà đầu tư sẵn sàng trả định giá cao hơn cho "AI có trách nhiệm", chính phủ sẵn sàng bật đèn xanh cho "AI đáng tin cậy", khách hàng sẵn sàng trả tiền cho "AI an toàn hơn".

Nhưng năm 2026, khoản phí này đang bốc hơi.

Anthropic hiện đang đối mặt, không phải là câu hỏi lựa chọn "có thỏa hiệp hay không", mà là câu hỏi sắp xếp "thỏa hiệp với ai trước". Thỏa hiệp với Lầu Năm Góc, thương hiệu bị tổn hại. Thỏa hiệp với đối thủ cạnh tranh, cam kết an toàn bị hủy bỏ. Thỏa hiệp với nhà đầu tư, cả hai đầu đều phải nhượng bộ.

5:01 chiều thứ Sáu, Anthropic sẽ đưa ra câu trả lời của mình.

Nhưng dù câu trả lời là gì, có một điều đã chắc chắn: Anthropic từng dựa vào "chúng tôi khác với OpenAI" để đứng vững, đang trở nên giống tất cả mọi người.

Điểm cuối của khủng hoảng danh tính, thường là sự biến mất của danh tính.


Twitter:https://twitter.com/BitpushNewsCN

Nhóm trao đổi Telegram của Bitpush:https://t.me/BitPushCommunity

Đăng ký Telegram của Bitpush: https://t.me/bitpush

Liên kết bài gốc:https://www.bitpush.news/articles/7615114

Câu hỏi Liên quan

QBộ Quốc phòng Mỹ (Lầu Năm Góc) đã đưa ra tối hậu thư nào cho Anthropic và hậu quả nếu công ty này không tuân thủ là gì?

ABộ trưởng Quốc phòng Pete Hegseth đã yêu cầu Anthropic dỡ bỏ các hạn chế sử dụng quân sự đối với Claude, cho phép Lầu Năm Góc sử dụng nó cho 'tất cả các mục đích hợp pháp', bao gồm nhắm mục tiêu vũ khí tự động và giám sát quy mô lớn trong nước, trước 5:01 chiều thứ Sáu. Nếu không tuân thủ, hợp đồng trị giá 200 triệu USD sẽ bị hủy bỏ, Lầu Năm Góc sẽ khởi động Đạo luật Sản xuất Quốc phòng để trưng dụng cưỡng bức, và liệt Anthropic vào danh sách 'rủi ro chuỗi cung ứng', tương đương với việc xếp công ty vào danh sách đen của các thực thể thù địch như Nga và Trung Quốc.

QElon Musk đã cáo buộc Anthropic điều gì trên mạng xã hội X?

AElon Musk đã đăng trên X rằng: 'Anthropic ăn cắp dữ liệu đào tạo trên quy mô lớn, đây là sự thật.' Bài đăng cũng được bổ sung thông tin từ Cộng đồng Ghi chú (Community Note) về việc Anthropic đã trả 1,5 tỷ USD để dàn xếp vụ kiện liên quan đến việc sử dụng sách vi phạm bản quyền để đào tạo Claude.

QAnthropic đã thay đổi cam kết an toàn cốt lõi nào trong Chính sách Mở rộng có Trách nhiệm (RSP) phiên bản 3.0?

ATrong RSP 3.0, Anthropic đã xóa bỏ cam kết cốt lõi nhất từ khi thành lập công ty: nếu không thể đảm bảo các biện pháp an toàn được áp dụng, họ sẽ không đào tạo các mô hình mạnh hơn. Thay vào đó, họ áp dụng một khuôn khổ 'linh hoạt' hơn, phân tách các biện pháp an toàn do chính Anthropic thực hiện và các khuyến nghị an toàn cần sự hợp tác toàn ngành thành hai tuyến riêng biệt, đồng thời công bố báo cáo rủi ro mỗi 3-6 tháng và mời chuyên gia bên ngoài thẩm định.

QAnthropic đã cáo buộc ba công ty AI Trung Quốc nào về 'tấn công chưng cất' (distillation attack) và nội dung cáo buộc là gì?

AAnthropic đã cáo buộc ba công ty AI Trung Quốc là DeepSeek, Moonshot AI và MiniMax. Họ tuyên bố rằng các công ty này đã sử dụng 24.000 tài khoản giả mạo để thực hiện hơn 16 triệu lần tương tác với Claude, nhằm mục đích trích xuất có chủ đích các khả năng cốt lõi của Claude trong lập luận tác nhân AI, gọi công cụ và lập trình. Anthropic coi đây là mối đe dọa an ninh quốc gia.

QTheo bài viết, mâu thuẫn cốt lõi trong mô hình kinh doanh và định danh của Anthropic là gì?

AMâu thuẫn cốt lõi nằm ở chỗ Anthropic được thành lập bởi các cựu lãnh đạo OpenAI do lo ngại về vấn đề an toàn, nhưng chính họ lại xây dựng một công ty để tạo ra các mô hình mạnh hơn với tốc độ nhanh hơn, đồng thời cảnh báo thế giới về sự nguy hiểm của những mô hình đó. Mô hình kinh doanh của họ có thể được tóm tắt là: 'Chúng tôi sợ AI hơn bất kỳ ai, vì vậy bạn nên trả tiền để chúng tôi chế tạo AI.' Định danh 'an toàn' vốn là lợi thế khác biệt và tài sản thương hiệu quý giá, nhưng trong bối cảnh cuộc chạy đua AI năm 2026, nó đang dần trở thành gánh nặng chính trị, buộc Anthropic phải cân bằng giữa việc duy trì thương hiệu 'an toàn' và đáp ứng áp lực từ thị trường và chính phủ.

Nội dung Liên quan

Polymarket Bị Kẹt: Bài Kiểm Tra Thực Sự Sau Khi Vượt Qua Giai Đoạn Lưu Lượng Tăng Đột Biến

Polymarket, nền tảng dự đoán thị trường hàng đầu, đang đối mặt với thách thức lớn khi trải nghiệm giao dịch xuống cấp do hạ tầng không theo kịp đà tăng trưởng. Phó chủ tịch kỹ thuật Josh Stevens thừa nhận vấn đề và công bố kế hoạch cải tổ toàn diện, bao gồm: giảm độ trễ dữ liệu, sửa lỗi hủy lệnh, xây dựng lại hệ thống order book (CLOB), nâng cao hiệu suất website, và quan trọng nhất là di chuyển chain (chain migration). Nguyên nhân sâu xa nằm ở việc Polymarket không còn là ứng dụng dự đoán đơn thuần mà đã phát triển thành một nền tảng giao dịch tần suất cao. Polygon, từng là lựa chọn chi phí thấp hoàn hảo, giờ đây trở thành rào cản kỹ thuật. Động thái này ngay lập tức thu hút sự quan tâm của các blockchain khác như Solana, Sui, Algorand... trong khi Polygon nỗ lực giữ chân ứng dụng quan trọng này - nguồn đóng góp phí giao dịch đáng kể cho hệ sinh thái của họ. Bài kiểm tra thực sự của Polymarket không chỉ là chọn chain mới, mà là xây dựng một hệ thống giao dịch đủ mạnh và ổn định để giữ chân người dùng trong giai đoạn tăng trưởng mới, nơi độ tin cậy quan trọng hơn bao giờ hết.

Odaily星球日报2 giờ trước

Polymarket Bị Kẹt: Bài Kiểm Tra Thực Sự Sau Khi Vượt Qua Giai Đoạn Lưu Lượng Tăng Đột Biến

Odaily星球日报2 giờ trước

Điều chỉnh kỳ vọng giảm cho chu kỳ tăng giá tiếp theo của BTC

Tác giả Alex Xu, một nhà đầu tư Bitcoin lâu năm, đã chia sẻ quyết định giảm dần tỷ trọng BTC trong danh mục đầu tư của mình, từ vị thế lớn nhất xuống còn khoảng 30%, và giải thích lý do cho việc điều chỉnh kỳ vọng về đỉnh giá trong chu kỳ bull market tiếp theo. Các lý do chính bao gồm: 1. **Năng lượng tăng trưởng tiềm năng giảm:** Các chu kỳ trước được thúc đẩy bởi việc mở rộng đối tượng đầu tư theo cấp số nhân (từ cá nhân đến tổ chức). Chu kỳ tới cần sự chấp nhận từ các quỹ đầu tư quốc gia hoặc ngân hàng trung ương, điều này khó xảy ra trong 2-3 năm tới. 2. **Chi phí cơ hội cá nhân:** Tìm thấy nhiều cơ hội đầu tư hấp dẫn khác (cổ phiếu công ty) với mức giá hợp lý. 3. **Tác động tiêu cực từ sự thu hẹp của ngành crypto:** Nhiều mô hình Web3 (SocialFi, GameFi...) không thành công, dẫn đến sự thu hẹp của toàn ngành và làm chậm tốc độ tăng trưởng số người nắm giữ BTC. 4. **Áp lực từ nhà mua lớn nhất (MicroStrategy):** Chi phí huy động vốn của MicroStrategy tiếp tục tăng cao (lãi suất 11.5%), có thể làm giảm tốc độ mua vào và gây áp lực bán. 5. **Sự cạnh tranh từ Vàng được token hóa:** Sản phẩm vàng token hóa (tokenized gold) đã thu hẹp khoảng cách về tính dễ chia nhỏ, dễ mang theo và dễ xác minh so với BTC. 6. **Vấn đề ngân sách bảo mật:** Phần thưởng khối giảm sau mỗi lần halving làm trầm trọng thêm vấn đề ngân sách cho bảo mật mạng lưới. Tác giả vẫn giữ một phần BTC đáng kể và sẵn sàng mua lại nếu các lý kiến trên được giải quyết hoặc xuất hiện các yếu tố tích cực mới, với điều kiện giá cả phù hợp.

marsbit3 giờ trước

Điều chỉnh kỳ vọng giảm cho chu kỳ tăng giá tiếp theo của BTC

marsbit3 giờ trước

Giao dịch

Giao ngay
Hợp đồng Tương lai

Bài viết Nổi bật

Làm thế nào để Mua ADA

Chào mừng bạn đến với HTX.com! Chúng tôi đã làm cho mua Cardano (ADA) trở nên đơn giản và thuận tiện. Làm theo hướng dẫn từng bước của chúng tôi để bắt đầu hành trình tiền kỹ thuật số của bạn.Bước 1: Tạo Tài khoản HTX của BạnSử dụng email hoặc số điện thoại của bạn để đăng ký tài khoản miễn phí trên HTX. Trải nghiệm hành trình đăng ký không rắc rối và mở khóa tất cả tính năng. Nhận Tài khoản của tôiBước 2: Truy cập Mua Crypto và Chọn Phương thức Thanh toán của BạnThẻ Tín dụng/Ghi nợ: Sử dụng Visa hoặc Mastercard của bạn để mua Cardano (ADA) ngay lập tức.Số dư: Sử dụng tiền từ số dư tài khoản HTX của bạn để giao dịch liền mạch.Bên thứ ba: Chúng tôi đã thêm những phương thức thanh toán phổ biến như Google Pay và Apple Pay để nâng cao sự tiện lợi.P2P: Giao dịch trực tiếp với người dùng khác trên HTX.Thị trường mua bán phi tập trung (OTC): Chúng tôi cung cấp những dịch vụ được thiết kế riêng và tỷ giá hối đoái cạnh tranh cho nhà giao dịch.Bước 3: Lưu trữ Cardano (ADA) của BạnSau khi mua Cardano (ADA), lưu trữ trong tài khoản HTX của bạn. Ngoài ra, bạn có thể gửi đi nơi khác qua chuyển khoản blockchain hoặc sử dụng để giao dịch những tiền kỹ thuật số khác.Bước 4: Giao dịch Cardano (ADA)Giao dịch Cardano (ADA) dễ dàng trên thị trường giao ngay của HTX. Chỉ cần truy cập vào tài khoản của bạn, chọn cặp giao dịch, thực hiện giao dịch và theo dõi trong thời gian thực. Chúng tôi cung cấp trải nghiệm thân thiện với người dùng cho cả người mới bắt đầu và người giao dịch dày dạn kinh nghiệm.

Tổng lượt xem 950Xuất bản vào 2024.12.10Cập nhật vào 2025.03.21

Làm thế nào để Mua ADA

Thảo luận

Chào mừng đến với Cộng đồng HTX. Tại đây, bạn có thể được thông báo về những phát triển nền tảng mới nhất và có quyền truy cập vào thông tin chuyên sâu về thị trường. Ý kiến ​​của người dùng về giá của ADA (ADA) được trình bày dưới đây.

活动图片