Sau 48 giờ bị cấm, Claude đã leo lên vị trí số 1 trên App Store

marsbitXuất bản vào 2026-03-03Cập nhật gần nhất vào 2026-03-03

Tóm tắt

Sau 48 giờ bị chính phủ Mỹ cấm và liệt vào "nguy cơ an ninh chuỗi cung ứng", Claude của Anthropic đã vươn lên vị trí số 1 trên App Store Mỹ. Sự kiện bắt nguồn từ việc Anthropic từ chối hợp tác với Lầu Năm Góc do không đồng ý với điều khoản cho phép sử dụng AI vào "mọi mục đích hợp pháp" mà không có ngoại lệ rõ ràng, trong khi OpenAI đã ký hợp đồng thay trống. Phản ứng dữ dội từ người dùng: lượt gỡ cài đặt ChatGPT tăng 295%, đánh giá 1 sao tăng 775%, trong khi lượt tải Claude tăng 51%. Anthropic đã tung ra công cụ chuyển đổi ký ức, cho phép người dùng chuyển dữ liệu từ ChatGPT sang Claude một cách dễ dàng, đồng thời mở tính năng này cho người dùng miễn phí. Sự khác biệt về triết lý an ninh: OpenAI tuân thủ khuôn khổ pháp lý hiện hành ("không làm gì bất hợp pháp"), còn Anthropic tự đặt ra các giới hạn bảo vệ vượt xa luật hiện hành ("không làm những gì không nên làm, dù chưa bị cấm"). Dù mất hợp đồng 2 tỷ USD, Anthropic đã ghi nhận doanh thu năm 140 tỷ USD và định giá 3800 tỷ USD, cho thấy sự ủng hộ mạnh mẽ từ thị trường đối với lập trường đạo đức của họ.

Sáng thứ Bảy, Sam Altman đã đăng tải trên X một bức thư nội bộ.

Lá thư được anh viết cho nhân viên OpenAI vào tối thứ Năm, nói rằng công ty đang đàm phán với Lầu Năm Góc và anh hy vọng có thể giúp "giảm bớt căng thẳng". Khi đăng tải lá thư, anh kèm theo vài dòng giải thích, đại ý muốn công khai những gì đã xảy ra trong mấy ngày qua.

Vào thời điểm anh đăng dòng tweet này, Claude đã leo lên vị trí số 1 trên bảng xếp hạng miễn phí của App Store Mỹ. Chỉ một ngày trước đó, ChatGPT vẫn đang ngồi ở vị trí đó.

Dữ liệu từ Sensor Tower ghi lại sự việc trong vài giờ tiếp theo: Chỉ riêng thứ Bảy, lượt gỡ cài đặt ChatGPT tại Mỹ đã tăng đột biến 295% so với ngày thường, đánh giá 1 sao tăng 775%. Trong khi đó, lượt tải xuống Claude trong ngày tăng 51%. Trên Reddit xuất hiện làn sóng bài đăng "Cancel ChatGPT" (Tẩy chay ChatGPT), người dùng đăng ảnh chụp màn hình hủy đăng ký, có người bình luận "fastest install of my life" (cài đặt nhanh nhất đời tôi). Một trang web tên QuitGPT.org đã ra mắt, tuyên bố 1,5 triệu người đã hành động.

Thứ Hai, lượng người dùng đổ về quá đông, Claude đã xảy ra sự cố ngừng hoạt động hàng loạt. Công ty bị chính phủ liên bang liệt vào danh sách "rủi ro an ninh chuỗi cung ứng" này, vì người dùng ùn ùn kéo đến, máy chủ đã quá tải.

Đòn phản công sản phẩm chính xác

Cùng ngày với làn sóng gỡ cài đặt, Anthropic đã ra mắt công cụ chuyển đổi ký ức.

Bản thân tính năng không phức tạp. Người dùng sao chép một đoạn gợi ý vào ChatGPT, yêu cầu nó xuất ra tất cả ký ức và sở thích đã lưu trữ, sau đó dán vào Claude, Claude nhập vào một lần, tiếp tục từ nơi bạn rời khỏi ChatGPT. Văn bản trên trang web chính thức chỉ có một câu: "switch to Claude without starting over" (chuyển sang Claude mà không cần bắt đầu lại).

Thời điểm của công cụ này, là thuộc tính then chốt nhất của nó.

Dữ liệu của chính OpenAI cho thấy, đến giữa năm 2025, hơn 70% các tình huống sử dụng của người dùng ChatGPT là không liên quan đến công việc, bao gồm hỏi đáp hàng ngày, viết lách, giải trí, tìm kiếm thông tin. Nó là AI đầu tiên mà nhiều người tiếp xúc, dựa vào hệ sinh thái plugin khổng lồ, Chế độ giọng nói và sự tích hợp sâu của các ứng dụng bên thứ ba để nhúng vào cuộc sống hàng ngày. Chi phí chuyển đổi của nhóm người dùng này không chỉ là "tải một ứng dụng mới", mà là để một AI không quen biết bạn bắt đầu lại từ con số 0 để hiểu bạn là ai. Sự tích lũy ký ức, trước đây là lý do mạnh nhất để ở lại.

Dữ liệu nghiên cứu của chính Anthropic cho thấy, các tình huống sử dụng Claude tập trung cao độ. Nhiệm vụ lập trình và toán học chiếm 34%, là danh mục đơn nhất, giáo dục và nghiên cứu khoa học là hướng phát triển nhanh nhất trong năm qua. Người dùng cốt lõi là nhà phát triển, nhà nghiên cứu và người viết lách nặng, nhóm người này lý trí hơn, dễ dàng đổi công cụ vì một đánh giá giá trị rõ ràng, miễn là chi phí di chuyển đủ thấp.

Công cụ chuyển đổi ký ức đã giảm chi phí này xuống mức thấp nhất. Đồng thời, Anthropic tuyên bố mở rộng tính năng ký ức cho toàn bộ người dùng miễn phí, tính năng này trước đây là độc quyền trả phí.

Nhưng một phần đáng kể người dùng đổ về này, không phải là người dùng mục tiêu ban đầu của Claude.

Từ phản hồi trên mạng xã hội, nhiều người dùng phổ thông chuyển từ ChatGPT sang, khi lần đầu sử dụng Claude thường có phản ứng: "Nó khác biệt." Có người cảm thấy câu trả lời của Claude sâu sắc hơn, sẽ chủ động đẩy ngược lại, chứ không phải cái gì cũng nói tốt. Có người phát hiện nó viết lách sạch sẽ hơn, nhưng không tạo ra hình ảnh, cũng không có trải nghiệm tương tác như Voice Mode.

Có người vốn muốn tìm một "sản phẩm thay thế ChatGPT ngoan ngoãn hơn", nhưng phát hiện tính cách Claude mạnh mẽ hơn, cần thời gian thích ứng. Một hướng dẫn chuyển đổi của TechRadar trong hai ngày này được đăng tải rộng rãi, tiêu đề là "Tôi ước gì đã có người nói với tôi những điều này", thông tin cốt lõi của bài viết là: Logic sử dụng của Claude và ChatGPT về cơ bản khác nhau, cái đầu giống như một đối tác làm việc có lập trường, cái sau giống như một trợ lý vạn năng hơn.

Sự khác biệt này vốn là định vị riêng của hai sản phẩm, nhưng bị sự kiện này bất ngờ phóng đại. Người dùng đổ về Claude vì lập trường đạo đức, rồi phát hiện một sản phẩm khác với kỳ vọng của họ, một AI kén chọn hơn, có cảm giác ranh giới rõ rệt hơn. Điều này vốn có thể là lý do rời bỏ, nhưng tại thời điểm đặc biệt này, nó lại trở thành lý do ở lại: Bạn tin tưởng lập trường của một công ty, thì dễ dàng chấp nhận logic sản phẩm của nó hơn.

Sau vài ngày ra mắt, Anthropic công bố dữ liệu: Người dùng hoạt động miễn phí tăng hơn 60% so với tháng 1, lượng đăng ký mới hàng ngày tăng gấp bốn lần. Claude từng bị ngừng hoạt động do lưu lượng truy cập quá lớn, hàng nghìn người dùng báo cáo không thể đăng nhập, được khắc phục trong vài giờ.

Ba chữ trong hợp đồng: OpenAI đã nói gì, và làm gì

Anthropic là công ty thương mại đầu tiên triển khai mô hình AI lên mạng lưới bí mật của quân đội Mỹ, hợp tác thông qua Palantir, giá trị hợp đồng khoảng 200 triệu USD. Nhưng trong nhiều tháng qua, mối quan hệ song phương tiếp tục xấu đi. Trọng tâm tranh cãi là một điều khoản: Lầu Năm Góc yêu cầu mô hình AI mở "tất cả mục đích hợp pháp", không đính kèm bất kỳ điều kiện nào. Anthropic thì kiên quyết ghi rõ hai ngoại lệ, không được sử dụng để giám sát hàng loạt công dân Mỹ, không được sử dụng cho hệ thống vũ khí tự động hoàn toàn.

Khoảng ngày 20 tháng 2, theo báo cáo, một lãnh đạo Anthropic đã chất vấn Palantir về cách sử dụng Claude trong chiến dịch bắt giữ Tổng thống Venezuela Maduro của quân đội Mỹ vào tháng 1, quân đội cực kỳ bất mãn. Thứ Năm, Lầu Năm Góc đưa ra tối hậu thư, yêu cầu Dario Amodei trả lời trước 5 giờ chiều cùng ngày.

Amodei đã đưa ra tuyên bố trước thời hạn, nói rằng công ty không thể chấp nhận điều khoản hiện tại, "không phải vì chúng tôi phản đối mục đích quân sự, mà trong một số ít trường hợp, chúng tôi tin rằng AI có khả năng phá hoại hơn là bảo vệ giá trị dân chủ". Trump ngay lập tức tuyên bố các cơ quan liên bang ngừng sử dụng toàn bộ sản phẩm Anthropic trong sáu tháng, Hegseth liệt công ty vào danh sách "rủi ro an ninh chuỗi cung ứng", nhãn dán này thường dùng cho các công ty đối thủ nước ngoài. Hợp đồng chấm dứt từ đó.

Vị trí bỏ trống, nhanh chóng có người lấp đầy. Ngay trong ngày hôm đó, OpenAI tuyên bố ký kết hợp đồng với Lầu Năm Góc. Altman trong thư nội bộ thứ Năm, lập trường vẫn rõ ràng, anh viết đây đã là "vấn đề của toàn ngành", nói OpenAI và Anthropic nắm giữ cùng "lằn ranh đỏ": phản đối giám sát hàng loạt, phản đối vũ khí tự động. Thứ Sáu, thỏa thuận đạt được, sẽ triển khai mô hình trên mạng lưới bí mật của quân đội, hạn chế chỉ chạy trên đám mây, cử kỹ sư giám sát, và tuyên bố đã ghi rõ hai hạn chế tương tự trong hợp đồng.

Altman sau đó mở hỏi đáp trên X, giải đáp trong vài giờ. Có người hỏi anh: Tại sao Lầu Năm Góc chấp nhận OpenAI, lại cấm Anthropic? Câu trả lời của anh là: "Anthropic dường như tập trung hơn vào các điều khoản cấm cụ thể trong hợp đồng, thay vì trích dẫn luật áp dụng, còn chúng tôi hài lòng với việc trích dẫn luật."

Câu nói này nói về sự khác biệt phương pháp luận, nhưng nó mở ra tranh cãi thực sự của sự việc.

Điểm then chốt khi Anthropic đàm phán thất bại, là cụm từ mà Lầu Năm Góc kiên quyết ghi vào: Hệ thống AI có thể được sử dụng cho "all lawful purposes", tức là tất cả mục đích hợp pháp. Lý do Anthropic từ chối là, cụm từ này trong ngữ cảnh an ninh quốc gia không phải là một ranh giới cố định. Luật hiện hành ở nhiều mặt chưa theo kịp năng lực của AI, phạm vi "hợp pháp" sẽ do chính cách giải thích của chính phủ quyết định. OpenAI đã ký cụm từ này, đồng thời tuyên bố đã thảo luận về các biện pháp bảo vệ tương tự trong hợp đồng.

Các chuyên gia pháp lý sau đó phân tích các điều khoản hợp đồng công khai của OpenAI, chỉ ra hai vấn đề cụ thể về cách diễn đạt.

Điều khoản giám sát ghi là, hệ thống không được sử dụng để giám sát "unconstrained" (không ràng buộc) thông tin cá nhân công dân Mỹ. Phó chủ tịch chính sách của Trung tâm Dân chủ và Công nghệ Samir Jain chỉ ra, cách diễn đạt ở đây ngụ ý phiên bản giám sát "có ràng buộc" được cho phép. Trong khuôn khổ pháp lý hiện hành, chính phủ hoàn toàn có thể mua hợp pháp hồ sơ vị trí, lịch sử duyệt web và dữ liệu tài chính của công dân từ các nhà môi giới dữ liệu, để AI phân tích những dữ liệu này, về mặt kỹ thuật không cấu thành "giám sát bất hợp pháp". Amodei trong cuộc phỏng vấn sau đó với CBS đã lấy đúng ví dụ này.

Điều khoản vũ khí ghi là, hệ thống không được sử dụng cho vũ khí tự động trong "trường hợp luật pháp, quy định hoặc chính sách của bộ yêu cầu kiểm soát của con người". Cụm từ hạn định này ngụ ý, hạn chế chỉ có hiệu lực khi các quy định khác đã yêu cầu kiểm soát của con người, sức ràng buộc hoàn toàn mượn từ chính sách hiện có. Và Lầu Năm Góc có quyền sửa đổi chính sách nội bộ của mình bất cứ lúc nào. Học giả pháp lý Charles Bullock trên X viết, điều khoản vũ khí trong hợp đồng dựa vào chỉ thị DoD 3000.09, chỉ thị này yêu cầu chỉ huy giữ lại "mức độ phán đoán của con người phù hợp", và "mức độ phù hợp" này là một tiêu chuẩn có thể được giải thích linh hoạt.

Phản hồi của OpenAI trước những chất vấn này là: Mô hình chỉ chạy trên đám mây, điều này về mặt kiến trúc đã loại trừ khả năng được tích hợp trực tiếp vào hệ thống vũ khí. Hợp đồng cũng ghi rõ cơ sở pháp lý cụ thể, có sức ràng buộc hơn các điều khoản cấm bằng văn bản, vì luật pháp là khuôn khổ đã được kiểm nghiệm. Bản thân Altman trong phần trả lời cũng thừa nhận: "Nếu chúng tôi cần chiến đấu trong tương lai, chúng tôi sẽ chiến đấu, nhưng điều này rõ ràng đặt chúng tôi vào một số rủi ro."

Đây không phải là vấn đề một công ty sẵn sàng thỏa hiệp, một công ty kiên trì nguyên tắc, đây là hai triết lý an ninh cơ bản khác nhau. Ranh giới của OpenAI là: Việc bất hợp pháp tôi không làm. Ranh giới của Anthropic là: Việc luật pháp chưa kịp cấm, nhưng tôi cho là không nên làm, tôi cũng không làm.

Sự phân rã này, cũng để lại vết nứt trong nội bộ OpenAI. Tuần trước, nhiều nhân viên OpenAI ký tên vào thư ngỏ, ủng hộ lập trường của Anthropic, phản đối việc liệt công ty vào rủi ro chuỗi cung ứng. Nhà nghiên cứu alignment Leo Gao công khai chất vấn liệu hợp đồng của công ty có cung cấp đủ bảo vệ hay không. Vỉa hè bên ngoài văn phòng OpenAI ở San Francisco, xuất hiện các bức vẽ graffiti chỉ trích bằng phấn. Bên ngoài văn phòng Anthropic thì là những lời nhắn ủng hộ. Buổi hỏi đáp kéo dài vài giờ của Altman trên X, phần lớn hướng đến nhóm người trong chính công ty mình vốn đứng về phía Anthropic.

Hai kết quả của cùng một câu chuyện

Anthropic trong nhiều năm luôn dùng "ngăn chặn rủi ro cấp độ văn minh" để định khung sứ mệnh an ninh của mình, đặt mối đe dọa tiềm tàng của AI tiên phong ngang hàng với vũ khí hạt nhân, định vị mình là người gác cửa trên tuyến phòng thủ này. Câu chuyện này là cốt lõi thương hiệu của nó, cũng là cách nó giành lấy niềm tin trên thị trường vốn.

Nhà bình luận công nghệ Packy McCormick trong thời gian sự việc này diễn ra, đã dẫn ra một khái niệm của Ben Thompson: Hype Tax (Thuế cường điệu). Ý là, nếu bạn dùng câu chuyện cực đoan để xây dựng ảnh hưởng của mình, thì khi câu chuyện này gặp quyền lực thực sự, bạn phải trả giá cho nó. Bạn so sánh công nghệ AI với vũ khí hạt nhân, chính phủ sẽ đối xử với bạn theo cách đối xử với vũ khí hạt nhân.

Anthropic đã trả giá cho câu chuyện này: mất một hợp đồng, bị liệt vào rủi ro an ninh, bị tổng thống chỉ đích danh, tất cả sản phẩm của công ty bị yêu cầu xóa sạch khỏi hệ thống liên bang trong sáu tháng.

Nhưng cùng một cuối tuần, cùng một câu chuyện đó lại tạo ra hiệu ứng hoàn toàn ngược lại ở một chiều kích khác.

Người dùng phổ thông nhìn thấy không phải là điều khoản hợp đồng, không phải giải thích pháp lý, không phải tranh cãi triết lý an ninh. Họ thấy: Một công ty nói không, bị chính phủ đá ra. Một công ty khác nói đồng ý, nhận được hợp đồng. Họ dùng khuôn khổ đánh giá của mình để lựa chọn, 295% lượt gỡ cài đặt, vị trí số 1 App Store, máy chủ ngừng hoạt động.

Đây là sự biểu đạt đạo đức tập thể của người tiêu dùng hiếm thấy trong lịch sử ngành AI.

Anthropic không chi một xu ngân sách quan hệ công chúng cho sự việc này. Tuyên bố của Amodei có ngôn từ chừng mực, không kêu gọi người dùng ủng hộ, không chỉ đích danh OpenAI, không tự tạo dựng mình thành người tuẫn đạo. Nhưng kết quả đã xảy ra.

Ở đây có một chi tiết đáng chú ý: Sự kiện khiến người dùng đổ về Claude, về bản chất là OpenAI đã làm một việc hoàn toàn hợp lý về mặt thương mại, ký kết thỏa thuận khi đối thủ cạnh tranh bị cấm, hợp đồng treo lơ lửng, và tuyên bố đã thảo luận các điều khoản bảo vệ tương tự. Altman cũng nói rõ, anh làm vậy một phần là để giúp giảm nhiệt tình hình, ngăn chặn tổn hại thêm cho Anthropic.

Dù động cơ thế nào, kết quả là OpenAI nhận được hợp đồng, người dùng Anthropic tăng trưởng. Cả hai bên đều có cái giá phải trả, cả hai bên đều có thu hoạch, chỉ là đơn vị tính khác nhau.

Còn một việc nữa đáng đặt ở đây.

Hợp đồng Lầu Năm Góc mà Anthropic mất, trị giá khoảng 200 triệu USD.

Doanh thu theo năm hiện tại của Anthropic, là 14 tỷ USD. Mục tiêu là đạt 26 tỷ USD trong năm 2026.

Anthropic tháng trước vừa hoàn thành vòng gọi vốn E Series 30 tỷ USD, định giá 380 tỷ USD.

Bài toán này, bây giờ không khó tính. Nhưng còn một câu hỏi khác chưa có lời giải: Khi AI thực sự được sử dụng quy mô lớn cho quyết định quân sự, những "lan can kỹ thuật" và kỹ sư được cử đến ghi trong hợp đồng, rốt cuộc có tác dụng hay không, dù là của OpenAI, hay những điều Anthropic vốn yêu cầu.

Câu hỏi này, không nằm trong bất kỳ hợp đồng công khai nào.

Câu hỏi Liên quan

QTại sao Claude bị chính phủ Mỹ cấm và liệt vào danh sách rủi ro an ninh chuỗi cung ứng?

AClaude (công ty Anthropic) bị cấm vì từ chối ký hợp đồng với Lầu Năm Góc do không đồng ý với điều khoản cho phép sử dụng AI cho 'tất cả mục đích hợp pháp' mà không có điều kiện ràng buộc cụ thể. Công ty này muốn bổ sung hai ngoại lệ rõ ràng: không sử dụng cho giám sát hàng loạt công dân Mỹ và không dùng cho vũ khí tự động hoàn toàn.

QPhản ứng của người dùng đối với sự kiện này như thế nào?

ANgười dùng đã phản ứng mạnh mẽ bằng cách gỡ cài đặt ChatGPT hàng loạt (tăng 295%), đánh giá 1 sao tăng 775%, và chuyển sang sử dụng Claude, đẩy ứng dụng này lên vị trí số 1 trên App Store. Họ lập trang web QuitGPT.org và chia sẻ rộng rãi việc hủy đăng ký trên mạng xã hội để phản đối OpenAI.

QAnthropic đã làm gì để thu hút người dùng từ ChatGPT?

AAnthropic đã ra mắt công cụ chuyển đổi ký ức (memory migration tool), cho phép người dùng sao chép dữ liệu cá nhân hóa từ ChatGPT sang Claude một cách dễ dàng. Đồng thời, họ mở rộng tính năng ký ức cho người dùng miễn phí, giảm thiểu rào cản chuyển đổi và giữ chân người dùng mới.

QSự khác biệt trong triết lý an ninh giữa OpenAI và Anthropic là gì?

AOpenAI có triết lý an ninh dựa trên luật hiện hành: họ chỉ từ chối các mục đích bất hợp pháp. Trong khi đó, Anthropic áp dụng triết lý chủ động hơn: họ từ chối cả những việc chưa bị luật pháp cấm nhưng có nguy cơ đe dọa giá trị dân chủ, như giám sát hàng loạt hoặc vũ khí tự động.

QHậu quả tài chính và thị trường của sự kiện này đối với Anthropic là gì?

AMặc dù mất hợp đồng 200 triệu USD với Lầu Năm Góc, Anthropic lại thu về lợi ích đáng kể từ thị trường tiêu dùng: số người dùng hoạt động miễn phí tăng 60%, đăng ký mới tăng gấp 4 lần. Công ty vừa hoàn thành vòng gọi vốn 300 tỷ USD với định giá 3800 tỷ USD và có doanh thu hàng năm 140 tỷ USD, mục tiêu đạt 260 tỷ USD trong năm 2026.

Nội dung Liên quan

Rủi ro chiến tranh được định giá như thế nào? Thị trường dự đoán đi trước giá dầu

Bài viết phân tích cách thị trường dự đoán (prediction markets) và tài sản kỹ thuật số định giá rủi ro chiến tranh giữa Mỹ và Iran trước thị trường truyền thống. Khi căng thẳng leo thang vào cuối tuần, các thị trường chứng khoán và hàng hóa truyền thống đóng cửa, nhưng thị trường tiền mã hóa và các hợp đồng hàng hóa trên blockchain (như dầu, vàng) vẫn hoạt động 24/7, ghi nhận biến động mạnh và hoàn thành việc định giá rủi ro đầu tiên. Các nền tảng như Polymarket và Opinion cho phép người dùng đặt cược vào xác suất xảy ra các sự kiện cụ thể (như tấn công quân sự, lãnh đạo bị mất chức), với khối lượng giao dịch lên đến hàng trăm triệu USD, biến rủi ro địa chính trị thành các con số xác suất có thể giao dịch được. Khi thị trường truyền thống mở cửa vào thứ Hai, giá dầu, vàng và tài sản an toàn đã điều chỉnh theo các biến động từ cuối tuần, hoàn thành việc định giá rủi ro hệ thống. Bài viết kết luận rằng cơ chế định giá rủi ro đang thay đổi, với các thị trường kỹ thuật số hoạt động 24/7 đóng vai trò ngày càng quan trọng trong việc phát hiện giá và định lượng rủi ro trong thời gian thực.

比推38 phút trước

Rủi ro chiến tranh được định giá như thế nào? Thị trường dự đoán đi trước giá dầu

比推38 phút trước

Khi AI Tiếp Quản Sức Sản Xuất, Những Nghề Nghiệp Nào Trong Web3 Bắt Đầu Biến Mất?

Dưới tác động của AI, cấu trúc việc làm trong lĩnh vực Web3 đang thay đổi mạnh mẽ. Một số vai trò truyền thống, lặp đi lặp lại đang dần bị thay thế bởi tự động hóa, trong khi những nghề nghiệp mới yêu cầu kỹ năng đa dạng đang xuất hiện. **Các vai trò đang giảm dần:** * **Lập trình viên Solidity cơ bản:** AI có thể tự động tạo ra các hợp đồng thông minh tiêu chuẩn. * **Nhà nghiên cứu/Nhà phân tích Web3:** Công cụ AI có thể tự động phân tích dữ liệu trên chuỗi và tạo báo cáo. * **Quản trị viên cộng đồng & Hỗ trợ khách hàng:** Hệ thống AI chatbot xử lý các truy vấn lặp lại. * **Nhà giao dịch tiền mã hóa: Bot giao dịch AI có tốc độ và hiệu suất vượt trội. * **Người sáng tạo NFT:** Công cụ AI tạo hình ảnh làm giảm nhu cầu với các tác phẩm nghệ thuật kỹ thuật số cơ bản. **Các vai trò mới nổi:** * **Kiến ​​trúc sư AI × Web3:** Thiết kế hệ thống kết hợp AI và blockchain. * **Điều phối viên đào tạo AI Agent:** Huấn luyện và quản lý hành vi của các tác nhân AI. * **Kỹ sư nhắc prompt Web3:** Tối ưu hóa đầu vào để AI tạo mã hợp đồng thông minh và phân tích. * **Nhà phân tích dữ liệu on-chain bằng AI:** Phân tích lượng lớn dữ liệu blockchain để tìm insight. * **Chuyên gia bảo mật hợp đồng thông minh sử dụng AI:** Sử dụng AI để kiểm tra lỗ hổng bảo mật. * **Nhà thiết kế chiến lược tự động hóa Web3:** Phát triển các chiến lược giao dịch DeFi tự động. **Xu hướng chung:** Quy mô nhóm nhỏ hơn, kỹ năng đa ngành (blockchain + AI + phân tích dữ liệu) trở nên quan trọng hơn, và các vai trò cấp cao như kiến trúc và bảo mật ngày càng được coi trọng. Về lâu dài, AI không làm suy yếu mà thúc đẩy Web3 phát triển, nơi nhân tài với khả năng sáng tạo và tư duy hệ thống là nguồn lực quan trọng nhất.

比推44 phút trước

Khi AI Tiếp Quản Sức Sản Xuất, Những Nghề Nghiệp Nào Trong Web3 Bắt Đầu Biến Mất?

比推44 phút trước

Giao dịch

Giao ngay
Hợp đồng Tương lai
活动图片