Tháng 5 năm 2026, tại Tòa án Liên bang Oakland, lớp vỏ lọc của OpenAI bị bóc từng tầng một.
Trước mắt bồi thẩm đoàn hiện ra một màn kịch Rashomon đầy hỗn loạn:
Nhật ký riêng tư đan xen giữa lo âu và toan tính của Greg Brockman, Elon Musk không hề nhượng bộ quyền lực, vấn đề đạo đức của Sam Altman đi sát ranh giới, bóng dáng khổng lồ của Microsoft giữa sức mạnh tính toán và tư bản, cùng cuộc đảo chính hội đồng quản trị chóng vánh nhưng kết thúc vội vàng vào cuối năm 2023.
Trong đống hỗn độn đó, còn có một vấn đề nghe có vẻ lớn lao, nhưng khi đặt lên tòa lại vô cùng cụ thể: Liệu lời nói năm xưa của OpenAI về việc "mang lại lợi ích cho toàn nhân loại" đến nay còn có giá trị?
Tính đến ngày 15 tháng 5 năm 2026, phiên tòa này vẫn chưa có phán quyết cuối cùng, ý kiến tham khảo của bồi thẩm đoàn vẫn lơ lửng. Nhưng có một điều đã thực sự xảy ra: OpenAI bị kéo từ thần thoại trở về trần thế.
Những năm gần đây, OpenAI thường được viết như một câu chuyện về tương lai. ChatGPT bùng nổ, Altman chu du khắp các quốc gia, mô hình lớn xâm nhập vào văn phòng, trường học, điện thoại và quy trình công ty. Đây là một công ty sinh ra đã mang trong mình cảm giác cao cả tựa tôn giáo, mở miệng là nói đến vận mệnh nhân loại, sự thức tỉnh của trí tuệ, ranh giới an toàn và ánh bình minh của ngày mai, như một ngọn hải đăng được xây dựng sẵn cho nhân loại.
Nhưng tòa án không quan tâm những điều này. Tòa án hỏi về sự thật.
"Toàn nhân loại" lên ghế nhân chứng
Năm 2015, khi OpenAI ra đời, nó vẫn còn trong sạch.
Nó tự nhận mình là một công ty nghiên cứu AI phi lợi nhuận, mục tiêu là đưa trí tuệ số đến mức tối đa vì lợi ích của toàn nhân loại, không bị ràng buộc bởi áp lực lợi nhuận tài chính.
Altman và Musk là đồng chủ tịch, Brockman là CTO, Ilya Sutskever là người phụ trách nghiên cứu. OpenAI thời đó dường như vẫn giữ được chút chủ nghĩa lý tưởng cuối cùng của thời hoàng kim Thung lũng Silicon, những người thông minh nhất không phục vụ cho một công ty cụ thể, mà đang giúp nhân loại giữ lấy tương lai.
Mười năm sau, lời hứa đó được đưa vào tòa án.
Phía Musk nói rằng Altman, Brockman và OpenAI đã mượn sứ mệnh phi lợi nhuận để nhận được tiền tài và sự tin tưởng của ông, sau đó lại chuyển sang cấu trúc vì lợi nhuận, mang lại lợi ích cho cá nhân và Microsoft.
Phía OpenAI nói rằng, tiền của Musk là quyên góp, không kèm điều kiện cụ thể; ông ta sớm biết cấu trúc vì lợi nhuận đã được thảo luận, chỉ là không giành được quyền kiểm soát; giờ ông ta khởi kiện, vì hối hận đã rời đi, cũng vì xAI của chính mình đã trở thành đối thủ của OpenAI.
Những lời cả hai bên nói đều khá khó nghe.
Musk đặt mình vào vị trí người bảo vệ sứ mệnh. OpenAI đặt ông vào vị trí người sáng lập mất kiểm soát. Một bên nói "các người đã đánh cắp tổ chức từ thiện", một bên nói "ông chỉ là không kiểm soát được nó". Nghe đến cuối, điều lúng túng nhất không phải là bên nào kể chuyện hay hơn, mà là cụm từ "toàn nhân loại" được nhắc đi nhắc lại, nhưng chưa bao giờ thực sự ngồi vào bàn.
Từ "toàn nhân loại" xuất hiện trong thông báo thành lập, điều lệ, bài phát biểu và các phương tiện truyền thông, chiếm lĩnh vị trí cao về đạo đức.
Nhưng khi lên tòa, nó bị tách thành bằng chứng: Nhật ký của Brockman có được coi là ý định thực sự không? Email năm 2017 nói lên điều gì? OpenAI LP năm 2019 thực sự đã chuyển đi cái gì? Đám mây và tiền của Microsoft có thay đổi hướng đi của công ty không? Vấn đề đạo đức của Altman, có thể hỗ trợ công ty tiếp tục nói "hãy tin chúng tôi" không?
Một công ty AI càng thích nói mình đại diện cho nhân loại, thì càng cần được hỏi cụ thể hơn: Nhân loại mà bạn nói, bao gồm những ai? Ai thay mặt những người này ký tên? Ai có thể thay thế bạn? Ai có thể kiểm tra sổ sách? Ai có thể nói không?
Tòa án đã không thể thay mặt công chúng trả lời những câu hỏi này, nhưng nó đã buộc chúng phải lộ ra.
Câu chuyện của OpenAI vì thế không còn giống một lịch sử trưởng thành của công ty tương lai, mà giống một món nợ cũ. Khi sổ sách được mở ra, người ta phát hiện, vết nứt không phải mới xuất hiện sau khi ChatGPT bùng nổ.
Vết nứt năm 2017
OpenAI không thay đổi đột ngột.
Nếu chỉ nhìn từ ChatGPT, sẽ lầm tưởng rằng OpenAI bị tiền đẩy đi sau khi thành công, giống như nhiều công ty, đầu tiên nói lý tưởng, sau đó tính toán kinh doanh.
Nhưng phiên tòa đã lật ngược thời gian, trở lại năm 2017. Lúc đó OpenAI chưa có thanh thế như ngày nay, AGI cũng chưa trở thành từ mọi người hay nói, nhưng đội ngũ sáng lập đã gặp một vấn đề: Nếu họ thực sự muốn làm trí tuệ nhân tạo phổ quát, chỉ dựa vào quyên góp và nhiệt huyết, là không đủ.
Đây là thời khắc khó khăn nhất của chủ nghĩa lý tưởng Thung lũng Silicon. Lý tưởng càng lớn, hóa đơn càng lớn. Hóa đơn càng lớn, tổ chức càng khó giữ được sự trong sạch. Những lời đầy tầm nhìn toàn nhân loại từng được nói trên sân khấu, cuối cùng đều phải rơi vào chip, máy chủ, lương kỹ sư, tài nguyên điện toán đám mây và vốn dài hạn. Không có những thứ này, AGI chỉ là mong muốn; có những thứ này, phi lợi nhuận bắt đầu trở nên khó duy trì.
Năm 2017, nội bộ OpenAI đã bắt đầu thảo luận về các con đường như công ty liên kết vì lợi nhuận, B-corp, hợp tác với các công ty hiện có, phụ thuộc vào Tesla. Musk từng đề xuất để OpenAI dựa vào Tesla làm nguồn vốn. Phía OpenAI phản kích, Musk lúc đó không đơn thuần phản đối việc theo đuổi lợi nhuận, quyền kiểm soát mới là điều ông ta không thể bỏ qua.
Năm đó còn có một cảnh tượng rất đáng nhớ: Dota.
Sau khi AI của OpenAI đánh bại người chơi hàng đầu trong Dota 1v1, đội ngũ lần đầu tiên nhận thức mạnh mẽ hơn rằng, thứ này có lẽ thực sự có thể làm lớn. Phiên tòa có đề cập đến một cuộc thảo luận diễn ra tại ngôi nhà cũ của Musk ở San Francisco, sau này được gọi là haunted mansion meeting, tại đó, họ ăn mừng đột phá công nghệ, cũng thảo luận xem OpenAI có nên hướng đến vì lợi nhuận hay không.
Nhiều công ty bắt đầu giải thích lại bản thân sau khi sản phẩm thành công. OpenAI sớm hơn. Trước khi nó trở thành một gã khổng lồ như ngày nay, những người sáng lập đã biết, cấu trúc phi lợi nhuận không thể chống đỡ được câu chuyện AGI. Lý tưởng của OpenAI ngay từ đầu đã cần một cỗ máy nặng nề hơn để nuôi dưỡng.
Vì vậy, một tổ chức thoạt nhìn là về an toàn khoa học, nhanh chóng bước vào đàm phán quyền kiểm soát.
Ai sẽ nắm tay lái? Musk hay Altman? Hay là hội đồng quản trị phi lợi nhuận hoặc các nhà đầu tư tương lai? Hay là "toàn nhân loại" chưa bao giờ thực sự xuất hiện?
Nhìn lại Musk lúc này, ông ta đương nhiên là nhà tài trợ quan trọng thời kỳ đầu, và thực sự đã tham gia xây dựng câu chuyện phi lợi nhuận của OpenAI. Nhưng đồng thời ông cũng là một trong những người sớm nhất trong câu chuyện này nhìn thấy AI có thể mang lại quyền lực lớn đến mức nào. Sau khi nhìn thấy, ông ta cũng muốn nắm chặt lấy nó.
Tay lái của Musk
Musk tại phiên tòa đã nhấn mạnh điều này: OpenAI đã bị đánh cắp.
Cách dùng từ này rất có sức mạnh. Nó nén một sự chuyển hướng tổ chức phức tạp thành một câu mà người bình thường cũng có thể hiểu. Một tổ chức từ thiện, vốn dĩ để phục vụ nhân loại, sau đó biến thành một cỗ máy thương mại khổng lồ. Nó nghe giống như chiếm đoạt tài sản, cũng giống như một sự phản bội đạo đức.
Nhưng trong tòa án không có câu chuyện đơn giản như vậy.
Luật sư của OpenAI khi thẩm vấn chéo Musk, trọng tâm là phá bỏ hình ảnh nạn nhân đơn thuần của ông ta. Luật sư đưa ra email và tài liệu, truy hỏi ông ta có biết từ sớm rằng OpenAI có thể cần cấu trúc vì lợi nhuận không, cũng truy hỏi ông ta từng muốn thông qua Tesla để hấp thụ OpenAI, hoặc bằng cách khác để giành quyền chủ đạo.
Musk không thích cách bị phân tích này. Ông ta nói tại tòa rằng câu hỏi của đối phương là "lừa tôi". Thẩm phán nhiều lần yêu cầu ông trả lời trực tiếp. Khi ông muốn đưa chủ đề sang nguy cơ tuyệt chủng của AI, thẩm phán cũng nhắc nhở, vụ án này sẽ không thảo luận nhiều về tuyệt chủng.
Mấy cảnh này rất có thể nói lên con người của Musk.
Ông ta quen kể những câu chuyện lớn lao. Vận mệnh nhân loại, rủi ro AI, sao Hỏa, tự do biểu đạt, sự tồn vong của văn minh, đều là những chủ đề ông thích bàn luận. Nhưng tòa án yêu cầu ông trả lời những câu hỏi nhỏ hơn, sắc nhọn hơn: Ông biết khi nào, ông có đồng ý không, ông có muốn kiểm soát không, tiền của ông với OpenAI rốt cuộc là quyên góp hay đầu tư...
Mâu thuẫn trên người Musk, chính là mâu thuẫn trong câu chuyện OpenAI. Ông ta có thể thực sự sợ AI mất kiểm soát, cũng có thể thực sự cho rằng OpenAI đã đi trái với sứ mệnh. Nhưng điều này không ngăn cản việc ông ta cũng muốn công ty này vận hành theo ý chí của mình.
Một người càng tin mình đang cứu nhân loại, càng dễ cứng nhắc cho rằng nên do chính mình nắm tay lái.
Đây không phải là vấn đề của riêng Musk. Đây là màu sắc nền của nhiều câu chuyện lớn ở Thung lũng Silicon. Chúng thích diễn tả ý chí cá nhân thành sứ mệnh nhân loại, diễn tả ham muốn kiểm soát thành trách nhiệm, diễn tả quyền lực tổ chức thành nhu cầu tương lai. Musk chỉ là người biểu hiện điều này ra bên ngoài rõ ràng hơn, kịch liệt hơn, và dễ bị nhìn thấy hơn.
Vì vậy, Musk trong vụ án này không chỉ là người buộc tội, ông ta cũng là bằng chứng.
Nhật ký của Brockman
Greg Brockman vốn không phải là người nổi bật nhất trong vở kịch này.
Musk quá kịch tính, Altman quá trung tâm, Sutskever quá bi kịch, Microsoft quá lớn. Brockman kẹt ở giữa, ông là nhà sáng lập cốt lõi thời kỳ đầu của OpenAI, cũng là vai trò then chốt trong vận hành thực tế của công ty sau này. Nhưng phiên tòa này đẩy ông vào ánh đèn sân khấu, vì nhật ký cá nhân của ông đã trở thành bằng chứng.
Tuần thứ hai của phiên tòa, Brockman bị hỏi liên tục về nhật ký, email và tin nhắn của mình. Phía Musk sử dụng những tài liệu này để chứng minh ông và Altman sớm đã có động cơ vị kỷ. Phía OpenAI nói, Musk đã cắt xén ngữ cảnh.
Trong nhật ký có mục tiêu tài sản. Có sự lo lắng về con đường doanh thu của công ty. Có những câu như "making the billions". Gay mắt hơn là, trong nhật ký từng xuất hiện lời nhắc nhở bản thân về việc không thể đánh cắp "phi lợi nhuận" từ Musk, nếu không sẽ có nguy cơ phá sản đạo đức. Luật sư của Musk liên tục nắm lấy những nội dung này để truy hỏi. Brockman phủ nhận việc lừa dối Musk, cũng nói những văn bản cá nhân này không phải là biên bản sự kiện, mà là cách viết cá nhân theo dòng ý thức.
Nhật ký không phải là bản án. Nó không thể trực tiếp chứng minh họ đang thực hiện gian lận. Nó cũng có thể chứa đựng những suy nghĩ thô ráp mà một người viết ra khi mệt mỏi, lo lắng và tự diễn biến. Mọi người viết đều biết, ghi chú cá nhân không bằng với lập trường cuối cùng, càng không bằng với sự thật đầy đủ.
Nhưng điều thực sự quan trọng trong nhật ký của Brockman, không phải ở chỗ nó chứng minh được tội gì, mà ở chỗ nó cho thấy họ biết ranh giới ở đâu. Nhân vật cốt lõi thời kỳ đầu của OpenAI không phải hoàn toàn vô tri vô giác hướng đến thương mại hóa. Họ biết vỏ bọc "phi lợi nhuận" này có trọng lượng đạo đức, biết nguồn tài trợ thời kỳ đầu của Musk có quan hệ tin tưởng, biết rằng nếu vài tháng sau đã chuyển sang một cấu trúc khác, nhưng vẫn nói mình kiên định với phi lợi nhuận, sẽ trông không trung thực.
Biết, không có nghĩa là dừng lại.
Brockman trong phiên tòa tiết lộ, cổ phần OpenAI mà ông nắm giữ có giá trị gần 300 tỷ USD.
Mặc dù con số này không phải tiền mặt, không phải tài sản đã nằm trong túi. Nó là giá trị cổ phần dưới định giá, vẫn phụ thuộc vào triển vọng công ty và cấu trúc giao dịch. Nhưng ý nghĩa tượng trưng đã đủ. Một người từng lo lắng về ranh giới đạo đức trong nhật ký cá nhân, sau đó ngồi tại tòa án, bị hỏi về giá trị cổ phần OpenAI mình nắm giữ gần 300 tỷ USD. Sứ mệnh công ích và tài sản cá nhân, trong khoảnh khắc đó được đặt lên cùng một chiếc bàn.
Brockman giống như nhiều nhân vật then chốt trong các tổ chức xuất sắc, thông minh, tận tâm, có năng lực, có cảm giác hổ thẹn, cũng sẽ từng chút một thuyết phục bản thân tiếp tục tiến về phía trước.
Điều phức tạp nhất của OpenAI là ở đây. Nó không phải là một nhóm người xấu âm mưu hủy hoại lý tưởng. Mà giống như một nhóm người thông minh, tại mỗi thời điểm đều có thể tìm thấy lý do để tiếp tục tiến lên, cuối cùng đưa lời hứa ban đầu vào trong một cỗ máy mà ngay cả bản thân họ cũng chưa chắc hoàn toàn kiểm soát được.
Và trung tâm của cỗ máy này, là Altman.
Món nợ tin cậy của Altman
Sam Altman bị thẩm vấn trong phiên tòa này, không chỉ là câu nào đúng câu nào sai. Phía Musk thực sự tấn công vào tư cách thống trị của ông ta.
Trong lời bào chữa kết thúc, luật sư Steven Molo của Musk đặt vấn đề đạo đức của Altman vào vị trí trung tâm. Ông nói với bồi thẩm đoàn rằng, năm người Musk, Sutskever, Murati, Toner, McCauley từng làm việc nhiều năm với Altman đều gọi ông ta là "kẻ lừa dối".
Năm cái tên này quan trọng hơn bản thân cáo buộc.
Musk là đối thủ, có thể được cho là có xung đột lợi ích. Nhưng Sutskever là đồng sáng lập và cựu nhà khoa học trưởng của OpenAI; Murati từng là CTO, cũng từng đảm nhiệm CEO tạm thời ngắn ngủi năm 2023; Toner và McCauley là thành viên hội đồng quản trị cũ. Họ là những người trong cấu trúc quyền lực nội bộ OpenAI.
Chúng ta không thể đơn giản thô bạo nói Altman là người tốt hay người xấu.
Cảm tình nội bộ OpenAI đối với Altman rõ ràng là phức tạp. Ông ta có thể đẩy tổ chức đến trung tâm thế giới, cũng khiến một số nhân vật cốt cán cảm thấy bất an. Ông ta có khả năng tổ chức, khả năng huy động vốn, khả năng truyền thông và khứu giác chính trị cực mạnh, cũng vì thế đưa công ty đến vị trí ngày nay.
Khi hội đồng quản trị cách chức Altman năm 2023, lý do chính thức của OpenAI là ông giao tiếp với hội đồng quản trị "không đủ luôn luôn thành thật". Vài ngày sau, Altman trở lại. Năm 2024, OpenAI công bố tóm tắt điều tra của WilmerHale, thừa nhận giữa hội đồng quản trị cũ và Altman có sự đổ vỡ niềm tin, nhưng cũng cho rằng hội đồng quản trị hành động quá vội vàng, không thông báo trước cho các bên liên quan then chốt, cũng không điều tra đầy đủ hoặc cho Altman cơ hội phản hồi.
Những câu chuyện này nối lại với nhau, mới là món nợ tin cậy thực sự của Altman.
Ông ta không phải là anh hùng theo nghĩa truyền thống. Ông ta mang khuôn mặt của một quý tộc mới Thung lũng Silicon: biết kể sứ mệnh, biết tìm tiền, biết tổ chức nhân tài, biết xử lý truyền thông, biết đàm phán với công ty lớn, cũng có thể biến một phòng thí nghiệm thành công ty cấp thế giới.
Năng lực của ông ta càng mạnh, vấn đề cũng càng lớn: Nếu một công ty dựa vào uy tín cá nhân của ông ta để đảm bảo với thế giới "chúng tôi muốn mang lại lợi ích cho toàn nhân loại", thì mức độ đáng tin của ông ta không còn là vấn đề phẩm hạnh cá nhân, mà là vấn đề quản trị công cộng.
Altman tại tòa cũng có phản kích của riêng mình. Ông ta nói Musk nhiều lần cố gắng để Tesla hấp thụ OpenAI, và điều này không phù hợp với sứ mệnh của OpenAI. Ông ta còn nói, OpenAI thực tế đã tạo ra giá trị từ thiện quy mô khổng lồ.
Đây chính là chỗ khó của OpenAI. Nó có thể nói mình vẫn bị kiểm soát bởi phi lợi nhuận, cũng có thể nói thương mại hóa khiến phi lợi nhuận có giá trị lớn hơn; nhưng người bình thường nghe đến đây, khó mà không hỏi một câu: Nếu sứ mệnh công cộng phải dựa vào một công ty định giá khổng lồ và một CEO mạnh mẽ để giữ lấy, vậy rốt cuộc nó là sứ mệnh, hay là khoản vay tin cậy?
Năm 2023 hội đồng quản trị từng thử thu hồi khoản vay này. Nó đã thất bại.
Sứ mệnh thua trước hiện thực
Hội đồng quản trị của OpenAI không phải hoàn toàn không có quyền lực.
Trên giấy tờ, hội đồng quản trị phi lợi nhuận nắm quyền giám sát sứ mệnh. Năm 2019 OpenAI LP thành lập, OpenAI giải thích với bên ngoài rằng, đây là một cấu trúc lợi nhuận bị giới hạn, lợi nhuận của nhân viên và nhà đầu tư bị phong tỏa, phần vượt quá thuộc về phi lợi nhuận, toàn bộ vẫn do phi lợi nhuận kiểm soát. Thiết kế này nghe giống một giải pháp thỏa hiệp, vừa có thể huy động vốn, lại không hoàn toàn trao đi sứ mệnh.
Vấn đề là, hiện thực phát triển nhanh hơn nhiều so với điều lệ.
Sau năm 2019, OpenAI càng ngày càng gắn chặt với Microsoft. Microsoft đầu tư vốn, cung cấp điện toán đám mây và siêu máy tính, giành quyền thương mại hóa. Tài liệu tòa án cho thấy, lượng lớn IP và nhân viên của OpenAI chuyển vào thực thể vì lợi nhuận. Đến thời đại ChatGPT, OpenAI không còn chỉ là một viện nghiên cứu, mà là một hệ thống thương mại kết nối người dùng, khách hàng, nhà phát triển, tài nguyên điện toán đám mây, nhà đầu tư và cạnh tranh toàn cầu.
Một hệ thống như vậy không phải nhấn một cái là có thể dừng lại.
CEO Microsoft Satya Nadella tại tòa bị hỏi về khoản đầu tư 130 tỷ USD của Microsoft vào OpenAI, và nếu thành công có thể nhận được khoản lợi nhuận khoảng 920 tỷ USD. Câu trả lời của ông đại ý là, nếu chiếc bánh lớn lên, phi lợi nhuận cũng sẽ hưởng lợi.
Logic này rất điển hình: Thương mại hóa không phải là đi ngược lại sứ mệnh, mà là mở rộng nguồn vốn cho sứ mệnh.
Nhưng trong cùng một nhóm lời khai, tin nhắn giữa Nadella và Altman về việc ra mắt phiên bản trả phí ChatGPT cũng được nhắc đến. Nadella hỏi phiên bản trả phí khi nào lên, Altman nói sức mạnh tính toán không đủ, trải nghiệm chưa đủ tốt, nhưng Nadella rất sốt ruột, nói càng sớm càng tốt.
Khi OpenAI gắn chặt với Microsoft, nhịp độ sản phẩm, cam kết với khách hàng, hạn chế sức mạnh tính toán và lợi nhuận thương mại đã xoắn vào nhau. Hội đồng quản trị có thể thảo luận sứ mệnh, nhưng Microsoft phải đảm bảo trải nghiệm khách hàng; hội đồng quản trị có thể lo lắng vấn đề an toàn, nhưng người dùng và doanh nghiệp đã dùng rồi; hội đồng quản trị có thể cách chức CEO, nhân viên, nhà đầu tư, đối tác và dư luận sẽ lập tức tràn lên.
Quan điểm của Nadella về cuộc khủng hoảng hội đồng quản trị năm 2023 cũng rất quan trọng. Ông nói mình không nhận được lý do rõ ràng về việc Altman bị cách chức, còn chỉ trích hội đồng quản trị xử lý như "thành phố nghiệp dư". Điều quan trọng hơn là, lúc đó ông đã chuẩn bị sẵn sàng, nếu Altman và các nhân viên khác không thể trở lại OpenAI, sẽ để họ đến Microsoft.
Đây chính là hiện thực. Hội đồng quản trị phi lợi nhuận nhìn bề ngoài nắm tay lái, nhưng động cơ, chân ga, nhiên liệu và hành khách trên xe đã không chỉ do nó quản lý. Khi một công ty AI đã kết nối với định giá khổng lồ, nhà cung cấp điện toán đám mây, khách hàng doanh nghiệp, quyền chọn nhân viên và người dùng toàn cầu, hội đồng quản trị đại diện cho sứ mệnh rất khó thực sự đạp phanh.
Câu chuyện AGI càng lớn, hóa đơn sức mạnh tính toán càng lớn; hóa đơn sức mạnh tính toán càng lớn, càng cần đến gã khổng lồ điện toán đám mây; càng cần gã khổng lồ điện toán đám mây, sứ mệnh càng không thể chỉ được bảo vệ bởi điều lệ.
Trong thời đại AI, sức mạnh tính toán không phải là tài nguyên hậu trường. Bản thân sức mạnh tính toán chính là quyền lực. Ai cung cấp sức mạnh tính toán, người đó sẽ tham gia định nghĩa một công ty có thể đi nhanh đến đâu, đi về đâu, phục vụ ai. Ai có thể chịu đựng hóa đơn thất bại huấn luyện, người đó sẽ có thể đưa ra yêu cầu đối với lợi nhuận sau khi thành công. Ai có thể đảm bảo khách hàng doanh nghiệp ký đơn liên tục, người đó sẽ có tiếng nói hơn hội đồng quản trị khi khủng hoảng.
Phiên tòa này cho chúng ta thực sự nhìn rõ toàn bộ sự việc, nó nói với chúng ta thực ra không phải một người nào đó đã hủy hoại lý tưởng, lý tưởng nếu không có cơ thể chế độ đủ chắc chắn, sớm muộn cũng sẽ mọc ra một bộ khung hiện thực.
Bộ khung đó không nhất định xấu xa, nhưng nó nhất định không còn thuần khiết.
Người dùng không phải là khán giả
Musk, Altman, Brockman, Nadella, đều là những cái tên xa rời cuộc sống của chúng ta. Yêu cầu bồi thường hàng nghìn tỷ USD, giá trị cổ phần gần 300 tỷ USD, đầu tư 130 tỷ USD, lợi nhuận tiềm năng 920 tỷ USD, những con số này lớn đến mức không thực. Người bình thường ngồi trong văn phòng, sáng đi tàu điện ngầm, tối lướt TikTok, quan hệ với AI có thể chỉ là mở APP hỏi một câu: giúp tôi sửa một phương án, viết một đoạn code, dịch một email.
Nhưng vấn đề chính là ở đây.
OpenAI đã không còn là một phòng thí nghiệm xa xôi. Mô hình của nó đang đi vào viết lách, dịch thuật, lập trình, tìm kiếm, chăm sóc khách hàng, giáo dục, phần mềm văn phòng, quy trình doanh nghiệp. Một người bình thường chưa chắc đã biết OpenAI là LP, LLC hay PBC, cũng chưa chắc quan tâm Altman và Musk ai kể chuyện hay hơn, nhưng họ luôn sử dụng AI.
Trẻ em làm bài tập về nhà sẽ dùng nó, trường học phải quyết định đối mặt với bài luận AI thế nào; lập trình viên để nó viết code, công ty phải quyết định đo lường sản lượng của con người thế nào; người làm truyền thông dùng nó tra tài liệu, lập dàn ý, sửa tiêu đề, độc giả lại phải đối mặt với nhiều nội dung hơn không phân biệt được nguồn gốc; doanh nghiệp đưa nó vào quy trình chăm sóc khách hàng và phê duyệt, nhân viên phát hiện thời gian, hiệu suất của mình đang bị hệ thống ép lại.
Chúng ta từng nghĩ mình chỉ là người dùng. Nhưng người dùng sử dụng công cụ, công cụ cũng đang định hình người dùng.
Mô hình có thể trả lời cái gì, không thể trả lời cái gì; nội dung nào được coi là an toàn, nội dung nào được coi là có rủi ro; công ty nào có thể dùng mô hình mạnh hơn, người nào chỉ có thể sử dụng phiên bản được đóng gói; ngôn ngữ, nghề nghiệp, khu vực và kiến thức nào được hỗ trợ tốt hơn, cái nào bị đối xử thô ráp. Những vấn đề này trông rất kỹ thuật, nhưng cuối cùng đều sẽ rơi vào cuộc sống của người bình thường.
Vì vậy, phiên tòa OpenAI thực chất là một cửa sổ. Thông qua cửa sổ này, người ta có thể thấy hiện trường chế tạo cơ sở hạ tầng tương lai không sạch sẽ, cũng không minh bạch. Ở đó có người thông minh, có lý tưởng, có sợ hãi, có tham vọng, có cổ phần, có hóa đơn điện toán đám mây, có hội đồng quản trị cãi vã, cũng có một số tài liệu cá nhân không nghĩ sẽ bị đọc công khai.
Nước, điện, đường sá, trường học, bệnh viện, công cụ tìm kiếm, hệ thống điện thoại, những thứ này một khi đi vào đời sống hàng ngày, sẽ không chỉ là sản phẩm thương mại. AI cũng đang tiến đến vị trí này. Nó có thể chưa ổn định như nước, điện, nhưng đã bắt đầu được phụ thuộc như nước, điện. Một người có thể không dùng chatbot nào đó, nhưng rất khó mãi mãi né tránh quy trình công việc, cổng thông tin và quy tắc tổ chức được AI cải tạo.
Phiên tòa này cuối cùng dù ai thắng, người dùng bình thường ngày hôm sau phần lớn vẫn sẽ tiếp tục sử dụng AI. Học sinh vẫn sẽ để nó sửa bài luận, lập trình viên vẫn sẽ để nó bổ sung code, doanh nghiệp vẫn sẽ đưa nó vào hệ thống, nhà khởi nghiệp vẫn sẽ vây quanh mô hình làm ứng dụng.
Nhưng tòa án ít nhất đã xé mở một lớp bao bì. Nó nói với chúng ta, những AI đang đi vào đời sống hàng ngày, không phải mọc ra từ một cỗ máy minh bạch, ổn định, thuần khiết vì lợi ích công cộng. Chúng đến từ một nhóm người cụ thể, một bộ hợp đồng phức tạp, những hóa đơn điện toán đám mây, một cuộc đảo chính hội đồng quản trị, một số nhật ký cá nhân và một cuộc chiến quyền kiểm soát.
Đây không phải là câu chuyện có thể kể xong bằng một câu "tư bản bào mòn lý tưởng". Chỗ chân thực hơn, và cũng khiến người ta bất an hơn nằm ở chỗ, AI đang trở thành cơ sở hạ tầng của người bình thường, nhưng tay lái của nó, vẫn nằm trong tay số ít người.
Khi tương lai bắt đầu được làm thành sản phẩm, người bình thường không thể chỉ làm người dùng.










