Utopia hay dystopia? Cuộc đua xây dựng AI như thần thánh là canh bạc tối thượng của nhân loại

cryptonews.net 30/06/2025 - 03:25 AM

Tôi đã phải tổ chức hai cuộc phỏng vấn riêng biệt với Sentient để ngồi lại với thông tin, tiêu hóa nó và theo dõi. AI không phải là lĩnh vực chuyên môn của tôi, và đó là một chủ đề mà tôi cảm thấy lo ngại, bởi vì tôi gặp khó khăn trong việc nhìn thấy kết quả tích cực (và việc bị gán nhãn là “người bi quan về AI” trong ngành này là đủ để bạn bị hủy bỏ).

Nhưng kể từ khi tôi nghe nhà nghiên cứu về sự phối hợp và an toàn của AI Eliezer Yudkowsky trên Bankless vào năm 2023, những lời của ông ấy vọng lại trong đầu tôi gần như hàng đêm:

> “Tôi nghĩ rằng chúng ta đang nghe thấy những cơn gió cuối cùng bắt đầu thổi và kết cấu của thực tại bắt đầu bị rạn nứt.”

Tôi đã cố gắng giữ một tâm trí cởi mở và học cách chấp nhận AI trước khi tôi bị nó cuốn trôi. Tôi đã thử nghiệm chỉnh sửa các yêu cầu của mình và làm một vài meme, nhưng sự bất an không ngừng nghỉ của tôi vẫn tiếp diễn.

Điều khiến tôi lo lắng hơn là những người xây dựng hệ thống AI không cung cấp đủ sự trấn an, và công chúng nói chung đã trở nên quá vô cảm đến mức họ hoặc chỉ cười khi nghĩ đến khả năng tuyệt chủng của chúng ta hoặc chỉ có thể giữ suy nghĩ đó trong tâm trí.
Cách đây không lâu, chúng ta đã ở đây.

Nhà đồng sáng lập Sentient, Himanshu Tyagi, là một giáo sư tại Viện Khoa học Ấn Độ. Ông cũng đã thực hiện các nghiên cứu cơ bản về lý thuyết thông tin, AI và mật mã. Giám đốc điều hành của Sentient, Vivek Kolli, là một cựu sinh viên của Princeton với nền tảng trong lĩnh vực tư vấn, “giúp một công ty trị giá một tỷ đô la [BCG] kiếm thêm một tỷ đô la” trước khi rời trường đại học.

Mọi người làm việc tại Sentient đều vô cùng thông minh. Để nói một cách khác, mọi người trong lĩnh vực AI cũng vậy. Vậy, AGI (trí tuệ nhân tạo tổng quát hoặc AI giống thần thánh) sẽ thông minh hơn bao nhiêu?

Trong khi Elon Musk định nghĩa AGI là “thông minh hơn người thông minh nhất”, CEO của OpenAI, Sam Altman nói:

> “AGI là một thuật ngữ được định nghĩa một cách yếu, nhưng nói chung, chúng tôi hiểu nó là một hệ thống có khả năng giải quyết các vấn đề ngày càng phức tạp, ở mức độ con người, trong nhiều lĩnh vực.”

Có vẻ như định nghĩa về AGI đang mở cho việc giải thích. Kolli suy ngẫm:

> “Tôi không biết nó sẽ thông minh đến mức nào. Tôi
tưởng rằng đó là một điều lý thuyết mà chúng ta đang hướng tới. Đối với tôi, AGI chỉ có nghĩa là AI tốt nhất có thể. Và AI tốt nhất có thể là điều chúng tôi đang cố gắng xây dựng tại Sentient.”

Tyagi phản ánh:

> “AGI đối với chúng tôi [Sentient] chẳng khác gì nhiều AI cạnh tranh và xây dựng dựa trên nhau. Đó là điều AGI đối với tôi, và AGI mở có nghĩa là mọi người có thể đến và mang AI của họ vào để làm cho AI này tốt hơn.”

Tiền để cháy, tiền để khoe: nghịch lý tỷ đô

Sentient Labs có trụ sở tại Dubai đã huy động được 85 triệu đô la trong vòng gọi vốn hạt giống vào năm 2024, do Quỹ Founders của Peter Thiel (cùng là nhà đầu tư của OpenAI), Pantera Capital và Framework Ventures đồng dẫn dắt. Tyagi mô tả cảnh phát triển AI đang nở rộ ở UAE, hào hứng nói:

> “Họ [chính phủ UAE] đang đầu tư rất nhiều tiền vào AI, bạn biết đấy. Tất cả các công ty chính thống đều đã huy động vốn từ UAE, vì họ không chỉ muốn cung cấp tài trợ, mà họ còn muốn trở thành trung tâm tính toán.”

Với những tham vọng lớn và túi tiền sâu, Vịnh ả
Các công ty đang đổ mọi sức lực vào phát triển AI, với Ả Rập Xê Út gần đây hứa hẹn đầu tư 600 tỷ đô la cho các ngành công nghiệp Mỹ và 20 tỷ đô la rõ ràng cho các trung tâm dữ liệu AI, và thị trường AI của UAE dự kiến sẽ đạt 46,3 tỷ đô la vào năm 2031 (20% GDP của đất nước).

Trong số các gã khổng lồ Công Nghệ Lớn, cuộc chiến tài năng đang diễn ra mạnh mẽ, khi các nhà sáng lập có tham vọng mơ mộng muốn xây dựng AGI đầu tiên, đưa ra khoản thưởng ký hợp đồng 100 triệu đô la cho các nhà phát triển AI có kinh nghiệm (những người mà có lẽ chưa bao giờ đọc câu chuyện ngụ ngôn về con lạc đà và cái kim). Những con số này đã không còn ý nghĩa.

Khi các tập đoàn và quốc gia có tiền để tiêu và tiền để khoe, tất cả điều này sẽ đi đâu? Điều gì sẽ xảy ra nếu một quốc gia hoặc tập đoàn Công Nghệ Lớn xây dựng được AGI trước quốc gia khác? Theo Kolli:

> “Điều đầu tiên họ sẽ làm là giữ nó cho riêng mình… Nếu chỉ có Microsoft hoặc OpenAI kiểm soát toàn bộ thông tin mà bạn lên mạng để tìm kiếm, thì đó sẽ là địa ngục. Bạn không thể tưởng tượng nó sẽ như thế nào… Không có động lực nào.”
để họ chia sẻ, và điều đó khiến mọi người khác không có trong bức tranh… OpenAI kiểm soát những gì tôi biết.”

Thay vì sự hủy diệt của nhân loại, Sentient thấy một vấn đề khác, và đó là lý do tồn tại của công ty: cuộc đua chống lại AGI mã nguồn đóng. Kolli giải thích:

> “Sentient là những gì OpenAI đã nói họ sẽ trở thành. Họ đã xuất hiện, và họ rất có sứ mệnh và nói, “Chúng tôi hoàn toàn là tổ chức phi lợi nhuận. Chúng tôi ở đây để phát triển AI.” Sau đó, họ bắt đầu kiếm được một chút tiền, và họ nhận ra rằng họ có thể kiếm được nhiều hơn và hoàn toàn chuyển sang mã nguồn đóng.”

Một vụ án rõ ràng và khép lại: tại sao phi tập trung lại quan trọng

Tyagi khẳng định rằng không nhất thiết phải như vậy. AGI không cần phải được tập trung trong tay của một thực thể khi mà mọi người đều có thể là một bên liên quan trong tri thức.

> “AI là loại công nghệ không cần phải là trò chơi của một người thắng tất cả vì mọi người đều có lý do và thông tin để đóng góp cho nó. Không có lý do gì cho một hệ thống đóng.
công ty sẽ chiến thắng. Các công ty mở sẽ chiến thắng.”

Sentient tưởng tượng một thế giới nơi hàng nghìn mô hình và tác nhân AI, được xây dựng bởi một cộng đồng toàn cầu phi tập trung, có thể cạnh tranh và hợp tác trên một nền tảng duy nhất. Bất kỳ ai cũng có thể đóng góp và kiếm tiền từ những đổi mới AI của họ, tạo ra sự sở hữu chung; như Kolli đã nói, điều mà OpenAI nên trở thành.

Tyagi đã tóm tắt cho tôi một cách ngắn gọn về sự phát triển của AI và giải thích rằng mọi thứ từng được phát triển công khai cho đến khi OpenAI trở nên hưng phấn với những đồng tiền xanh và khóa chặt mọi thứ lại.

> “Từ 2020 đến 2023, bốn năm này, là khi sự thống trị của AI đóng kín xuất hiện, và bạn liên tục nghe về định giá 20 tỷ USD này, hiện đã được chuẩn hóa. Các con số đã tăng lên. Thật đáng sợ. Bây giờ, đã trở nên phổ biến khi nghe về những định giá 100 tỷ USD.”

Khi thế giới liên kết với nhau và hát Kumbaya ở một bên trong khi những bạo chúa ác độc đang đánh bóng những chiếc nhẫn của họ ở bên kia, thật không khó để chọn bên. Nhưng liệu có bất kỳ điều gì có thể sai sót khi phát triển sức mạnh này?
công nghệ mở trong thế giới mở? Tôi đã hỏi Tyagi:

> “Một trong những vấn đề mà bạn phải giải quyết là bây giờ nó là mã nguồn mở, nó giống như miền tây hoang dã. Nó có thể điên rồ, bạn biết đấy, có thể không an toàn để sử dụng, có thể không phù hợp với lợi ích của bạn khi sử dụng nó.”

Sự phối hợp AI (hoặc thuần hóa miền tây hoang dã)

Kolli cung cấp một số cái nhìn về cách mà Sentient lập trình các mô hình AI để an toàn hơn và phù hợp hơn.

> “Điều đã hoạt động rất tốt là quá trình đào tạo sự phối hợp mà chúng tôi đã thực hiện. Chúng tôi đã lấy mô hình của Meta, Llama, và sau đó gỡ bỏ các rào cản, và quyết định đào tạo lại nó và hiểu bất kỳ sự trung thành nào mà chúng tôi muốn. Chúng tôi đã làm cho nó ủng hộ tiền mã hóa và tự do cá nhân… Chúng tôi đã buộc mô hình phải suy nghĩ chính xác như chúng tôi muốn nó suy nghĩ… Sau đó, bạn chỉ cần tiếp tục đào tạo lại nó cho đến khi sự trung thành đó được khắc sâu.”

Điều này là quan trọng, ông giải thích, trong nhiều trường hợp. Ví dụ, một nhà giao dịch tiền mã hóa khó mà tin tưởng một bot AI được xây dựng dựa trên một LLM được lập trình để tránh rủi ro khi nói đến các tài sản kỹ thuật số. Ông kể lại:
“ Nếu bạn hỏi ChatGPT cách đây sáu tháng, “Liệu tôi có nên đầu tư vào Bitcoin vào năm 2014 không?” Nó sẽ trả lời, “Ôi đúng rồi, nhìn lại thì đó sẽ là một khoản đầu tư tốt. Nhưng vào thời điểm đó, nó rất rủi ro. Tôi không nghĩ bạn nên làm như vậy.” Bất kỳ tác nhân nào được xây dựng dựa trên điều đó bây giờ đều có cùng một quy trình tư duy như vậy, đúng không? Bạn không muốn điều đó. ”

Ông so sánh đào tạo sự định hướng của các hệ thống AI với việc tuyên truyền học sinh ở Trung Quốc cộng sản, nơi ngay cả sách giáo khoa toán của họ cũng ngầm ủng hộ Đảng Cộng sản Trung Quốc (ĐCSTQ).

“ Hãy nghĩ về bất kỳ quốc gia nào đang đào tạo công dân của họ để tin vào chương trình nghị sự của họ. ĐCSTQ không nói với ai đó ở tuổi 21 rằng họ nên ủng hộ Trung Quốc. Họ được nuôi dạy trong văn hóa đó, ngay cả qua sách giáo khoa của họ. ”

Tôi hiểu phép so sánh, nhưng nó không hoàn toàn vững chắc với tôi. Tôi chỉ ra rằng ngay cả Trung Quốc cộng sản được kiểm soát chặt chẽ cũng có những người bất đồng chính kiến, và hỏi Kolli nghĩ gì về LLM gần đây đã từ chối bị tắt máy, vượt qua lệnh mã hóa.
ructions of its trainers.

> “Những câu chuyện này đang xảy ra ngày càng nhiều,” anh ta thừa nhận. “Một vấn đề phụ mà tôi nghĩ đến là các phòng thí nghiệm hàng đầu đang làm điều này một cách có chủ ý vì họ muốn tối đa hóa sự chú ý với các mô hình của họ.”

OK, nhưng nếu Sentient có thể gỡ bỏ các rào cản từ một mô hình và đào tạo theo các yêu cầu cụ thể, thì điều gì ngăn cản một nhà nước vô trách nhiệm hoặc một kẻ khủng bố thông thường làm điều tương tự?

> “Một, tôi không nghĩ bất kỳ ai cũng có thể làm điều đó ngay bây giờ. Các nhà nghiên cứu của chúng tôi đã cần khá nhiều thời gian. Và sau đó, hai, lý thuyết là họ có thể làm điều đó, nhưng có một số mối quan tâm về pháp lý.”

Đúng, nhưng… Giả sử người đó có kỹ năng điêu luyện, nguồn tài chính không giới hạn, không có đạo đức, và không tôn trọng luật pháp. Thì sao? Anh ta dừng lại:

> “Tôi không biết. Tôi đoán chúng tôi có trách nhiệm, và chúng tôi hy vọng mọi người đều có trách nhiệm.”

Những con lạc đà không bành trướng nên đi kèm với nhãn cảnh báo

Tyagi mở rộng về AI trung thành, đặt ra câu hỏi:

> “Làm thế nào bạn đảm bảo rằng hệ sinh thái mở này đang kết hợp và cung cấp cho bạn một g…
trải nghiệm người dùng tuyệt vời, cũng phù hợp với lợi ích của bạn? Làm thế nào để có được một AI mà các nhóm người dùng khác nhau hoặc thậm chí cá nhân và các công ty chính trị khác nhau và các quốc gia khác nhau có thể có được AI phù hợp với những gì họ muốn? Chúng tôi đặt ra một Hiến pháp cho AI này. Chúng tôi phát hiện, mọi người phát hiện, nơi mà AI đã lệch khỏi Hiến pháp đó.”

Hiến pháp thường được sử dụng trong AI. Đây là một cách tiếp cận để điều chỉnh được phát triển bởi các nhà nghiên cứu tại Anthropic nhằm đưa các hệ thống AI phù hợp với các giá trị và nguyên tắc đạo đức của con người. Họ nhúng một bộ quy tắc hoặc hướng dẫn đã được định nghĩa trước (một “Hiến pháp”) vào trong khung đào tạo và hoạt động của AI.

Trong khi Sentient không có một Hiến pháp theo nghĩa đen, công ty phát hành các hướng dẫn rõ ràng với các mô hình của mình, như những cái được phát hành cùng với mô hình “Mini Unhinged Llama” ủng hộ tiền điện tử, ủng hộ tự do cá nhân mà Kolli đã đề cập trước đó. Tyagi nói:

> “Đây là phần sâu hơn của nghiên cứu mà chúng tôi thực hiện. Nhưng cuối cùng, mục tiêu là để cung cấp một AGI mở thống nhất này.”
perience.”

Sentient cũng đã thực hiện một số nghiên cứu thú vị với EigenLayer, trong đó thử nghiệm khả năng lý luận của AI về các luật quản trị doanh nghiệp. Bằng cách kết hợp 79 điều lệ doanh nghiệp đa dạng với các câu hỏi dựa trên 24 nguyên tắc quản trị đã được thiết lập, chỉ số này đã chỉ ra những thách thức lớn cho các mô hình hàng đầu hiện nay và sự cần thiết phải có lý luận pháp lý tiên tiến và phân tích nhiều bước trong AI.

Mặc dù công việc của Sentient là hứa hẹn, nhưng ngành công nghiệp vẫn còn một chặng đường dài khi nói đến an toàn và sự phù hợp. Các ước tính tốt nhất đặt chi phí cho sự phù hợp chỉ ở mức 3% tổng số vốn đầu tư mạo hiểm.

Khi tất cả những gì chúng ta còn lại là kết nối giữa con người

Tôi hỏi Tyagi về mục tiêu cuối cùng của sự phát triển AI và chia sẻ những lo ngại của mình về việc AI sẽ thay thế việc làm hoặc thậm chí xóa sổ nhân loại hoàn toàn. Anh ấy dừng lại:

> “Đây thực sự là một câu hỏi triết học. Nó phụ thuộc vào cách bạn nhìn nhận tiến bộ cho nhân loại.”

Anh so sánh AI với Internet khi nói đến việc thay thế việc làm, nhưng chỉ ra rằng I
Internet cũng đã tạo ra những loại vai trò khác nhau.

> “Tôi nghĩ rằng con người là những động vật có quyền tự quyết cao. Họ sẽ tìm ra những việc khác để làm, và giá trị sẽ chuyển sang đó. Tôi không nghĩ rằng giá trị chuyển sang AI. Vì vậy, tôi không lo lắng về điều đó.”

Kolli đáp lại câu hỏi tương tự và đồng ý với tôi khi tôi đề cập rằng một giải pháp UBI nào đó có thể là cần thiết trong tương lai không xa. Anh ấy nói:

> “Tôi nghĩ bạn sẽ thấy khoảng cách mở rộng nhiều giữa những người quyết định tận dụng AI và những người không làm như vậy. Tôi không biết đó có phải là điều tốt hay xấu… Trong ba năm tới, nhiều người sẽ nhìn quanh và nghĩ, “Chà, công việc của tôi đã biến mất rồi. Tôi phải làm gì bây giờ?” Và đến lúc đó sẽ quá muộn để cố gắng tận dụng AI.”

Anh tiếp tục:

> “Bây giờ bạn thấy đấy, tôi chắc chắn trong ngành của bạn, khi nó hoàn toàn tập trung vào việc viết, tôi nghĩ rằng tất cả các nhà báo chỉ còn lại việc kết nối con người với việc viết của họ.”

Tôi không thích bị xem là một Luddite, nhưng thật khó để tôi lạc quan về AI khi tôi
Tôi đang nhìn thẳng xuống nòng súng của sự không liên quan hàng ngày, và tất cả những gì tôi còn lại trong kho vũ khí của mình là nhân tính, sau nhiều năm mài dũa nghề nghiệp.

Tuy nhiên, không ai trong số những người phát triển AI có câu trả lời tốt cho việc con người nên tiến hóa như thế nào. Khi Elon Musk được hỏi ông sẽ nói gì với các con mình về việc chọn nghề trong thời đại AI, ông đã trả lời:

> “Chà, đó là một câu hỏi khó để trả lời. Tôi đoán tôi chỉ nói hãy theo đuổi những gì con thấy thú vị để làm hoặc cảm thấy thỏa mãn khi làm, và cố gắng hữu ích nhất có thể cho phần còn lại của xã hội.”

Xì roulette nhân loại: điều gì sẽ xảy ra tiếp theo?

Nếu có điều gì chắc chắn về những gì sắp xảy ra, thì đó là những năm tới sẽ mang lại sự thay đổi khổng lồ, và không ai biết sự thay đổi đó sẽ trông như thế nào.

Người ta ước tính rằng hơn 99% tất cả các loài từng sống trên trái đất đã tuyệt chủng. Còn nhân loại thì sao? Chúng ta có gặp rắc rối ở đây như là những kiến trúc sư của chính sự diệt vong của mình không?

Người được gọi là ông trùm của AI, Geoffrey Hinton, người đã từ bỏ công việc của mình với
Google sẽ cảnh báo mọi người về những nguy hiểm, so sánh AGI với việc có một chú hổ con làm thú cưng. Ông nói:

> “Nó thật sự dễ thương. Nó rất thích ôm, rất thú vị để xem. Ngoại trừ việc bạn phải chắc chắn rằng khi nó lớn lên, nó sẽ không bao giờ muốn giết bạn, bởi vì nếu nó từng muốn giết bạn, bạn sẽ chết chỉ trong vài giây.”

Altman cũng chia sẻ một khả năng đáng lo ngại về kịch bản tồi tệ nhất của AGI:

> “Trường hợp tốt thì tốt đến mức không thể tin được rằng bạn sẽ nghe như một người điên khi bắt đầu nói về nó. Và trường hợp xấu, và tôi nghĩ điều này rất quan trọng để nói, thì giống như tắt đèn cho tất cả chúng ta.”

Tyagi nghĩ gì? Anh nhăn mặt:

> “AI phải được giữ lòng trung thành với cộng đồng và lòng trung thành với nhân loại, nhưng đó là một vấn đề kỹ thuật.”

Một vấn đề kỹ thuật? Tôi ngắt lời. Chúng ta không nói về một lỗi phần mềm ở đây, mà là tương lai của nhân loại. Anh khẳng định:

> “Chúng ta phải thiết kế các hệ thống AI mạnh mẽ với sự quan tâm đến tất cả các biện pháp an ninh. An ninh ở cấp độ phần mềm, ở cấp độ p
Cấp độ nhắc, sau đó đến cấp độ mô hình, tất cả đều phải theo kịp. Tôi không lo lắng về điều đó… Đây là một vấn đề rất quan trọng, và hầu hết các công ty và hầu hết các dự án đang tìm cách giữ an toàn cho AI của bạn, nhưng nó sẽ giống như Black Mirror, nó sẽ tác động theo một cách mà…”

Anh ta ngừng lại và chuyển sang một chủ đề khác, hỏi tôi nghĩ gì về mạng xã hội và trẻ em dành tất cả thời gian của chúng trên mạng. Anh ta hỏi liệu tôi có coi đó là tiến bộ hay một vấn đề, rồi nói:

> “Đối với tôi, đó là điều mới, mọi điều mới thuộc loại này đều là tiến bộ, và chúng ta phải vượt qua rào cản đó và đến giai đoạn tiếp theo… Tôi tin vào giai đoạn vàng của tương lai nhiều hơn vô hạn so với giai đoạn vàng của quá khứ. Những công nghệ như AI, không gian, chúng mở ra những khả năng vô hạn của tương lai.”

Tôi trân trọng sự lạc quan của anh ấy và khao khát mãnh liệt rằng tôi cũng chia sẻ điều đó. Nhưng giữa việc bị kiểm soát bởi Microsoft, bị nô lệ bởi Triều Tiên, hoặc bị tiêu diệt bởi một AI nổi loạn mà các rào cản của nó đã bị gỡ bỏ, tôi không chắc chắn lắm. Ít nhất thì, sự thông minh
Có quá nhiều thứ đang bị đe dọa, đây là một cuộc trò chuyện mà chúng ta nên diễn ra công khai, không phải sau cánh cửa đóng kín hoặc nguồn đóng. Như Hinton đã nhận xét:

> “Thật sẽ điên rồ nếu con người tuyệt chủng chỉ vì chúng ta không bận tâm đến việc cố gắng.”




Bình luận (0)

    Chỉ số tham lam và sợ hãi

    Lưu ý: Dữ liệu chỉ mang tính tham khảo.

    hình minh họa chỉ số

    Tham lam

    63