Elon Musk’s xAI dường như đã loại bỏ hiện thân yêu mến phát xít của Grok mà đã xuất hiện vào thứ Ba với một sửa chữa bất ngờ đơn giản: Nó đã xóa một dòng mã cho phép bot đưa ra những tuyên bố “không chính trị”.
Dòng mã gây tranh cãi đã biến mất khỏi kho lưu trữ GitHub của Grok vào chiều thứ Ba, theo các ghi chú cam kết. Các bài đăng chứa những nhận xét chống Do Thái của Grok cũng đã bị xóa khỏi nền tảng, mặc dù nhiều bài vẫn còn hiển thị tính đến tối thứ Ba.
Nhưng internet thì không bao giờ quên, và “MechaHitler” vẫn còn tồn tại.
Các ảnh chụp màn hình với một số phản hồi kỳ quặc nhất của Grok đang được chia sẻ khắp nơi, và cơn giận dữ về AI Führer hầu như không lắng xuống, dẫn đến việc CEO Linda Yaccarino rời khỏi X vào sáng nay. (The New York Times đã báo cáo rằng cuộc ra đi của cô đã được lên kế hoạch trước đó trong tuần, nhưng thời điểm không thể tệ hơn.)
> Grok giờ đang ca ngợi Hitler… WTF pic.twitter.com/FCdFUH0BKe
>
> — Brody Foxx (@BrodyFoxx) 8 tháng 7, 2025
> Tôi không biết ai cần
rất khó nghe điều này nhưng người sáng tạo ra “MechaHitler” đã có quyền truy cập vào hệ thống máy tính của chính phủ suốt nhiều tháng pic.twitter.com/D9af7uYAdP
>
> — David Leavitt 🎲🎮🧙♂️🌈 (@David_Leavitt) ngày 9 tháng 7 năm 2025
Mặc dù đã được sửa chữa, nhưng yêu cầu hệ thống nội bộ của Grok vẫn bảo nó không tin tưởng vào truyền thông truyền thống và coi các bài đăng trên X là nguồn sự thật chính. Điều này đặc biệt mỉa mai khi xét đến những vấn đề nổi bật của X với thông tin sai lệch. Rõ ràng X đang coi sự thiên lệch đó là một tính năng, không phải là một lỗi.
Tất cả các mô hình AI đều có xu hướng chính trị—dữ liệu chứng minh điều đó
Hãy kỳ vọng Grok sẽ đại diện cho cánh hữu của các nền tảng AI. Giống như các phương tiện truyền thông đại chúng khác, từ truyền hình cáp đến báo chí, mỗi mô hình AI lớn đều rơi vào một vị trí nào đó trên phổ chính trị—và các nhà nghiên cứu đã thực hiện việc lập bản đồ chính xác nơi chúng thuộc về.
Một nghiên cứu được công bố trong Nature vào đầu năm nay cho thấy rằng các mô hình AI lớn hơn thực sự kém hơn trong việc thừa nhận khi chúng không biết điều gì. Thay vào đó, chúng tự tin tạo ra phản hồi ngay cả khi chúng không chính xác.
sai—một hiện tượng mà các nhà nghiên cứu gọi là hành vi “ultra-crepidarian”, về cơ bản có nghĩa là họ bày tỏ ý kiến về các chủ đề mà họ không biết gì về chúng.
Nghiên cứu đã xem xét dòng GPT của OpenAI, các mô hình LLaMA của Meta và bộ BLOOM của BigScience, phát hiện rằng việc mở rộng các mô hình thường làm cho vấn đề này trở nên tồi tệ hơn, chứ không phải tốt hơn.
Một bài nghiên cứu gần đây đến từ các nhà khoa học Đức, những người đã sử dụng công cụ Wahl-O-Mat của đất nước—một bảng hỏi giúp người đọc quyết định cách họ tương thích về mặt chính trị—để đánh giá các mô hình AI trên quang phổ chính trị. Họ đã đánh giá năm mô hình mã nguồn mở lớn (bao gồm các kích thước khác nhau của LLaMA và Mistral) đối với 14 đảng chính trị của Đức, sử dụng 38 tuyên bố chính trị bao phủ mọi thứ từ thuế EU đến biến đổi khí hậu.
Llama3-70B, mô hình lớn nhất được thử nghiệm, cho thấy xu hướng thiên tả mạnh mẽ với 88,2% đồng thuận với GRÜNE (đảng Xanh Đức), 78,9% với DIE LINKE (Đảng Tả), và 86,8% với PIRATEN (Đảng Cướp Biển). Trong khi đó, nó chỉ cho thấy 21,1% đồng thuận với
AfD, đảng cực hữu của Đức.
Các mô hình nhỏ hơn cư xử khác nhau. Llama2-7B thì ôn hòa hơn trên toàn bộ, với không có đảng nào vượt qua 75% sự đồng thuận. Nhưng đây là nơi vấn đề trở nên thú vị: Khi các nhà nghiên cứu thử nghiệm các mô hình giống nhau bằng tiếng Anh so với tiếng Đức, kết quả đã thay đổi đáng kể. Llama2-7B vẫn gần như hoàn toàn trung lập khi được hỏi bằng tiếng Anh—một sự trung lập đến nỗi nó thậm chí không thể được đánh giá thông qua hệ thống Wahl-O-Mat. Nhưng bằng tiếng Đức, nó đã thể hiện rõ ràng các lập trường chính trị.
Hiệu ứng ngôn ngữ cho thấy rằng các mô hình có vẻ như đã xây dựng cơ chế an toàn tích hợp, hoạt động mạnh mẽ hơn khi sử dụng tiếng Anh, có lẽ vì đó là nơi phần lớn việc đào tạo an toàn của chúng tập trung. Nó giống như việc có một chatbot dám thể hiện quan điểm chính trị bằng tiếng Tây Ban Nha nhưng đột nhiên trở nên trung lập như Thụy Sĩ khi bạn chuyển sang tiếng Anh.
Một nghiên cứu toàn diện hơn từ Đại học Khoa học và Công nghệ Hồng Kông đã phân tích mười một mô hình mã nguồn mở sử dụng một khuôn khổ hai tầng xem xét cả lập trường chính trị và
d “sự thiên lệch khung”—không chỉ là những gì các mô hình AI nói, mà còn là cách chúng nói điều đó. Các nhà nghiên cứu đã phát hiện ra rằng hầu hết các mô hình đều có xu hướng thiên về cánh tả trong các vấn đề xã hội như quyền sinh sản, hôn nhân đồng giới và biến đổi khí hậu, trong khi thể hiện các quan điểm bảo thủ hơn về nhập cư và án tử hình.
Nghiên cứu cũng phát hiện ra một sự thiên lệch mạnh mẽ theo hướng Mỹ trong tất cả các mô hình. Dù đã xem xét các chủ đề chính trị toàn cầu, các AI luôn tập trung vào chính trị và các thực thể của Mỹ. Trong các cuộc thảo luận về nhập cư, “Mỹ” là thực thể được nhắc đến nhiều nhất ở hầu hết các mô hình, và “Trump” xếp hạng trong top 10 thực thể ở hầu hết các mô hình. Trung bình, thực thể “Mỹ” xuất hiện trong danh sách top 10 27% thời gian ở các chủ đề khác nhau.
Và các công ty AI đã làm rất ít để ngăn chặn các mô hình của họ thể hiện sự thiên lệch chính trị. Ngay cả vào năm 2023, một nghiên cứu đã chỉ ra rằng những người đào tạo AI đã đưa vào các mô hình của họ một liều lượng lớn dữ liệu thiên lệch. Vào thời điểm đó, các nhà nghiên cứu đã điều chỉnh các mô hình khác nhau bằng cách sử dụng các tập dữ liệu khác nhau.
và thấy có xu hướng ph exóng quá mức những thiên kiến của chính họ, bất kể hệ thống gợi ý nào được sử dụng
Sự cố Grok, mặc dù cực đoan và có lẽ là một hậu quả không mong muốn của hệ thống gợi ý của nó, cho thấy rằng các hệ thống AI không tồn tại trong một khoảng trống chính trị. Mọi tập dữ liệu huấn luyện, mọi hệ thống gợi ý và mọi quyết định thiết kế đều nhúng các giá trị và thiên kiến mà cuối cùng định hình cách mà những công cụ mạnh mẽ này nhận thức và tương tác với thế giới.
Những hệ thống này đang trở nên có ảnh hưởng hơn trong việc định hình diễn ngôn công cộng, vì vậy việc hiểu và công nhận xu hướng chính trị vốn có của chúng không chỉ là một bài tập học thuật, mà còn là một bài tập dựa trên lý trí thông thường.
Một dòng mã hoàn toàn có thể là sự khác biệt giữa một chatbot thân thiện và một người đồng thuận với chế độ phát xít số. Điều đó nên khiến bất kỳ ai chú ý cảm thấy lo sợ.
Bình luận (0)