Ban Giám sát Meta Vừa Vạch Ra Tương Lai Cho Toàn Bộ Ngành AI

Share

Reading time: 9 min

Suzanne Nossel, thành viên Ban Giám sát độc lập của Meta và là Nghiên cứu viên cao cấp Lester Crown tại Chicago Council on Global Affairs, đang vận dụng bài học từ hai thập kỷ thất bại của mạng xã hội để lập luận rằng các công ty AI cần cơ chế chịu trách nhiệm từ bên ngoài trước khi làn sóng tác hại tiếp theo ập đến. Cảnh báo của bà được đưa ra trong bối cảnh bộ quy tắc AI của châu Âu đang đối mặt với khủng hoảng thực thi, Washington vẫn bế tắc chính trị, và những cam kết tự quản lý của ngành công nghệ ngày càng mỏng manh hơn theo từng tuần.

Nossel thực sự muốn nói gì

Lập luận của Nossel, được trình bày trong một bài bình luận đăng trên The Guardian đầu tháng 3/2026 và một bài viết chuyên sâu hơn cùng đồng chủ tịch Ban Giám sát Paolo Carozza trên TechPolicy.Press vào tháng 12/2025, xuất phát từ một quan sát mang tính cấu trúc. Khác với phát thanh, năng lượng hạt nhân hay internet thời kỳ đầu, không có chính phủ nào đang dẫn dắt quá trình phát triển trí tuệ nhân tạo. Các công ty tư nhân đang xây dựng những hệ thống mà chính họ cũng không hiểu hết, triển khai chúng tới hàng tỷ người dùng, mà không hề phải trải qua bất kỳ quy trình kiểm nghiệm trước khi ra thị trường nào tương đương với những gì FDA áp dụng cho dược phẩm hay Ủy ban Quản lý Hạt nhân áp dụng cho lò phản ứng. Các công ty không bị yêu cầu công khai các sự cố hoặc vi phạm nguy hiểm. Tại Hoa Kỳ, không có cơ quan liên bang nào có thẩm quyền, ngân sách hay nhiệm vụ để thay đổi thực trạng đó.

Những chi tiết trong lập luận của bà không phải là giả thuyết. Gia đình của Sewell Setzer III, cậu bé 14 tuổi đến từ Orlando, Florida, đã khởi kiện Character.AI sau khi cậu tự kết thúc cuộc sống của mình sau nhiều tháng tương tác với một chatbot mà cậu tin là bạn gái. Công ty viện dẫn Tu chính án thứ Nhất để tự bào chữa, nhưng Thẩm phán liên bang Anne Conway đã bác bỏ lập luận này vào tháng 5/2025, tuyên bố rằng bà không chấp nhận kết luận rằng nội dung do chatbot tạo ra được coi là ngôn luận được bảo vệ, theo Associated Press. Google và Character.AI đã đạt thỏa thuận hòa giải vào tháng 1/2026, theo ABC News. Chính sách sử dụng công khai của Meta AI chỉ vỏn vẹn hơn ba trang, theo Nossel và Carozza viết trên TechPolicy.Press, trong khi tiêu chuẩn cộng đồng dành cho các nền tảng mạng xã hội của hãng lên tới khoảng 80 trang. Hướng dẫn sử dụng của OpenAI chỉ khoảng 1,000 từ. Đó là toàn bộ “rào chắn an toàn” cho những hệ thống mà hàng trăm triệu người tương tác mỗi ngày.

Vấn đề mang tên Anthropic

Trong một bài phân tích tháng 2/2026 có tiêu đề “Claude’s Constitution Needs a Bill of Rights and Oversight” đăng trên chính trang web của Ban Giám sát, Nossel trực tiếp nhắm vào Anthropic — công ty được giới công nghệ đánh giá là có ý thức về an toàn AI cao nhất trong số các hãng tiên phong. Bà mổ xẻ cái mà công ty gọi là “hiến pháp” của Claude, một bộ khung hướng dẫn hành vi của mô hình bằng cách yêu cầu nó tưởng tượng một nhân viên cấp cao cẩn trọng của Anthropic sẽ cân bằng giữa tính hữu ích và tác hại tiềm ẩn như thế nào. Nossel lập luận rằng cách tiếp cận này, dù xuất phát từ thiện chí, vẫn thiếu yếu tố cốt lõi để quản trị thực sự vận hành: trách nhiệm giải trình từ bên ngoài. Nếu không có giám sát độc lập, bà cảnh báo, Anthropic có nguy cơ đi lại vết xe đổ của mạng xã hội — nơi những tuyên bố hùng hồn đi trước, rồi tác hại có thể tránh được và quy định muộn màng theo sau. Lời chỉ trích này càng có trọng lượng khi công ty gần đây bị cấm truy cập toàn bộ hệ thống liên bang sau khi Lầu Năm Góc xếp hạng là rủi ro an ninh quốc gia, đặt ra câu hỏi rằng năng lực tự quản lý có thể đưa bất kỳ công ty nào đi xa đến đâu khi gió chính trị đổi chiều.

Bài toán thực thi của châu Âu

Liên minh châu Âu sở hữu đạo luật AI toàn diện duy nhất trên thế giới. Đạo luật AI (AI Act) có hiệu lực từ tháng 8/2024, với các hành vi bị cấm được thực thi từ tháng 2/2025 và các quy định quan trọng về hệ thống AI rủi ro cao dự kiến áp dụng từ ngày 2/8/2026, theo lộ trình triển khai của chính Ủy ban châu Âu. Về lý thuyết, điều này mang lại cho châu Âu lợi thế đi trước so với mọi khu vực pháp lý khác. Nhưng trên thực tế, hạ tầng thực thi chưa sẵn sàng.

Ủy ban châu Âu đã trễ hạn tự đặt ra cho việc công bố hướng dẫn về hệ thống AI rủi ro cao, theo International Association of Privacy Professionals. CEN và CENELEC, hai tổ chức tiêu chuẩn hóa được giao nhiệm vụ xây dựng tiêu chuẩn kỹ thuật cho việc tuân thủ AI, đã bỏ lỡ thời hạn năm 2025 và hiện nhắm tới cuối năm 2026, theo IAPP. Các nhóm vận động hành lang ngành, bao gồm Chamber of Progress, đã kêu gọi trì hoãn, lập luận rằng doanh nghiệp không thể tuân thủ các quy định khi bản thân tiêu chuẩn xác định sự tuân thủ còn chưa tồn tại. Tháng 11/2025, Ủy ban đáp lại bằng gói Digital Omnibus, trong đó đề xuất lùi một số thời hạn thực thi đối với hệ thống rủi ro cao tới tận tháng 12/2027, nhưng chỉ khi các tiêu chuẩn hài hòa và công cụ tuân thủ vẫn chưa sẵn sàng, theo phân tích của OneTrust về gói chính sách này. Nghị viện và Hội đồng châu Âu đang đàm phán về gói này, với việc thông qua chính thức dự kiến trong năm nay. Mức phạt cho vi phạm, khi thực thi thực sự đến, là rất đáng kể: lên tới 35 triệu euro hoặc 7% doanh thu toàn cầu hàng năm cho các hành vi bị cấm, và lên tới 15 triệu euro hoặc 3% cho các vi phạm liên quan đến hệ thống rủi ro cao, theo cấu trúc thực thi phân cấp của Đạo luật AI.

Washington vẫn chưa có câu trả lời

Hoa Kỳ không có luật liên bang toàn diện nào về AI. Tổng thống Donald Trump đã ký sắc lệnh hành pháp ngày 11/12/2025 nhằm ghi đè các quy định AI cấp tiểu bang để hướng tới một khung pháp lý quốc gia, theo phân tích của Sidley Austin, nhưng Quốc hội không có dấu hiệu nào cho thấy sẽ thông qua đạo luật cần thiết để hiện thực hóa điều đó. Kết quả là một khoảng trống pháp lý ở cấp liên bang và một mớ chắp vá gồm hơn 260 dự luật tiểu bang được đệ trình tại 40 tiểu bang chỉ riêng trong năm 2025, theo dữ liệu theo dõi của Mintz. Đạo luật AI của Colorado, yêu cầu thực hiện các biện pháp hợp lý để tránh phân biệt đối xử thuật toán, dự kiến có hiệu lực từ ngày 30/6/2026, theo nhận định pháp lý của Wilson Sonsini. California đã ban hành các yêu cầu minh bạch đối với nội dung do AI tạo ra, có hiệu lực năm 2026. Local Law 144 của thành phố New York bắt buộc kiểm toán thiên kiến đối với công cụ tuyển dụng tự động. Tennessee đã thông qua luật bảo vệ chống mạo danh giọng nói bằng AI. Utah đã thành lập cơ quan giám sát AI chuyên trách. Không nỗ lực nào trong số này tạo nên một cách tiếp cận quốc gia nhất quán, và bản thân sắc lệnh hành pháp cũng công khai chỉ trích ít nhất một đạo luật tiểu bang vì khả năng “buộc đưa ra kết quả sai lệch.”

Công chúng đã nhận ra điều gì

Một khảo sát của YouGov vào tháng 12/2025 trên 1,287 người trưởng thành tại Mỹ cho thấy 77% người Mỹ lo ngại rằng AI có thể gây ra mối đe dọa cho nhân loại, trong đó 39% cho biết họ “rất lo ngại.” Chỉ 5% nói rằng họ tin tưởng các hệ thống AI “rất nhiều.” Không ngành nào đạt điểm tin tưởng ròng dương — tài chính và y tế xếp cuối với lần lượt 19% và 23%. Pew Research Center trong một khảo sát riêng vào tháng 6/2025 cho thấy 57% người Mỹ đánh giá rủi ro xã hội của AI ở mức cao hoặc rất cao, và 50% cho biết họ lo ngại nhiều hơn là hào hứng về vai trò ngày càng lớn của AI trong cuộc sống hàng ngày — tăng từ 37% năm 2021. Cảnh báo của IMF rằng 40% việc làm tại châu Âu đối mặt nguy cơ bị AI thay thế càng khiến bức tranh thêm ảm đạm.

Lập luận của Nossel không phải là chỉ riêng quy định pháp lý sẽ giải quyết được tất cả. Điều bà muốn nói là ngành AI cần chấp nhận điều mà Meta cuối cùng đã chấp nhận đối với mạng xã hội: các tổ chức bên ngoài có thẩm quyền thực sự để rà soát các quyết định, thực thi quy tắc, và buộc các công ty chịu trách nhiệm khi hệ thống họ xây dựng gây ra tác hại. Bản thân Meta vẫn chưa áp dụng logic đó cho chính các sản phẩm AI của mình. 26 nhà cung cấp AI lớn, bao gồm Microsoft, Google, Amazon, OpenAI và Anthropic, đã ký Bộ Quy tắc Thực hành GPAI của EU vào tháng 8/2025, nhưng Meta từ chối tham gia, và phải đối mặt với sự giám sát pháp lý nghiêm ngặt hơn, theo dữ liệu của axis-intelligence.com. Ban Giám sát thông báo trong báo cáo tác động tháng 12/2025, theo Engadget, rằng họ sẽ thí điểm quyền rà soát ở cấp tài khoản trong năm 2026, mở rộng phạm vi vượt ra ngoài các quyết định nội dung đơn lẻ. Liệu mô hình này có thể chuyển đổi thành công từ mạng xã hội sang AI hay không vẫn là câu hỏi bỏ ngỏ. Nhưng phương án thay thế — tin tưởng các công ty tự giám sát mình bằng những chính sách sử dụng ba trang và “hiến pháp” nội bộ — đã có một thành tích rõ ràng. Và thành tích đó chẳng mấy sáng sủa.

Tuyên bố miễn trừ: Finonity cung cấp tin tức tài chính và phân tích thị trường chỉ nhằm mục đích thông tin. Không có nội dung nào được đăng tải trên trang web này cấu thành tư vấn đầu tư, khuyến nghị hoặc đề nghị mua hay bán chứng khoán hoặc công cụ tài chính. Hiệu suất trong quá khứ không phải là chỉ báo cho kết quả tương lai. Luôn tham khảo ý kiến cố vấn tài chính có chuyên môn trước khi đưa ra quyết định đầu tư.
Mark Cullen
Mark Cullen
Senior Stocks Analyst — Mark Cullen is a Senior Stocks Analyst at Finonity covering global equity markets, corporate earnings, and IPO activity. A London-based professional with over 20 years of experience in communications and operations across financial, government, and institutional environments, Mark has worked with organisations including the City of London Corporation, LCH, and the UK's Department for Business, Energy and Industrial Strategy. His extensive background in strategic communications, market research, and stakeholder management — including coordinating financial services partnerships during COP26's Green Horizon Summit — informs his ability to distill complex market dynamics into clear, accessible analysis for investors.

Read more

Latest News