Reading time: 7 min
Meta के स्वतंत्र Oversight Board की सदस्य और Chicago Council on Global Affairs में Lester Crown Senior Fellow, Suzanne Nossel, सोशल मीडिया की दो दशक की विफलताओं से सबक लेते हुए तर्क दे रही हैं कि AI कंपनियों को बाहरी जवाबदेही की जरूरत है — इससे पहले कि नुकसान की अगली लहर आए। उनकी यह चेतावनी ऐसे समय आई है जब Europe की अपनी AI नियमावली लागू करने के संकट से जूझ रही है, Washington में गतिरोध बना हुआ है, और इंडस्ट्री के self-regulation के वादे हर हफ्ते कमजोर होते जा रहे हैं।
Nossel आखिर कह क्या रही हैं
Nossel का तर्क, जो मार्च 2026 की शुरुआत में The Guardian में प्रकाशित एक लेख और दिसंबर 2025 में Oversight Board के सह-अध्यक्ष Paolo Carozza के साथ TechPolicy.Press में प्रकाशित एक विस्तृत लेख में सामने आया, एक संरचनात्मक अवलोकन से शुरू होता है। रेडियो, परमाणु ऊर्जा या शुरुआती इंटरनेट के विपरीत, कोई भी सरकार आर्टिफिशियल इंटेलिजेंस के विकास की कमान नहीं संभाल रही। निजी कंपनियां ऐसे सिस्टम बना रही हैं जिन्हें वे खुद पूरी तरह नहीं समझतीं, उन्हें अरबों यूजर्स के सामने लॉन्च कर रही हैं, और बाजार में उतारने से पहले कोई ऐसी टेस्टिंग व्यवस्था नहीं है जैसी FDA दवाओं के लिए या Nuclear Regulatory Commission रिएक्टरों के लिए चलाता है। कंपनियों के लिए खतरनाक गड़बड़ियों या दुर्घटनाओं का खुलासा करना अनिवार्य नहीं है। अमेरिका में किसी भी संघीय एजेंसी के पास इसे बदलने का अधिकार, फंडिंग या जनादेश नहीं है।
उनके तर्क में दिए गए उदाहरण काल्पनिक नहीं हैं। Orlando, Florida के 14 वर्षीय Sewell Setzer III के परिवार ने Character.AI पर मुकदमा दायर किया, जब लड़के ने एक chatbot के साथ महीनों की बातचीत के बाद — जिसे वह अपना रोमांटिक पार्टनर मानता था — आत्महत्या कर ली। कंपनी ने अपनी सफाई में First Amendment का हवाला दिया, लेकिन US District Judge Anne Conway ने मई 2025 में यह तर्क खारिज कर दिया और कहा कि वे chatbot के output को संरक्षित अभिव्यक्ति मानने को तैयार नहीं हैं, जैसा कि Associated Press ने रिपोर्ट किया। Google और Character.AI ने जनवरी 2026 में समझौता कर लिया, ABC News के अनुसार। Nossel और Carozza ने TechPolicy.Press में लिखा कि Meta AI की प्रकाशित use policy सिर्फ तीन पन्नों से थोड़ी अधिक है, जबकि इसके सोशल मीडिया प्लेटफॉर्म के community standards करीब 80 पन्नों के हैं। OpenAI के usage guidelines मात्र लगभग 1,000 शब्दों के हैं। ये हैं उन सिस्टम की सुरक्षा रेलिंग जिनसे रोज़ाना करोड़ों लोग interact करते हैं।
Anthropic की समस्या
फरवरी 2026 में Oversight Board की अपनी वेबसाइट पर प्रकाशित “Claude’s Constitution Needs a Bill of Rights and Oversight” शीर्षक विश्लेषण में, Nossel ने सीधे Anthropic पर निशाना साधा — जिसे frontier AI कंपनियों में सबसे अधिक safety-conscious माना जाता है। उन्होंने कंपनी के उस framework की जांच की जिसे वह Claude का “constitution” कहती है — यह model के व्यवहार को इस तरह निर्देशित करता है कि वह कल्पना करे कि Anthropic का एक विचारशील वरिष्ठ कर्मचारी उपयोगिता और संभावित नुकसान के बीच कैसे संतुलन बनाएगा। Nossel का तर्क था कि यह दृष्टिकोण, चाहे कितनी भी अच्छी नीयत से बनाया गया हो, उस अनिवार्य तत्व से वंचित है जो शासन व्यवस्था को कारगर बनाता है: बाहरी जवाबदेही। बिना स्वतंत्र निगरानी के, उन्होंने चेतावनी दी कि Anthropic सोशल मीडिया के उसी रास्ते पर चल सकता है — जहां बड़ी-बड़ी बातों के बाद टाले जा सकने वाले नुकसान हुए और विलंबित नियमन आया। यह आलोचना और भी वजनदार हो जाती है जब कंपनी ने हाल ही में Pentagon द्वारा राष्ट्रीय सुरक्षा जोखिम घोषित किए जाने के बाद सभी संघीय सिस्टम तक पहुंच खो दी, जिससे सवाल उठता है कि जब राजनीतिक हवाएं बदलती हैं तो self-regulation किसी भी कंपनी को कितनी दूर तक ले जा सकता है।
Europe की प्रवर्तन समस्या
European Union के पास दुनिया का एकमात्र व्यापक AI कानून मौजूद है। AI Act अगस्त 2024 में लागू हुआ, प्रतिबंधित प्रथाओं पर कार्रवाई फरवरी 2025 से शुरू हुई, और महत्वपूर्ण high-risk system नियम 2 अगस्त 2026 को प्रभावी होने हैं — European Commission की अपनी implementation timeline के अनुसार। सिद्धांत रूप में, यह Europe को हर दूसरे क्षेत्राधिकार पर regulatory बढ़त देता है। लेकिन व्यवहार में प्रवर्तन का ढांचा तैयार नहीं है।
European Commission ने high-risk AI systems पर मार्गदर्शन प्रकाशित करने की अपनी ही समयसीमा पूरी नहीं की, जैसा कि International Association of Privacy Professionals ने रिपोर्ट किया। AI compliance के लिए तकनीकी मानक विकसित करने वाली दो standardisation संस्थाओं — CEN और CENELEC — ने 2025 की डेडलाइन मिस कर दी और अब 2026 के अंत को लक्ष्य बना रही हैं, IAPP के अनुसार। Chamber of Progress सहित इंडस्ट्री लॉबी समूहों ने देरी की मांग की है, यह तर्क देते हुए कि जब compliance परिभाषित करने वाले मानक ही मौजूद नहीं हैं तो कंपनियां नियमों का पालन कैसे करें। नवंबर 2025 में, Commission ने अपने Digital Omnibus package के जरिए जवाब दिया, जिसमें कुछ high-risk प्रवर्तन की समयसीमा दिसंबर 2027 तक बढ़ाने का प्रस्ताव है — लेकिन केवल तभी जब harmonised standards और compliance tools उपलब्ध न हों, जैसा कि OneTrust के विश्लेषण में बताया गया। European Parliament और Council इस package पर बातचीत कर रहे हैं, और औपचारिक मंजूरी इस साल बाद में अपेक्षित है। जब प्रवर्तन शुरू होगा, तो गैर-अनुपालन के लिए जुर्माना भारी होगा: प्रतिबंधित प्रथाओं के लिए 35 मिलियन यूरो या वैश्विक वार्षिक राजस्व का 7 प्रतिशत तक, और high-risk उल्लंघनों के लिए 15 मिलियन यूरो या 3 प्रतिशत तक — AI Act के tiered प्रवर्तन ढांचे के अनुसार।
Washington का कोई जवाब नहीं
अमेरिका में कोई व्यापक संघीय AI कानून नहीं है। राष्ट्रपति Donald Trump ने 11 दिसंबर 2025 को एक executive order पर हस्ताक्षर किए जो राज्य-स्तरीय AI नियमन को दरकिनार कर राष्ट्रीय framework बनाने का प्रयास करता है — Sidley Austin के विश्लेषण के अनुसार — लेकिन Congress में इसके लिए जरूरी कानून पारित करने के कोई संकेत नहीं हैं। नतीजा संघीय स्तर पर regulatory शून्यता है और 2025 में ही 40 राज्यों में 260 से अधिक राज्य विधेयक पेश किए गए, Mintz के tracking data के अनुसार। Colorado का AI Act, जो algorithmic भेदभाव से बचने के लिए उचित सावधानी की मांग करता है, 30 जून 2026 को प्रभावी होने वाला है — Wilson Sonsini के regulatory outlook के अनुसार। California ने AI-generated content के लिए पारदर्शिता आवश्यकताएं 2026 में लागू की हैं। New York City का Local Law 144 स्वचालित भर्ती उपकरणों के लिए bias audit अनिवार्य करता है। Tennessee ने AI voice impersonation के खिलाफ सुरक्षा कानून पारित किया है, और Utah ने एक समर्पित AI oversight office बनाया है। इनमें से कोई भी प्रयास एक सुसंगत राष्ट्रीय दृष्टिकोण नहीं बनाता, और executive order स्पष्ट रूप से कम से कम एक राज्य कानून की आलोचना करता है कि वह “गलत परिणाम देने को मजबूर” कर सकता है।
जनता पहले से जानती है
दिसंबर 2025 में 1,287 अमेरिकी वयस्कों पर YouGov के सर्वेक्षण में पाया गया कि 77 प्रतिशत अमेरिकी चिंतित हैं कि AI मानवता के लिए खतरा बन सकता है, जिनमें 39 प्रतिशत बेहद चिंतित हैं। केवल 5 प्रतिशत ने कहा कि उन्हें AI सिस्टम पर “बहुत भरोसा” है। किसी भी उद्योग क्षेत्र को net-positive trust score नहीं मिला — वित्त और स्वास्थ्य सेवा क्रमशः 19 और 23 प्रतिशत के साथ सबसे नीचे रहे। Pew Research Center ने जून 2025 के एक अलग सर्वेक्षण में पाया कि 57 प्रतिशत अमेरिकी AI के सामाजिक जोखिमों को उच्च या बहुत उच्च मानते हैं, और 50 प्रतिशत कहते हैं कि वे दैनिक जीवन में AI की बढ़ती भूमिका को लेकर उत्साहित होने से ज्यादा चिंतित हैं — जो 2021 में 37 प्रतिशत था। IMF की चेतावनी कि Europe में 40 प्रतिशत नौकरियों पर AI का खतरा है, इस माहौल को और बिगाड़ रही है।
Nossel का तर्क यह नहीं है कि सिर्फ नियमन से सब ठीक हो जाएगा। उनका कहना है कि AI इंडस्ट्री को वह बात स्वीकार करनी होगी जो Meta ने सोशल मीडिया के लिए आखिरकार मानी: बाहरी संस्थाएं चाहिए जिनके पास फैसलों की समीक्षा करने, नियम लागू करने और कंपनियों को जवाबदेह ठहराने का वास्तविक अधिकार हो — जब उनके बनाए सिस्टम नुकसान पहुंचाएं। खुद Meta ने अभी तक यह तर्क अपने AI उत्पादों पर लागू नहीं किया है। Microsoft, Google, Amazon, OpenAI और Anthropic सहित 26 प्रमुख AI providers ने अगस्त 2025 में EU के GPAI Code of Practice पर हस्ताक्षर किए, लेकिन Meta ने मना कर दिया — जिसके चलते उस पर बढ़ी हुई regulatory जांच हो रही है, axis-intelligence.com के tracker के अनुसार। Oversight Board ने अपनी दिसंबर 2025 की impact report में घोषणा की, जैसा Engadget ने रिपोर्ट किया, कि वह 2026 में account-level review powers का pilot शुरू करेगा, जिससे उसका दायरा व्यक्तिगत content फैसलों से आगे बढ़ेगा। क्या यह model सोशल मीडिया से AI तक ले जाया जा सकता है — यह अभी खुला सवाल है। लेकिन इसका विकल्प — कंपनियों पर भरोसा करना कि वे तीन पन्नों की use policies और आंतरिक constitutions से खुद पर नियंत्रण रखें — इसका track record सबके सामने है। और वह अच्छा नहीं है।