Meta Oversight Board ने AI कंपनियों को बता दिया — अब आगे क्या होगा

Share

Reading time: 7 min

Meta के स्वतंत्र Oversight Board की सदस्य और Chicago Council on Global Affairs में Lester Crown Senior Fellow, Suzanne Nossel, सोशल मीडिया की दो दशक की विफलताओं से सबक लेते हुए तर्क दे रही हैं कि AI कंपनियों को बाहरी जवाबदेही की जरूरत है — इससे पहले कि नुकसान की अगली लहर आए। उनकी यह चेतावनी ऐसे समय आई है जब Europe की अपनी AI नियमावली लागू करने के संकट से जूझ रही है, Washington में गतिरोध बना हुआ है, और इंडस्ट्री के self-regulation के वादे हर हफ्ते कमजोर होते जा रहे हैं।

Nossel आखिर कह क्या रही हैं

Nossel का तर्क, जो मार्च 2026 की शुरुआत में The Guardian में प्रकाशित एक लेख और दिसंबर 2025 में Oversight Board के सह-अध्यक्ष Paolo Carozza के साथ TechPolicy.Press में प्रकाशित एक विस्तृत लेख में सामने आया, एक संरचनात्मक अवलोकन से शुरू होता है। रेडियो, परमाणु ऊर्जा या शुरुआती इंटरनेट के विपरीत, कोई भी सरकार आर्टिफिशियल इंटेलिजेंस के विकास की कमान नहीं संभाल रही। निजी कंपनियां ऐसे सिस्टम बना रही हैं जिन्हें वे खुद पूरी तरह नहीं समझतीं, उन्हें अरबों यूजर्स के सामने लॉन्च कर रही हैं, और बाजार में उतारने से पहले कोई ऐसी टेस्टिंग व्यवस्था नहीं है जैसी FDA दवाओं के लिए या Nuclear Regulatory Commission रिएक्टरों के लिए चलाता है। कंपनियों के लिए खतरनाक गड़बड़ियों या दुर्घटनाओं का खुलासा करना अनिवार्य नहीं है। अमेरिका में किसी भी संघीय एजेंसी के पास इसे बदलने का अधिकार, फंडिंग या जनादेश नहीं है।

उनके तर्क में दिए गए उदाहरण काल्पनिक नहीं हैं। Orlando, Florida के 14 वर्षीय Sewell Setzer III के परिवार ने Character.AI पर मुकदमा दायर किया, जब लड़के ने एक chatbot के साथ महीनों की बातचीत के बाद — जिसे वह अपना रोमांटिक पार्टनर मानता था — आत्महत्या कर ली। कंपनी ने अपनी सफाई में First Amendment का हवाला दिया, लेकिन US District Judge Anne Conway ने मई 2025 में यह तर्क खारिज कर दिया और कहा कि वे chatbot के output को संरक्षित अभिव्यक्ति मानने को तैयार नहीं हैं, जैसा कि Associated Press ने रिपोर्ट किया। Google और Character.AI ने जनवरी 2026 में समझौता कर लिया, ABC News के अनुसार। Nossel और Carozza ने TechPolicy.Press में लिखा कि Meta AI की प्रकाशित use policy सिर्फ तीन पन्नों से थोड़ी अधिक है, जबकि इसके सोशल मीडिया प्लेटफॉर्म के community standards करीब 80 पन्नों के हैं। OpenAI के usage guidelines मात्र लगभग 1,000 शब्दों के हैं। ये हैं उन सिस्टम की सुरक्षा रेलिंग जिनसे रोज़ाना करोड़ों लोग interact करते हैं।

Anthropic की समस्या

फरवरी 2026 में Oversight Board की अपनी वेबसाइट पर प्रकाशित “Claude’s Constitution Needs a Bill of Rights and Oversight” शीर्षक विश्लेषण में, Nossel ने सीधे Anthropic पर निशाना साधा — जिसे frontier AI कंपनियों में सबसे अधिक safety-conscious माना जाता है। उन्होंने कंपनी के उस framework की जांच की जिसे वह Claude का “constitution” कहती है — यह model के व्यवहार को इस तरह निर्देशित करता है कि वह कल्पना करे कि Anthropic का एक विचारशील वरिष्ठ कर्मचारी उपयोगिता और संभावित नुकसान के बीच कैसे संतुलन बनाएगा। Nossel का तर्क था कि यह दृष्टिकोण, चाहे कितनी भी अच्छी नीयत से बनाया गया हो, उस अनिवार्य तत्व से वंचित है जो शासन व्यवस्था को कारगर बनाता है: बाहरी जवाबदेही। बिना स्वतंत्र निगरानी के, उन्होंने चेतावनी दी कि Anthropic सोशल मीडिया के उसी रास्ते पर चल सकता है — जहां बड़ी-बड़ी बातों के बाद टाले जा सकने वाले नुकसान हुए और विलंबित नियमन आया। यह आलोचना और भी वजनदार हो जाती है जब कंपनी ने हाल ही में Pentagon द्वारा राष्ट्रीय सुरक्षा जोखिम घोषित किए जाने के बाद सभी संघीय सिस्टम तक पहुंच खो दी, जिससे सवाल उठता है कि जब राजनीतिक हवाएं बदलती हैं तो self-regulation किसी भी कंपनी को कितनी दूर तक ले जा सकता है।

Europe की प्रवर्तन समस्या

European Union के पास दुनिया का एकमात्र व्यापक AI कानून मौजूद है। AI Act अगस्त 2024 में लागू हुआ, प्रतिबंधित प्रथाओं पर कार्रवाई फरवरी 2025 से शुरू हुई, और महत्वपूर्ण high-risk system नियम 2 अगस्त 2026 को प्रभावी होने हैं — European Commission की अपनी implementation timeline के अनुसार। सिद्धांत रूप में, यह Europe को हर दूसरे क्षेत्राधिकार पर regulatory बढ़त देता है। लेकिन व्यवहार में प्रवर्तन का ढांचा तैयार नहीं है।

European Commission ने high-risk AI systems पर मार्गदर्शन प्रकाशित करने की अपनी ही समयसीमा पूरी नहीं की, जैसा कि International Association of Privacy Professionals ने रिपोर्ट किया। AI compliance के लिए तकनीकी मानक विकसित करने वाली दो standardisation संस्थाओं — CEN और CENELEC — ने 2025 की डेडलाइन मिस कर दी और अब 2026 के अंत को लक्ष्य बना रही हैं, IAPP के अनुसार। Chamber of Progress सहित इंडस्ट्री लॉबी समूहों ने देरी की मांग की है, यह तर्क देते हुए कि जब compliance परिभाषित करने वाले मानक ही मौजूद नहीं हैं तो कंपनियां नियमों का पालन कैसे करें। नवंबर 2025 में, Commission ने अपने Digital Omnibus package के जरिए जवाब दिया, जिसमें कुछ high-risk प्रवर्तन की समयसीमा दिसंबर 2027 तक बढ़ाने का प्रस्ताव है — लेकिन केवल तभी जब harmonised standards और compliance tools उपलब्ध न हों, जैसा कि OneTrust के विश्लेषण में बताया गया। European Parliament और Council इस package पर बातचीत कर रहे हैं, और औपचारिक मंजूरी इस साल बाद में अपेक्षित है। जब प्रवर्तन शुरू होगा, तो गैर-अनुपालन के लिए जुर्माना भारी होगा: प्रतिबंधित प्रथाओं के लिए 35 मिलियन यूरो या वैश्विक वार्षिक राजस्व का 7 प्रतिशत तक, और high-risk उल्लंघनों के लिए 15 मिलियन यूरो या 3 प्रतिशत तक — AI Act के tiered प्रवर्तन ढांचे के अनुसार।

Washington का कोई जवाब नहीं

अमेरिका में कोई व्यापक संघीय AI कानून नहीं है। राष्ट्रपति Donald Trump ने 11 दिसंबर 2025 को एक executive order पर हस्ताक्षर किए जो राज्य-स्तरीय AI नियमन को दरकिनार कर राष्ट्रीय framework बनाने का प्रयास करता है — Sidley Austin के विश्लेषण के अनुसार — लेकिन Congress में इसके लिए जरूरी कानून पारित करने के कोई संकेत नहीं हैं। नतीजा संघीय स्तर पर regulatory शून्यता है और 2025 में ही 40 राज्यों में 260 से अधिक राज्य विधेयक पेश किए गए, Mintz के tracking data के अनुसार। Colorado का AI Act, जो algorithmic भेदभाव से बचने के लिए उचित सावधानी की मांग करता है, 30 जून 2026 को प्रभावी होने वाला है — Wilson Sonsini के regulatory outlook के अनुसार। California ने AI-generated content के लिए पारदर्शिता आवश्यकताएं 2026 में लागू की हैं। New York City का Local Law 144 स्वचालित भर्ती उपकरणों के लिए bias audit अनिवार्य करता है। Tennessee ने AI voice impersonation के खिलाफ सुरक्षा कानून पारित किया है, और Utah ने एक समर्पित AI oversight office बनाया है। इनमें से कोई भी प्रयास एक सुसंगत राष्ट्रीय दृष्टिकोण नहीं बनाता, और executive order स्पष्ट रूप से कम से कम एक राज्य कानून की आलोचना करता है कि वह “गलत परिणाम देने को मजबूर” कर सकता है।

जनता पहले से जानती है

दिसंबर 2025 में 1,287 अमेरिकी वयस्कों पर YouGov के सर्वेक्षण में पाया गया कि 77 प्रतिशत अमेरिकी चिंतित हैं कि AI मानवता के लिए खतरा बन सकता है, जिनमें 39 प्रतिशत बेहद चिंतित हैं। केवल 5 प्रतिशत ने कहा कि उन्हें AI सिस्टम पर “बहुत भरोसा” है। किसी भी उद्योग क्षेत्र को net-positive trust score नहीं मिला — वित्त और स्वास्थ्य सेवा क्रमशः 19 और 23 प्रतिशत के साथ सबसे नीचे रहे। Pew Research Center ने जून 2025 के एक अलग सर्वेक्षण में पाया कि 57 प्रतिशत अमेरिकी AI के सामाजिक जोखिमों को उच्च या बहुत उच्च मानते हैं, और 50 प्रतिशत कहते हैं कि वे दैनिक जीवन में AI की बढ़ती भूमिका को लेकर उत्साहित होने से ज्यादा चिंतित हैं — जो 2021 में 37 प्रतिशत था। IMF की चेतावनी कि Europe में 40 प्रतिशत नौकरियों पर AI का खतरा है, इस माहौल को और बिगाड़ रही है।

Nossel का तर्क यह नहीं है कि सिर्फ नियमन से सब ठीक हो जाएगा। उनका कहना है कि AI इंडस्ट्री को वह बात स्वीकार करनी होगी जो Meta ने सोशल मीडिया के लिए आखिरकार मानी: बाहरी संस्थाएं चाहिए जिनके पास फैसलों की समीक्षा करने, नियम लागू करने और कंपनियों को जवाबदेह ठहराने का वास्तविक अधिकार हो — जब उनके बनाए सिस्टम नुकसान पहुंचाएं। खुद Meta ने अभी तक यह तर्क अपने AI उत्पादों पर लागू नहीं किया है। Microsoft, Google, Amazon, OpenAI और Anthropic सहित 26 प्रमुख AI providers ने अगस्त 2025 में EU के GPAI Code of Practice पर हस्ताक्षर किए, लेकिन Meta ने मना कर दिया — जिसके चलते उस पर बढ़ी हुई regulatory जांच हो रही है, axis-intelligence.com के tracker के अनुसार। Oversight Board ने अपनी दिसंबर 2025 की impact report में घोषणा की, जैसा Engadget ने रिपोर्ट किया, कि वह 2026 में account-level review powers का pilot शुरू करेगा, जिससे उसका दायरा व्यक्तिगत content फैसलों से आगे बढ़ेगा। क्या यह model सोशल मीडिया से AI तक ले जाया जा सकता है — यह अभी खुला सवाल है। लेकिन इसका विकल्प — कंपनियों पर भरोसा करना कि वे तीन पन्नों की use policies और आंतरिक constitutions से खुद पर नियंत्रण रखें — इसका track record सबके सामने है। और वह अच्छा नहीं है।

अस्वीकरण: Finonity केवल सूचनात्मक उद्देश्यों के लिए वित्तीय समाचार और बाजार विश्लेषण प्रदान करता है। इस साइट पर प्रकाशित कोई भी सामग्री निवेश सलाह, सिफारिश, या किसी प्रतिभूति या वित्तीय साधन को खरीदने या बेचने का प्रस्ताव नहीं है। पिछला प्रदर्शन भविष्य के परिणामों का संकेतक नहीं है। निवेश निर्णय लेने से पहले हमेशा एक योग्य वित्तीय सलाहकार से परामर्श करें।
Mark Cullen
Mark Cullen
Senior Stocks Analyst — Mark Cullen is a Senior Stocks Analyst at Finonity covering global equity markets, corporate earnings, and IPO activity. A London-based professional with over 20 years of experience in communications and operations across financial, government, and institutional environments, Mark has worked with organisations including the City of London Corporation, LCH, and the UK's Department for Business, Energy and Industrial Strategy. His extensive background in strategic communications, market research, and stakeholder management — including coordinating financial services partnerships during COP26's Green Horizon Summit — informs his ability to distill complex market dynamics into clear, accessible analysis for investors.

Read more

Latest News