OpenAI के ChatGPT हेल्थ में संघीय सुरक्षा का अभाव है, जो गोपनीयता के वादों पर निर्भर है
प्रकाशित: शुक्र, 23 जनवरी 2026, 4:54 अपराह्न यूटीसी | अद्यतन: शनिवार, जनवरी 24, 2026, 7:13 पूर्वाह्न यूटीसी

- ■
- ■
HIPAA से बंधे स्वास्थ्य सेवा प्रदाताओं के विपरीत, उपभोक्ता AI उपकरण गोपनीयता नीतियों पर निर्भर करते हैं जिन्हें कंपनियां बदल सकती हैं – कानूनी विशेषज्ञों का कहना है कि उपयोगकर्ताओं के पास OpenAI के शब्दों से परे “बहुत सीमित सुरक्षा” है
- ■
ओपनएआई ने दो समान दिखने वाले उत्पाद लॉन्च किए: चैटजीपीटी हेल्थ (उपभोक्ता) और हेल्थकेयर के लिए चैटजीपीटी (एचआईपीएए अनुपालन वाला उद्यम), जिससे भ्रम पैदा हुआ कि किसके पास मजबूत सुरक्षा उपाय हैं
- ■
विनियामक अंतर का मतलब है कि चैटजीपीटी हेल्थ यह कहकर एफडीए निरीक्षण से बचता है कि यह निदान के लिए नहीं है, भले ही ओपनएआई अपनी चिकित्सा क्षमताओं को बढ़ावा देता है और 230M उपयोगकर्ता स्वास्थ्य मार्गदर्शन चाहते हैं
ओपनएआई अभी पता चला है कि हर हफ्ते 230 मिलियन से अधिक लोग पूछ रहे हैं चैटजीपीटी स्वास्थ्य सलाह के लिए – एक चैटबॉट के साथ निदान, दवाएँ और प्रयोगशाला परिणाम साझा करना जो आपके डॉक्टर के समान गोपनीयता कानूनों से बंधा नहीं है। कंपनी ने इस महीने चैटजीपीटी हेल्थ लॉन्च किया, जिसमें बीमा को नेविगेट करने, परीक्षण परिणामों की व्याख्या करने और कल्याण डेटा को ट्रैक करने में मदद करने के लिए एआई को स्वास्थ्य देखभाल “सहयोगी” के रूप में स्थान दिया गया। लेकिन यहाँ एक समस्या है: HIPAA द्वारा शासित अस्पतालों और क्लीनिकों के विपरीत, तकनीकी कंपनियाँ एक नियामक ग्रे ज़ोन में काम करती हैं जहाँ गोपनीयता के वादे सेवा के संदर्भ में रहते हैं जो रातोंरात बदल सकते हैं। कानूनी जानकार बताते हैं द वर्ज एआई चैटबॉट्स को संवेदनशील चिकित्सा जानकारी सौंपने वाले उपयोगकर्ता अगर चीजें गलत हो जाती हैं तो थोड़े से कानूनी सहारा के साथ विश्वास की छलांग लगा रहे हैं।
ओपनएआई यह बड़ा दांव लगा रहा है कि आप अपने सबसे अंतरंग रहस्यों के लिए इसके चैटबॉट पर भरोसा करेंगे। हर हफ्ते, 230 मिलियन से अधिक लोग पहले से ही पूछ रहे हैं चैटजीपीटी उनके स्वास्थ्य के बारे में – भ्रमित करने वाले प्रयोगशाला परिणामों को डिकोड करने से लेकर बीमा के दुःस्वप्न को समझने से लेकर डरावने निदान को समझने तक। कंपनी उस रिश्ते को और गहरा करना चाहती है. इस महीने इसने चैटजीपीटी हेल्थ लॉन्च किया, जो चैटजीपीटी के अंदर एक समर्पित टैब है, जहां उपयोगकर्ता व्यक्तिगत अंतर्दृष्टि के बदले में ऐप्पल हेल्थ और पेलोटन जैसे ऐप्स से एआई को अपने मेडिकल रिकॉर्ड, प्रिस्क्रिप्शन सूचियां और वेलनेस डेटा फीड कर सकते हैं।
पिच आकर्षक है: एक हमेशा उपलब्ध चिकित्सा साथी जो न्याय नहीं करता है, कभी भी आपको परेशान नहीं करता है, और चिकित्सा शब्दजाल के बजाय सादे अंग्रेजी में बात करता है। OpenAI का कहना है कई उपयोगकर्ता पहले से ही चैटजीपीटी को एक “सहयोगी” के रूप में देखते हैं जो उन्हें निराशाजनक स्वास्थ्य देखभाल प्रणाली में बेहतर आत्म-वकील बनने में मदद करता है। इस दौरान सीईओ सैम अल्टमैन एक कैंसर मरीज को भी मंच पर लेकर आए यह साझा करने के लिए कि कैसे उपकरण ने उसके निदान को समझने में उसकी मदद की।

सीबीपी ने एआई क्वांटम ड्रग सेंसर के लिए जनरल डायनेमिक्स का उपयोग किया
लेकिन एक समस्या है: चैटजीपीटी आपका डॉक्टर नहीं है, और यह डॉक्टर की तरह शासित नहीं है। जबकि ओपनएआई स्वास्थ्य डेटा को गोपनीय रखने, इसे डिफ़ॉल्ट रूप से एन्क्रिप्ट करने और एआई प्रशिक्षण के लिए इसका उपयोग कभी नहीं करने का वादा करता है, ये आश्वासन पूरी तरह से कंपनी की गोपनीयता नीति में रहते हैं – एक दस्तावेज़ जिसे किसी भी समय फिर से लिखा जा सकता है। बेसल विश्वविद्यालय में डिजिटल स्वास्थ्य कानून शोधकर्ता हन्ना वान कोल्फशूटेन ने कहा, “आप कानून द्वारा संरक्षित नहीं हैं, और समय के साथ उपयोग की शर्तों को बदलने की अनुमति है।” द वर्ज. “आपको भरोसा करना होगा कि ChatGPT ऐसा नहीं करता है।”
यह पारंपरिक स्वास्थ्य सेवा प्रदाताओं के बिल्कुल विपरीत है, जो स्वास्थ्य बीमा पोर्टेबिलिटी और जवाबदेही अधिनियम, जिसे HIPAA के नाम से जाना जाता है, के तहत काम करते हैं। 1996 का संघीय कानून इस बारे में सख्त नियम बनाता है कि आपकी चिकित्सा जानकारी तक कौन पहुंच सकता है और उल्लंघन के लिए गंभीर दंड लगाता है – बार-बार अपराध करने पर प्रति वर्ष $1.5 मिलियन तक, साथ ही संभावित आपराधिक आरोप भी। उपभोक्ता उत्पाद बनाते समय टेक कंपनियों को ऐसी किसी बाधा का सामना नहीं करना पड़ता है। इलिनोइस अर्बाना-शैंपेन विश्वविद्यालय में कानून की प्रोफेसर सारा गेर्के ने बताया, “चैटजीपीटी हेल्थ जैसे एआई टूल के लिए डेटा सुरक्षा काफी हद तक इस बात पर निर्भर करती है कि कंपनियां अपनी गोपनीयता नीतियों और उपयोग की शर्तों में क्या वादा करती हैं।” द वर्ज.
धन्यवाद के कारण स्थिति और भी ख़राब हो जाती है ओपनएआई भ्रमित करने वाली उत्पाद लाइनअप। चैटजीपीटी हेल्थ की घोषणा करने के अगले दिन, कंपनी ने हेल्थकेयर के लिए चैटजीपीटी का अनावरण किया – जो अस्पतालों, क्लीनिकों और चिकित्सकों के लिए लगभग समान दिखने वाला उत्पाद है। यह एंटरप्राइज़ संस्करण HIPAA अनुपालन और मजबूत सुरक्षा गारंटी के साथ आता है, जो डॉक्टरों को नैदानिक नोट तैयार करने, रोगी चार्ट को सारांशित करने और चिकित्सा अनुसंधान पर अद्यतित रहने में मदद करने के लिए डिज़ाइन किया गया है। समस्या? समान नामों और एक साथ लॉन्च ने व्यापक भ्रम पैदा कर दिया है कि किस उत्पाद में कौन सी सुरक्षा है। अनेक लोगों से साक्षात्कार लिया गया द वर्ज इसकी जांच के लिए गलती से यह मान लिया गया कि उपभोक्ता चैटजीपीटी हेल्थ के पास क्लिनिकल टूल के समान सुरक्षा उपाय हैं।
भले ही ओपनएआई अपने उपभोक्ता उत्पाद के लिए स्वेच्छा से HIPAA जैसी प्रथाओं का अनुपालन करता है, जिसमें कानून का बल नहीं होता है। हार्वर्ड लॉ स्कूल के सहायक क्लिनिकल प्रोफेसर कार्मेल शाचर ने बताया, “बहुत सीमित सुरक्षा है।” द वर्ज. “इसमें से कुछ उनके शब्द हैं, लेकिन वे हमेशा वापस जा सकते हैं और अपनी गोपनीयता प्रथाओं को बदल सकते हैं।” उन्होंने समझाया, एचआईपीएए का मूल्य प्रवर्तन है – कुछ स्वैच्छिक अनुपालन का अभाव है।
गोपनीयता का अंतर सिर्फ एक चिंता का विषय है। सटीकता का भी सवाल है. अच्छे कारणों से चिकित्सा को अत्यधिक विनियमित किया जाता है: गलतियाँ जान ले सकती हैं। चैटजीपीटी ने पहले ही खतरनाक गलत सूचना के लिए अपनी क्षमता का प्रदर्शन किया है, जैसे कि जब उसने अपने नमक सेवन के बारे में चिंतित एक व्यक्ति को नियमित नमक को सोडियम ब्रोमाइड – एक यौगिक – से बदलने के लिए कहा था ऐतिहासिक रूप से शामक के रूप में उपयोग किया जाता है जिसके कारण उनमें एक दुर्लभ जहरीली स्थिति विकसित हो गई। गूगल का एआई ओवरव्यूज़ ने भी इसी तरह की गलती की, अग्नाशय के कैंसर के रोगियों को उच्च वसा वाले खाद्य पदार्थों से बचने की सलाह दी, जबकि उन्हें इसके ठीक विपरीत करना चाहिए। द वर्ज.
ओपनएआई चैटजीपीटी हेल्थ को स्पष्ट रूप से यह कहकर दायित्व से बचने की कोशिश की गई है कि “यह निदान और उपचार के लिए नहीं है” और इसका उपयोग “चिकित्सकों के साथ निकट सहयोग में” किया जाना चाहिए। वह अस्वीकरण महत्वपूर्ण नियामक महत्व रखता है। निदान और उपचार के लिए डिज़ाइन किए गए उत्पादों को एफडीए द्वारा चिकित्सा उपकरणों के रूप में वर्गीकृत किया गया है और उन्हें कठोर नैदानिक परीक्षणों और सुरक्षा निगरानी से गुजरना होगा। यह कहने से कि चैटजीपीटी हेल्थ उस उद्देश्य के लिए नहीं है – भले ही 230 मिलियन लोग हर हफ्ते स्वास्थ्य सलाह के लिए इसका उपयोग करते हैं –ओपनएआई उत्पाद को FDA के अधिकार क्षेत्र से बाहर रखता है।
लेकिन वैन कोल्फशूटेन सवाल करते हैं कि क्या यह सही फैसला है। कब ओपनएआई उपयोगकर्ताओं को प्रयोगशाला परिणाम अपलोड करने, स्वास्थ्य व्यवहारों को ट्रैक करने और उपचार निर्णयों के माध्यम से तर्क करने के लिए प्रोत्साहित करने पर, “सूचना उपकरण” और “चिकित्सा उपकरण” के बीच की रेखा धुंधली होने लगती है। उन्होंने बताया, “अगर कोई उत्पाद ऐसा कर रहा है, तो कोई तर्कसंगत तर्क दे सकता है कि यह चिकित्सा उपकरण की अमेरिकी परिभाषा के अंतर्गत आ सकता है।” द वर्ज. उनका अनुमान है कि यूरोप का सख्त नियामक ढांचा यह बता सकता है कि चैटजीपीटी हेल्थ अभी तक वहां उपलब्ध क्यों नहीं है।
चिकित्सीय अस्वीकरण वास्तव में उपयोगकर्ता के व्यवहार को बदलने में भी अप्रभावी हो सकते हैं। ओपनएआई चैटजीपीटी को चिकित्सकीय रूप से सक्षम-विकासशील बनाने के लिए काफी प्रयास किए हैं हेल्थबेंच260+ चिकित्सकों के साथ बनाया गया इसका अपना बेंचमार्क “यह परीक्षण करने के लिए है कि एआई मॉडल यथार्थवादी स्वास्थ्य परिदृश्यों में कितना अच्छा प्रदर्शन करते हैं।” स्वतंत्र अध्ययन, हालांकि अक्सर छोटा या OpenAI द्वारा वित्त पोषित खुद सुझाव देते हैं कि चैटजीपीटी मेडिकल लाइसेंसिंग परीक्षा पास कर सकता है, कुछ डॉक्टरों की तुलना में अधिक सहानुभूतिपूर्वक संवाद कर सकता है, और कुछ मामलों में निदान में चिकित्सकों से बेहतर प्रदर्शन कर सकता है। जब एक प्रणाली “व्यक्तिगत महसूस करती है और इसमें अधिकार की आभा होती है, तो चिकित्सा अस्वीकरण आवश्यक रूप से प्रणाली में लोगों के विश्वास को चुनौती नहीं देगा,” वैन कोल्फशूटेन ने चेतावनी दी।
ओपनएआई इस प्रयास में वह अकेली नहीं है। anthropic इस महीने हेल्थकेयर के लिए क्लाउड लॉन्च किया, इसे प्रदाताओं और उपभोक्ताओं दोनों के लिए “HIPAA-रेडी” के रूप में विपणन किया। स्वास्थ्य देखभाल की दौड़ से एआई विशेष रूप से अनुपस्थित है गूगलहालाँकि, कंपनी ने चुपचाप डेवलपर्स के लिए अपने मेडजेम्मा मेडिकल एआई मॉडल के अपडेट की घोषणा की। स्वास्थ्य और कल्याण एआई प्रयोगशालाओं के लिए अगले प्रमुख युद्धक्षेत्र के रूप में उभर रहा है – यह परीक्षण कि क्या उपयोगकर्ता अपने सबसे कमजोर क्षणों में इन प्रणालियों का स्वागत करेंगे।
पैमाने से पता चलता है कि वे पहले से ही हैं। 230 मिलियन साप्ताहिक उपयोगकर्ताओं द्वारा स्वास्थ्य संबंधी प्रश्न पूछने के साथ, चैटजीपीटी लगभग संयोग से दुनिया के सबसे अधिक परामर्श वाले चिकित्सा संसाधनों में से एक बन गया है। जिस देश में गंभीर स्वास्थ्य असमानताएँ कायम रहें और लाखों लोग संघर्ष करें बुनियादी देखभाल का खर्च वहन करेंएक एआई जो मुफ़्त है, हमेशा उपलब्ध है, और वास्तव में सुनता है, वास्तव में लोगों की मदद कर सकता है। लेकिन केवल तभी जब उपयोगकर्ता इन प्रणालियों पर भरोसा कर रहे हैं, वह योग्य है।
हम अपनी निजी जानकारी के मामले में डॉक्टरों पर भरोसा करते हैं क्योंकि चिकित्सा पेशे ने नैतिक कोड, कानूनी जवाबदेही और संस्थागत निरीक्षण के माध्यम से उस भरोसे को अर्जित करने में सदियां बिताई हैं। टेक उद्योग का मंत्र लंबे समय से रहा है “तेजी से आगे बढ़ें और चीजों को तोड़ें।” अब सवाल यह है कि क्या उस दर्शन पर आधारित उद्योग ने हमारे सबसे संवेदनशील रहस्यों को रखने का अधिकार अर्जित किया है, जो केवल एक वादे द्वारा संरक्षित हैं जो अगले गोपनीयता नीति अद्यतन के साथ गायब हो सकते हैं।
चैटजीपीटी हेल्थ जैसे एआई स्वास्थ्य सलाहकारों का उदय एक बुनियादी बदलाव का प्रतिनिधित्व करता है कि कैसे लाखों लोग चिकित्सा मार्गदर्शन चाहते हैं – लेकिन यह एक नियामक शून्य में हो रहा है। जबकि 230 मिलियन साप्ताहिक उपयोगकर्ता पहले से ही अपनी सबसे संवेदनशील जानकारी के साथ इन प्रणालियों पर भरोसा कर रहे हैं, उस डेटा को नियंत्रित करने वाली सुरक्षा खतरनाक रूप से कम है, जो कानूनी सुरक्षा उपायों के बजाय पूरी तरह से कॉर्पोरेट वादों पर निर्भर है। जैसा ओपनएआई, anthropicऔर अन्य लोग इस उभरते बाजार पर हावी होने की होड़ में हैं, व्यापक गोपनीयता कानूनों और स्पष्ट एफडीए निरीक्षण की अनुपस्थिति जोखिम का एक आदर्श तूफान पैदा करती है। प्रौद्योगिकी वास्तविक लाभ प्रदान कर सकती है, विशेष रूप से टूटी हुई स्वास्थ्य देखभाल प्रणाली को संभालने के लिए संघर्ष कर रही वंचित आबादी के लिए। लेकिन जब तक नियामक ये उपकरण क्या कर सकते हैं और उन्हें कैसे नियंत्रित किया जाता है, के बीच अंतर को बंद नहीं करते हैं, तब तक चैटबॉट के साथ अपने मेडिकल रिकॉर्ड साझा करने वाले उपयोगकर्ता शर्त लगा रहे हैं कि तकनीकी कंपनियां अपनी बात रखेंगी – भले ही ऐसा करने की कोई कानूनी आवश्यकता न हो।








