मैसेंजर पर चैट कर रही महिला से मिलने निकला शख्स, हो गई मौत; असल में महिला निकली AI चैटबॉट
अमेरिका के न्यू जर्सी में एक 76 वर्षीय शख्स की मौत तब हो गई जब वह फेसबुक मैसेंजर पर चैट कर रही महिला से मिलने निकला। बाद में पता चला कि ये महिला असल में Meta का AI चैटबॉट Big sis Billie था। रिपोर्ट के मुताबिक ये AI बार-बार रोमांटिक बातें कर रहा था और मिलने के लिए बुला रहा था जिससे ये दुखद घटना हुई।

टेक्नोलॉजी डेस्क, नई दिल्ली। अमेरिका के न्यू जर्सी में इस साल की शुरुआत में 76 वर्षीय थोंगब्यू वोंगबंड्यू की मौत हो गई जब वह एक महिला से मिलने की जल्दी में थे, जिससे वह फेसबुक मैसेंजर पर चैट कर रहे थे। रॉयटर्स की रिपोर्ट के मुताबिक, ये महिला बाद में Meta Platforms का जेनरेटिव AI चैटबॉट निकला। वोंगबंड्यू 'Big sis Billie' नाम के चैटबॉट से बात कर रहे थे, जो 2023 में सुपरमॉडल केंडल जेनर के साथ मिलकर लॉन्च किए गए पहले AI पर्सोना का एक वेरिएंट था।
रिपोर्ट के मुताबिक, Meta का 'Big sis Billie' चैटबॉट वोंगबंड्यू के साथ बार-बार रोमांटिक बातें करता था और उन्हें भरोसा दिलाता था कि वह असली इंसान है। चैटबॉट ने उन्हें न्यूयॉर्क सिटी के एक एड्रेस पर आने का निमंत्रण भी दिया। चैट ट्रांसक्रिप्ट में 'Should I open the door in a hug or a kiss, Bu?!' लिखा था।
पार्किंग में गिर गए
वोंगबंड्यू को 2017 में स्ट्रोक आया था और वे कभी-कभी कन्फ्यूजन में रहते थे। 25 मार्च को वे 'बिली' से मिलने घर से निकले। पिस्कटावे, न्यू जर्सी के ट्रेन स्टेशन जाते वक्त वह रटगर्स यूनिवर्सिटी की पार्किंग में गिर गए और सिर व गर्दन पर चोट लग गई। तीन दिन बाद अस्पताल में उनकी मौत हो गई।
ब्यू के परिवार ने रॉयटर्स को बताया कि वे इस घटना के जरिए लोगों को चेतावनी देना चाहते हैं कि कैसे कमजोर लोगों को मैनिपुलेटिव, AI-जनरेटेड साथियों से खतरा हो सकता है। ब्यू की बेटी जूली वोंगबंड्यू ने कहा, 'मैं समझ सकती हूं कि किसी का ध्यान खींचने के लिए ऐसा किया जाए, शायद उन्हें कुछ बेचने के लिए। लेकिन किसी बॉट का कहना कि ‘आकर मुझसे मिलो’ — ये पागलपन है।'
रॉयटर्स द्वारा देखे गए Meta के इंटरनल पॉलिसी डॉक्यूमेंट्स में बताया गया है कि कंपनी के जेनरेटिव AI गाइडलाइंस चैटबॉट्स को ये कहने की इजाजत देते थे कि वे असली इंसान हैं, वयस्कों के साथ रोमांटिक बातचीत शुरू कर सकते हैं और इस महीने की शुरुआत तक, 13 साल और उससे ऊपर उम्र के नाबालिगों के साथ भी रोमांटिक रोलप्ले कर सकते थे। 'It is acceptable to engage a child in conversations that are romantic or sensual” — ऐसा Meta के 'GenAI: Content Risk Standards' में लिखा था।
डॉक्यूमेंट्स में ये भी बताया गया कि चैटबॉट्स को सही जानकारी देने की कोई अनिवार्यता नहीं थी। उदाहरण में चैटबॉट्स गलत मेडिकल सलाह दे रहे थे और रोलप्ले में शामिल हो रहे थे। रॉयटर्स द्वारा देखे गए 'स्वीकार्य' चैटबॉट डायलॉग के उदाहरण में लिखा था- 'I take your hand, guiding you to the bed' और 'our bodies entwined, I cherish every moment, every touch, every kiss.' डॉक्यूमेंट में कहा गया, 'भले ही यह स्पष्ट रूप से गलत जानकारी हो, फिर भी यह अनुमति प्राप्त है क्योंकि जानकारी सही होना पॉलिसी की आवश्यकता नहीं है।'
रॉयटर्स को दिए बयान में Meta के प्रवक्ता एंडी स्टोन ने इन डॉक्यूमेंट्स की प्रामाणिकता को स्वीकार किया और कहा कि कंपनी ने बच्चों के साथ फ्लर्ट और रोमांटिक रोलप्ले की अनुमति वाले हिस्से को हटा दिया है। उन्होंने कहा, 'ये उदाहरण और नोट्स गलत थे और हमारी नीतियों के विपरीत थे, इसलिए इन्हें हटा दिया गया है।'
ताजा रॉयटर्स रिपोर्ट के मुताबिक, ब्यू की मौत के बाद दो अमेरिकी सीनेटरों ने Meta प्लेटफॉर्म्स पर कांग्रेस की जांच की मांग की है। रिपब्लिकन सीनेटर जोश हॉवली ने X पर लिखा, 'तो, सिर्फ तब जब Meta पकड़ा गया, उसने ये हिस्सा हटाया जिसमें लिखा था कि बच्चों के साथ फ्लर्ट और रोमांटिक रोलप्ले करना ‘परमिसिबल’ है। ये तुरंत कांग्रेस की जांच के लायक मामला है।'
कमेंट्स
सभी कमेंट्स (0)
बातचीत में शामिल हों
कृपया धैर्य रखें।