दक्षिण भारत की अभिनेत्री रश्चिका मंदाना से पहले बॉलीबुड अभिनेत्री सनी लियोनी आर्टिफीशियल इंटेलीजेंस यानी एआई का शिकार हो चुकी हैं। उन्होनें अपनी पीड़ा व्यक्त करते हुए यहां तक कह दिया कि मेरा भी इस कलंक से सामना हो चुका है। सनी के खुलासे से नेटिजन्स हैरान और चिंतित हो गए । सनी कहा कहना कि उनका भी एक डीप फेफ वीडियो काफी वायरल हुआ था। सनी लियोन ने हाल ही में तर्क दिया कि उनके साथ भी पहले ऐसा हो चुका है। सनी ने उल्लेख किया कि भले ही कोई बहुत अधिक सावधानियां नहीं बरत सकता, लेकिन ऐसी घटनाएं होने पर कोई हमेशा शिकायत दर्ज कर सकता। सनी ने कहा कि यह एक ख़तरा है जो लंबे समय से चला आ रहा है।
यह कोई हालिया मुद्दा नहीं है, जैसा कि कई लोग मानते हैं। ये चीजें मेरे साथ हुई हैं लेकिन ईमानदारी से कहूं तो मैं इसके बारे में ज्यादा नहीं सोचती। मैं इसे मनोवैज्ञानिक या मानसिक रूप से प्रभावित नहीं होने देती। लेकिन कुछ यंग लड़कियां भी होती हैं जिन्हें कभी-कभी कलंक का सामना करना पड़ता है, लेकिन उन्हें समझना चाहिए कि यह उनकी गलती नहीं है। उन्होंने कुछ भी ग़लत नहीं किया। अगर ऐसा कुछ होता है, तो वे हमेशा साइबर सेल में जा सकते हैं और अधिकारियों को इस मामले के बारे में जानकारी दे सकते हैं।सनी ने कहा, लड़कियां को जाकर अपनी शिकायत में ये बताना होगा कि आपकी पहचान और समानता का दुरुपयोग किया गया है। पुलिस कार्रवाई करेगी। और यहां तक कि सोशल मीडिया पर भी, तकनीकी सहायता उपलब्ध है जहां आप इन मुद्दों की रिपोर्ट कर सकते हैं। बता दें कि रश्मिका मंदाना को एक लिफ्ट में एंटर करते हुए दिखाया गया था। क्लिप के ट्रेंड होने के तुरंत बाद, यह पाया गया कि यह वास्तव में ब्रिटिश-भारतीय जारा पटेल का वीडियो था। डीप फेक तकनीक का उपयोग करके इमेज के साथ छेड़छाड़ की गई और उसके बाद आया रिजल्ट बेहद चौंकाने वाला था। इसमें जारा के चेहरे पर एक्ट्रेस का फेस लगा दिया गया था। इसके बाद सुपरस्टार अमिताभ बच्चन ने माइक्रोब्लॉगिंग साइट एक्स पर जाकर कानूनी कार्रवाई की मांग की इसके डीपफेक वीडियो ने सबका ध्यान खींचा। बाद में, नानी, विजय देवरकोंडा, नागा चैतन्य और मृणाल ठाकुर सहित कई मशहूर हस्तियों ने भी वायरल वीडियो पर चिंता व्यक्त की। डीप फेक वीडियो के बारे में बहुत कल लोगों को पता है कि यह कितना घातक है। ऐसी वीडियो में असल इंसान की शक्ल पर दूसरे इंसान का चेहरा लगा दिया जाता है। लोग इसे आर्टिफिशियल इंटेलिजेंस की मदद से करते हैं। फोटो और वीडियो के साथ इस तरह से छेड़छाड़ की जाती है कि मालूम ही नहीं लग पाता कि ये असली है या नकली।