Google ने लाँच केलं नवीन टूल, आता AI जनरेट इमेज आणि डीपफेक ओळखणं होईल अधिक सोपं
सध्या AI जनरेट इमेज आणि डीपफेकचे जग आहे. तुम्हाला सोशल मिडीया आणि इंटरनेटवर अनेक असे व्हिडीओ आणि फोटो पाहायला मिळतील जे AI च्या मदतीने तयार करण्यात आले आहेत. काहीवेळा AI च्या मदतीने तयार करण्यात आलेले हे फोटो अगदी खऱ्या फोटोंसारखे दिसतात, त्यामुळे खरे फोटो आणि AI च्या मदतीने तयार करण्यात आलेल्या फोटोंमधील फरक ओळखणं कठीण होतं. डीपफेकच्या बाबतीत सुध्दा असंच आहे. या बनावट व्हिडीओ आणि फोटोंमुळे अनेकदा लोकांमध्ये संभ्रम निर्माण होतो.
हेदेखील वाचा- आधार कार्डमध्ये कोणती माहिती किती वेळा अपडेट केली जाऊ शकते, काय सांगतात नियम? जाणून घ्या
आता तुमचा हाच संभ्रम दूर होणार आहे. कारण गुगलने एक नवीन टूल लाँच केलं आहे. या नव्या टूलच्या मदतीने AI च्या मदतीने तयार करण्यात आलेले फोटो आणि व्हिडीओ ओळखण्यासाठी मदत होणार आहे. आर्टिफिशियल इंटेलिजन्सद्वारे फोटो आणि डीपफेक तयार करून काही गुन्हे देखील घडले आहेत. या सर्वांपासून आता गुगलच्या नवीन टूलमुळे सुटका मिळणार आहे.
Google ने Content Credentials नावाची टेक्नोलॉजी स्टेंडर्डचे अधिक सुरक्षित वर्जन लाँच केलं आहे. नवीन तंत्रज्ञान पूर्वीपेक्षा अधिक सुरक्षित केले गेले आहे आणि कोणत्याही प्रकारच्या टँपरिंगसाठी ते अधिक सुरक्षित आहे. Content Credentials तंत्रज्ञान AI च्या मदतीने तयार करण्यात आलेल्या फोटो आणि व्हिडीओना एक लेबल देईल, ज्यामुळे त्यांची ओळख करणं अधिक सोप होणार आहे.
गुगलच्या म्हणण्यानुसार, युजर्सची सर्व माहिती गुगल इमेजेस, लेन्स आणि सर्कल टू सर्चवर दिसणाऱ्या इमेजमधील कंटेंट क्रेडेंशियलमध्ये आढळेल. याचा अर्थ वापरकर्ते कोणत्याही फोटोच्या अबाउट या इमेज विभागात जाऊन इमेज कोणत्याही प्रकारच्या एआय टूलच्या मदतीने तयार केली गेली आहे की नाही किंवा ती एडीट केली गेली आहे हे पाहू शकतील. यासोबतच Google आपली जाहिरात प्रणाली C2PA मेटाडेटाशी जोडण्याचा विचार करत आहे.
हेदेखील वाचा- मोबाईल रिचार्ज पुन्हा महागणार? एअरटेल आणि VI च्या किंमती वाढण्याची शक्यता
हा डेटा भविष्यात कंपनीच्या धोरणांची माहिती देईल. याशिवाय युजर्सना C2PA माहिती देण्यासाठी गुगल यूट्यूबवर काम करत आहे. त्याच्या मदतीने व्हिडिओ कॅमेराने शूट केला गेला आहे की डिजीटल बनवला गेला आहे याची माहिती युजर्सना मिळेल. या नवीन टूलच्या मदतीने युजर्ससाठी व्हिडीओ बाबतची माहिती मिळवणं अधिक सोपे होणार आहे.
अहवालानुसार, फोटो आणि व्हिडिओ शेअरिंग आणि स्टोरेजमध्ये नवीन आयडी टॅग जोडले जात आहेत, जे AI माहिती आणि इमेजच्या डिजिटल स्रोताविषयी माहिती प्रदान करतील. डीपफेक थांबवण्यासाठी गुगल या फीचरवर काम करत असल्याचं सांगितलं जात आहे. डीपफेक हे फोटो, व्हिडिओ, ऑडिओ फाइल्स किंवा इतर माध्यमे आहेत जी चुकीची माहिती पसरवण्यासाठी किंवा लोकांची दिशाभूल करण्यासाठी AI वापरून डिजिटली तयार किंवा एडीट केली जातात.
एलन मस्क, रश्मिका मंदना, आलिया भट्ट, रणवीर सिंह, कॅटरिना, काजोल यांसारखे अनेकजण आतापर्यंत डिपफेकचे शिकार झाले आहेत. अभिनेते अमिताभ बच्चन यांनी एका कंपनीच्या मालकाविरुद्ध खटला दाखल केला ज्याच्या डीपफेक व्हिडिओ जाहिरातींनी तो त्या कंपनीच्या उत्पादनांची जाहिरात करत होता.