Deep Fake: నిన్న రష్మిక.. నేడు కత్రినా..  రేపు…?

Deep Fake: ఓ వైపు కృత్రిమ మేధ ద్వారా శాస్త్ర సాంకేతిక రంగాల్లో పలు విప్లవాత్మక ఆవిష్కరణలు జరుగుతున్నాయి. కానీ మరికొందరు ఈ సాంకేతికతను దుర్వినియోగం చేస్తున్నారు. రష్మిక డీఫ్‌ ఫేక్‌ వీడియో(Def fake video) షాక్‌ నుంచి సినీవర్గాలు తేరుకొనే లోపే తాజాగా బాలీవుడ్‌ నటి కత్రినా కైఫ్‌(Katrina Kaif) నటించిన ‘టైగర్‌-3’ సినిమాకు సంబంధించిన డీప్‌ ఫేక్‌ ఫొటో(Deep fake photo) ఒకటి వైరల్‌(Viral)గా మారింది. ఏఐ సాంకేతికతను ఉపయోగించి ఈ ఇమేజ్‌ను మార్చినట్లు […]

Share:

Deep Fake: ఓ వైపు కృత్రిమ మేధ ద్వారా శాస్త్ర సాంకేతిక రంగాల్లో పలు విప్లవాత్మక ఆవిష్కరణలు జరుగుతున్నాయి. కానీ మరికొందరు ఈ సాంకేతికతను దుర్వినియోగం చేస్తున్నారు. రష్మిక డీఫ్‌ ఫేక్‌ వీడియో(Def fake video) షాక్‌ నుంచి సినీవర్గాలు తేరుకొనే లోపే తాజాగా బాలీవుడ్‌ నటి కత్రినా కైఫ్‌(Katrina Kaif) నటించిన ‘టైగర్‌-3’ సినిమాకు సంబంధించిన డీప్‌ ఫేక్‌ ఫొటో(Deep fake photo) ఒకటి వైరల్‌(Viral)గా మారింది. ఏఐ సాంకేతికతను ఉపయోగించి ఈ ఇమేజ్‌ను మార్చినట్లు తెలుస్తోంది. కైఫ్‌ డీప్‌ ఫేక్‌ ఫొటోపై పలువురు నెటిజన్లు సోషల్‌ మీడియాలో ఘాటుగా స్పందిస్తున్నారు. ఇలాంటి చర్యలు సిగ్గుచేటని, ఒక మహిళ ఫొటోను మార్ఫింగ్‌ చేయడానికి ఏఐ(AI)ని ఉపయోగించడం క్రిమినల్‌ నేరమని ఆగ్రహం వ్యక్తం చేస్తున్నారు.

రష్మిక(Rashmika) ఉదంతంతో కృత్రిమమేధలోని మరో భయంకర కోణంపై ఆందోళన మొదలైంది. దీని ద్వారా సైబర్‌ నేరగాళ్లు(Cyber ​​Criminals) ఒరిజినల్‌ వీడియోలు, ఫొటోల స్థానంలో నకిలీ ఇమేజ్‌లు(Fake Images), వీడియోలు(Videos) రూపొందిస్తున్నారు. మార్ఫింగ్‌ వీడియో(Morphing video)లను కొంత వరకూ గుర్తించవచ్చు. కానీ ఏఐ(AI) సాయంతో రూపొందిన వీడియోల్లో ఉన్నది అసలు వ్యక్తులా కాదా అని గుర్తుపట్టడం చాలా కష్టం. మెషీన్‌ లెర్నింగ్‌ టూల్స్‌ (Machine learning Tools) ద్వారా న్యూరల్‌ నెట్‌వర్క్‌లను(Neural networks) ఉపయోగించి, అసలు వీడియోల స్థానంలో ఫేక్‌ వీడియోలను సైబర్‌ నేరగాళ్లు(Cyber ​​Criminals) తయారు చేస్తున్నారు.

Read More: Chinmayi Sripaada: లోన్ యాప్‌లు మార్ఫింగ్ ఫోటోలతో మహిళల్ని వేధిస్తున్నాయి..

ముఖం అచ్చుగుద్దినట్లు దించడానికి ఫేషియల్‌ మ్యాపింగ్‌ టెక్నాలజీ(Facial Mapping Technology) వాడుతున్నారు. గొంతు కూడా అలాగే ఉండేందుకు వాయిస్‌ మ్యాచింగ్‌ టెక్నాలజీని(Voice matching technology) ఉపయోగిస్తున్నారు. జరాపటేల్‌(Zarapatel) వీడియోను రష్మిక ముఖంతో ఈ విధానంలోనే డీప్‌ ఫేక్‌ వీడియోగా తయారుచేశారు. ఇలాంటి వీడియోలను కట్టడి చేయడం ప్రభుత్వం, సోషల్‌ మీడియా ప్లాట్‌ఫామ్‌ల వల్ల కావడం లేదు. ఇప్పటికే అమల్లో ఉన్న మూడేళ్ల జైలుశిక్ష, లక్ష రూపాయల జరిమానా లాంటి చట్టాలను కఠినంగా అమలు చేయడం ద్వారా మాత్రమే దీన్ని కొంతమేర అయినా అరికట్టవచ్చని సైబర్‌ నిపుణులు అభిప్రాయపడుతున్నారు.

సోషల్‌ ప్లాట్‌ఫామ్‌లదే బాధ్యత

రష్మిక మందన్న డీప్‌ ఫేక్‌ వీడియో(DeepFake Video) వ్యవహారంపై కేంద్రం సీరియ్‌సగా స్పందించింది. ఇటువంటి వీడియోలను అడ్డుకోవాల్సిన బాధ్యత మీపైనే ఉందని పేర్కొంటూ సోషల్‌ మీడియా ప్లాట్‌ఫాంలకు కేంద్ర ఎలక్ట్రానిక్స్, ఐటీ మంత్రిత్వ శాఖ ఒక రిమైండర్‌ను పంపింది. డీప్‌ ఫేక్‌ వంటి మార్ఫింగ్‌ వీడియోల తయారీ, వ్యాప్తికి సంబంధించిన చట్ట నిబంధనలు, జరిమానాలను అందులో గుర్తు చేసింది. కంప్యూటర్‌ వనరులను ఉపయోగించి మోసం చేసినందుకు విధించే శిక్షలను వివరించే ఇన్ఫర్మేషన్‌ టెక్నాలజీ చట్టం- 2000(Information Technology Act-200)లోని సెక్షన్‌ 66డీని ఉదహరించింది. దీని ప్రకారం.. ఎవరైనా, ఏదైనా కమ్యూనికేషన్‌ పరికరం లేదా కంప్యూటర్‌ వనరులను ఉపయోగించి వ్యక్తులను మోసగిస్తే, వారికి మూడేళ్ల వరకూ జైలు శిక్షతో పాటు రూ.లక్ష వరకూ జరిమానా(Fine) కూడా విధించవచ్చు. రష్మిక డీఫ్‌ ఫేక్‌ వీడియో(Deepfake Video) వివాదాస్పదమైన నేపథ్యంలో సామాజిక మాధ్యమ ప్లాట్‌ఫాంలకు కేంద్రం ఈ మేరకు అడ్వైజరీ(Advisory) జారీ చేసింది.

ఇన్ఫర్మేషన్ టెక్నాలజీ(Information Technology) మధ్యవర్తిత్వ నిబంధనల ప్రకారం, సోషల్ మీడియా ప్లాట్‌ఫారమ్‌లు తప్పనిసరిగా జాగ్రత్తగా ఉండాలని చెప్పే నియమం (రూల్ 3(1)(బి)(vii))ని కలిగి ఉన్నాయి. వేరొకరిలా నటిస్తూ కంటెంట్‌ను పోస్ట్ చేయకూడదని వారి వినియోగదారులకు తెలుసునని వారు నిర్ధారించుకోవాలి. ఇది వినియోగదారులకు తెలియజేయడానికి మరియు వేషధారణ కంటెంట్‌ని హోస్ట్ చేయడాన్ని నిరోధించడానికి ప్లాట్‌ఫారమ్‌లు చర్యలు తీసుకుంటుంది.

పరువు నష్టం

తప్పుడు సమాచారాన్ని వ్యాప్తి చేయడం ద్వారా మరొక వ్యక్తి ప్రతిష్టను దెబ్బతీసే ఉద్దేశ్యంతో ఎవరైనా నకిలీ వీడియో(Fake video)ను రూపొందించినట్లయితే, బాధిత వ్యక్తి చట్టపరమైన చర్య తీసుకోవడానికి పరువు నష్టం(defamation) చట్టాలను ఉపయోగించవచ్చు. భారతదేశంలో పరువు నష్టం చట్టాలు(Laws of defamation) (భారత శిక్షాస్మృతిలోని సెక్షన్లు 499 మరియు 500) తప్పుడు మరియు హానికరమైన సమాచారాన్ని వ్యాప్తి చేసినందుకు బాధ్యులపై దావా వేయడానికి వ్యక్తులను అనుమతిస్తాయి.

సైబర్ క్రైమ్

భారతదేశంలో, ఇన్ఫర్మేషన్ టెక్నాలజీ చట్టం(Information Technology Act) అనధికారిక యాక్సెస్, డేటా చౌర్యం మరియు సైబర్ బెదిరింపు వంటి వివిధ సైబర్ నేరాలను కవర్ చేస్తుంది. డేటాను హ్యాక్(Hack) చేయడం లేదా దొంగిలించడం వంటి చట్టవిరుద్ధమైన మార్గాల ద్వారా డీప్‌ఫేక్ వీడియోలను రూపొందించినట్లయితే, బాధితులు ఫిర్యాదులను దాఖలు చేయడానికి ఈ చట్టాన్ని ఉపయోగించవచ్చు. కంప్యూటర్ వనరులకు అనధికారిక యాక్సెస్ మరియు వ్యక్తిగత డేటా రక్షణ ఉల్లంఘనకు సంబంధించిన నేరాలను పరిష్కరించడానికి చట్టం సహాయపడుతుంది. వ్యక్తులు తమ వ్యక్తిగత సమాచారాన్ని ఇంటర్నెట్ నుండి డీప్‌ఫేక్ వీడియో(Deepfake Video)లతో సహా తీసివేయమని కోరడానికి కోర్టును ఆశ్రయించవచ్చు. గోప్యత మరియు డేటా రక్షణ సూత్రాల ఆధారంగా కోర్టులు అటువంటి అభ్యర్థనలను పరిగణించవచ్చు.

వినియోగదారులకు హాని కలిగించే వాటి కోసం డీప్‌ఫేక్ కంటెంట్(Deepfake Content) ఉపయోగించిన సందర్భాల్లో, వినియోగదారుల రక్షణ చట్టం 2019(Defense Act 2019) సహాయకరంగా ఉంటుంది. ఈ చట్టం వినియోగదారుల హక్కులు మరియు ఆసక్తులను రక్షించడానికి రూపొందించబడింది మరియు మోసం లేదా తప్పుగా సూచించే పరిస్థితులలో ఉపయోగించబడుతుంది.

గతంలోనూ మార్ఫింగ్‌ టెక్నాలజీ(Morphing technology)ని వాడి పలువురు హీరోయిన్లను అసభ్యకరరీతిలో చూపిస్తూ అశ్లీల వీడియోలు, నగ్న ఫొటోలు సృష్టించి ప్రచారంలోకి తెచ్చారు. బాలీవుడ్‌లో ఐశ్వర్యారాయ్‌ సహా పలువురు కథానాయికలకు ఈ బెడద తప్పలేదు. టాలీవుడ్‌లో సమంత, తమన్నా, సాయిపల్లవి, కాజల్‌ అగర్వాల్‌ సహా పలువురు తారల ఫేక్‌ వీడియోలను వైరల్‌ చేశారు. మహశ్‌బాబు కథానాయకుడిగా నటి స్తున్న ‘గుంటూరుకారం’ చిత్రం పోస్టర్‌ను సైతం ఏఐ సాయంతో సృష్టించి వైరల్‌ చేశారు. తర్వాత కానీ అది నకిలీ అని తెలియలేదు. బాలీవుడ్‌ అగ్రనటుడు అమితాబ్‌బచ్చన్‌, అక్షయ్‌కుమార్‌, గాయని చిన్మయి సహా పలువురు సినీ ప్రముఖులు దీనిపై స్పందించారు. ఫేక్‌ వీడియోలను ప్రచారంలోకి తెస్తున్నవాళ్లను పట్టుకొని కఠినంగా శిక్షించాలని ప్రభుత్వాన్ని కోరారు.