Odiapua.com

ମହିଳାଙ୍କ ଫଟୋକୁ ନଗ୍ନରେ ପରିବର୍ତ୍ତନ କରୁଛି ସଫ୍ଟୱେୟାର, ବମ୍ବେ ହାଇକୋର୍ଟ ଆଇବି ମନ୍ତ୍ରଣାଳୟରୁ ମାଗିଲେ ସୂଚନା

ନୂଆ ଦିଲ୍ଲୀ ୨୧-୧୦ (ଓଡ଼ିଆ ପୁଅ) ବମ୍ବେ ହାଇକୋର୍ଟ ସୂଚନା ଏବଂ ପ୍ରସାରଣ ମନ୍ତ୍ରଣାଳୟରୁ ଆର୍ଟିଫିସିଆଲ ଇଣ୍ଟେଲିଜେନ୍ସି (କୃତ୍ରିମ ବୁଦ୍ଧିମତା/AI) ଭିତ୍ତିକ ସଫ୍ଟୱେୟାର (DEEP FAKE) ବିଷୟରେ ସୂଚନା ମାଗିଛନ୍ତି, ଯାହା ମହିଳାଙ୍କ ସାଧାରଣ ଫଟୋଗ୍ରାଫକୁ ଅଶ୍ଳୀଳ ଫଟୋରେ ପରିଣତ କରିଥାଏ। ଏ ସମ୍ପର୍କରେ ଏକ ରିପୋର୍ଟ ମଙ୍ଗଳବାର ସାଇବର ରିସର୍ଚ୍ଚ ଏଜେନ୍ସି ଦ୍ୱାରା ପ୍ରକାଶ ପାଇଛି। ଏହି ରିପୋର୍ଟରେ କୁହାଯାଇଛି ଯେ, ବର୍ତ୍ତମାନ ପର୍ଯ୍ୟନ୍ତ ପ୍ରାୟ ଏକ ଲକ୍ଷ ମହିଳା ଏହାର ଶିକାର ହୋଇଛନ୍ତି ବୋଲି ଏକ ଖବର ପ୍ରକାଶ ପାଇଛି।

ବଲିଉଡ ଅଭିନେତା ସୁଶାନ୍ତ ସିଂ ରାଜପୁତଙ୍କ ମୃତ୍ୟୁ ମାମଲାରେ ବୈଦ୍ୟୁତିକ ଗଣମାଧ୍ୟମ ଦ୍ୱାରା ହୋଇଥିବା ଶୁଣାଣି ସହ ଜଡିତ ବିଭିନ୍ନ ଆବେଦନ ଶୁଣାଣି ବେଳେ ରିପୋର୍ଟରେ ପ୍ରକାଶ ପାଇଥିବା ବିପଦକୁ ନେଇ କୋର୍ଟ ଉଦ୍ବେଗ ପ୍ରକାଶ କରିଛନ୍ତି। ଏ ସମ୍ପର୍କରେ ମନ୍ତ୍ରଣାଳୟରୁ ସୂଚନା ମାଗିବାକୁ କୋର୍ଟ ଅତିରିକ୍ତ ସଲିସିଟର ଜେନେରାଲ (ଏଏସଜି) ଅନିଲ ସିଂଙ୍କୁ କହିଛନ୍ତି। ASG କହିଛନ୍ତିଯେ, ସେ ଏହି ରିପୋର୍ଟ ପଢ଼ିଛନ୍ତି ଏବଂ ସମ୍ପୃକ୍ତ ଅଧିକାରୀଙ୍କ ସହ ମଧ୍ୟ ଆଲୋଚନା କରିଛନ୍ତି।

ASG ଅଦାଲତକୁ କହିଛନ୍ତି ଯେ ଏପରି କ୍ଷେତ୍ରରେ ସୂଚନା ପ୍ରଯୁକ୍ତିବିଦ୍ୟା ଅଧିନିୟମର ଧାରା ୬୯ ଏ ଏବଂ ୭୯ (୩) ବି ରେ ଥିବା ବ୍ୟବସ୍ଥା ଅନୁଯାୟୀ କାର୍ଯ୍ୟାନୁଷ୍ଠାନ ଗ୍ରହଣ କରାଯାଇପାରିବ। ଏହାର ଉତ୍ତରରେ କୋର୍ଟ କହିଛନ୍ତି ଯେ, ଏହି ମାମଲା ଅତ୍ୟନ୍ତ ଗମ୍ଭୀର ଏବଂ ମନ୍ତ୍ରଣାଳୟ ଏ ବାବଦରେ ଗୁରୁତର ପଦକ୍ଷେପ ନେବାକୁ ପଡ଼ିବ। ମନ୍ତ୍ରଣାଳୟ ଶୀଘ୍ର ଏହି ପ୍ରସଙ୍ଗରେ ଉପଯୁକ୍ତ ପଦକ୍ଷେପ ନେବ ବୋଲି ASG କହିଛନ୍ତି।

ଜୁଲାଇ ପର୍ଯ୍ୟନ୍ତ ଏକ ଲକ୍ଷରୁ ଅଧିକ ମହିଳା ଶିକାର କରିଥିଲେ

ରିପୋର୍ଟ ଅନୁଯାୟୀ, ଜୁଲାଇ ୨୦୨୦ ସୁଦ୍ଧା ପ୍ରାୟ ଏକ ଲକ୍ଷ ୩୮୫୨ ମହିଳା ପୀଡିତ ହୋଇଛନ୍ତି, ଯେଉଁଥିରେ ସେମାନଙ୍କର ନଗ୍ନ ଫଟୋ ସର୍ବସାଧାରଣ ପ୍ଲାଟଫର୍ମରେ ସେୟାର କରାଯାଇଥିଲା। ଗତ ତିନି ମାସ ମଧ୍ୟରେ ସେମାନଙ୍କର ସଂଖ୍ୟା ଦ୍ରୁତ ଗତିରେ ବୃଦ୍ଧି ପାଇଛି, ଯାହାକି ପ୍ରାୟ ୧୯୮ ପ୍ରତିଶତ।

ରିପୋର୍ଟ ଅନୁଯାୟୀ, ଏହି ସଫ୍ଟୱେୟାର ମହିଳାଙ୍କୁ ଏକ ଫଟୋ ଅପଲୋଡ୍ କରିବାକୁ ଏବଂ ତା’ପରେ ତାଙ୍କ ପୋଷାକ କାଢ଼ିବାକୁ ଅନୁମତି ଦେଇଥାଏ। ଯଦିଓ ଏହି ସଫ୍ଟୱେର୍ ମାଗଣାରେ ଉପଲବ୍ଧ, କିନ୍ତୁ ମାଗଣା ସଂସ୍କରଣରେ ୱାଟର ମାର୍କ ଦେଖାଯାଏ, ସଫ୍ଟୱେୟାର ୱାଟର ମାର୍କକୁ ହଟାଇବା ପାଇଁ ମାତ୍ର ୧୦୦ ଟଙ୍କା ଦେବାକୁ ପଡ଼ିଥାଏ ବୋଲି ରିପୋର୍ଟରେ କୁହାଯାଇଛି।