پانچ سال پہلے، کسی نے ڈیپ فیکس کے بارے میں بھی نہیں سنا تھا، جو مصنوعی ذہانت کی مدد سے بنائی جانے والی قائل نظر آنے والی لیکن جھوٹی ویڈیو اور آڈیو فائلز ہیں۔ ابھی، ان کا استعمال جنگ کے دوران اثر انداز ہونے کے لیے کیا جا رہا ہے۔ جعلی زیلسنکی ویڈیو کے علاوہ، جو پچھلے ہفتے وائرل ہوئی تھی، ایک اور وسیع پیمانے پر گردش کرنے والی ڈیپ فیک ویڈیو تھی جس میں روسی صدر ولادیمیر پوٹن کو یوکرین کی جنگ میں امن کا اعلان کرتے ہوئے دکھایا گیا تھا۔
زیلنسکی یا پوٹن کی حالیہ ویڈیوز میں سے کوئی بھی ٹِک ٹاک ٹام کروز کی اعلیٰ پیداواری اقدار کے قریب نہیں آیا (وہ نمایاں طور پر کم ریزولیوشن تھے، ایک چیز کے لیے، جو خامیوں کو چھپانے کا ایک عام حربہ ہے۔) لیکن ماہرین اب بھی انہیں خطرناک سمجھتے ہیں۔ اس کی وجہ یہ ہے کہ وہ روشنی کی رفتار دکھاتے ہیں جس کے ساتھ ہائی ٹیک ڈس انفارمیشن اب پوری دنیا میں پھیل سکتی ہے۔ جیسے جیسے یہ تیزی سے عام ہو رہے ہیں، ڈیپ فیک ویڈیوز آن لائن افسانے سے حقیقت بتانا مشکل بنا دیتے ہیں، اور اس سے بھی زیادہ اس جنگ کے دوران جو آن لائن پھیل رہی ہے اور غلط معلومات سے بھری ہوئی ہے۔ یہاں تک کہ ایک خراب ڈیپ فیک پانی کو مزید کیچڑ میں ڈالنے کا خطرہ رکھتا ہے۔
یونیورسٹی آف سدرن کیلیفورنیا کے ریسرچ ایسوسی ایٹ پروفیسر اور اسکول کی ویژول انٹیلی جنس اور ملٹی میڈیا اینالیٹکس لیبارٹری کے بانی ڈائریکٹر وائل عبد المجید نے کہا، “ایک بار جب یہ لائن مٹ جائے گی، تو سچائی خود موجود نہیں رہے گی۔” “اگر آپ کچھ دیکھتے ہیں اور آپ اس پر مزید یقین نہیں کر سکتے ہیں، تو سب کچھ جھوٹ بن جاتا ہے، ایسا نہیں ہے کہ سب کچھ سچ ہو جائے گا، یہ صرف یہ ہے کہ ہم کسی بھی چیز اور ہر چیز سے اعتماد کھو دیں گے.”
جنگ کے دوران ڈیپ فیکس
البانی یونیورسٹی میں کمپیوٹر وژن اور مشین لرننگ لیب کے ڈائریکٹر Siwei Lyu کا خیال ہے کہ ایسا اس لیے ہوا کیونکہ ٹیکنالوجی “ابھی موجود نہیں تھی۔” ایک اچھا ڈیپ فیک بنانا آسان نہیں تھا، جس کے لیے واضح نشانات کو ہموار کرنے کی ضرورت ہوتی ہے کہ کسی ویڈیو کے ساتھ چھیڑ چھاڑ کی گئی ہے (جیسے کہ کسی شخص کے چہرے کے فریم کے ارد گرد عجیب و غریب بصری جھٹکے) اور اسے اس میں موجود شخص کی طرح آواز دینا۔ ویڈیو وہی کہہ رہا تھا جو وہ کہہ رہے تھے (یا تو ان کی اصل آواز کے AI ورژن کے ذریعے یا ایک قائل آواز اداکار کے ذریعے)۔
اب، بہتر ڈیپ فیکس بنانا آسان ہے، لیکن شاید زیادہ اہم بات یہ ہے کہ ان کے استعمال کے حالات مختلف ہیں۔ ماہرین نے سی این این بزنس کو بتایا کہ حقیقت یہ ہے کہ اب ان کا استعمال جنگ کے دوران لوگوں کو متاثر کرنے کی کوشش میں کیا جا رہا ہے خاص طور پر نقصان دہ ہے، صرف اس وجہ سے کہ وہ جو الجھن بوتے ہیں وہ خطرناک ہو سکتا ہے۔
عام حالات میں، لیو نے کہا، ہو سکتا ہے کہ ڈیپ فیکس کا زیادہ اثر نہ ہو، دلچسپی حاصل کرنے اور آن لائن کرشن حاصل کرنے سے زیادہ۔ “لیکن نازک حالات میں، جنگ یا قومی تباہی کے دوران، جب لوگ واقعی بہت عقلی طور پر نہیں سوچ سکتے اور ان کی توجہ کا صرف ایک بہت ہی مختصر وقت ہوتا ہے، اور وہ ایسا کچھ دیکھتے ہیں، تب ہی یہ ایک مسئلہ بن جاتا ہے۔” اس نے شامل کیا.
“آپ ایک ویڈیو کے بارے میں بات کر رہے ہیں،” اس نے کہا۔ بڑا مسئلہ باقی ہے۔
“حقیقت میں کوئی بھی چیز انسانی آنکھوں کو نہیں مارتی”
جیسے جیسے ڈیپ فیکس بہتر ہوتے جاتے ہیں، محققین اور کمپنیاں ان کو تلاش کرنے کے لیے ٹولز کو جاری رکھنے کی کوشش کر رہے ہیں۔
خودکار پتہ لگانے میں مسائل ہیں، تاہم، جیسے کہ ڈیپ فیکس بہتر ہوتے ہی یہ مشکل تر ہوتا جاتا ہے۔ 2018 میں، مثال کے طور پر، لیو نے ویڈیو میں موجود شخص کے پلک جھپکنے کے طریقے میں تضادات کا سراغ لگا کر ڈیپ فیک ویڈیوز کو تلاش کرنے کا ایک طریقہ تیار کیا۔ ایک ماہ سے بھی کم عرصے کے بعد، کسی نے حقیقت پسندانہ پلک جھپکتے ہوئے ایک گہرا فیک بنایا۔
انہوں نے کہا، “ہم اسے بہت زیادہ دیکھنے جا رہے ہیں، اور گوگل، فیس بک، ٹویٹر جیسی پلیٹ فارم کمپنیوں پر انحصار کرنا شاید کافی نہیں ہے۔” “حقیقت میں کچھ بھی انسانی آنکھوں کو نہیں مارتا۔”