ایلون مسک کے زیرِ ملکیت سوشل میڈیا پلیٹ فارم ایکس نے فیکٹ چیکنگ کے عمل میں مصنوعی ذہانت (اے آئی) چیٹ بوٹس شامل کرنے کا اعلان کیا ہے، جس پر ٹیکنالوجی ماہرین نے سنجیدہ خدشات کا اظہار کیا ہے۔
سابق برطانوی وزیر برائے ٹیکنالوجی ڈیمین کولنز نے اس اقدام پر تنقید کرتے ہوئے کہا کہ یہ فیصلہ ایسے ہے جیسے خبروں میں ترمیم کا اختیار روبوٹس کو دے دیا جائے۔
ایکس نے منگل کو اعلان کیا کہ وہ متنازع پوسٹس کی وضاحت یا درستی کے لیے "کمیونٹی نوٹس" تحریر کرنے میں بڑے زبان ماڈلز (Large Language Models) کا استعمال کرے گا
اب تک یہ نوٹس صرف انسانوں کے ذریعے لکھے جاتے تھے۔
ایکس کے نائب صدر برائے پراڈکٹ، کیتھ کولمین کا کہنا تھا کہ اے آئی صرف انسانوں کی معاونت کرے گا، حتمی فیصلہ انسان ہی کریں گے۔
ہمارا ماننا ہے کہ انسان اور اے آئی کا امتزاج معیاری اور قابلِ اعتماد معلومات فراہم کر سکتا ہے۔
ایکس کے مطابق، اے آئی کی مدد سے فیکٹ چیکنگ نوٹس زیادہ تیزی سے، کم محنت سے، اور بہتر معیار کے ساتھ تیار کیے جا سکیں گے۔
تاہم، یہ نوٹس صرف اس وقت صارفین کو دکھائے جائیں گے جب مختلف نقطہ نظر رکھنے والے افراد انہیں مفید تسلیم کریں گے۔
تاہم ماہرین نے خبردار کیا ہے کہ یہ نظام آسانی سے غلط استعمال کا شکار ہو سکتا ہے۔
ڈیمین کولنز نے کہا کہ اے آئی کی شمولیت سے صارفین کو دکھائی جانے والی معلومات اور ان کے فیصلے کو صنعتی سطح پر متاثر کیا جا سکتا ہے۔
فیکٹ چیکنگ ادارے فل فیکٹ کے اے آئی سربراہ اینڈی ڈڈفیلڈ نے کہا کہ ’یہ منصوبے انسانی جائزہ کاروں پر پہلے سے موجود بوجھ کو مزید بڑھا سکتے ہیں اور ایک خطرناک صورت حال پیدا کر سکتے ہیں جس میں نوٹس مکمل طور پر اے آئی کے ذریعے بنائے، جانچے اور شائع کیے جا رہے ہوں۔
الان ٹورنگ انسٹیٹیوٹ سے وابستہ ماہر سموئل اسٹاک ویل نے کہا کہ ’اے آئی چیٹ بوٹس اکثر سیاق و سباق کو سمجھنے میں ناکام رہتے ہیں لیکن پُراعتماد انداز میں غلط معلومات فراہم کرتے ہیں، اگر اسے مناسب طور پر کنٹرول نہ کیا جائے تو یہ ایک خطرناک امتزاج بن سکتا ہے۔‘
ریسرچ سے یہ بھی سامنے آیا ہے کہ انسانی تحریر کردہ کمیونٹی نوٹس کو صارفین زیادہ قابلِ بھروسہ سمجھتے ہیں۔
گزشتہ صدارتی انتخابات کے دوران ایکس پر کئی گمراہ کن پوسٹس پر درست نوٹس موجود نہیں تھے، جن میں جھوٹے دعوے شامل تھے کہ 2020 کا انتخاب چرایا گیا یا غیر قانونی ووٹروں کو درآمد کیا جا رہا ہے۔
ان گمراہ کن پوسٹس کو مجموعی طور پر 2 ارب سے زائد بار دیکھا گیا۔