ذہانت (18) ۔ تعصب/وہاراامباکر

امریکی ریاست وسکونسن میں ملزمان کے بارے میں فیصلہ کرنے کے لئے الگورتھم استعمال کیا جا رہا تھا جو COMPAS کہلاتا ہے۔ اس کا کوڈ خفیہ ہے۔ ایک ملزم کو سنائی جانے والی سزا متنازعہ رہی جس کے بعد محققین نے اس کو جانچنے پر لگ گئے۔

Advertisements
julia rana solicitors

 

 

اس کے تجزیے نے بتایا کہ اگر آپ سیاہ فام ہیں تو یہ اس بات کا امکان بہت بڑھ جاتا ہے کہ الگورتھم آپ کو زیادہ خطرہ قرار دے گا۔
اس نے طوفان کھڑا کر دیا۔ سینکڑوں مضامین لکھے گئے۔ اور ناقدین کی بات میں وزن تھا۔ جلد کی رنگت کو کسی کا مستقبل طے نہیں کرنا چاہیے اور ہر کسی کو برابر انصاف ملنا چاہیے۔ ناقدین نے غیرانسانی الگورتھم کے نتائج کو غیرانسانی قرار دے دیا۔
۔۔۔۔۔۔۔۔۔
لیکن ہمیں اس کے بعد یہ سوال کرنا چاہیے کہ ایک غیرمتعصب الگورتھم کیسا ہو گا؟
ہم چاہیں گے کہ جلد کی رنگت فرق نہ ڈالے۔ سب کے ساتھ برابری کا سلوک ہو۔ لیکن ایک مسئلہ ہے۔ بدقسمتی سے۔ کچھ قسم کی fairness کسی اور کے ساتھ ریاضیاتی مطابقت نہیں رکھتیں
۔۔۔۔۔۔۔۔۔
فرض کر لیجئے کہ میں نے ایک سڑک پر لوگوں کو روک کر یہ طے کرنا ہے کہ کیا یہ شخص آئندہ قتل کرے گا یا نہیں۔ یہ کیسے کیا جائے؟
دنیا میں یہ کام کرنے والوں کی غالب اکثریت مرد ہیں۔ (96 فیصد قاتل مرد ہیں)۔ اگر قاتل ڈھونڈنے کے الگورتھم کو درست پیشگوئی کرتی ہے تو ایسی پیشگوئی جو نتائج دے گی، اس میں مرد زیادہ ہوں گے۔
اگر فرض کیجئے کہ ہم نے بہت سے لوگ روکے اور ان میں سے سو ایسے تھے جن کو ایک اچھے الگورتھم نے خطرہ بتایا۔ ان میں سے 96 مرد ہوں گے اور چار خواتین۔
اب فرض کیجئے کہ یہ الگورتھم 75 فیصد ایکوریٹ ہے۔ یہ جن کو غلطی سے قاتل شناخت کرے گا ان میں سے بھی مردوں کی تعداد خواتین سے بہت زیادہ ہو گی۔ یہ الگورتھم کی غلطی نہیں، ریاضی کے لحاظ سے یقینی ہے۔ نتائج اس لئے تعصب رکھتے ہیں کہ یہ حقیقت کے عکاس ہیں۔ زیادہ مرد قتل میں ملوث ہوتے ہیں اس لئے غلط الزام آنے کا امکان بھی ان پر زیادہ ہے۔
کچھ بھی اور کرنا ریاضی کے اعتبار سے ناممکن ہے۔
۔۔۔۔۔۔۔۔۔۔۔
الگورتھم یہاں پر سیاہ فام لوگوں پر غلط مثبت زیادہ بتا رہا تھا۔ اور اس کے پیچھے امریکہ کی طویل تاریخ ہے نہ کہ کسی کی جلد کی رنگت۔ الگورتھم کا متعصب ہونا یقینی ہے۔
۔۔۔۔۔۔۔۔۔۔۔
اور اب یہاں پر مصنوعی ذہانت کا ایک بڑا چیلنج آپ کے سامنے آ جاتا ہے۔
اگر ہم الگورتھم کو سمجھتے ہوں تو یہ سمجھا جا سکتا ہے کہ الگورتھم ایک خاص نتیجہ کیوں دے رہا ہے۔ اور اس کے نتائج کونسے عوامل کو کتنا وزن دے رہے ہیں۔ فیصلے کا درخت ہے کیا۔
مصنوعی ذہانت کے ایسے الگورتھم جنہیں ڈیٹا دیا جائے اور وہ اس پر خود کی تربیت کر لیں، اتنے شفاف نہیں۔ آپ کو کئی بار علم نہیں ہوتا کہ الگورتھم کی ریاضی اصل میں کر کیا رہی ہے۔ اور کیا اس نے کوئی تعصب سیکھ لیا ہے جو ہمیشہ اس میں رہے گا؟ مثال کے طور پر ملازمت کے لئے شارٹ لسٹ کرنا ہو یا جرم میں قصور کا فیصلہ۔ اگر ہم فیصلے کی وجہ نہیں سمجھتے تو پھر ان کے تعصبات نہیں پکڑ سکتے۔
الگورتھم ہماری مدد کرنے میں بہت اچھے ہیں لیکن ہم خود کس طرح کا معاشرہ چاہتے ہیں۔ یہ جواب ہمارے دینے کے ہیں۔
الگورتھم بنانے والی نجی کمپنیوں کے بورڈ روم میں نہیں بلکہ یہ فیصلے عوامی بحث اور حکومت کے ایوانوں میں کھلے عام کرنے کے ہیں کہ الگورتھم کی ریگولیشن کیا ہو۔ یہ انتہائی اہم ہے کہ الگورتھم جوابدہی سے بالاتر نہ ہوں۔ اور ان کے نتائج پر نظر رکھنے والے اور بازپرس کرنے والے موثر طریقے سے آواز بلند کر سکتے ہوں۔
۔۔۔۔۔۔۔۔۔۔۔۔۔
ہانا فرائے کہتی ہیں کہ
“پہلی بار جب میں نے سنا تھا کہ الگورتھم کمرہ عدالت میں استعمال ہو رہے ہیں تو میں ایسا کرنے کے حق میں نہیں تھا۔ الگورتھم کی غلطی کسی انسان کو آزادی کے حق سے محروم کر سکتی ہے۔ یہ جانتے ہوئے بھی کہ انسانی جج سے یہ بہتر پرفارم کرتے ہیں، میری رائے الگورتھم کے خلاف تھی۔
لیکن پھر جس طرح میری وکلاء اور قانون کے اداروں میں کام کرنے والوں سے بات ہوئی، اس رائے میں تبدیلی آتی گئی۔ اچھے ڈیزائن کا اور اچھی ریگولیشن والا الگورتھم کم از کم مدد کرنے کے لئے ہی لے آیا جائے تو یہ نظامِ انصاف کو بہتر بنائے گا۔ اور مجھے کوئی خوش فہمی نہیں کہ یہ آسان کام ہے۔
الگورتھم اس میدان میں آہستہ آہستہ اپنی جگہ بنا رہے ہیں۔
(جاری ہے)

Facebook Comments

بذریعہ فیس بک تبصرہ تحریر کریں

Leave a Reply