Stanford کے سائنسدان: ہوشیار مشینیں جو انصاف پسند اور قابلِ اعتماد ہوں!,Stanford University


Stanford کے سائنسدان: ہوشیار مشینیں جو انصاف پسند اور قابلِ اعتماد ہوں!

کیا آپ نے کبھی سوچا ہے کہ روبوٹس یا کمپیوٹر پروگرامز بھی اچھے اور برے میں فرق کر سکیں؟ یہ ایک بہت دلچسپ سوال ہے، اور Stanford یونیورسٹی کے کچھ ہوشیار سائنسدان اسی سوال کا جواب ڈھونڈ رہے ہیں۔ وہ ایسی مشینیں بنانا چاہتے ہیں جو نہ صرف ہوشیار ہوں، بلکہ انصاف پسند، قابلِ اعتماد اور ہماری مدد کرنے والی ہوں۔

یہ سب کیا ہے؟

آپ نے شاید "مصنوعی ذہانت” (Artificial Intelligence) یا "AI” کا نام سنا ہوگا۔ یہ وہ ٹیکنالوجی ہے جس کی مدد سے کمپیوٹر اور روبوٹس کچھ ایسے کام کر سکتے ہیں جو پہلے صرف انسان ہی کر سکتے تھے۔ مثال کے طور پر، آپ کے فون میں تصویروں کو پہچاننے والا پروگرام، یا وہ گیمز جن میں کمپیوٹر آپ کے ساتھ کھیلتا ہے، یہ سب AI کی مدد سے کام کرتے ہیں۔

لیکن کبھی کبھی AI کے کچھ مسائل بھی ہو سکتے ہیں۔ فرض کریں، اگر کسی AI کو صرف کچھ خاص قسم کے لوگوں کی تصویریں دکھا کر سکھایا جائے، تو وہ شاید دوسری قسم کے لوگوں کو پہچان ہی نہ سکے۔ یہ انصاف پسند نہیں ہوگا، ہے نا؟ Stanford کے سائنسدان یہی یقینی بنانا چاہتے ہیں کہ AI کے ساتھ ایسا نہ ہو۔

Stanford کے سائنسدان کیا کر رہے ہیں؟

Stanford یونیورسٹی میں، پروفیسر们 اور ان کے طلباء مل کر کام کر رہے ہیں تاکہ AI کو "فیئر” (fair) یعنی انصاف پسند، "ٹرست ورتھی” (trustworthy) یعنی قابلِ اعتماد، اور "رسپانسبل” (responsible) یعنی ذمہ دار بنایا جا سکے۔

  • انصاف پسند AI: اس کا مطلب ہے کہ AI کو سب کے ساتھ برابر سلوک کرنا چاہیے۔ چاہے کوئی کسی بھی رنگ، نسل، یا جنس کا ہو، AI کو اسے صحیح طرح سے پہچاننا اور مدد کرنا چاہیے۔ جیسے، اگر کوئی AI گاڑی چلاتے ہوئے راستے بتاتی ہے، تو اسے سب کے لیے محفوظ راستہ بتانا چاہیے، نہ کہ صرف کچھ لوگوں کے لیے۔

  • قابلِ اعتماد AI: ہمیں AI پر بھروسہ کرنے کے قابل ہونا چاہیے۔ اگر AI ہمیں کوئی فیصلہ بتاتی ہے، تو ہمیں یقین ہونا چاہیے کہ وہ صحیح ہے۔ مثال کے طور پر، اگر کوئی ڈاکٹر AI کا استعمال بیماری کا پتہ لگانے کے لیے کر رہا ہے، تو ڈاکٹر کو اس AI کے بتائے ہوئے طریقے پر یقین ہونا چاہیے۔

  • ذمہ دار AI: AI کو یہ بھی سمجھنا چاہیے کہ اس کے کاموں کے کیا نتائج ہو سکتے ہیں اور اسے ذمہ داری سے کام کرنا چاہیے۔ جیسے، اگر کوئی AI کھیل کے میدان میں بچوں کی نگرانی کر رہی ہے، تو اسے اس بات کا خیال رکھنا چاہیے کہ کوئی بچہ غلطی سے زخمی نہ ہو جائے۔

یہ کیسے ہو رہا ہے؟

Stanford کے سائنسدان مختلف طریقے استعمال کر رہے ہیں:

  1. بہتر طریقے سے سکھانا: وہ AI کو سکھانے کے لیے بہت زیادہ اور مختلف قسم کا ڈیٹا استعمال کر رہے ہیں تاکہ AI کسی مخصوص گروپ کے لیے متعصب (biased) نہ ہو۔
  2. AI کو سمجھنا: وہ ایسے طریقے بھی بنا رہے ہیں جن سے ہم یہ سمجھ سکیں کہ AI کوئی خاص فیصلہ کیوں کر رہی ہے۔ اس سے ہمیں اس پر زیادہ بھروسہ ہوگا۔
  3. بچوں اور بڑوں کی مدد: وہ اس بات پر بھی تحقیق کر رہے ہیں کہ AI بچوں اور بڑوں کے لیے کیسے مفید ہو سکتی ہے اور ان کی زندگیوں کو کیسے بہتر بنا سکتی ہے۔

آپ کیا کر سکتے ہیں؟

یہ سب جان کر، شاید آپ کے دل میں بھی سائنس اور ٹیکنالوجی میں دلچسپی پیدا ہو گی۔ آپ اپنے آس پاس کی مشینوں کو دیکھ سکتے ہیں اور سوچ سکتے ہیں کہ وہ کیسے کام کرتی ہیں۔ آپ سوال پوچھ سکتے ہیں، کتابیں پڑھ سکتے ہیں، اور شاید ایک دن آپ بھی ایسے ہی سائنسدان بن کر دنیا کو بہتر بنانے میں مدد کر سکیں!

Stanford کے یہ سائنسدان جو کام کر رہے ہیں، وہ بہت اہم ہے۔ وہ ہمیں ایک ایسی دنیا بنانے میں مدد دے رہے ہیں جہاں ٹیکنالوجی سب کے لیے فائدہ مند ہو، اور جہاں ہم ہوشیار مشینوں پر بھروسہ کر سکیں۔ یہ بہت دلچسپ ہے، ہے نا؟


How Stanford researchers are designing fair and trustworthy AI systems


اے آئی نے خبریں فراہم کر دی ہیں۔

گوگل جیمینائی سے جواب حاصل کرنے کے لیے درج ذیل سوال استعمال کیا گیا تھا:

2025-07-29 00:00 کو، Stanford University نے ‘How Stanford researchers are designing fair and trustworthy AI systems’ شائع کیا۔ براہ کرم متعلقہ معلومات کے ساتھ ایک تفصیلی مضمون تحریر کریں، جو بچوں اور طلباء کے لیے آسان زبان میں ہو، تاکہ مزید بچوں کو سائنس میں دلچسپی لینے کی ترغیب ملے۔ براہ کرم مضمون صرف اردو میں فراہم کریں۔

Leave a Comment