اب مصنوعی ذہانت (اے آئی) صرف آپ کے کام نہیں کر رہی بلکہ آپ کے دماغی سگنلز کو پڑھ اور ترجمہ بھی کر سکتی ہے۔ اسٹینفورڈ یونیورسٹی کی حالیہ تحقیق میں ایک 52 سالہ خاتون، جو فالج کے بعد مفلوج ہو گئی تھی، اپنے خیالات کے ذریعے اسکرین پر متن پڑھنے میں کامیاب ہو گئی۔
تحقیق میں اس خاتون کے دماغ میں مائیکرو الیکٹروڈز نصب کیے گئے، جو اعصابی سگنلز کو پکڑتے ہیں۔ AI ان سگنلز کا ترجمہ کر کے الفاظ میں کرتا ہے۔ اسی طرح دیگر شرکاء، جنہیں ایمیوٹروفک لیٹرل سکلروسیس (ALS) لاحق تھی، پر بھی یہ تجربہ کیا گیا، جس سے برین-کمپیوٹر انٹرفیسز (BCIs) کی صلاحیت واضح ہوئی۔
پہلے مریضوں کے خیالات کو سمجھنے کے لیے انہیں بولنا پڑتا تھا، لیکن اب AI کے استعمال والے BCIs دماغ میں خاموش سوچ کو بھی پہچان سکتے ہیں۔ اسٹینفورڈ کی ٹیم نے دریافت کیا کہ وہ دماغ میں تخیل کیے گئے جملوں کو 74 فیصد درستگی کے ساتھ ڈی کوڈ کر سکتی ہیں۔
یہ نظام دماغی سرگرمی کو متن یا بولے ہوئے الفاظ میں تبدیل کرتا ہے، جس میں آواز کی لہجہ اور رفتار بھی شامل ہیں۔ اے آئی نے صرف بولنے ہی نہیں بلکہ دماغ کے اسکینز سے تصاویر اور آوازیں بھی دوبارہ تخلیق کی ہیں۔
جاپان اور اسرائیل کی تحقیق میں fMRI اسکینز اور AI امیج جنریٹرز کا استعمال کیا گیا۔ محققین نے یہ بھی دیکھا کہ لوگ موسیقی کو کس طرح محسوس کرتے ہیں، اور اس سے میڈیکل اور انسان-کمپیوٹر تعامل میں نئے طریقے سامنے آئے۔
دماغی سگنلز اور برین چپس کا مستقبل
کیلیفورنیا یونیورسٹی، ڈیوائس کی ماہر مائٹری ویراغکر (Maitreyee Wairagkar) اور دیگر ماہرین کا کہنا ہے کہ برین چپس جلد کمرشل طور پر دستیاب ہوں گے، خاص طور پر Neuralink جیسی کمپنیوں کی ترقی کی وجہ سے۔ مائیکرو الیکٹروڈ ٹیکنالوجی زیادہ نیورونز کو کنیکٹ کرنے کی صلاحیت رکھتی ہے، جس سے AI حقیقی وقت میں براہِ راست ڈیٹا ٹرانسمٹ کر سکے گی۔
محققین مختلف دماغی علاقوں کا مطالعہ کر رہے ہیں تاکہ یہ معلوم ہو سکے کہ دماغ کے خراب حصے والے لوگ کس طرح خاموش خیالات پیدا کرتے ہیں۔ اس سے اسٹروک اور دیگر افراد جو بولنے میں دشواری محسوس کرتے ہیں، ان کے لیے بات کرنے کے نئے امکانات پیدا ہو سکتے ہیں۔









