کیپسول نیٹ ورک:
کیپسول نیٹ ورک کیا ہے؟ یہ بنیادی طور پر ، گھوںسلی اعصابی تہوں کے سیٹ کا ایک نیٹ ورک ہے۔
میں آپ کو یہ بھی مشورہ دوں گا کہ نیچے دیئے گئے بلاگز کو بھی دیکھیں۔
میں فرض کر رہا ہوں کہ ، آپ لوگ کنونیوشنل نیورل نیٹ ورک (سی این این) کو جانتے ہیں۔ یہاں ، میں آپ کو اس پر ایک چھوٹا سا تعارف پیش کروں گا ، تاکہ میں سی این این کی حدود پر تبادلہ خیال کروں۔
آپ کنونیوشنل نیورل نیٹ ورک پر مندرجہ ذیل ویڈیو کا حوالہ بھی دے سکتے ہیں۔
کنونیوشنل نیورل نیٹ ورکس (CNN)
کنونیوولوشنل نیورل نیٹ ورک بنیادی طور پر مصنوعی نیوران کی مختلف تہوں کا اسٹیک ہیں ، جو کمپیوٹر وژن کے لئے استعمال ہوتا ہے۔ ذیل میں ، میں نے ان پرتوں کا تذکرہ کیا ہے:
اختراع پرت: جب ہم تصویری درجہ بندی کے لئے فیڈفورڈ نیورل نیٹ ورک (ملٹی پرت پرسیپٹرون) استعمال کرتے ہیں تو اس کے ساتھ بہت سارے چیلنجز موجود ہیں۔ سب سے مایوس کن چیلنج یہ ہے کہ ، اس نے بہت سارے پیرامیٹرز متعارف کروائے ہیں ، سی این این پر ویڈیو ٹیوٹوریل پر غور کیا۔
اس چیلنج پر قابو پانے کے لئے کنولیوشن لیئر پیش کیا گیا تھا. یہ خیال کیا جاتا ہے کہ ، ایک ساتھ پکسلز جو قریب تر ایک دوسرے کے قریب ہیں ، امیج کے مخالف کونوں میں دلچسپی کی ایک خاص خصوصیت کی تشکیل پر 'تعاون' کریں گے۔ نیز ، اگر کسی تصویر کے لیبل کی وضاحت کرتے وقت کسی خاص (چھوٹی) خصوصیت کو بہت اہمیت دی جاتی ہے تو ، یہ اتنا ہی اہم ہوگا ، اگر اس خصوصیت کی جگہ کے قطع نظر ، تصویر کے اندر کہیں بھی پایا گیا ہو۔
ReLU پرت: اصلاحی لکیری یونٹ (ریلیو) ٹرانسفارم فنکشن صرف اس صورت میں ایک نوڈ کو چالو کرتا ہے جب ان پٹ ایک خاص مقدار سے اوپر ہو ، جبکہ ان پٹ صفر سے نیچے ہو ، آؤٹ پٹ صفر ہو ، لیکن جب ان پٹ ایک خاص حد سے اوپر بڑھ جائے تو اس کا ایک لکیری تعلق ہوتا ہے۔ منحصر متغیر.
- اس پرت میں ہم فلٹر شدہ امیجوں سے ہر منفی اقدار کو ہٹا دیتے ہیں اور اس کی جگہ صفر کی جگہ دیتے ہیں
- یہ صفر تک کے اقدار کا خلاصہ کرنے سے بچنے کے لئے کیا جاتا ہے
پولنگ پرت: یہ ڈاؤن سمپلنگ انجام دینے کے لئے استعمال ہوتا ہے ، جو چھوٹا اور (عام طور پر) شبیہہ کے ٹکڑوں کو ناکارہ بناتا ہے اور انہیں ایک قدر میں جمع کرتا ہے۔ جمع کرنے کے لئے متعدد ممکنہ اسکیمیں ہیں - سب سے مشہور وجود زیادہ سے زیادہ پولنگ ، جہاں ہر حص withinے میں زیادہ سے زیادہ پکسل ویلیو لی جاتی ہے۔ اس سے نیٹ ورک کو ان پٹ امیج میں چھوٹی چھوٹی تبدیلیوں ، تحریف اور ترجموں کی شکل دی جاسکتی ہے (ان پٹ میں ایک چھوٹا سا مسخ پولنگ کے آؤٹ پٹ کو تبدیل نہیں کرے گا - چونکہ ہم مقامی محلے میں زیادہ سے زیادہ / اوسط قدر لیتے ہیں)۔
مکمل طور پر منسلک پرت: یہ پرت کلاس اسکورز کی گنتی کرے گی ، جہاں ہر ایک نمبر کلاس اسکور کے مساوی ہے۔ جیسا کہ عام اعصابی نیٹ ورکس اور نام کے مطابق ، اس پرت میں سے ہر نیورون پچھلے حجم میں موجود تمام نیورانوں سے جڑا ہوگا۔ مختصر طور پر ، یہ حتمی درجہ بندی انجام دیتا ہے۔
اس طرح ، کنوینٹس اصلی امیج پرت کو پرت کے ذریعہ اصلی پکسل کی اقدار سے آخری کلاس اسکورز میں تبدیل کردیتا ہے۔
یہ کنونیوشنل نیورل نیٹ ورکس کا ایک بہت ہی مختصر تعارف تھا ، میں پھر بھی آپ کو سی این این ویڈیو پر نظر ڈالنے کی سفارش کروں گا جسے میں نے اس پوسٹ میں سرایت کیا ہے۔
اس کیپسول نیٹ ورکس بلاگ میں ، اب میں کنونولوشنل نیورل نیٹ ورکس کی کچھ حدود پر بات کروں گا
کنویوشنو نیورل نیٹ ورک کی حدود:
ٹھیک ہے ، میں اسے ایک مشابہت کے ساتھ بیان کرتا ہوں۔
فرض کریں کہ کوئی ایسا انسان ہے ، جس کی آنکھیں مختلف امیجوں کی خصوصیات کا پتہ لگاسکتی ہیں۔ آئیے ایک مثال کے طور پر انسان کے چہرے پر غور کریں۔ لہذا ، یہ بدقسمت آدمی مختلف خصوصیات کی شناخت کرسکتا ہے جیسے ، آنکھیں ، ناک وغیرہ۔ لیکن ، خصوصیات (تناظر ، سائز ، واقفیت) کے درمیان مقامی تعلقات کی نشاندہی کرنے سے قاصر ہے۔ مثال کے طور پر ، مندرجہ ذیل تصویر اس آدمی کو انسان کے چہرے کے اچھے خاکے کی درجہ بندی کرنے میں بے وقوف بنا سکتی ہے۔
یہ مسئلہ کنونیوشنل نیورل نیٹ ورکس میں بھی ہے۔ خصوصیات کا پتہ لگانے میں سی این این اچھا ہے ، لیکن چہرے کا پتہ لگانے کے لئے نیورون کو غلط طور پر چالو کرے گا۔ اس کی وجہ یہ ہے کہ خصوصیات کے مابین مقامی رشتوں کی کھوج کرنے میں یہ کم موثر ہے۔
سی این این کا ایک آسان ماڈل ناک ، آنکھوں اور منہ کی خصوصیات کو صحیح طریقے سے نکال سکتا ہے لیکن چہرے کی نشاندہی کے ل for غلطی سے نیوران کو چالو کرے گا۔ مقامی واقفیت اور سائز میں غلط میچ کو سمجھے بغیر ، چہرے کا پتہ لگانے کے لئے چالو کرنے کا عمل بہت زیادہ ہوگا۔
جاوا میں کسی طاقت کے ل something کچھ اٹھائیں
ٹھیک ہے ، یہ حد زیادہ سے زیادہ پولنگ پرت کی وجہ سے ہے۔
سی این این میں زیادہ سے زیادہ پولنگ ترجمانی تغیر کو سنبھالتی ہے۔ یہاں تک کہ ایک خصوصیت قدرے منتقل کردی گئی ہے ، اگر یہ ابھی بھی پولنگ ونڈو کے اندر ہے تو پھر بھی اس کا پتہ لگایا جاسکتا ہے۔ بہر حال ، یہ نقطہ نظر صرف زیادہ سے زیادہ خصوصیت (سب سے زیادہ غالب) رکھتا ہے اور دوسروں کو پھینک دیتا ہے۔
لہذا ، اوپر دکھائے گئے چہرے کی تصویر کو عام چہرے کے طور پر درجہ بندی کیا جائے گا۔ پولنگ پرت بھی اس قسم کی انوارینس کا اضافہ کرتی ہے۔
یہ کبھی بھی پولنگ پرت کا ارادہ نہیں تھا۔ پولنگ کے لئے جو کام کرنا تھا وہ یہ ہے کہ وہ موقعی ، اورینشنل ، متناسب حملہ آوروں کو متعارف کرائے۔
حقیقت میں ، اس پولنگ پرت میں ہر طرح کے پوزیشن پر حملہ ہوتا ہے۔ جیسا کہ آپ مذکورہ بالا خاکہ میں بھی دیکھ سکتے ہیں ، اس سے چہرے کا صحیح پتہ لگانے کا مخمصہ ہوتا ہے۔
آئیے دیکھتے ہیں کہ تجویز کردہ حل کیا ہے جیفری ہنٹن .
اس مسئلے کو کیسے حل کریں؟
اب ، ہم تصور کرتے ہیں کہ ہر نیورون میں خصوصیات کے امکانات کے ساتھ ساتھ خصوصیات بھی شامل ہیں۔ مثال کے طور پر ، اس میں [امکانات ، واقفیت ، سائز] پر مشتمل ایک ویکٹر سے باہر نکل جاتا ہے۔ اس مقامی معلومات کی مدد سے ، ہم ناک ، آنکھوں اور کان کی خصوصیات کے درمیان رخ اور سائز میں موجود ثابت قدمی کا پتہ لگاسکتے ہیں اور اس وجہ سے چہرے کا پتہ لگانے کے ل. بہت کم ایکٹیویٹیشن تیار کرتے ہیں۔
جاری کردہ کاغذ میں جیفری ہنٹن ، اس قسم کے نیوران کو کیپسول کہتے ہیں۔ یہ کیپسول سنگل اسکیلر ویلیو کی بجائے ویکٹر کو آؤٹ کرتے ہیں۔
مجھے کچھ روشنی ڈالنے دو کیپسول نیٹ ورکس کیا ہیں۔
کیپسول نیٹ ورک کیا ہیں؟
بنیادی طور پر کیپسول گھوںسلی اعصابی تہوں کا ایک مجموعہ ہے۔ ایک کیپسول کے اندر نیوران کی حالت مختلف املاک جیسے پوز (پوزیشن ، سائز ، واقفیت) ، اخترتی ، رفتار ، بناوٹ وغیرہ کو کسی شبیہہ کے اندر ایک ہستی کی گرفت میں لیتی ہے۔
کسی خاص قسم کے ساتھ کسی خصوصیت پر قبضہ کرنے کے بجائے ، ایک کیپسول کو کسی خصوصیت کی خصوصیات اور اس کے مختلف حالتوں کو حاصل کرنے کے لئے تربیت دی جاتی ہے۔ لہذا ، کیپسول کا مقصد نہ صرف ایک خصوصیت کا پتہ لگانا ہے بلکہ یہ کہ ماڈل کو مختلف حالتوں میں جاننے کے لئے تربیت فراہم کرنا ہے۔
اس طرح کہ ایک ہی کیپسول مختلف آبجیکٹ کے ساتھ ایک ہی آبجیکٹ کلاس کا پتہ لگاسکتا ہے (مثال کے طور پر ، گھڑی کی سمت میں گھومیں):
ہم کہہ سکتے ہیں کہ یہ مساوات پر نہیں کام کرتا ہے۔
رسال: متغیرات سے قطع نظر خصوصیات کا پتہ لگانا ہے۔ مثال کے طور پر ، ناک کی نشاندہی کرنے والا نیورون کسی سمت سے قطع نظر ایک ناک کا پتہ لگاتا ہے۔
مساوات: ایسی اشیاء کی کھوج ہے جو ایک دوسرے میں تبدیل ہوسکتی ہیں (مثال کے طور پر ، مختلف واقفیت والے چہروں کا پتہ لگانا)۔ بدیہی طور پر ، کیپسول نیٹ ورک کا پتہ لگاتا ہے کہ چہرہ 31 ° (گھریلو) کے مطابق ہونے کے بجائے چہرے کو 31 right (مساوات) سے گھماتا ہے۔ ماڈل کو کسی کیپسول میں نمایاں قسم کو سیکھنے کے لئے مجبور کرنے سے ، ہم ممکنہ متغیرات کو زیادہ مؤثر طریقے سے کم ٹریننگ ڈیٹا کے ساتھ نکال سکتے ہیں۔ اس کے علاوہ ، ہم مخالفین کو زیادہ مؤثر طریقے سے مسترد کرسکتے ہیں۔
ہستی کے وجود کی نمائندگی کرنے کے لئے ایک کیپسول ایک ویکٹر کو آؤٹ پٹ کرتا ہے۔ ویکٹر کی واقفیت ہستی کی خصوصیات کو ظاہر کرتی ہے۔
اعصابی نیٹ ورک میں ہر ممکن والدین کو ویکٹر بھیجا جاتا ہے۔ ہر ممکن والدین کے ل a ، ایک کیپسول پیش گوئی کرنے والا ویکٹر تلاش کرسکتا ہے۔ پیشن گوئی ویکٹر کا حساب اس کے اپنے وزن اور وزن کے میٹرکس کے ضرب پر مبنی ہے۔ جس میں بھی والدین کے پاس اسکیلر پیشن گوئی کا سب سے بڑا ویکٹر مصنوعہ ہوتا ہے ، کیپسول بانڈ میں اضافہ کرتا ہے۔ باقی والدین اپنے بانڈ میں کمی کرتے ہیں۔ اس کے طور پر کہا جاتا ہے معاہدے کے ذریعے روٹنگ .
یہ یقینی طور پر ایک بہتر نقطہ نظر ہے پھر زیادہ سے زیادہ پولنگ ، جس میں روٹنگ نیچے کی پرت میں پائی جانے والی مضبوط خصوصیت پر مبنی ہے۔
اس کے بعد اسکویشنگ فنکشن ہوتا ہے جو شامل کیا جاتا ہے۔ یہ غیر لکیریٹی متعارف کروانے کے لئے کیا جاتا ہے۔ اس اسکواشنگ فنکشن کا استعمال ہر کیپسول کے ویکٹر آؤٹ پٹ پر ہوتا ہے۔
اب میں آپ کو بتاتا ہوں ، کیپسول نیٹ ورک کیسے کام کرتا ہے۔
کس طرح کیپسول نیٹ ورک کام کرتا ہے؟
آئیے ہم ایک قدم پیچھے ہٹیں۔ مکمل طور پر منسلک نیٹ ورک میں ، ہر نیورون کی پیداوار آؤٹ کی وزن والی رقم ہوتی ہے۔
اب ، آئیے دیکھتے ہیں کہ کیپسول نیٹ ورکس میں کیا ہوتا ہے۔
کیپسول اعصابی نیٹ ورک:
آئیے ہم ایک کیپسول نیورل نیٹ ورک پر غور کریں جہاں ‘یومیں‘کیپسول کیلئے سرگرمی کا ویکٹر ہے‘۔میں'نیچے کی پرت میں.
مرحلہ - 1: ٹرانسفارمیشن میٹرکس لگائیںمیںijکیپسول آؤٹ پٹ کرنے کے لئےمیں پچھلی پرت کی مثال کے طور پر ، m × k میٹرکس کے ساتھ ، ہم K-D کو تبدیل کرتے ہیںuمیں ایک M-D کرنے کے لئےآپj | i. ((m × k) × (k × 1) = m × 1)۔
یہ پیش گوئی ہے ( ووٹ ) اوپر کیپسول ‘ج’ کی پیداوار پر کیپسول ‘i’ سے۔ ‘ویj‘کیپسول کیلئے سرگرمی کا ویکٹر ہے‘۔j ’اوپر کی پرت میں
مرحلہ - 2: ایک وزن والے حصے کا حساب لگائیںjوزن کے ساتھcij.cijیوگمن گتانک ہیں۔ ان اعداد کا مجموعہ ایک کے برابر ہے۔ یہ اصل پیرامیٹر ہے جو کیپسول کے گروپ کے رشتے پر کام کرتا ہے جس کے بارے میں ہم نے پہلے بات کی تھی۔
مرحلہ - 3: کنونیوشنل نیورل نیٹ ورکس میں ہم نے ریل یو فنکشن استعمال کیا۔ یہاں ، ہم 0 اور یونٹ کی لمبائی کے درمیان ویکٹر پیمانے کے لئے اسکواشنگ فنکشن کا اطلاق کریں گے۔ یہ چھوٹے چھوٹے ویکٹر کو صفر اور لمبی ویکٹر کو یونٹ ویکٹروں سے گھٹا دیتا ہے۔ لہذا ہر کیپسول کا امکان صفر اور ایک کے درمیان جڑا ہوا ہے۔
یہ پیش گوئی ہے ( ووٹ ) اوپر کیپسول ‘ج’ کی پیداوار پر کیپسول ‘i’ سے۔ اگر سرگرمی ویکٹر کی پیشن گوئی ویکٹر کے ساتھ قریبی مماثلت ہے تو ، ہم اس کیپسول کو نتیجہ اخذ کرتے ہیں ‘۔میں'کیپسول کے ساتھ انتہائی متعلق ہے ‘۔j ’. (مثال کے طور پر ، ناک کیپسول کا چہرہ کیپسول سے بہت زیادہ تعلق ہے۔) اس طرح کی مماثلت پیش گوئی اور سرگرمی ویکٹر کی اسکیلر پروڈکٹ کا استعمال کرتے ہوئے ماپا جاتا ہے۔ لہذا ، مماثلت دونوں میں مساوات اور خصوصیت کی خصوصیات دونوں کو مدنظر رکھا جاتا ہے۔ (بجائے نیوران میں ہم آہنگی کے بجائے)۔
مرحلہ - 4: حسابی مطابقت کا اسکور ‘bij‘‘۔ یہ سرگرمی ویکٹر اور پیش گوئی ویکٹر کی ڈاٹ پروڈکٹ ہوگی۔ یوگمن گتانکیاںcمیںjکے سافٹ میکس کے طور پر گنتی ہےbمیںj:
یوگمن گتانک سیijb کے سوفٹ میکس کے طور پر گنتی ہےij.
یہ بیijمتعدد تکرار میں تکراری طور پر تازہ کاری کی جاتی ہے.
اس کے طور پر کہا جاتا ہے معاہدے کے ذریعے روٹنگ .
آریگرام کے نیچے ایک مثال ہے۔
کیپسول نیٹ ورکس پر اس بلاگ کے بعد ، میں ٹینسرفلو کا استعمال کرتے ہوئے کیپسول نیورل نیٹ ورک کے نفاذ پر ایک بلاگ لے کر آؤں گا۔
مجھے امید ہے کہ آپ نے اس بلاگ کو کیپسول نیٹ ورکس پر پڑھ کر لطف اندوز کیا ہوگا ، چیک کریں ایڈوریکا کے ذریعہ ، ایک قابل اعتماد آن لائن سیکھنے والی کمپنی جس کی دنیا بھر میں 250،000 سے زیادہ مطمئن سیکھنے والوں کا نیٹ ورک موجود ہے۔ ٹینسرفلو سرٹیفیکیشن ٹریننگ کورس کے ساتھ ایڈیورکا ڈیپ لرننگ سیکھنے کو ریئل ٹائم پروجیکٹس اور اسائنمنٹس کے ساتھ ساتھ سافٹ میکس فنکشن ، آٹو انکوڈر نیورل نیٹ ورکس ، ممنوعہ بولٹزمان مشین (آر بی ایم) جیسے تصورات کے ساتھ تربیت اور بنیادی اور مجازی عصبی نیٹ ورک کو بہتر بنانے میں مدد فراہم کرتا ہے۔
ہمارے لئے ایک سوال ہے؟ برائے کرم اس کا تذکرہ سیکشن میں ذکر کریں اور ہم آپ کو واپس ملیں گے۔