2018-19 کے مشہور موضوعات میں سے ایک ہے اور اچھی وجہ سے۔ انڈسٹری میں بہت ساری ترقی ہوئی ہے جس میں وقت آگیا ہے جب مشینیں یا کمپیوٹر پروگرام دراصل انسانوں کی جگہ لے رہے ہیں۔ یہ ازگر کے ساتھ گہری تعلیم مضمون آپ کو یہ سمجھنے میں مدد فراہم کرے گا کہ دقیق تعلیم کیا ہے اور یہ منتقلی کیسے ممکن ہے۔ میں اس مضمون میں مندرجہ ذیل عنوانات کا احاطہ کرتا ہوں:
- ڈیٹا سائنس اور اس کے اجزاء ہیں
- ڈیپ لرننگ کی ضرورت
- ڈیپ لرننگ کیا ہے؟
- Perceptron اور مصنوعی اعصابی نیٹ ورک
- گہری لرننگ کی درخواستیں
- گہری تعلیم کے لئے ازگر کیوں؟
- ازگر کے ساتھ گہری تعلیم: Percepron کی مثال
- ازگر کے ساتھ گہری تعلیم: ایک گہری نیورل نیٹ ورک کی تشکیل
ڈیٹا سائنس اور اس کے اجزاء ہیں
ٹھیک ہے ، ڈیٹا سائنس ایک ایسی چیز ہے جو عمروں سے جاری ہے۔ ڈیٹا سائنس مختلف تکنیکوں اور الگورتھموں کا استعمال کرکے اعداد و شمار سے علم نکالنا ہے۔
ایک ایسی تکنیک ہے جو مشینوں کو انسانی طرز عمل کی نقل کرنے کے قابل بناتی ہے۔ AI کے پیچھے خیال کافی آسان ہے لیکن دلکش ہے ، جو ذہین مشینیں بنانا ہے جو خود فیصلہ لے سکتی ہے۔ کئی سالوں سے یہ سوچا جاتا تھا کہ کمپیوٹر کبھی بھی انسانی دماغ کی طاقت سے مطابقت نہیں رکھتا۔
ٹھیک ہے ، اس وقت ہمارے پاس کافی اعداد و شمار اور حساب کی طاقت نہیں تھی ، لیکن اب کے ساتھ ہے بڑا ڈیٹا وجود میں آنے اور GPUs کی آمد کے ساتھ ہی ، مصنوعی ذہانت ممکن ہے۔
اے آئی تکنیک کا ایک سبسیٹ ہے جو تجربہ کے ساتھ مشینوں کو بہتر بنانے کے ل stat اعدادوشمار کے طریقے استعمال کرتا ہے۔
گہری سیکھنے ایم ایل کا ایک ذیلی سیٹ ہے جو ملٹی لیئر عصبی نیٹ ورک کی گنتی کو ممکن بناتا ہے۔ یہ انسانی جیسا فیصلہ سازی کرنے کے لئے اعصابی نیٹ ورک کا استعمال کرتا ہے۔
ڈیپ لرننگ کی ضرورت
مصنوعی ذہانت کی طرف ایک قدم مشین لرننگ ہے۔ مشین لرننگ AI کا ایک سبسیٹ ہے اور اس خیال پر مبنی ہے کہ مشینوں کو ڈیٹا تک رسائی دی جانی چاہئے ، اور خود سیکھنے اور اس کی کھوج کے لئے چھوڑ دیا جانا چاہئے۔ یہ بڑے اعداد و شمار کے سیٹوں سے نمونوں کو نکالنے سے متعلق ہے۔ بڑے ڈیٹا سیٹ کو ہینڈل کرنا کوئی مسئلہ نہیں تھا۔
- مشین لرننگ الگورتھم اعلی جہتی ڈیٹا کو سنبھال نہیں سکتا - جہاں ہمارے پاس بہت بڑی تعداد میں آؤٹ پٹ اور آؤٹ پٹ ہیں: ہزاروں طول و عرض میں۔ اس طرح کے ڈیٹا کو سنبھالنا اور اس پر کارروائی کرنا بہت پیچیدہ اور وسائل سے مکمل ہوجاتا ہے۔ یہ کہا جاتا ہے کے طور پر جہت کی لعنت۔
- ایک اور چیلینج کا سامنا کرنا پڑا ، اس کی وضاحت کرنا خصوصیات نکالی جائیں گی . یہ نتائج کی پیش گوئی کرنے کے ساتھ ساتھ بہتر درستگی کے حصول میں بھی اہم کردار ادا کرتا ہے۔ لہذا ، خصوصیت کو نکالنے کے بغیر ، پروگرامر کے ل the چیلنج بڑھتا ہے کیونکہ الگورتھم کی تاثیر بہت زیادہ انحصار کرتی ہے کہ پروگرامر کتنا بصیرت ہے۔
اب ، یہ وہ جگہ ہے جہاں ڈیپ لرننگ کی مدد ملی۔ گہری سیکھنے ہے اعلی جہتی ڈیٹا کو سنبھالنے کے قابل اور میں بھی موثر ہے صحیح خصوصیات پر توجہ مرکوز کرنا خود ہی
ڈیپ لرننگ کیا ہے؟
ڈیپ لرننگ مشین لرننگ کا ایک ذیلی سیٹ ہے جہاں مشینی لرننگ الگورتھم کی تربیت کے لئے اسی طرح کا استعمال کیا جاتا ہے تاکہ ان معاملات میں زیادہ سے زیادہ درستگی حاصل ہوسکے جہاں سابق کام نہیں کررہے تھے۔ بنیادی طور پر ، گہری سیکھنے ہمارے دماغ کے کام کرنے کے طریقے کی نقالی کرتی ہے یعنی یہ تجربے سے سیکھتا ہے۔
جیسا کہ آپ جانتے ہو،ہمارا دماغ بنا ہوا ہے اربوں نیورین جو ہمیں حیرت انگیز چیزیں کرنے کی اجازت دیتا ہے۔ یہاں تک کہ ایک چھوٹے بچے کا دماغ پیچیدہ مسائل کو حل کرنے کی صلاحیت رکھتا ہے جسے سپر کمپیوٹر کے استعمال سے بھی حل کرنا بہت مشکل ہے۔ تو ، ہم کسی پروگرام میں وہی فعالیت کیسے حاصل کرسکتے ہیں؟ اب ، یہ وہ جگہ ہے جہاں ہم سمجھتے ہیں مصنوعی نیوران (پرسیپٹرن) اور مصنوعی اعصابی نیٹ ورک
Perceptron اور مصنوعی اعصابی نیٹ ورک
ڈیپ لرننگ دماغ کی بنیادی اکائی کا مطالعہ کرتی ہے جسے دماغی خلیے یا نیورون کہتے ہیں۔ اب ، آئیے ہم حیاتیاتی نیورانوں کی فعالیت کو سمجھتے ہیں اور اس تاثر یا مصنوعی نیوران میں ہم اس فعالیت کی نقالی کیسے کرتے ہیں۔
- ڈینڈرائٹ: دوسرے نیوران سے سگنل حاصل کرتا ہے
- سیل باڈی: تمام آدانوں کو جمع کرتا ہے
- ایکسن: یہ دوسرے خلیوں میں سگنل منتقل کرنے کے لئے استعمال ہوتا ہے
ایک مصنوعی نیوران یا ایک پرسیپٹرن بائنری درجہ بندی کے لئے استعمال کیا جانے والا ایک لکیری ماڈل ہے۔ اس میں ایک نیورون نمونہ ہوتا ہے جس میں آدانوں کا ایک سیٹ ہوتا ہے ، جس میں سے ہر ایک کو ایک مخصوص وزن دیا جاتا ہے۔ نیوران ان پر کچھ فنکشن کا حساب لگاتا ہے وزنی آؤٹ پٹ اور آؤٹ پٹ دیتا ہے۔
یہ ن (آؤٹ پٹ (ہر خصوصیت کے مطابق)) کے آثار وصول کرتا ہے۔ اس کے بعد وہ ان پٹ کو پورا کرتا ہے ، تبدیلی کا اطلاق کرتا ہے اور آؤٹ پٹ تیار کرتا ہے۔ اس کے دو کام ہیں:
- سمیشن
- تبدیلی (ایکٹیویشن)
وزن کسی خاص ان پٹ کی تاثیر کو ظاہر کرتا ہے۔ ان پٹ کا وزن زیادہ ، اعصابی نیٹ ورک پر اس کا اثر پڑے گا . دوسری طرف، تعصب ایک اضافی پیرامیٹر پرسیپٹرون میں جو آؤٹ پٹ کے وزن کے ساتھ نیوران میں ایڈجسٹ کرنے کے لئے استعمال ہوتا ہے جو ماڈل کی اس طرح مدد کرتا ہے کہ یہ دیئے گئے ڈیٹا کے ل best بہترین فٹ بیٹھ سکے۔
چالو کرنے کے افعال آؤٹس کو آؤٹ پٹ میں ترجمہ کرتا ہے۔ آؤٹ پٹ تیار کرنے کے لئے یہ ایک حد کا استعمال کرتا ہے۔ بہت سے افعال ایسے ہیں جو ایکٹیویشن افعال کے بطور استعمال ہوتے ہیں ، جیسے:
- لکیری یا شناخت
- یونٹ یا ثنائی مرحلہ
- سگمائڈ یا لاجسٹک
- تنہ
- ReLU
- سوفٹ میکس
ٹھیک ہے اگر آپ کو لگتا ہے کہ پرسیپٹرن مسئلہ حل کرتا ہے تو آپ غلط ہیں۔ دو بڑے مسائل تھے:
- سنگل پرت Perceprons کے غیر لکیری سے جدا ہونے والے ڈیٹا پوائنٹس کی درجہ بندی نہیں کرسکتا ہے .
- پیچیدہ مسائل ، اس میں شامل ہیں پیرامیٹرز کی ایک بہت سنگل پرت پرسیپٹرسن کے ذریعہ حل نہیں کیا جاسکتا۔
مارکیٹنگ ٹیم کے ذریعہ فیصلہ لینے کے لئے یہاں کی مثال اور پیرامیٹرز کی پیچیدگی پر غور کریں۔
ایک نیورون ، بہت سارے آدانوں کو نہیں لے سکتا ہے اور اسی وجہ سے ایک سے زیادہ نیوران اس مسئلے کو حل کرنے کے لئے استعمال ہوں گے۔ اعصابی نیٹ ورک واقعی میں صرف ایک ہے مختلف طریقوں سے منسلک Perceptrons کی تشکیل ، اور مختلف ایکٹیویشن افعال پر کام کرنا۔
- ان پٹ نوڈس بیرونی دنیا سے نیٹ ورک کو معلومات فراہم کرتے ہیں اور ساتھ میں انہیں 'ان پٹ لیئر' کہا جاتا ہے۔
- پوشیدہ نوڈس کمپیوٹرز انجام دیں اور ان پٹ نوڈس سے معلومات کو آؤٹ پٹ نوڈس میں ٹرانسفر کریں۔ پوشیدہ نوڈس کا ایک مجموعہ ایک 'پوشیدہ پرت' بناتا ہے۔
- آؤٹ پٹ نوڈس اجتماعی طور پر 'آؤٹ پٹ پرت' کے طور پر جانا جاتا ہے اور کمپیوٹرز اور نیٹ ورک سے بیرونی دنیا میں معلومات کی منتقلی کے ذمہ دار ہیں۔
اب جب آپ کو اندازہ ہے کہ ایک پریسٹرٹرون کس طرح سلوک کرتا ہے ، اس میں شامل مختلف پیرامیٹرز اور ایک نیورل نیٹ ورک کی مختلف پرتیں ، آئیے اس گہری تعلیم کو ازگر بلاگ کے ساتھ جاری رکھیں اور گہری سیکھنے کی کچھ عمدہ ایپلی کیشنز دیکھیں۔
گہری لرننگ کی درخواستیں
انڈسٹری میں ڈیپ لرننگ کی طرح طرح کی ایپلی کیشنز موجود ہیں ، یہاں چند ایک اہم اہم باتیں ہیں جو ہمارے ڈے ٹو ڈے ڈیوز میں موجود ہیں۔
- تقریر کی پہچان
- مشین ترجمہ
- چہرے کی پہچان اور خودکار ٹیگنگ
- ورچوئل پرسنل اسسٹنٹس
- خود ڈرائیونگ کار
- چیٹ بوٹس
گہری تعلیم کے لئے ازگر کیوں؟
- ایسا ہی ایک ٹول ہے جس کا ایک انوکھا وصف ہے ، جیسا کہ عام مقصد پروگرامنگ زبان جیسا کہ ہے استعمال میں آسان جب بات تجزیاتی اور مقداری کمپیوٹنگ کی ہو۔
- یہ بہت ہے سمجھنے میں آسان
- ازگر ہے متحرک طور پر ٹائپ کیا گیا
- بھاری
- مختلف مقاصد کے ل Lib لائبریریوں کی ایک وسیع رینج نپپی ، سیبرن ، میٹپلوٹلیب ، پانڈاس ، اور سککیٹ سیکھیں
جاوا کا استعمال کرتے ہوئے سیلینیم ویب ڈرایور میں اسکرین شاٹ لینے کا طریقہ
اب نظریہ کافی ہے ، آئیے یہ دیکھتے ہیں کہ ہم ایک چھوٹی سی ابھی تک دلچسپ مثال کے ساتھ ازگر کے ساتھ ڈیپ لرننگ کا آغاز کیسے کرسکتے ہیں۔
ازگر کے ساتھ گہری تعلیم: Percepron کی مثال
اب مجھے یقین ہے کہ آپ لوگ لازمی طور پر ' یا ' گیٹ آؤٹ پٹ ہے ایک اگر آدانوں میں سے کوئی بھی ہے ایک
لہذا ، ایک پریسپٹرن کو الگ کرنے والے یا فیصلے لائن کے طور پر استعمال کیا جاسکتا ہے جو OR گیٹ کے ان پٹ سیٹ کو دو کلاسوں میں تقسیم کرتا ہے:
کلاس 1: آؤٹ پٹ 0 کے حامل آؤٹ پٹ ہیں جو فیصلہ لائن سے نیچے آتے ہیں۔
کلاس 2: آؤٹ پٹ 1 کی حیثیت سے جو فیصلہ لائن یا جداکار کے اوپر ہے۔
ابھی تک ، ہم یہ سمجھ چکے ہیں کہ ایک لکیری پرسیپٹرن کا استعمال ان پٹ ڈیٹا کو دو طبقوں میں مرتب کرنے کے لئے کیا جاسکتا ہے۔ لیکن ، یہ دراصل اعداد و شمار کی درجہ بندی کیسے کرتا ہے؟
ریاضی کے لحاظ سے کسی پریسٹرون کے بارے میں وزن ، آدانوں اور تعصب کی مساوات کی طرح سوچا جاسکتا ہے۔
مرحلہ 1: تمام مطلوبہ کتب خانہ درآمد کریں
یہاں میں صرف ایک لائبریری درآمد کرنے جا رہا ہوں ، یعنی۔ ٹینسرفلو
TF کے طور پر tensor بہاؤ درآمد
مرحلہ 2: ان پٹ اور آؤٹ پٹ کیلئے ویکٹر متغیرات کی وضاحت کریں
اگلا ، ہمیں پریسپٹرن کے لئے ان پٹ ، آؤٹ پٹ اور تعصب کو ذخیرہ کرنے کے لئے متغیرات پیدا کرنے کی ضرورت ہے۔
ٹرین_ن = [[0،0،1]، [0،1،1]، [1،0،1]، [1،1،1]] ٹرین_ آؤٹ = [[0]، [1]، [1]، [1]]
مرحلہ 3: وزن متغیر کی وضاحت کریں
یہاں ہم اپنے وزن کے ل shape ٹینسر متغیر کی شکل 3 × 1 کی وضاحت کریں گے اور ابتدائی طور پر اس میں کچھ بے ترتیب اقدار تفویض کریں گے۔
w = tf. متغیر (tf.random_normal ([3، 1]، بیج = 15٪))
مرحلہ 4: ان پٹ اور آؤٹ پٹ کیلئے پلیس ہولڈرز کی وضاحت کریں
ہمیں پلیس ہولڈرز کی وضاحت کرنے کی ضرورت ہے تاکہ وہ بھاگتے ہوئے بیرونی آدانوں کو قبول کرسکیں۔
اوورلوڈنگ اور اوور رائیڈنگ میں کیا فرق ہے؟
x = tf. پلیس ہولڈر (tf.float32، [کوئی نہیں، 3]) y = tf. پلیس ہولڈر (tf.float32، [کوئی نہیں، 1])
مرحلہ 5: آؤٹ پٹ اور ایکٹیویشن فنکشن کا حساب لگائیں
جیسا کہ پہلے بحث کی گئی ہے ، کسی پریسپٹرون کے ذریعہ موصولہ ان پٹ پہلے متعلقہ وزن سے بڑھ جاتا ہے اور پھر ، ان تمام وزن والے آدانوں کا ایک ساتھ جوڑا جاتا ہے۔ اس کے بعد حتمی نتیجہ حاصل کرنے کے ل result اس قدر قیمت کو چالو کرنے کے لئے کھلایا جاتا ہے۔
آؤٹ پٹ = tf.nn.relu (tf.matmul (x، w))
نوٹ: اس معاملے میں ، میں نے استعمال کیا ہے relu بطور میری ایکٹیویشن فنکشن۔ آپ اپنی ضرورت کے مطابق کسی بھی ایکٹیویشن فنکشن کو استعمال کرنے کے لئے آزاد ہیں۔
مرحلہ 6: لاگت یا غلطی کا حساب لگائیں
ہمیں لاگت = میین اسکوائرڈ ایرر کا حساب لگانے کی ضرورت ہے جو Percepron پیداوار اور مطلوبہ آؤٹ پٹ کے فرق کے مربع کے سوا کچھ نہیں ہے۔
نقصان = tf.reduce_sum (tf.square (پیداوار - y))
مرحلہ 7: غلطی کو کم سے کم کریں
کسی پرسیپٹرون کا مقصد نقصان یا قیمت یا غلطی کو کم سے کم کرنا ہے۔ لہذا ہم یہاں تدریجی نزاعی اصلاح کار استعمال کرنے جارہے ہیں۔
optizer = tf.train. GradientDescentOptimizer (0.01) ٹرین = optizer.minimize (نقصان)
مرحلہ 8: تمام متغیرات کو شروع کریں
متغیرات کی وضاحت صرف اس کے ساتھ کی گئی ہے tf.Wariable. لہذا ، ہمیں بیان کردہ متغیرات کو شروع کرنے کی ضرورت ہے۔
init = tf.global_variables_initializer () sess = tf.Session () sess.run (init)
مرحلہ 9: تشخیص میں تربیت ماننے والا
ہمیں غلطی یا نقصان کو کم سے کم کرنے کے ل the یکے بعد دیگرے وزن اور تعصب کی قدروں کو اپ ڈیٹ کرنے کی ضرورت ہے۔ یہاں ، میں اپنے عہدے بازوں کو 100 دوروں میں تربیت دوں گا۔
میں رینج میں (100): sess.run (ٹرین ، {x: train_in ، y: train_out}) لاگت = sess.run (نقصان ، فیڈ_ڈکٹ = d x: ٹرین_ن ، y: ٹرین_ آؤٹ print) پرنٹ ('ایپچ-- '، i،' - نقصان - '، قیمت)
مرحلہ 10: آؤٹ پٹ
……
……
جیسا کہ آپ دیکھ سکتے ہیں ، نقصان شروع ہوا 2.07 اور ختم ہوا 0.27
.
ازگر کے ساتھ گہری تعلیم: ایک گہری نیورل نیٹ ورک کی تشکیل
اب جب کہ ہم نے کامیابی کے ساتھ ایک پریسٹرپرن تیار کیا ہے اور اسے OR گیٹ کیلئے تربیت دی ہے۔ آئیے اس مضمون کو جاری رکھیں اور دیکھیں کہ کس طرح سکریچ سے ہمارا اپنا نیورل نیٹ ورک تشکیل دے سکتا ہے ، جہاں ہم ایک ان پٹ پرت ، پوشیدہ پرتیں اور آؤٹ پٹ پرت بنائیں گے۔
ہم MNIST ڈیٹا سیٹ استعمال کرنے جارہے ہیں۔ ایم این آئی ایس ٹی ڈیٹا سیٹ پر مشتمل ہے 60،000 ٹریننگ نمونے اور 10،000 ٹیسٹنگ ہاتھ سے لکھے ہوئے ہندسوں کی تصاویر کے نمونے۔ تصاویر سائز کی ہیں 28 × 28 پکسلز اور پیداوار کے درمیان رہ سکتا ہے 0-9 .
یہاں کام ایک ایسے ماڈل کی تربیت کرنا ہے جو تصویر میں موجود ہندسے کی درست شناخت کر سکے
سب سے پہلے ، ہم پرنٹ فنکشن ازگر 3 سے ازگر 2.6+ میں لانے کے لئے درج ذیل درآمد کا استعمال کر رہے ہیں۔ مستقبل کے بیانات کو فائل کے اوپری حصے کے قریب ہونا ضروری ہے کیونکہ وہ زبان کے بارے میں بنیادی چیزوں کو تبدیل کرتے ہیں ، اور اسی طرح مرتب کرنے والے کو شروع سے ہی ان کے بارے میں جاننے کی ضرورت ہے۔
___ مستقبل__ پرنٹ_فانکشن درآمد کریں
مندرجہ ذیل ہر قدم پر تبصرے کے ساتھ کوڈ ہے
# ٹیسور فلو سے مثال کے طور پر MNIST ڈیٹا درآمد کریں۔ مثال کے طور پر۔ ٹیوٹوریلز ۔منسٹ درآمد کریں इनपुट_ڈیٹا منسٹ = انپٹ_ڈیٹا.ریڈ_ڈیٹا_سیٹس ('/ tmp / data /'، one_hot = true) درآمد ٹینسر فلو بطور tt درآمد matplotlib.pyplot بطور plt # پیرامیٹرز سیکھنے_رہ = 1500 ٹریننگ_پیچ = بیچ_سائز = 100 ڈسپلے_سٹیپ = 1 # نیٹ ورک کے پیرامیٹرز n_hided_1 = 256 # خصوصیات کی پہلی پرت نمبر n_hided_2 = 256 # خصوصیات کی دوسری پرت نمبر n_input = 784 # MNIST ڈیٹا ان پٹ (img کی شکل: 28 * 28) n_clines = 10 # MNIST کل کلاس ( 0-9 ہندسے) # tf گراف ان پٹ x = tf. پلیس ہولڈر ('فلوٹ' ، [کوئی نہیں ، ن_نپٹ]) y = tf. پلیس ہولڈر ('فلوٹ' ، [کوئی نہیں ، این_کلاسز]) # ماڈل ڈی ایف ملٹی لیئر_پرپیسٹرون (x ، وزن) بنائیں ، تعصب): # RELU ایکٹیویشن پرت کے ساتھ پوشیدہ پرت_ = tf.add (tf.matmul (x، وزن ['h1'])، تعصب ['b1']) پرت_1 = tf.nn.relu (پرت_) # پوشیدہ پرت RELU ایکٹیویشن پرت 2 = tf.add (tf.matmul (پرت_1، وزن ['h2'])، تعصب ['b2']) پرت_2 = tf.nn.relu (پرت_2) # لکیری ایکٹیویشن کے ساتھ آؤٹ پٹ پرت__یرر = ٹی ایف۔ میٹرول (پرت) _2 ، وزن ['آؤٹ']] + تعصب ['آؤٹ'] آؤٹ_لیئر # اسٹور پرتوں کا وزن اور تعصب وزن = {'ایچ 1': tf.Wariable (tf.random_normal ([n_input، n_hided_1]))، 'h2' : tf.Variable (tf.random_normal ([n_hided_1، n_hided_2]))، 'آؤٹ': tf.Variable (tf.random_normal ([n_hided_2، n_classes])) ases تعصب = {'b1': tf.Variable (tf. رینڈم_نورمل ([n_hided_1])) ، 'b2': tf.Wariable (tf.random_normal ([n_hided_2]))، 'out': tf.Variable (tf.random_normal ([n_classes]))} # ماڈل تیار کریں = کثیر الجہاد_کرپٹ (x ، وزن ، تعصب) # نقصان اور آپٹائزائزر لاگت کی وضاحت کریں = tf.reduce_mean (tf.nn.softmax_cross_entropy_with_logits (logits = pred، لیبل = y)) آپٹائزر = tf.train.AmadOptimizer (سیکھنے_ریٹ = سیکھنے_ریٹ) ۔کم کرنا (قیمت) # متغیرات کو شروع کرنا init = tf.global_variables_initializer () # لاگت کی تاریخ اور درستگی کی تاریخ کو ذخیرہ کرنے کے لئے ایک خالی فہرست بنائیں لاگت کی تاریخ = [] درستگی_ہسٹوری = [] # tf.Session () کے ساتھ گراف لانچ کریں جیسے: sess.run (init ) # عہد میں عروج کے لئے تربیت کا دور (تربیت_پوچ): avg_cost = 0. total_batch = INT (mnist.train.num_exferences / batch_size) # I بیچ میں تمام بیچوں کی حد (ٹوٹل_بیچ): بیچ_ ایکس ، بیچ_ی = mnist.train.next_batch (بیچ_ سائز) # رن اپٹیمائزیشن آپ (بیکپروپ) اور لاگت آپٹ (نقصان کی قیمت حاصل کرنے کے لئے) _ ، c = sess.run ([آپٹائزر ، قیمت] ، فیڈ_ڈکٹ = {x: بیچ_ ایکس ، وائی: بیچ_ی}) # حساب اوسط نقصان اوسط_کاسٹ + = c / ٹوٹل_بیچ # لاگت کے مطابق ایپیچ مرحلہ اگر ایپچ٪ ڈسپلے_سٹیپ == 0: درست_پیشن گوئی = tf.equal (tf.argmax (pred، 1)، tf.argmax (y، 1)) # درستگی کی درستگی کا حساب لگائیں = tf.reduce_mean (tf.cast (درست_پیشن گوئی ، 'فلوٹ')) ) acu_temp = accuracy.eval ({x: mnist.test.images، y: mnist.test.labels}) # درستگی کو فہرست میں درستگی کے ساتھ شامل کریں_حسٹری.اپینڈ (acu_temp) # لاگت کی تاریخ لاگت کی تاریخ کو پوسٹ کریں_حسٹری.اپینڈ (avg_cost) پرنٹ ('ایگوچ:' ، '٪ 04d'٪ (ایپچ + 1) ، '- لاگت =' ، '{: .9f}'. فارمیٹ (avg_cost) ، '- درستگی =' ، acu_temp) پرنٹ ('اصلاح ختم ہوگئی! ') # لاگت کی تاریخ plt.plot (لاگت کی تاریخ) plt.show () # درستگی کی تاریخ plt.plot (درستگی _ہسٹری) plt.show () # ٹیسٹ ماڈل درست_پیشن گوئی = tf.equal (tf.argmax (pred، 1)، tf.argmax (y، 1)) # حساب کی درستگی کی درستگی = tf.reduce_mean (tf.cast (درست_ پیش گوئی، ' فلوٹ ')) پرنٹ (' درستگی: '، درستگی.یوال ({x: mnist.test.images، y: mnist.test.labels}))
آؤٹ پٹ:
اب اس کے ساتھ ، ہم اس گہری تعلیم کے ساتھ ازگر کے مضمون کے آخر میں پہنچے ہیں۔ مجھے امید ہے کہ آپ کو ڈیپ لرننگ کے مختلف اجزاء ، یہ سب کیسے شروع ہوا ، اور ازگر کا استعمال کرتے ہوئے ہم ایک سادہ پرسیپٹرن اور ڈیپ نیورل نیٹ ورک کیسے بناسکتے ہیں ، کے بارے میں سمجھ آجائیں گے۔
ایڈورکا کی صنعت کی پیشہ ور افراد کی طرف سے صنعت کی ضروریات اور مطالبات کے مطابق تشکیل دی گئی ہے۔ آپ سافٹ ویکس فنکشن ، آٹوئنکوڈر نیورل نیٹ ورکس ، محدود بولٹزمان مشین (آر بی ایم) جیسے تصورات پر عبور حاصل کریں گے اور کیراس اور ٹی ایف لیرن جیسی لائبریریوں کے ساتھ کام کریں گے۔ اس کورس کو خاص طور پر صنعت کے ماہرین نے اصل وقت کے مطالعے کے ذریعہ تیار کیا ہے۔
ہمارے لئے ایک سوال ہے؟ برائے مہربانی اس کا ذکر 'گہرائی سے تعلیم کے ساتھ ازگر' کے تبصرے کے سیکشن میں کریں اور ہم آپ کو واپس ملیں گے۔