شبکه عصبی بازگشتی
بهنام خدا، سلام… در این پست میخواهم شبکه عصبی بازگشتی یا بهصورت خلاصه شبکه RNN را به شما توضیح بدهم. شبکه بازگشتی به مولفه زمان اهمیت میدهد، درحالیکه شبکه MLP اینگونه نیست. تلاش کردهام مثالهای مناسبی آماده کنم تا به درک درستی نسبت به شبکه عصبی بازگشتی برسید. راستی، پیشنهاد میکنم ویدئوی بالا را هم ببینید. برویم ببینیم شبکه RNN چیست …
شبکه عصبی بازگشتی (RNN) چیست؟
شبکه عصبی بازگشتی (Recurrent Neural Network) دستهای دیگر از شبکه های عصبی است. بهصورت خلاصه به این خانواده از شبکهها، شبکه RNN نیز گفته میشود. شبکه عصبی بازگشتی برای پردازش داده سری زمانی (Time Series) و داده ترتیبی (Sequential) مناسب است. سهام در بورس و دادههای متنی (جمله و پاراگراف) بهترتیب مثالهایی از داده سری زمانی و ترتیبی هستند (شکل 1 و 2). برای شبکه بازگشتی مولفه زمان اهمیت زیادی دارد. درحالیکه در شبکه MLP و شبکه عصبی کانولوشن توجه به مولفه زمانی دیده نمیشود.
ساختار شبکه بازگشتی بسیار به شبکه عصبی MLP شبیه هست. بهتر بگویم RNN توسعه یافته MLP است. شبکه RNN، شبکه LSTM و شبکه GRU سه سلبریتی از خانواده شبکه بازگشتی هستند. در این پست میخواهم به تشریح عملکرد سادهترین آنها، شبکه RNN بپردازم. درک کارآیی شبکه RNN به شما کمک میکند که بهتر LSTM و GRU را بفهمید.
پس درمورد شبکه عصبی بازگشتی دو نکته مهم زیر را به یاد داشته باشید:
- شبکه بازگشتی به مولفه زمانی اهمیت میدهد و مناسب دادههای مبتنی بر زمان هست.
- سه شبکه RNN LSTM GRU گل سرسبد خانواده شبکه های بازگشتی هستند.
خب تا اینجا دیدید rnn چیست. در بخش بعدی چند مثال آوردم که با کارکرد rnn آشنا خواهید شد…
آشنایی با شبکه عصبی بازگشتی
در این بخش میخواهم با چند مثال ساده شما را با کارکرد شبکه عصبی بازگشتی آشنا کنم. این مثال از من نیست، اما بعد از کلی جستجو و بررسی منابع مختلف این مثال خوب را پیدا کردم (لینک). همانطور که در بخشهای قبل گفتم، RNN توسعهیافتهای از MLP است. پس با مثال MLP شروع میکنم و به RNN میرسم. برویم سراغ مثالها…
مثال 1- شبکه عصبی MLP: انتخاب نوع غذا براساس نوع هوا
یک آشپز داریم سه نوع غذا درست میکند. در هر روز نوع غذا را بسته به هوای همان روز تعیین میکند. روزهای آفتابی مرغ درست میکند و روزهای ابری پیتزا میپزد. غذای سوم ساندویچ است که فعلا در برنامه نیست! پس خروجیِ ما نوع غذا و ورودی هم نوع هوا است. بهنظر میرسد مساله سادهای است. با یک تابع یا شبکه عصبی MLP ساده میتوان تعیین کرد که هر روز چه غذایی خواهیم داشت. به شکل زیر نگاه کنید؛ مشاهده میکنید که به یک شبکه عصبی ورودی هوا را دادهام و در خروجی انتظار دارم که نوع غذا را بدهد. این مساله برای شبکه MLP شوخی هست!
این شبکه ساده باید وزنهای نشان داده شده در شکل زیر را داشته باشد. حالا کافی است ورودی را در ماتریس وزن ضرب کنیم تا خروجی نوع غذا را نشان دهد. سه نوع غذا داشتیم و من یک بردار به طول 3 برای غذاها درنظر میگیرم. برای نوع هوا هم چون دو نوع هوا داریم یک بردار به طول 2 تعریف کردم. این بردارها را بهصورت بردار one-hot نشان دادهام. حالا هر بردار هوا در ماتریس MLP ضرب میشود و بهراحتی خروجی نوع غذا را مطابق قانون آشپز تعیین میکند. خب این مثال چه ربطی به شبکه عصبی بازگشتی دارد؟! در مثال بعدی خواهید دید…
مثال 2- شبکه عصبی بازگشتی: انتخاب نوع غذا براساس غذای دیروز
حالا، آشپز تصمیم میگیرد قوانین را تغییر دهد! آشپز میگوید از این به بعد من ترتیبی غذا درست میکنم. یک روز پیتزا، یک روز مرغ و یک روز هم ساندویچ و این روند همینطور ادامه مییابد… نکته اینجاست که غذای امروز به غذای دیروز وابسته است. یعنی اگر دیروز پیتزا داشتیم، امروز حتما مرغ داریم. بنابراین، باید شبکهای داشته باشیم که غذای دیروز را بهعنوان ورودی بگیرد و در خروجی غذای امروز را بدهد. پس شبکهای خواهیم داشت که خروجی به ورودی وصل است. شکل زیر را ببینید.
حالا مشابه مثال 1، این مثال را هم میخواهم بهصورت عددی حل کنم. بردار غذاها را مشابه مثال 1 درنظر گرفتهام. حالا بجای شبکه عصبی R در شکل بالا، یک ماتریس بهصورت زیر قرار میدهم. بهراحتی انتخاب غذای هر روز، براساس غذای دیروز انجام میشود. در هر مرحله خروجی برمیگردد و وارد شبکه R میشود و درنهایت غذای خروجی پیشبینی میگردد. دراینجا اهمیت مولفه زمانی کاملا مشهود است (تاثیر غذای دیروز در انتخاب غذای امروز). به شبکه عصبی بازگشتی نزدیک و نزدیکتر میشویم! برویم مثال سوم…
مثال 3- شبکه عصبی بازگشتی: انتخاب نوع غذا براساس غذای دیروز و هوای امروز
خب نشانههایی از اهمیت شبکه بازگشتی در مثال 2 مشهود است. اما میخواهم مثال را کمی پیچیدهتر کنم. آشپز بازهم قوانین را تغییر میدهد. میخواهد هم براساس نوع غذای و هم هوای امروز عمل کند. یعنی ترکیبی از دو مثال قبل… بهصورت خلاصه قوانین آشپز اینگونه است:
- اگر هوا آفتابی باشد، همان غذای دیروز را درست میکند.
- اگر هوا بارانی باشد، براساس همان روند ترتیبی عمل میکند که در مثال دوم دیدیم.
در انیمیشن بالا نحوه انتخاب غذای امروز را نشان دادهام. به دو نکته مهم دقت کنید. نکته اول اینکه، بازهم باید خروجی را به ورودی وصل کنیم، چون باید بدانیم غذای دیروز چه بوده است. نکته دوم، علاوهبر اتصال خروجی به ورودی، باید یک ورودی بهنام نوع هوا داشته باشیم. براساس این ورودی مشخص میشود که غذای امروز چیست. شکل زیر نمایی از شبکه معادل با این مثال را نشان میدهد.
شکل بالا، یک شماتیک ساده از شبکه عصبی بازگشتی است. دراینجا ما داده سری زمانی نداریم، اما داده ترتیبی داریم که هربار خروجی حاضر به خروجی قبلی خود وابسته است. پس بهصورت کلی، شبکه عصبی بازگشتی، خروجی مرحله قبل (t-1) را بهعنوان ورودی مرحله (t) اثر میدهد.
نکته در این مثال دیدید که غذای دیروز و نوع هوا با استفاده از شبکه بازگشتی، غذای امروز را مشخص میکند. اما یک سوال؛ موافقید که وقتی صحبت از نام غذای دیروز میکنیم، در واقع درحال استفاده از حافظهمان هستیم؟ بله، واقعا اینطور است که شبکه بازگشتی حافظه دارد. شبکه عصبی بازگشتی سینه به سینه یکسری اطلاعات را در طول زمان انتقال میدهد!
در دل شبکه عصبی RNN چه خبر است؟
طبق مثال 3، غذای خروجی باید براساس نوع هوا و غذای دیروز تعیین میشود. اما سوال اینجاست که داخل این شبکه RNN چه میگذرد؟ این دو ورودی در داخل چه کاری میکنند که خروجی نهایی تولید میشود؟ خیلی ساده بخواهیم فکر کنیم، طبیعتا خروجی مرحله قبل (غذای دیروز) و ورودی جدید در داخل شبکه RNN باید باهم فعل و انفعالاتی داشته باشند. بریم ببینیم زیرکاپوت چه خبر است…
جزئیات شبکه عصبی بازگشتی
طبیعی است که ما دو ورودی شبکه بازگشتی را به شکلی باید باهم ترکیب کنیم. اما مساله اینجاست که این ورودیها اندازههایشان باهم برابر نیست. غذاها یک بردار به طول 3 و هوا یک بردار به طول 2 است. راه مناسب قرار دادن لایه فولی کانکتد یا همان لایه MLP بر سر راه دو ورودی حافظه و اصلی هست. یعنی یک لایه برای ورودی حافظه و یک لایه برای ورودی اصلی درنظر گرفته شود. حالا اگر این دو لایه تعداد نورون مساوی داشته باشند، خروجی این دو لایه باهم برابر میشود. مثلا بیایید برای لایههایمان 3 نورون درنظر بگیریم. پس خروجی هرکدام برابر با یک بردار به طول 3 خواهد بود. حالا علاوه بر نگاشت به یک فضای جدید، ابعاد این دو بردار باهم برابر شده است. حالا میتوانیم این دو بردار را باهم جمع کنیم.
باید دو بردار به طول 3 را با هم درایه به درایه جمع کنیم. یعنی، خروجی جمع باید یک بردار به طول 3 باشد. پس از جمع کردن، طبق روال معمول در شبکه MLP از تابع فعالساز غیرخطی استفاده میکنیم. خروجی یک بردار به طول 3 است. در شکل زیر، نحوه جمع و عبور از تابع غیرخطی نشان داده شده است.
خروجی یک بردار بهطول 3 است. اما به یک نکته باید دقت داشته باشید، این خروجی، فقط غذای امروز را مشخص نمیکند. بلکه، ورودی غذای فردا هم هست. شکل زیر، یک فیدبک را نشان میدهد که از خروجی به ورودی نوع غذا متصل شده است.
شما ساختار داخلی شبکه عصبی بازگشتی RNN را در شکل بالا میبینید.
کمی ریاضیات چاشنی پست شبکه عصبی بازگشتی کنیم!
من سعی کردم که با چند مثال ساده کارکرد شبکه بازگشتی را به شما توضیح دهم. شبکهای که در شکل 13 دیدید، ساختار شبکه RNN است. سادهترین مدل از خانواده شبکه بازگشتی… حالا در بخش بعدی کمی علمیتر و برمبنای ریاضیات به توضیح شبکه عصبی بازگشتی RNN میپردازم.
تمرین من در مثال 1 و 2، با قرار دادن ماتریسهایی، بهصورت عددی کارکرد شبکه ها را به شما نشان دادم. آیا میتوانید بجای دو لایه 3 نورونی بالا، ماتریس اعداد قرار دهید و خروجی مطلوب را تولید کنید؟ بجای دو لایه، دو ماتریس 2×3 و 3×3 قرار دهید. دو ماتریس را در کامنت بنویسید…شبکه عصبی بازگشتی RNN
در این قسمت میخواهم روابط ریاضی یک شبکه عصبی بازگشتی را برای شما بیان کنم. انتظار دارم، باتوجه به مثالهای بخش قبل، این بخش را به آسانی متوجه شوید. شبکه عصبی بازگشتی شامل دو ورودی حافظه و ورودی اصلی است. به ورودی حافظه hidden state گفته میشود و معمولا با نماد h نشان داده میشود. ورودی اصلی هم با x… در شکل زیر نمایی از شبکه RNN نشان داده شده است.
در مثال 3 دیدیم که هریک از دو ورودی به یک لایه MLP متصل شده است. دو لایه whh و wxh را بهترتیب برای ورودی h و x درنظر گرفتم. حالا باید ht-1 و xt بهعنوان ورودی وارد RNN شده و در دو ماتریس وزن whh و wxh ضرب شوند. طبق رابطه زیر، پس از ضربها، جمع انجام میشود. یک بایاس هم گذاشتهام. درنهایت، خروجی از تابع تحریک غیرخطی مانند tanh عبور داده میشود. خروجی تابع تحریک، همان ht است. در رابطه و شکل زیر ساختار RNN نشان داده شده است. در شکل سمت راست، جزئیات شبکه بازگشتی نشان داده شده است.
خروجی بالا معادل Hidden state بعدی (ht) و خروجی شبکه RNN در زمان t است. حالا از اتصال زنجیرهای این یک شبکه بههم، شکل زیر بهوجود میآید.
شبکه عصبی بازگشتی با دو نمایش مختلف
ممکن است برای شما این سوال پیش بیاید که چرا برای شبکه بازگشتی گاهی شکل 14 و گاهی هم شکل 15 را میبینیم. تفاوت این دو چیست؟ جواب کوتاه این است که هیچ تفاوتی ندارند. نمایش شکل 14 بازشده (unfold) نمایش شکل 15 است. اگر بخواهیم شبکه شکل 15 را در راستای زمان باز کنیم، یک ساختار زنجیرهای از شبکهها حاصل میشود. اما نکتهای را که باید به آن دقت کنید، این است که ما چندین و چند شبکه نداریم، بلکه فقط یک شبکه داریم. من فقط در راستای زمان این شبکه را باز کردهام.
پس ممکن است در مقالات و کتابها ببینید که شبکه بازگشتی به شکل 15 نشان داده شده است. حواستان باشد که این نوع نمایش صرفا برای انتقال بهتر مطالب به شماست. چون میخواهند نشان دهند که شبکه در راستای زمان ورودی میگیرد و حرکت میکند. همه این شبکههای RNN یکی هستند و تمام پارامترهای آنها یکی است. بازهم تاکید میکنم که صرفا نمایش آن به اینصورت است و نه چیز اضافهای…
چند مثال ساده با شبکه RNN
سلام دوباره! 😀 در تاریخ 21 شهریور 1401 این پست آپدیت شد و مطالب این بخش را به آن اضافه کردم! میخواهم با چند مثال ساده به شما نشان دهم که شبکه RNN چگونه با دادههای متنی یا سری زمانی کار میکند.
شبکه RNN و داده متنی
تصور کنید من یک دیتاست متنی دارم. در این دیتاست یک عالمه جمله وجود دارد و هر جملهای هم یک برچسب دارد. موضوع این دیتاست، کامنت کاربران یک موسسه آموزشی است. مثلا یک نمونه دادهاش این است:
آکادمی هوسم بدون شک عالیه، مطالبش مثل فیلم های اکشن می مونه آدم دوست نداره یه لحظه ازش غافل شه
بله بله، اون موسسه آموزشی هوسم هست! 🤭 کامنت هم واقعیهها!! اصلا هم معلوم نیست که چقدر از خوندنش کیف کردیم! 😀 خب به این نوع دادهها، دادههای ترتیبی میگوییم. یعنی این کلمات به ترتیب و پشت سر هم آمدهاند. البته داده دنبالهای یا Sequential Data هم گفته میشود. همانطور که در این جلسه گفته شد، شبکه بازگشتی مخصوص این نوع دادههاست. حالا چطور این جمله را باید به شبکه بدهم؟ کافی است به انیمیشن زیر نگاه کنید…
تذکر: شاید برای شما این سوال پیش آمده باشد که شبکه بازگشتی ورودی متن میگیرد؟ متن که صرفا استرینگ هست. درحالیکه در شبکه بازگشتی هرچه داشتیم لایه فولی کانکتد و حساب کتاب ریاضیاتی بود! چطور متن میتواند داخل چنین شبکهای پردازش شود؟ ببینید، من به صورت کلی و ساده نحوه دادن داده متنی به شبکه بازگشتی را نشان دادم. در پردازش متن، روشهای متعددی برای تبدیل متن به بردار وجود دارد که اینجا جایش نیست مطرح کنم. شما تصور کنید هریک از این کلمات بردارهایی معنیدار در عالم جبرخطی و ریاضیات هستند.
حالا اینجا نگفتم به متن بودن اعداد توجه نکنید؟ یکسریها تو کلاسها دقیقا همین جا شروع میکنن به سوال پرسیدن! مثلا این: یعنی این بردار چطور ساخته شده؟ بعد آخرش مجبور میشم اون روش تبدیل متن به بردار رو بهشون بگم. به نظرم حین یاد گرفتن یک مطلبی، باید یکسری از قسمتهای کم اهمیت رو نادیده بگیریم و به هسته مطلب توجه کنیم. وقتی هسته مطلب رو یاد گرفتیم، میتونیم به اون قسمتهای فرعی فکر کنیم. اینجا تبدیل متن به بردار یک مساله فرعی هست و میتونیم بگیم خب این مهم نیست. هر کلمه یه برداره دیگه. حالا بعدا میفهمم این بردار چطوری ساخته شده…
شبکه RNN و سری زمانی
سری زمانی هم یک داده ترتیبی یا دنبالهای است. دنبالهای از اعداد که همینطور پشت هم با نظم و ترتیب که یک سری زمانی ساختهاند. مثلا در شکل زیر یک سری زمانی کوتاه آوردهایم:
این داده فقط یک بردار است. همین! برداری به شکل زیر:
خب، طبیعتا ترتیب در این داده بسیار مهم است. من نمیتوانم جای اینها را عوض کنم. همچنین، همیشه هر لحظه به دادههای قبلی وابسته است. بورس را تصور کنید؛ برای پیشبینی آینده، همیشه به روزها و ماههای گذشته نگاه میکنیم. الان یکسری از دوستان میگن: آخ آخ گفتی بورس، کردی کبابم!
حالا اگر بخواهم بازهم این داده را به شبکه RNN بدهم باید چه کار کنم؟ فکر کنم دیگر برای شما جا افتاده و اصل مطلب را گرفتید. به انیمیشن زیر نگاه کنید:
در پست شبکه بازگشتی چه گفتیم و چه نگفتیم!
بسیارخب، در این پست به شبکه عصبی بازگشتی پرداختیم. همچنین، یکی از اعضای این خانواده بهنام RNN را هم تشریح کردیم. اگر برای اولین بار شبکه عصبی RNN را میخوانید، ممکن است در درک اهمیت مولفه زمانی کمی مشکل بخورید. نیاز به فکر، حسابکتاب و چندبار مرور دارد. درهرصورت، امیدوارم توانسته باشم در قالب مثال این شبکه را به شما انتقال دهم. درباره این مباحث توضیح ندادم: (1) معماری شبکه بازگشتی، (2) انواع ورودی و خروجی در شبکه عصبی بازگشتی. لازم هست که از حمایتتان تشکر کنم. با کامنتها، فیدبکها و اعتماد به هوسم با تهیه دورههای آموزشی هوسم مشوق ما برای بهتر شدن هستید. هوسم همراه شماست…
مطالب زیر را حتما مطالعه کنید
مدل nanoGPT
شگفتانگیزترین ایده هوش مصنوعی از نظر Andrej Karpathy
شبکه ویژن ترنسفورمر
شبکه اتوانکدر
شبکه عصبی mlp
شبکه ترنسفورمر
73 دیدگاه
به گفتگوی ما بپیوندید و دیدگاه خود را با ما در میان بگذارید.
ممنون از توضیحات روان ، ساده و شفاف. سبکتون رو دوست دارم
سپاس 😊🌹🙏
با سلام در شکل 8 بردار پیتزا باید به شکل [ 0,0,1] باشد در حالیکه به اشتباه به شکل [1,0,0] که همان بردار ساندویچ هست. شکل و انیمیشن اشتباه هست البته کرنل(فیلتر-ماتریس) درسته و در صورتیکه [0,0,1] در کرنل( فیلتر-ماتریس) ضرب شود جواب [1,0,0] یا همان ساندویچ خواهد بود
سلام
بله، حق با شماست.
اصلاح میشه.
ممنون
ابعاد دیتا فیچرها رو لطفا توضیح دهید. و تفاوت many-to-many و many-to-one رو هم انیمیشن کنار pooling flatten در ویدئو بگنجانید لطفا.
سلام. ممنون از توضیحات خوبتون
فقط یه سوال! اگر تو شبکه عصبی داده های دنباله شرایط محیطی یک سیستم داشته باشیم و بخوایم شبکه پارامتر عملکرد سیستم رو بصورت پیش بینی بهمون بده، شبکه چه شکلی میشه؟
Kheli mamnoon. Sepas Fravan
😊🌹
واقعا عالی بود. من خیلی خیلی کم پیش میاد جایی نظر بزارم ولی اینجا حیفم اومد تشکر نکنم.
سلام
ممنون از پست های عالیتون 🌹
مثل همیشه عالی
سلام
وقت بخیر
فوقالعاده بود
مشتاقانه منتظر آموزش شبکههای GRU هستیم
با سلام
بسیار عالی بود
فقط یک سوال
داخل مثال زیر
دنباله متن کلمات
“آکادمی هوسم بدون شک عالیه،…”
خروجي مدل کلمهی بعدیه؟
بسیارعالی ممنون از اموزش های خوبتون.
عااااالی بود
واقعا هیچ کجا نتونستم مطلبی پیدا کنم که اینقدر ساده و روان توضیح داده بشه
ممنون از زحماتتون برای تولید مطالب
سلام
ممنون از توضیحات روان شما. لطفا نحوه پیاده سازی با تنسور فلو یا پایتورچ را هم بگذارید. خیلی مورد نیازه
سلام و درود.سپاس از آموزش خوبتان
سلام و وقت بخیر
توضیحاتتون خیلی عالی بود
فقط یک سوال شبکه RNN اینجا برای تولید جمله بود حالا اگه برای تولید کلمات باشه به چه صورتی هستش؟ یعنی برای یک تصویر اگه بخوایم اشیاءی که توی تصویر هست به صورت کلمه در بیاریم نه جمله این شبکه RNN چطوری عمل میکنه؟؟؟
با سلام با تشکر از آموزش
یک سوال داشتم اون بخشی که فرمودین یک لایه فولی کانکتد قرار میدید این لایه فولی کانکتد دقیقا چیه ؟ و چه طوری ساخته میشه این بخش رو میشه یک توضیحی بدهید
سلام
لایه فولی کانکتد یعنی لایه پرسپترونی در شبکه عصبی MLP. در جلسه 3 همین دوره یادگیری عمیق رایگان درباره شبکه عصبی MLP توضیح داده شده.
تا به حال جایی آموزش اینقدر کامل و قابل درک ندیده بودم امیدوارم همیشه همینقدر موفق باشید
سلام خسته نباشید . عالی بود توضیحاتتون فقط جسارتا قسمت زیر نباید به جای xt-1 , ورودی همون لحظه یعنی xt باشه
“حالا باید ht-1 و xt-1 بهعنوان ورودی وارد RNN شده” همونطور که توضیح دادید ورودی همون لحظه در هیدن استیت لحظه قبل محاسبه میشه نه ورودی لحظه قبل در هیدن استیت لحظه قبل درسته ؟
در مثال 3 دیدیم که هریک از دو ورودی به یک لایه MLP متصل شده است. دو لایه whh و wxh را بهترتیب برای ورودی h و x درنظر گرفتم. حالا باید ht-1 و xt-1 بهعنوان ورودی وارد RNN شده و در دو ماتریس وزن whh و wxh ضرب شوند
سلام محمد عزیز،
حق با شماست. اصلاح میکنیم.
بسیار بسیار ممنون بابت این ریزبینی 👌😊
سلام. مثل همیشه فوق العاده بود. در شکل ۸، چه طوری بردار ورودی در ماتریس ضرب می شود؟ متاسفانه هر چه قدر تلاش کردم، به خروجی نرسیدم. قواعد ضرب ماتریسی برقرار نیست. درست میگم؟
فوق العاده بود دمتون گررررررررررررم.
ساده و فوق العاده بود.
خدا خیرتون بده
سلام
بسیار روان و ساده توضیح دادید ممنونم. ای کاش نحوه محاسبه و انتشار خطا را هم در این نوع شبکه توضیح می دادید.
سلام
ممنون 🌹🙏
در مورد محاسبه و انتشار خطا در شبکه بازگشتی در دوره یادگیری عمیق با جزئیات صحبت شده.
سلام ممنون يك سوال اين روش در چه سالي معرفي شد و در چه مقاله اي ؟
بسیار ساده و روان توضیح دادین ممنونم
ممنون 🌹🙏
آکادمی هوسم بدون شک عالیه، مطالبش مثل فیلم های اکشن می مونه آدم دوست نداره یه لحظه ازش غافل شه
واثعا خوشحالیم که تا این اندازه آموزشها مورد پسند بوده 😊🙏
سلام، وققتون بخیر
پست عالی بود، ممنون از زحماتتون
فقط یک سوال راجع به تمرین: میشه یکم توضیحش بدید؟ اصلا میشه با دست حسابش کرد، یا حتما باید کد نوشت که چندین بار اجرا بشه؟
عالی
سپاس 🌹🙏
بسیار عالی بودش .
ممنون علی عزیز 🌹🙏
خیلی عالی بود. خدا قوت
با سلام وتشکر از آموزش شما
چند سؤال:
۱-در RNN آیا شبکه هایی که ورودی و نتیجه قبلی را دریافت میکنند باید حتما mlp یک لایه باشند؟؟؟ و اینکه آیا نتیجه این دو شبکه را حتما باید با هم جمع کرد(مثلا نمیتوان کار دیگری انجام داد مثل قرار دادن این دو در یک شبکه عصبی یا …)
لطفاً اگه میشه ویژگی های دقیقی که یک شبکه RNN باید داشته باشد را در انتهای مقاله بیان کنید.
سلام
1- در قالب این ساختار، بجای MLP میشه از سایر لایههای معرفی شده در شبکه عصبی هم استفاده کرد. نوع ترکیب این دو هم قابل بررسی هست. احتمالا مقالاتی در این زمینه موجود هست. خصوصا مقالاتی از ترکیب شبکه عصبی بازگشتی و شبکه عصبی کانولوشن
2- منظور شما رو از ویژگی دقیق متوجه نشدیم.
برادر، مطالبتون خوب هست ولی منبع ش رو هم بگذار که از کجای یوتیوب آوردی.
سلام
بخشی از مطالب این آموزش که شامل مثال 1، 2 و 3 هست، از یک منبع دیگه هست. این منبع هم در یوتیوب موجود هست. مدرس هم با جمله زیر که در متن این آموزش نوشتن، اشاره کردن که این مثالها از خودشون نیست:
“این مثال از من نیست، اما بعد از کلی جستجو و بررسی منابع مختلف این مثال خوب را پیدا کردم.”
معمولا ما منابع رو هم لینک میدیم. انشالله در همین جمله بالا، لینک منبع رو ذکر میکنیم.
در پایان باید بگیم که آموزشهای ما کپی یا ترجمه کلمه به کلمه از منابع دیگه نیست. این آموزشها رو با بهرهگیری از منابع خوب، دانش و تجربه خودمون و شناخت مخاطبها آماده میکنیم. به همین خاطر، مخاطبهای هوسم ما رو بابت آموزشهای ساده و روان تشویق میکنن.
سلام
چه توضیح روان و مناسب و خوبی بود
سپاس از شما به خاطر به اشتراک گذاری این مطلب
سلام
ممنون از شما بابت کامنت دلگرمکننده 🌹🙏
سلام
ممنون از محتوای درست و روان شما.
خیلی خوب و ساده توضیح داده شده بود.
سلامت و موفق باشید.
سلام
سپاس 🌹🙏
سلام و درود. ممنون از مطالب شیوا و روان آموزشی.
سپاس 🌹🙏
سلام
مطالب تون خیلی جامع و روان بود
سپاسگزارم
سلام
ممنون از شما بابت کامنت 🌹🙏
خیلی ممنون برای آموزش های عالیتان. موفق باشید.
ممنون از شما 🌹🙏
توضیحات عالی بود مرسی
سلام
سپاس 🌹🙏
باسلام وخسته نباشید…
ممنون بابت توضیحاتتون
سلام
سپاس 🌹🙏
سلام. بسیار عالی. از شما سپاسگذارم. آیا بنده می توانم ایمیل شما را داشته باشم؟ برای مشورت در مورد موضوع پایان نامه . می خواهم در این زمینه کار کنم. بنده دانشجوی دکتری آمارزیستی هستم. اگر امکان ارتباط از طریق ایمیل برای شما مقدور هست خوشحال می شوم که به بنده ایمیل بزنید تا از شما مشورت بگیرم.
با تشکر
سلام
سپاس متقابل 🌹🙏
لطفا به این ایمیل howsam.mail@gmail.com درمورد موضوع کاری و درخواستتون توضیح بدید تا در خدمت شما باشیم. همچنین، میتونید خدمات استاد مشاور هوسم را هم مطالعه کنید.
با عرض سلام و خسته نباشید
خیلی عالی بود
سلام
سپاس 🌹🙏
خیییییییییییییلی واقعا خوبییییییییید.
فوق العاده هست آموزشاتون. حس میکنم همه اونچه یه ماه دنبالشم یاد بگیرم و همش نصفه نیمه بود. با دیدن این پست کامل فهمیدم و خیلی خوشحالم و سپاسگزارم.
ای کاش هر چه زودتر تکمیل بشع مطالب….
سلام
سپاس 🌹
چشم، منابع رو تکمیل میکنیم.
کامنتهای شما فیدبک بسیار خوبی برای ما هست. 🙏
خیلی خوب بود مرسی
سلام
سپاس 🌹🙏
با عرض سلام، عالی عالی عالی بود، واقعا بنده مطالب و نت های زیادی در مورد rnn خوندم ولی انصافا این مطلب شما بهترین راه اموزش بود. واقعا دستتون درد نکنه
سلام
سپاس فراوان 🌹
پیامتون هم به ما انرژی داد و هم انگیزه ما رو برای تهیه مطالب بهتر بیشتر کرد. 🙏
سلام
واقعا ممنون از آموزش خوب و بی نظیرتون🙏🌹
یه سوال برام پیش اومد، در شکل ۱۴ ، ورودی های x بجای x0 باید از x1 شروع میشد درسته؟ اخه ورودی اصلی xt و ورودی حافظه ht-1 بود
سلام
چه دقیق 👏👏
بله حق با شماست…
خیلی عالی بود . بی صبرانه منتظر جلسات بعدی هستیم
سلام
سپاس 🌹
سلام.
بسیار بسیار عالی بود، ممنون از توضیحات خوبتون. در مورد lstm و gru هم محبت میکنید توضیح بفرمایید.
سلام سپاس 🌹
پستهای آموزش LSTM GRU GAN در برنامه هست و انشالله توسط مهندس اشرفی نوشته میشه.