جستجو برای:
  • فروشگاه
  • وبلاگ
  • آموزش‌های رایگان
    • آموزش پایتون رایگان
    • آموزش یادگیری ماشین رایگان
    • آموزش یادگیری عمیق رایگان
    • آموزش pytorch رایگان
    • آموزش گوگل کولب
    • آموزش رایگان matplotlib
    • آموزش متلب رایگان
    • دوره‌های خارجی
  • نقشه راه AI
  • کلاس خصوصی
  • همکاری با ما💚
  • حساب کاربری
  • اساتید
  • درباره ما
     
    • 0902-546-9248
    • howsam.mail@gmail.com
    آکادمی هوش مصنوعی هوسم
    • فروشگاه
    • وبلاگ
    • آموزش‌های رایگان
      • آموزش پایتون
      • آموزش یادگیری ماشین رایگان
      • آموزش یادگیری عمیق
      • آموزش pytorch
      • آموزش گوگل کولب
      • آموزش رایگان matplotlib
      • آموزش متلب
      • دوره‌های خارجی
    • نقشه راه AI
    • کلاس خصوصی
    • درباره ما
      • اساتید
      • پشتیبانی
      • هوسم در اینستا و تلگرام
        • اینستاگرام هوسم (howsam_org@)
        • تلگرام هوسم (howsam_org@)
        • تلگرام پایتورچ (pytorch_howsam@)
    • همکاری با ما💚
    0

    ورود و ثبت نام

    بلاگ

    آکادمی هوش مصنوعی هوسم وبلاگ یادگیری عمیق نورون مصنوعی

    نورون مصنوعی

    2020/05/14
    ارسال شده توسط هوسم
    یادگیری عمیق
    9.96k بازدید

    به اولین جلسه از آموزش یادگیری عمیق رایگان هوسم خوش آمدید. در این جلسه می‌خواهیم ساختار یک نورون مصنوعی را بررسی کنیم. همچنین، تابع فعالسازی یا activation function در شبکه عصبی را تعریف و بررسی می‌کنیم. در مورد بایاس در نورون صحبت خواهیم کرد و دلیل وجود بایاس در شبکه عصبی را بررسی خواهیم کرد. با هوسم همراه باشید…

    فهرست مطالب نمایش
    1. ساختار نورون طبیعی
    2. ساختار نورون مصنوعی
    3. مدل ریاضی نورون
    4. تابع فعالسازی
    5. تابع فعالساز خطی
    6. توابع فعالساز غیرخطی
    7. روابط ریاضی با تابع فعالساز
    8. بایاس در نورون مصنوعی
    9. روابط ریاضی با بایاس
    10. نمایش کلی نورون مصنوعی
    11. منابع آموزش یادگیری عمیق

    ساختار نورون طبیعی

    شبکه‌های عصبی عمیق با الهام از مغز انسان ساخته شده‌اند. مغز انسان از واحدهای کوچکی به نام نورون تشکیل شده است. بنابراین قبل از اینکه به بحث اصلی وارد شویم، می‌خواهیم ساختار یک نورون طبیعی را بررسی کنیم. ساختار یک نورون طبیعی در شکل زیر نشان داده شده‌است:

    نورون مصنوعی
    شکل 1: ساختار یک نورون طبیعی

    همان‌طور که مشاهده می‌کنید، یک نورون طبیعی از چهار قسمت تشکیل شده است. قسمت اول دندریت‌ها (Dendrite) هستند. دندریت‌ها ورودی‌های یک نورون هستند. یعنی سیگنال‌های عصبی که دربردارنده اطلاعات هستند از طریق دندریت‌ها وارد نورون می‌شوند. دندریت‌ها ابعاد یکسانی ندارند. هرچقدر ضخامت یک دندریت بیشتر باشد، به اطلاعات کسب شده از آن اهمیت بیشتری داده می‌شود.

    قسمت دوم از یک نورون و مغز متفکر آن هسته (nucleus) است. اطلاعاتی که از دندریت‌ها دریافت شده است توسط هسته پردازش می‌شود. این اطلاعات پردازش شده از طریق یک کانال ارتباطی از هسته خارج می‌شوند. قسمت سوم نورون همین کانال ارتباطی است که به آن آکسون (axon) گفته می‌شود. وظیفه آکسون‌ها انتقال اطلاعات از هسته به سیناپس است. قسمت آخر نورون همین سیناپس (Synapse) است. اطلاعاتی که توسط نورون پردازش شده‌اند، از طریق سیناپس‌ها از نورون خارج می‌شوند.

    تا اینجا با ساختار نورون به صورت خلاصه آشنا شدیم. اما دو سوال مطرح می‌شود. یک اینکه اطلاعات از کجا به نورون وارد می‌شود؟ دوم اینکه اطلاعاتی که از نورون خارج می‌شوند کجا می‌روند؟ جواب هردو سوال این است که در مغز نورون‌ها به هم متصل هستند. اتصال نورون‌ها از طریق سیناپس و دندریت انجام می‌شود. دندریت یک نورون به سیناپس نورونی دیگر وصل می‌شود و سیناپس آن به دندریت یک نورون دیگر. پس نورون‌ها اغلب اطلاعات را از یک نورون دریافت می‌کنند و سپس آن را به نورون دیگری می‌فرستند.

    تمرین: چهار بخش اصلی نورون را نام ببرید و نقش هریک را توضیح دهید.

    در توضیحات بالا جواب داده شده است. 

     

    ساختار نورون مصنوعی

    نورورن مصنوعی با الهام از ساختار نورون طبیعی ساخته شده است. گفتیم در نورون طبیعی، اطلاعات از دندریت‌ها دریافت می‌شوند. همه ورودی‌ها در هسته جمع شده و در آنجا پردازش می‌شوند. در نهایت اطلاعات پردازش شده از طریق آکسون و سیناپس‌ها از نورون خارج می‌شوند. ما همیشه دنبال الگوریتمی هستیم که مثل مغز کار کند یا حتی بهتر از آن باشد. به همین دلیل به تقلید از نورون طبیعی مغز انسان، نورون مصنوعی ساخته شد.

    نورون مصنوعی
    شکل 2: ساختار نورون مصنوعی و مقایسه آن با نورون طبیعی

    در تصویر بالا ساختار یک نورون طبیعی و مصنوعی نشان داده شده است. گفتیم در یک نورون طبیعی دندریت‌هایی وجود دارند که اطلاعات را وارد نورون می‌کنند. در نورون مصنوعی کار دندریت‌ها را ورودی‌های x1 تا xm انجام می‌دهند. این ورودی‌ها همانند دندریت‌ها ورودی را دریافت می‌کنند. تعداد این ورودی‌ها هم می‌تواند یک ورودی یا بیشتر باشد. 

    گفتیم ضخامت دندریت‌ها با هم متفاوت است. هرچه ضخامت یک دندریت بیشتر باشد یعنی اطلاعاتی که آن شاخه می‌گیرد مهم‌تر است. دندریت‌های ضخیم مثل یک خبرنگار گردن‌کلفت هستند! هر خبری که این خبرنگار تهیه کند مورد توجه قرار می‌گیرد. این مسئله در نورون مصنوعی از طریق وزن‌ها انجام می‌شود. درواقع، وزن‌های w1 تا wm معادل با همان ضخامت دندریت هستند. هرچقدر مقدار هرکدام از این وزن‌ها بیشتر باشد، به ورودی متناظر با آن اهمیت بیشتری داده خواهد شد.

    پس از دریافت و وزن‌دهی ورودی‌ها اطلاعات در هسته نورون طبیعی پردازش می‌شوند. در یک نورون مصنوعی، ورودی‌ها به ساده‌ترین شکل ممکن پردازش می‌شوند. در یک نورون مصنوعی ورودی‌ها با هم جمع خواهند شد. اگر به شکل دقیق‌تری بخواهیم بیان کنیم، ورودی‌ها به صورت وزن‌دار با هم جمع می‌شوند. یعنی اینکه همه ورودی‌ها در یک وزنی ضرب شده و سپس با هم جمع شده‌‌اند.

    بخش آخر در نورون طبیعی آکسون و سیناپس‌ها هستند. در نورون مصنوعی نیز بعد از جمع وزن‌دار، اطلاعات از نورون از طریق y خارج خواهد شد. یعنی آکسون و سیناپس‌ها معادل با y در نورون مصنوعی هستند. به این ترتیب یک نورون طبیعی شبیه‌سازی شد! این نورون مصنوعی، ساده‌ترین شکلِ نورون طبیعی را نشان می‌دهد. در بخش‌های آینده اجزای کوچکی به این نورون اضافه خواهیم کرد تا بتوانیم پیچیده‌ترش کنیم!

     

    مدل ریاضی نورون

    در بخش قبلی یک نورون مصنوعی ساده را بررسی کردیم. در این بخش می‌خواهیم نحوه نمایش ریاضی این نورون مصنوعی را بررسی کنیم. بیایید یک بار دیگر ساختار نورون مصنوعی را مرور کنیم:

    نورون مصنوعی
    شکل 3: ساختار نورون مصنوعی

    خب به راحتی می‌توانیم ساختار این نورون را به شکل زیر بنویسیم:

    نورون مصنوعی

    یا اینکه می‌توانیم این نمایش را کمی پیچیده‌تر و البته خلاصه‌تر کنیم. به جای نوشتن تک تک عبارات می‌توانیم از نماد سیگما استفاده کنیم:

    نورون مصنوعی

    حالا اگر بخواهیم نمایش برداری این رابطه را بنویسیم چه باید کنیم؟ می‌توانید رابطه بالا را به صورت برداری بنویسید؟ نمایش برداری رابطه بالا به شکل زیر است:

    نورون مصنوعی

    تابع فعالسازی

    در بخش قبل ما ساختاری برای یک نورون مصنوعی معرفی کردیم. خروجی نورونی که ما معرفی کردیم برابر است با حاصل جمع وزن‌دار ورودی‌ها به آن نورون. نورون مصنوعی که ما تعریف کردیم خطی کار می‌کند. مثل خط y = ax درست است؟ یعنی اینکه مثلا اگر داده‌ای از دو کلاس داشته باشیم، نورون ما می‌تواند با یک خط آن دو کلاس را از هم جدا کند. مثلا در تصویر زیر، کلاس‌ها به سادگی توسط یک خط از هم جدا شده‌اند:

    نورون مصنوعی
    شکل 3: جداسازی دو کلاس با استفاده از نورون مصنوعی

    در تصویر بالا، دایره‌های قرمز و سبز نماینده دو کلاس هستند. خط آبی رنگ هم مرزی است که نورون مصنوعی برای جدا کردن این دو کلاس کشیده است! خیلی هم تمیز و دقیق این کار را انجام داده است. اما آیا همیشه دو کلاسِ متمایز، انقدر از هم دور هستند؟ یعنی جداسازی دو کلاس انقدر راحت است؟ واقعیت این است که نمونه‌های کلاس‌های متفاوت اغلب در هم تنیده هستند. به گونه‌ای که تفکیک آن‌ها با یک خط میسر نیست! مثلا به تصویر زیر دقت کنید:

    نورون مصنوعی
    شکل 4: عدم امکان جداسازی دو کلاس با یک خط راست

    می‌بینید که نورون مصنوعی تمام تلاشش را برای جداسازی نمونه‌های سبز از قرمز کرده است. اما این کار را با خطای زیادی انجام داده است. اگر از شما بخواهیم که با کشیدن خطی فرضی این دو کلاس را از هم جدا کنید چه می‌کشید؟ احتمالا به شکل زیر این کار را انجام خواهید داد:

    نورون مصنوعی
    شکل 5: نیاز به خاصیت غیرخطی برای جداسازی دو کلاس

    شما به راحتی و با سرعت تمام با کشیدن یک منحنی به شکل بالا توانستید این دو کلاس را از هم جدا کنید. این دقیقا چیزی است که ما از یک شبکه عصبی هم انتظار داریم. مگر نگفتیم الگوی طراحی شبکه‌های عصبی مصنوعی، مغز انسان است؟ پس ما انتظار داریم که نورون مصنوعی که طراحی می‌کنیم، حداقل روی کاغذ بتواند داده‌های شکل بالا را تفکیک کند! در حال حاضر این امکان در آن نورونی که ما گفتیم وجود ندارد. نیاز است یک عضو جدیدی به این نورون اضافه شود تا خاصیت غیرخطی به آن اضافه شود. این عضو جدید تابع فعالساز یا activation function است.

    نورون مصنوعی
    شکل 6: نورون مصنوعی همراه با تابع فعالساز یا activation function

    تابع فعالساز در شبکه عصبی بعد از بلوک جمع در نورون مصنوعی قرار می‌گیرد. یعنی پس از جمع ورودی‌ها، نتیجه از یک تابع فعالساز عبور می‌کند. اما این تابع فعالساز چه تابعی هست؟ توابع متعددی به عنوان تابع فعالساز معرفی شده‌اند که در این جلسه به‌صورت مختصر بررسی خواهند شد. با هوسم همراه باشید …

    تابع فعالساز خطی

    تابع فعالساز خطی ورودی را به خودش نگاشت می‌کند. در واقع یک تابع فعالساز خطی، هیچ تغییری روی ورودی ایجاد نمی‌کند! این تابع از دو طرف بی‌کران است و خاصیت غیرخطی در نورون مصنوعی ایجاد نمی‌کند! پس تابع فعالساز خطی مطلوب ما نیست. به همین دلیل توابع فعالساز غیرخطی به وجود آمدند. در بخش بعدی چند تابع فعالساز غیرخطی را بررسی خواهیم کرد.

    تابع فعالساز خطی در نورون مصنوعی
    شکل 7: تابع فعالساز خطی در نورون مصنوعی

    توابع فعالساز غیرخطی

    تابع فعالساز سیگموید (sigmoid) یکی از توابع فعالساز غیرخطی و پراستفاده است. سیگموید یک تابع فعالساز کران‌دار، اکیدا صعودی و همواره مثبت است. این تابع ورودی‌های خود را به بازه‌ی صفر و یک نگاشت می‌کند.

    تابع فعالساز سیگموید در نورون مصنوعی
    شکل 8: تابع فعالساز سیگموید

    تابع فعالساز تانژانت (tangent)، یکی دیگر از توابع غیرخطی است. این تابع نیز کران‌دار و اکیدا صعودی است. تابع تانژانت، ورودی‌های خود را به بازه 1- و 1+ نگاشت می‌کند.

    تابع فعالساز تانژانت در نورون مصنوعی
    شکل 9: تابع فعالساز تانژانت

    در دو تابع سیگموید و تانژانت دیدیم که خروجی‌ها محدود به یک بازه شدند. یکی دیگر از ویژگی‌هایی که یک تابع فعالساز باید داشته باشد همین است. یعنی باید بتواند مقدار خروجی را محدود کند! اما چرا؟ فرض کنید که ما یک نورون ساده داشته باشیم که 10 ورودی داشته باشد. مقدار همه ورودی‌ها هم 10 باشد. خروجی این نورون بدون تابع فعالساز چه خواهد بود؟ جواب 100 است. می‌بینید که خروجی بسیار بزرگ شد. و اگر محدودیتی بر خروجی‌های نورون اعمال نشود، با افزایش تعداد ورودی‌ها یا با افزایش تعداد نورون‌ها همچنان این مقادیر بزرگ و بزرگتر خواهند شد. بنابراین یکی دیگر از خصوصیاتی که یک تابع فعالساز باید داشته باشد، محدود کردن خروجی است.

    یکی از پر استفاده‌ترین توابع، تابع فعالساز ReLU است. ReLU مخفف عبارت Rectified Linear Unit است. این تابع از یک طرف بی‌کران و صعودی است. تابع ReLU ورودی ‌های کوچک‌تر از صفر را به صفر و ورودی‌های بزرگتر از صفر را به خودشان نگاشت می‌کند. 

    تابع فعالساز relu در نورون مصنوعی
    شکل 10: تابع فعالساز ReLU

    خب حالا یک سوال مهم پیش می‌آید. چطور ReLU پراستفاده است در حالی که گفتیم یکی از خصوصیات مثبت یک تابع فعالساز کران‌دار بودن آن است؟ ReLU یک خصوصیت مهم دارد و آن اسپارس بودن است. در خروجی نورونی که ReLU فعالساز آن باشد، ممکن است تعداد زیادی صفر وجود داشته باشد. این به معنای اسپارس بودن خروجی است که ویژگی مثبتی تلقی می‌شود. به همین خاطر به منظور استفاده از ReLU ترفند دیگری برای محدود کردن خروجی استفاده می‌شود. قبل از اینکه داده‌ها به ReLU داده شوند، با استفاده از نرمالیزاسیون، مقدار داده‌ها محدود می‌شود. به این ترتیب اگر داده نرمال شده را به ReLU بدهیم، خروجی محدود خواهد بود!

    روابط ریاضی با تابع فعالساز

    روابط ریاضی که برای یک نورون تعریف کردیم با اضافه شدن تابع فعالساز تغییر می‌کنند. اگر تابع فعالساز را f بنامیم، در این صورت روابطی که بر نورون مصنوعی حاکم هستند به شکل زیر تغییر خواهند کرد:

    نورون مصنوعی

    که این رابطه را می‌توان به شکل زیر خلاصه کرد:

    نورون مصنوعی

    رابطه ماتریسی نورون مصنوعی نیز به شکل زیر خواهد بود:

    نورون مصنوعی

    بایاس در نورون مصنوعی

    علاوه بر تابع فعالسازی، پارامتر دیگری نیز به نورون مصنوعی اضافه می‌شود و آن بایاس نام دارد. بایاس یک عدد ثابت است که مستقیم به تابع فعالسازی وارد می‌شود. بایاس دو خاصیت دارد که در ادامه بررسی می‌شود. خاصیت اول بایاس آن است که صفر شدن خروجی را سخت می‌کند! فرض کنید تمام ورودی‌های یک نورون صفر باشد. آنگاه به راحتی خروجی صفر می‌شود و این صفر در شبکه عصبی منتشر می‌شود. در این صورت یادگیری شبکه ممکن است با مشکل مواجه شود. بایاس از صفر شدن خروجی به این شکل جلوگیری می‌کند.

    خاصیت دوم بایاس، دادن انعطاف به تابع فعالسازی است. با اضافه شدن بایاس، تابع فعالسازی می‌تواند جابجا شود! به این ترتیب در انجام بهتر یادگیری کمک خواهد کرد. به تصویر زیر دقت کنید. در این تصویر تابع فعالساز ReLU بدون بایاس و با بایاس با هم مقایسه شده‌اند. مشاهده می‌کنید که با اضافه شدن بایاس، تابع ReLU روی محور x حرکت می‌کند. و این یعنی انعطاف‌پذیری بیشتر…

    تاثیر بایاس در نورون مصنوعی
    شکل 11: تاثیر بایاس در نورون مصنوعی

    روابط ریاضی با بایاس

    بعد از اضافه کردن بایاس، روابط ریاضی به شکل زیر تغییر خواهد کرد:

    نورون مصنوعی

    نورون مصنوعی

    نورون مصنوعی

    اما این طرز نوشتن بایاس زیاد دلچسب نیست. چون مثلا نظم نمایش خلاصه با سیگما یا نمایش برداری بهم خورده است. به همین خاطر فرض کرده‌ایم B یک وزن است که ورودی آن (x0) برابر با 1 هست. همچنین، برای هماهنگی بیشتر با سایر وزن‌ها، بجای B از w0 استفاده کرده‌ایم. به این ترتیب خواهیم داشت:

    نورون مصنوعی

    نورون مصنوعی

    به‌این ترتیب، توانستیم، بایاس را با سایر وزن‌ها ترکیب کنیم تا نمایش بهتری از نورون را شاهد باشیم. 

    نمایش کلی نورون مصنوعی

    در این بخش می‌خواهیم یک نمایش کلی از نورونی که طراحی شد، نمایش دهیم. یعنی یک نمایش خلاصه از نورون مصنوعی داشته باشیم. در جلسات بعدی خواهیم دید که ما با اتصال نورون‌ها به یکدیگر، شبکه‌های عصبی بزرگ خواهیم ساخت. بنابراین داشتن نمایش خلاصه و همچنین یک فرمول کلی، در آینده به نمایش و فهم شبکه‌ها کمک خواهد کرد. برای نمایش، بلوک جمع‌کننده و تابع فعالساز با هم ادغام شده و شکل زیر نمایش کلی نورون خواهد بود:

    نمایش کلی یک نورون مصنوعی
    شکل 12: نمایش کلی یک نورون مصنوعی

    نمایش ریاضی نیز به شکل زیر خلاصه می‌شود. که در آن W، بردار وزن‌ها، X بردار ورودی‌ها و W0 بایاس را نشان می‌دهند.

    نورون مصنوعی

    این دو نمایش در آینده استفاده خواهند شد. پس سعی کنید آن‌ها را به خاطر بسپارید😉.

    منابع آموزش یادگیری عمیق

    در فهرست زیر، تعدادی از منابع خوب آموزش یادگیری عمیق را معرفی کرده‌ایم.

    • کتاب شبکه عصبی Haykin

    .

    در این پست ساختار نورون مصنوعی در شبکه عصبی را بررسی کردیم.  امیدوارم این آموزش مورد توجه شما قرار گرفته باشد. نظرات و سوالات خود را پایین 👇 برایمان کامنت کنید. حتما سوالات شما پاسخ داده خواهد شد.

    اشتراک گذاری:
    برچسب ها: آموزش شبکه عصبیآموزش شبکه های عصبیآموزش یادگیری عمیقآموزش یادگیری عمیق رایگانآموزش یادگیری عمیق فارسیتابع فعالسازتابع فعالساز reluتابع فعالساز sigmoidتابع فعالساز تانژانتساختار نورون طبیعیساختار نورون مصنوعیشبکه عصبینروننوروننورون طبیعینورون مصنوعی

    مطالب زیر را حتما مطالعه کنید

    یادگیری انتقالی
    یادگیری انتقالی یا Transfer Learning به معنای استفاده از یک مدل از پیش آموزش‌دیده در...
    شبکه VGG
    شبکه VGG یکی از معماری‌های موفق و معروف در حوزه یادگیری عمیق است که در...
    مهندسی پرامپت
    امروزه، با ظهور ChatGPT و سایر ابزارهای هوش مصنوعی، طیف گسترده‌ای از افراد، از کاربران...
    مدل nanoGPT
    در سال ۲۰۱۹، OpenAI مدل GPT-2 را معرفی کرد. OpenAI، برخلاف مدل‌های بعدی (GPT-3 و...
    شگفت‌انگیزترین ایده هوش مصنوعی از نظر Andrej Karpathy
    هوش مصنوعی به سرعت در حال پیشرفت هست. به‌گونه‌ای که باید زمان و انرژی زیادی...
    شبکه ویژن ترنسفورمر
    شبکه ویژن ترنسفورمر (Vision Transformer) یا ViT یک شبکه عصبی مبتنی بر مدل ترنسفورمر هست...

    77 دیدگاه

    به گفتگوی ما بپیوندید و دیدگاه خود را با ما در میان بگذارید.

    • عاطفه گفت:
      2025/06/24 در 8:27 ق.ظ

      سلام
      از اموزش عالیتون ممنونم

      فرمولی که بعد از این متن اومده:
      “همچنین، برای هماهنگی بیشتر با سایر وزن‌ها، بجای B از w0 استفاده کرده‌ایم. به این ترتیب خواهیم داشت:”
      x0 در فرمول باید 1 می بود نه صفر.
      ممنون بررسی کنید

      پاسخ
      • هوسم گفت:
        2025/07/05 در 10:09 ق.ظ

        سلام
        بله، حق با شماست. باید اصلاح بشه. در فرمول‌های بعدش، 1 گذاشته شده.

        پاسخ
    • mani.raymand گفت:
      2024/09/17 در 12:04 ب.ظ

      خیلی توضیح شفاف و جذابی بود ممنون

      پاسخ
      • هوسم گفت:
        2024/09/18 در 9:42 ق.ظ

        ممنون 😊🌹🙏

        پاسخ
    • فارسی گفت:
      2024/06/20 در 11:45 ب.ظ

      فایلهای پی دی اف این ها رو هم مثل جلسه 00 قرار بدهید. ممنون.

      پاسخ
      • فری گفت:
        2024/07/05 در 6:08 ب.ظ

        ویدو آموزشی نداره؟

        پاسخ
        • هوسم گفت:
          2024/07/06 در 12:19 ب.ظ

          سلام
          شما می‌تونید به دوره پایتورچ رایگان هوسم مراجعه کنید که در مورد موضوع موردنظر شما صحبت شده.
          از این دوره بهتر و جامع‌تر، دوره یادگیری عمیق هوسم هست که از صفر تا صد این موضوع توضیح داده شده.

          پاسخ
    • نوشین گفت:
      2024/02/03 در 6:22 ب.ظ

      خیلی عالی ممنونم.

      پاسخ
      • هوسم گفت:
        2024/05/05 در 2:40 ب.ظ

        سپاس 🌹

        پاسخ
    • im sajad گفت:
      2024/01/17 در 5:10 ب.ظ

      با عرض سلام و خسته نباشید. در قسمت روابط ریاضی در بایاس در یکی از فرمول های شرط ایکس صفر برابر 0 گذاشتین ولی جسارتا نباید 1 میزاشتید؟؟!
      ممنونم از مطالبتون

      پاسخ
      • هوسم گفت:
        2024/01/18 در 3:16 ب.ظ

        سلام
        بله، حق با شماست.
        ممنون

        پاسخ
        • سعيد گفت:
          2024/09/25 در 11:26 ب.ظ

          خوب بود

          پاسخ
          • هوسم گفت:
            2024/09/26 در 10:50 ق.ظ

            ممنون 🙏🌹

            پاسخ
    • a.nozadi گفت:
      2024/01/07 در 5:06 ب.ظ

      مثل همیشه، عالی و روان
      ممنونم

      پاسخ
      • علیزاده گفت:
        2024/04/18 در 8:27 ق.ظ

        آیا در مورد شبکه های چند لایه هم توضیح دادین ؟

        پاسخ
      • هوسم گفت:
        2024/05/05 در 2:40 ب.ظ

        ممنون بابت پیامتون 😊

        پاسخ
    • محمد گفت:
      2023/12/07 در 1:01 ق.ظ

      خیلی عالی و روان توضیح دادین.متشکرم

      پاسخ
      • هوسم گفت:
        2024/05/05 در 2:41 ب.ظ

        سپاس 🌹

        پاسخ
    • م. هیدجی گفت:
      2023/11/04 در 9:50 ق.ظ

      دو تا دوره گذروندم، ولی اینقدر ساده و شفاف برام توضیح نداده شده بود.
      این یک صفحه، کلی درک صحیح بهم داد.
      عالی بود

      پاسخ
      • هوسم گفت:
        2023/11/04 در 11:05 ق.ظ

        سپاس بابت کامنت 😊
        براتون آرزوی موفقیت داریم 🌹

        پاسخ
    • محمد گفت:
      2023/10/02 در 5:15 ب.ظ

      سلام ، خیلی ساده و همه فهم توضیح دادین ، از شما یاد گرفتم ، خیلی ممنون هستم .

      پاسخ
      • هوسم گفت:
        2023/11/04 در 11:04 ق.ظ

        سلام
        خوشحالیم که براتون مفید بوده 😊🌹

        پاسخ
      • ژاله علیزاده گفت:
        2024/04/18 در 8:12 ق.ظ

        واقعا خیلی عالی توضیح دادین .ممنون

        پاسخ
      • ژاله علیزاده گفت:
        2024/04/18 در 8:14 ق.ظ

        توضیحاتتون خیلی مفید بود .

        پاسخ
    • Yekta1400 گفت:
      2023/09/17 در 8:32 ب.ظ

      سلام
      سپاس از آموزش بسیار شفاف و خوبتون
      اگر امکانش هست ممنون میشم فایل PDF این آموزش رو هم قرار بدین و اگر امکانش هست محبت کنید برام ایمیلش کنید.
      سپاس

      پاسخ
      • هوسم گفت:
        2023/11/04 در 11:04 ق.ظ

        سلام
        سپاس 🌹
        سعی می کنیم پی دی اف هم اضافه کنیم 🙏

        پاسخ
    • kosar گفت:
      2023/08/26 در 2:57 ب.ظ

      سلام
      آموزشتون خیلی عالیه فقط pdf این جلسات رو نمیذارین؟

      پاسخ
      • هوسم گفت:
        2023/11/04 در 11:03 ق.ظ

        سلام
        سپاس 🌹
        سعی می کنیم اضافه کنیم، ممنون از پیشنهادتون 🙏

        پاسخ
    • فاطمه گفت:
      2023/07/03 در 3:44 ب.ظ

      خیلیی خیلیی عالی و مفید دستتون درد نکنهههه

      پاسخ
      • هوسم گفت:
        2023/11/04 در 11:02 ق.ظ

        سپاس 😊🌹

        پاسخ
    • مُ جباری گفت:
      2023/01/27 در 3:58 ق.ظ

      آقا دهنتون نسوزه
      مواظب باشید.
      آخه میخوام بگم دمتون خیلی خیلی گرمه.
      فقط چرا مقدار x0 =0 شد توی تبدیل بایاس به وزن.
      شاد باشید.

      پاسخ
      • هوسم گفت:
        2023/02/05 در 4:25 ب.ظ

        سپاس 😄
        x0=0 نشد، x0=1 شد. هدفمون این بود که بایاس رو ببریم تو رابطه wx، به خاطر همین فرض کردیم که x0=1 و w0=b باشه. اینطوری به جای اینکه بنویسیم: y=b + wx می‌تونیم بنویسیم y=wx. در واقع هدفمون فقط ساده کردن نمایش هست.

        پاسخ
        • ع.ف گفت:
          2023/06/12 در 5:39 ب.ظ

          بسیار مفیییییید
          ممنون

          پاسخ
    • دریا جوزانی گفت:
      2022/11/06 در 12:43 ق.ظ

      سلام خیلی سپاسگزارم خیلی عالی بود

      پاسخ
    • محبوبه روستایی گفت:
      2022/05/22 در 11:40 ق.ظ

      سلام
      خیلی عالی بود

      پاسخ
      • هوسم گفت:
        2022/05/22 در 11:44 ق.ظ

        سلام،
        سپاس 😊

        پاسخ
      • محمدرضا گفت:
        2023/04/07 در 3:57 ب.ظ

        فوق العاده بود
        خسته نباشید❤️

        پاسخ
    • علی گفت:
      2022/05/04 در 11:58 ب.ظ

      با سلام و تشکر فراوان بابت مطالب مفیدی که تالیف نموده اید.

      پاسخ
      • هوسم گفت:
        2022/05/22 در 11:44 ق.ظ

        سلام،
        ممنون 🌹🙏

        پاسخ
        • رب گفت:
          2023/02/15 در 2:48 ق.ظ

          عالی بود

          پاسخ
    • ناشناس گفت:
      2022/05/02 در 6:12 ق.ظ

      با سلام
      لطفا در متن تابع فالساز تانژانت را به تانژانت هایپربولیک (هیپربولیک) تغییر دهید ، چون این تابع تانژانت هایپربولیک می باشد (tanh)
      (x)tan(x) -> tanh
      با سپاس

      پاسخ
    • mahab گفت:
      2022/04/14 در 9:58 ق.ظ

      خیلی عالی. ممنون.

      پاسخ
    • امیر مرادی گفت:
      2022/04/10 در 1:33 ب.ظ

      با سلام و تشکر از آموزش قابل فهم
      در شکلی که بایاس را وارد معادله کردید، مقدار ایکس صفر را برابر صفر گذاشتید در حالیکه در شکل ماتریسی آن، مقدار ایکس صفر برابر یک درج شده است.
      باتشکر و احترام

      پاسخ
    • فاطمه گفت:
      2022/01/25 در 10:05 ق.ظ

      سلام
      بسیار عالی

      پاسخ
    • دانشجوی پر مشغله! گفت:
      2021/12/24 در 1:38 ب.ظ

      سلام ممنون از مطالب مفیدتون. آیا برای توابع زیان هم پستی موجوده؟ من پیدا نکردم توی سایت
      متشکرم🌹

      پاسخ
    • mehdi گفت:
      2021/12/16 در 6:26 ب.ظ

      با تشکر از مطالب بسیار مفیدتان
      در شکل 11: با اضافه شدن بایاس نمودار باید به اندازه b واحد به سمت چپ منقل شود نه راست.

      پاسخ
      • تیم هوسم گفت:
        2021/12/17 در 12:37 ب.ظ

        سلام مهدی عزیز،
        بایاس میتونه عددی مثبت یا منفی باشه. بسته به علامت بایاس، نمودار به سمت راست یا چپ میره. پس شکل 11 برای یک بایاس منفی میتونه درست باشه. ما هم این جابجایی نمودار رو به صورت نمادین نشون دادیم.
        ممنون 🌹🙏

        پاسخ
    • ali گفت:
      2021/11/23 در 11:29 ب.ظ

      بسیارعالی بود لذت بردم.

      پاسخ
      • تیم هوسم گفت:
        2021/11/24 در 10:42 ق.ظ

        ممنون علی عزیز 🌹🙏

        پاسخ
    • فرزاد گفت:
      2021/11/03 در 7:11 ب.ظ

      سلام ممنون خیلی مفید بود

      پاسخ
      • تیم هوسم گفت:
        2021/11/04 در 10:27 ق.ظ

        سلام فرزاد عزیز،
        سپاس 🌹🙏

        پاسخ
    • ارغوان ارغوانی گفت:
      2021/10/30 در 6:39 ق.ظ

      سلام
      بابت مطالب خوبتون ممنونم
      میخواستم خواهش کنم در مورد مکانیزم توجه هم مطلب بذارید لطفا

      پاسخ
      • تیم هوسم گفت:
        2021/10/30 در 11:45 ق.ظ

        سلام
        ممنون از شما بابت کامنت 🌹🙏
        پیشنهاد می‌کنیم حتما نگاهی به دوره بینایی کامپیوتر حرفه‌ای هوسم بندازید. در این دوره خیلی درمورد اتنشن به‌خصوص ترنسفورمر صحبت شده.

        پاسخ
        • ارغوان ارغوانی گفت:
          2021/10/31 در 12:05 ق.ظ

          منظورم رایگان بود تا با اون هزینه

          پاسخ
    • فاطمه گفت:
      2021/10/27 در 5:20 ب.ظ

      بسیارشیوا و عالی،خیلی متشکرم از زحمات شما

      پاسخ
      • تیم هوسم گفت:
        2021/10/30 در 11:47 ق.ظ

        سپاس 🌹🙏

        پاسخ
    • لیلا گفت:
      2021/08/28 در 8:33 ب.ظ

      سلام
      بسیاااار روان ساده و قابل فهم و جالب!
      من بعداز ۲ ترم گذراندن شبکه عصبی، تازه امروز یه چیزی ازش فهمیدم!
      و خیلی علاقمند شدم
      ممنون از شیوه جالب معرفی تابع فعالساز و بایاس

      پاسخ
      • تیم هوسم گفت:
        2021/08/29 در 9:11 ب.ظ

        سلام
        خیلی هم عالی که علاقه‌مند شدید. 👌😊
        سپاس 🌹🙏

        پاسخ
    • محمدرضا گفت:
      2021/08/21 در 11:51 ق.ظ

      بسیار عالی. ممنونم ازتون

      پاسخ
      • تیم هوسم گفت:
        2021/08/22 در 11:06 ق.ظ

        ممنون از شما 🌹🙏

        پاسخ
    • هاشمی گفت:
      2021/08/12 در 2:31 ب.ظ

      سلام. اولین سایتی هستین که دیدم آموزش رایگان تو حوزه دیپ لرنینگ تالیف کردین و بدون کپی کردن از جای دیگه با زبان شیوا و عکس های با مفهوم اونو توضیح دادین. با سرچ کردن “یادگیری عمیق” تو گوگل متاسفانه سایتتون تو چند صفحه اول نبود و من با سرچ کردن “توضیح پرسپترون” به سایتتون رسیدم. اگر ممکنه روی سئو سایتتون کار کنید که بیاد بالا و بقیه هم استفاده کنن
      خیلی ممنونم از وقتی که میزارین

      پاسخ
      • تیم هوسم گفت:
        2021/08/13 در 11:53 ق.ظ

        سلام
        از شما بابت این کامنت دلگرم‌کننده و پیشنهاد خوب ممنونیم.
        سپاس 🌹🙏

        پاسخ
    • محسن ه گفت:
      2021/06/28 در 10:57 ق.ظ

      عالی

      پاسخ
      • تیم هوسم گفت:
        2021/06/29 در 11:38 ق.ظ

        سلام
        سپاس 🌹🙏

        پاسخ
    • bostadaghaee گفت:
      2021/06/21 در 3:46 ب.ظ

      تو فرمول چهارم از پایین صفحه، x0 رو به اشتباه مساوی 0 نوشتین که باید مساوی 1 باشه

      پاسخ
      • تیم هوسم گفت:
        2021/06/29 در 11:37 ق.ظ

        سلام
        بله حق با شماست. اصلاح می‌کنیم.
        سپاس 🌹🙏

        پاسخ
    • فاطمه گفت:
      2021/05/11 در 1:52 ب.ظ

      سلام
      ممنون از توضیحاتتون . بسیار روان و ساده بود
      موفق باشید

      پاسخ
      • تیم هوسم گفت:
        2021/05/11 در 2:05 ب.ظ

        سلام
        سپاس 🌹🙏

        پاسخ
    • javad1431 گفت:
      2021/04/18 در 11:56 ب.ظ

      با سلام.بسیار سپاسگزارم از زحماتتون. برای تصحیح متن فقط x0=1 است.

      پاسخ
      • تیم هوسم گفت:
        2021/04/19 در 4:07 ب.ظ

        سلام
        بله، درست می‌فرمایید. اصلاح می‌کنیم.
        ممنون از شما 🌹🙏

        پاسخ
      • سیما گفت:
        2024/02/25 در 12:28 ب.ظ

        بسیااااار عاالی چقدر ساده و قابل فهم واقعااا ممنون و سپاسگزارم

        پاسخ
    • عاطفه گفت:
      2021/03/23 در 2:07 ب.ظ

      سلام ، ممنون از شما عالی بود و البته مختصر و پاینده باشید

      پاسخ
      • تیم هوسم گفت:
        2021/03/23 در 2:33 ب.ظ

        سلام
        سپاس 🌹🙏

        پاسخ
    • فاطمه گفت:
      2021/01/08 در 1:32 ق.ظ

      خیلی خوب بود ممنون از شما.لطفا اگه میشه توی یه پست جدا در مورد بایاس و واریانس کامل توضیح بدید.ممنون

      پاسخ
      • تیم هوسم گفت:
        2021/01/08 در 9:33 ق.ظ

        سلام
        سپاس 🌹🙏
        موضوع مهمی هست و لازمه که یک پست جدا براش بنویسیم.
        ممنون بابت این پیشنهاد خوب 🙏

        پاسخ
    • نسیم نوری گفت:
      2020/10/01 در 9:02 ق.ظ

      بسیار ممنونم برای توضیحات کاملی که بصورت ساده و بدون تکلف بیان شده بود

      پاسخ
      • تیم هوسم گفت:
        2020/10/01 در 9:43 ق.ظ

        سلام
        سپاس 🌹

        پاسخ

    دیدگاهتان را بنویسید لغو پاسخ

    جستجو برای:
    فهرست مطالب دوره
    • معرفی دوره یادگیری عمیق رایگان
    • جلسه 00: یادگیری عمیق چیست
    • جلسه 01: ساختار نورون مصنوعی
    • جلسه 02: یادگیری نورون مصنوعی
    • جلسه 03: شبکه عصبی mlp
    • جلسه 04: دسته بندی با mlp و تنسورفلو
    • جلسه 05: رگرسیون با mlp و تنسورفلو
    • جلسه 06: شبکه عصبی کانولوشنی (CNN)
    • جلسه 07: شبکه عصبی بازگشتی (RNN)
    • جلسه 08: شبکه عصبی LSTM
    • جلسه 09: شبکه GRU
    • جلسه 10: شبکه ترنسفورمر
    • جلسه 11: شبکه ویژن ترنسفورمر
    • جلسه 12: شبکه عصبی GAN
    • جلسه 13: شبکه اتوانکدر
    دوره‌های جامع هوسم
    • مسابقه Kaggle: تحلیل و پیش‌بینی رفتار با داده‌های چندحسگری سری زمانی
    • پیاده‌سازی ChatGPT از صفر با پایتورچ
    • آموزش OpenCV: از پردازش تا بینایی
    • دیپ کاتالیست: دوره افزایش مهارت
    • پایتون برای هوش مصنوعی 🤖
    • یادگیری ماشین جامع: از مفاهیم تا پیاده‌سازی🔥
    • یادگیری عمیق جامع: از مفاهیم تا پیاده‌سازی
    درباره هوسم

    آکادمی هوش مصنوعی هوسم با آموزش‌های تخصصی در حوزه هوش مصنوعی در خدمت شماست. روی کمک هوسم حساب کنید…

    • گیلان- شهرستان رودسر- شهرک انصاری- کوچه لاله 9
    • 09025469248
    • howsam.mail@gmail.com
    دسترسی سریع
    • صفحه اصلی
    • وبلاگ
    • حساب کاربری
    • سبد خرید
    شبکه‌های اجتماعی

     

    logo-samandehi
    تمامی حقوق برای آکادمی هوسم محفوظ است.
      کد تخفیف شما هست و فقط
      فرصت داری ازش استفاده کنی!
      کد تخفیف شما هست و فقط
      فرصت داری ازش استفاده کنی!
      کد تخفیف شما هست و فقط
      فرصت داری ازش استفاده کنی!
      کد تخفیف شما هست و فقط
      فرصت داری ازش استفاده کنی!
      کد تخفیف شما هست و فقط
      فرصت داری ازش استفاده کنی!

      ورود

      رمز عبور را فراموش کرده اید؟

      هنوز عضو نشده اید؟ عضویت در سایت