=مقدار خروجی به دست آمده
= نرخ یادگیری (پارامتر تنظیم سرعت یادگیری شبکه می باشد )
= وزن مربوطه
= ورودی به نرون وخروجی از نرون
اثبات این قانون از روش تندترین فرود می باشد که بیان می کند با حرکتهای پی در پی خلاف جهت بردار گردایان خطا میتوان به نقطه حداقل خطا رسید . این ادعا را نیز میتوان با استفاده از بسط تیلور تایید کرد (هیکین،۱۹۹۹). در این شیوه وزنها به وسیله یک مقدار با مشتق (گرادیان) اول خطای بین خروجی مطلوب و خروجی واقعی و با توجه به مقدار وزنها تعدیل مییابد. در این روش هدف کاهش تابع خطا و رسیدن به حداقل مطلق است .
(۳-۶)
(۳-۷)
(۳-۸)
(۳-۹)
= ورودی به نرون وخروجی از نرون در لایه ماقبل آخر
= بردار گردایان محلی در لایه آخر
فرایند یادگیری و محاسبات در نرون ها و لایه های پنهان، با استفاده از معادلهی ورودی-خروجی زیر صورت می گیرد:
(۳-۱۰)
جائیکه وزن ارتباطی بین نرون iام در لایهی (۱-k) و نرون pام در لایهی kام؛ خروجی نرون pام در لایهی kام و تابع فعال سازی سیگموئید نرون pام در لایهی kام است.
همچنین تابع فعال سازی سیگموئید به صورت زیر است:
(۳-۱۱)
همانطور که پیشتر بیان شد، به منظور آموزش شبکهی MLP، و دستیابی به پیش بینی مطلوب، باید شبکه را تحت پارامترهای مختلف که همان ویژگی های شبکه است مورد آموزش و یادگیری قرار داد. به عبارت دیگر با تغییر دادن این پارامترها، شبکه وزنهای خروجی متفاوتی خواهد داد که در نهایت وزنی که کمترین خطا را منجر شود، به عنوان وزن نهایی و پارامترهایی که موجب دستیابی به این وزن شدند به عنوان پارامترها و مشخصههای شبکه معرفی میشوند. این پارامترها به صورت زیر است:
۳-۵-۳-۱٫ تعداد لایهها ی شبکه
استفاده از یک شبکه تک لایه نمیتواند نتایج خوبی در حل مسائل پیچیده غیرخطی ارایه کند (زیرا تابع فعال سازی آن خطی می باشد). در واقع تمام شبکههای عصبی با بیش از یک لایه، در بخشی از کار خود از توابع غیرخطی فعالساز استفاده میکنند. استفاده از توابع غیرخطی فعالساز باعث میشود که توانایی شبکههای عصبی در مدل کردن مسائل غیرخطی بروز نماید و جوابهای مطلوبی در خروجی به ما بدهند. این ویژگی با یک تابع فعالسازی غیرخطی مشتقپذیر و پیوسته اتفاق میافتد. بنابراین برای یک پیشبینی دقیق بایستی از شبکههای عصبی با بیش از یک لایه استفاده شود، که در لایههای میانی آن توابع غیرخطی وجود داشته باشد. البته باید توجه کرد که افزایش بیش از حد لایههای شبکههای عصبی (بیش از ۳ لایه) نیز اصلاً توصیه نمیشود. در این بررسی از یک لایه پنهان استفاده شده است.
۳-۵-۳-۲٫ تعداد نرون های هرلایه
مسئله بعدی تعیین تعداد نرونهای لایههای میانی و خروجی است. تعداد نرونهای لایه ورودی برابر با تعداد متغیرهای مستقل است که در این بررسی همان متغیرهای مدل ریس و همکاران است. اگر هدف از استفاده از شبکههای عصبی پیشبینی باشد، در لایه خروجی بایستی یک نرون داشته باشیم. اما اگر به منظور طبقهبندی یا شناسایی الگو از شبکههای عصبی استفاده شود، میتوان در لایه خروجی از چند نرون استفاده کرد. در تعیین تعداد نرونهای لایه میانی نیز روش های متعددی ارائه شده است که هیچ کدام از آنها عموما کلیت ندارد. اما بهترین روش برای تعیین تعداد نرونها، روش آزمون و خطا میباشد. با افزایش تعداد نرونهای لایه پنهان از یک مقدار کوچک به مقادیر بزرگ، ابتدا مجموع خطا کاهش مییابد اما پس از رسیدن مقدار نرونها به اندازه معین این خطا دوباره افزایش مییابد. بدین روش میتوان بهترین اندازه شبکه را انتخاب نمود. در واقع با هر بار تعیین گره میزان خطای شبکه مشخص میشود که با مقایسه این خطاها بهترین تعداد نرون را میتوان انتخاب کرد.
۳-۵-۳-۳٫ نرخ یادگیری
نرخ یادگیری یکی از پارامترهای تعیینکننده در سرعت یادگیری شبکههای عصبی است و در کارائی یادگیری شبکه نقش مؤثری دارد. این نرخ در فاصله بین ۰ و ۱ اختیار میشود. عموماً نرخ یادگیری شبکههای عصبی به صورت تصادفی و آزمون و خطا بدست میآید.اما در اکثر کاربردهای عملی، این نرخ بین ۱/۰ و ۳/۰ اختیار میشود. نرخ یادگیری بالاتر باعث میشود شبکه سریعتر یادگیری کند اما وقتی که تنوع دادههای ورودی زیاد باشد، شبکه به جای یادگیری حفظ خواهد کرد و کارائی شبکه پائین خواهد آمد. در این بررسی این نرخ ۲۵/۰ اختیار شد.
۳-۵-۳-۴٫ تعداد تکرار
الگوریتم یادگیری وزنهای خروجی را پس از محاسبه هر دسته خروجی تغییر میدهد و به اصطلاح به روز میکند. این الگوریتم به تکرار فرایند آموزش برای رسیدن به اوزان نیاز دارد. تعداد تکرار هر فرایند آموزش نیز از طریق آزمون و خطا بدست میآید. نقطهی بهینه تعداد تکرار، نقطهای است که شبکه بهترین یادگیری را داشته باشد. یا بعبارتی کمترین خطای پیش بینی را داشته باشد.
۳-۵-۳-۵٫ شتاب[۲۰] شبکه
پارامتر شتاب برای افزایش سرعت همگرایی شبکه استفاده میشود. به هر حال، اگر شتاب شبکه بیش از حد زیاد انتخاب شود، میتواند خطر دور شدن از هدف را افزایش دهد که میتواند باعث ناپایداری و عدم ثبات شبکه گردد. معمولاً ضریب شتاب پایین عملکرد بهتری در آموزش بهینه شبکه از خود نشان میدهد. در این بررسی شتاب ۱۵/۰ استفاده شد.
۳-۵-۳-۶٫ معیارهای ارزیابی عملکرد
در این تحقیق به بررسی شناسایی مدیریت سود با استفاده از شبکه عصبی درک چند لایه(MLP) در شرکتهای پذیرفته شده در بورس اوراق بهادار تهران پرداختیم. از این رو به منظور بررسی عملکرد این مدل، از برخی معیارهای ارزیابی عملکرد برای نشان دادن چگونگی یادگیری ارتباطهای دادهها در شبکههای عصبی استفاده شده است. برای مسائل پیش بینی، این معیارها بطور عمده مربوط به خطای بین خروجی پیش بینی شده و خروجی مطلوب واقعی(که البته در اینجا با توجه به دادههای آموزشی تعهدات کل میباشد) است. در تحقیق حاضر از معیار میانگین مربع خطا([۲۱]MSE) و ضریب تعیین(R2) در مرحله آموزش شبکه استفاده شده است.
Mean Squared Error (MSE)
معادله (۳-۱۲)
معادله (۳-۱۳)
معیار MSE مربوط به میانگین خطای استاندارد است و هر چه مقدار آنها کمتر باشد به این معنا است که شبکه، پیشبینی را با خطای کمتری انجام داده است در نتیجه کارائی مدل بیشتر خواهد بود. معیار ضریب تعیین(R2) همبستگی بین داده های واقعی و پیش بینی شده را بررسی می کند. مقدار R2 بین صفر و یک است و مقدار یک بیان کننده تطابق کامل داده هاست، در نتیجه هر چه مقدار R2 به یک نزدیکتر باشد، مطلوبتر خواهد بود.
۳-۶٫اندازه گیری تعهدات کل
برای دانلود متن کامل پایان نامه به سایت ۴۰y.ir مراجعه نمایید. |