پایان نامه های ارشد سری شانزدهم

بررسی مقایسه‌ ای عملکرد مدل شبکه عصبی با مدل‌ های رگرسیونی خطی …

=مقدار خروجی به دست آمده
= نرخ یادگیری (پارامتر تنظیم سرعت یادگیری شبکه می باشد )‌
= وزن مربوطه
 
 = ورودی به نرون  وخروجی از نرون
اثبات این قانون از روش تندترین فرود می باشد که بیان می کند با حرکت‌های پی در پی خلاف جهت بردار گردایان خطا می‌توان به نقطه حداقل خطا رسید . این ادعا را نیز می‌توان با استفاده از بسط تیلور تایید کرد (هیکین،۱۹۹۹). در این شیوه وزنها به وسیله یک مقدار با مشتق (گرادیان) اول خطای بین خروجی مطلوب و خروجی واقعی و با توجه به مقدار وزن‌ها تعدیل می‌یابد. در این روش هدف کاهش تابع خطا و رسیدن به حداقل مطلق است .
(۳-۶)
 
(۳-۷)
(۳-۸)
(۳-۹)
ورودی به نرون  وخروجی از نرون  در لایه ماقبل آخر
 
بردار گردایان محلی در لایه آخر
 
فرایند یادگیری و محاسبات در نرون ها و لایه های پنهان، با استفاده از معادلهی ورودی-خروجی زیر صورت می گیرد:
 
(۳-۱۰)
 
جائیکه  وزن ارتباطی بین نرون iام در لایهی (۱-k) و نرون pام در لایهی kام؛  خروجی نرون pام در لایهی kام و  تابع فعال سازی سیگموئید نرون pام در لایهی kام است.
همچنین تابع فعال سازی سیگموئید به صورت زیر است:
 
(۳-۱۱)
همانطور که پیشتر بیان شد، به منظور آموزش شبکهی MLP، و دستیابی به پیش بینی مطلوب، باید شبکه را تحت پارامترهای مختلف که همان ویژگی های شبکه است مورد آموزش و یادگیری قرار داد. به عبارت دیگر با تغییر دادن این پارامترها، شبکه وزن‌های خروجی متفاوتی خواهد داد که در نهایت وزنی که کمترین خطا را منجر شود، به عنوان وزن نهایی و پارامترهایی که موجب دستیابی به این وزن شدند به عنوان پارامترها و مشخصه‌های شبکه معرفی می‌شوند. این پارامترها به صورت زیر است:
۳-۵-۳-۱٫ تعداد لایه‌ها ی شبکه
استفاده از یک شبکه تک لایه نمی‌تواند نتایج خوبی در حل مسائل پیچیده غیرخطی ارایه کند (زیرا تابع فعال سازی آن خطی می باشد). در واقع تمام شبکه‌های عصبی با بیش از یک لایه، در بخشی از کار خود از توابع غیرخطی فعال‌ساز استفاده می‌کنند. استفاده از توابع غیرخطی فعال‌ساز باعث می‌شود که توانایی شبکه‌های عصبی در مدل کردن مسائل غیرخطی بروز نماید و جواب‌های مطلوبی در خروجی به ما بدهند. این ویژگی با یک تابع فعال‌سازی غیرخطی مشتق‌پذیر و پیوسته اتفاق می‌افتد. بنابراین برای یک پیش‌بینی دقیق بایستی از شبکه‌های عصبی با بیش از یک لایه استفاده شود، که در لایه‌های میانی آن توابع غیرخطی وجود داشته باشد. البته باید توجه کرد که افزایش بیش از حد لایه‌های شبکه‌های عصبی (بیش از ۳ لایه) نیز اصلاً توصیه نمی‌شود. در این بررسی از یک لایه پنهان استفاده شده است.
۳-۵-۳-۲٫ تعداد نرون های هرلایه
مسئله بعدی تعیین تعداد نرون‌های لایه‌های میانی و خروجی است. تعداد نرون‌های لایه ورودی برابر با تعداد متغیرهای مستقل است که در این بررسی همان متغیرهای مدل ریس و همکاران است. اگر هدف از استفاده از شبکه‌های عصبی پیش‌بینی باشد، در لایه خروجی بایستی یک نرون داشته باشیم. اما اگر به منظور طبقه‌بندی یا شناسایی الگو از شبکه‌های عصبی استفاده شود، می‌توان در لایه خروجی از چند نرون استفاده کرد. در تعیین تعداد نرون‌های لایه میانی نیز روش های متعددی ارائه شده است که هیچ کدام از آنها عموما کلیت ندارد. اما بهترین روش برای تعیین تعداد نرون‌ها، روش آزمون و خطا می‌باشد. با افزایش تعداد نرون‌های لایه پنهان از یک مقدار کوچک به مقادیر بزرگ، ابتدا مجموع خطا کاهش می‌یابد اما پس از رسیدن مقدار نرون‌ها به اندازه معین این خطا دوباره افزایش می‌یابد. بدین روش می‌توان بهترین اندازه شبکه را انتخاب نمود. در واقع با هر بار تعیین گره میزان خطای شبکه مشخص می‌شود که با مقایسه این خطاها بهترین تعداد نرون را می‌توان انتخاب کرد.
۳-۵-۳-۳٫ نرخ یادگیری
نرخ یادگیری یکی از پارامترهای تعیین‌کننده در سرعت یادگیری شبکه‌های عصبی است و در کارائی یادگیری شبکه نقش مؤثری دارد. این نرخ در فاصله بین ۰ و ۱ اختیار می‌شود. عموماً نرخ یادگیری شبکه‌های عصبی به صورت تصادفی و آزمون و خطا بدست می‌آید.اما در اکثر کاربردهای عملی، این نرخ بین ۱/۰ و ۳/۰ اختیار می‌شود. نرخ یادگیری بالاتر باعث می‌شود شبکه سریعتر یادگیری کند اما وقتی که تنوع داده‌های ورودی زیاد باشد، شبکه به جای یادگیری حفظ خواهد کرد و کارائی شبکه پائین خواهد آمد. در این بررسی این نرخ ۲۵/۰ اختیار شد.
۳-۵-۳-۴٫ تعداد تکرار
الگوریتم یادگیری وزن‌های خروجی را پس از محاسبه هر دسته خروجی تغییر می‌دهد و به اصطلاح به روز می‌کند. این الگوریتم به تکرار فرایند آموزش برای رسیدن به اوزان نیاز دارد. تعداد تکرار هر فرایند آموزش نیز از طریق آزمون و خطا بدست می‌آید. نقطهی بهینه تعداد تکرار، نقطه‌ای است که شبکه بهترین یادگیری را داشته باشد. یا بعبارتی کمترین خطای پیش بینی را داشته باشد.
۳-۵-۳-۵٫ شتاب[۲۰] شبکه
پارامتر شتاب برای افزایش سرعت همگرایی شبکه استفاده می‌شود. به هر حال، اگر شتاب شبکه بیش از حد زیاد انتخاب شود، می‌تواند خطر دور شدن از هدف را افزایش دهد که می‌تواند باعث ناپایداری و عدم ثبات شبکه گردد. معمولاً ضریب شتاب پایین عملکرد بهتری در آموزش بهینه شبکه از خود نشان می‌دهد. در این بررسی شتاب ۱۵/۰ استفاده شد.
۳-۵-۳-۶٫ معیارهای ارزیابی عملکرد
در این تحقیق به بررسی شناسایی مدیریت سود با استفاده از شبکه عصبی درک چند لایه(MLP) در شرکت‌های پذیرفته شده در بورس اوراق بهادار تهران پرداختیم. از این رو به منظور بررسی عملکرد این مدل‌، از برخی معیارهای ارزیابی عملکرد برای نشان دادن چگونگی یادگیری ارتباط‌های داده‌ها در شبکه‌های عصبی استفاده شده است. برای مسائل پیش بینی، این معیارها بطور عمده مربوط به خطای بین خروجی پیش بینی شده و خروجی مطلوب واقعی(که البته در اینجا با توجه به داده‌های آموزشی تعهدات کل می‌باشد) است. در تحقیق حاضر از معیار میانگین مربع خطا([۲۱]MSE) و ضریب تعیین(R2) در مرحله آموزش شبکه استفاده شده است.
Mean Squared Error (MSE)
معادله (۳-۱۲)
 
معادله (۳-۱۳)
معیار MSE مربوط به میانگین خطای استاندارد است و هر چه مقدار آنها کمتر باشد به این معنا است که شبکه، پیش‌بینی را با خطای کمتری انجام داده است در نتیجه کارائی مدل بیشتر خواهد بود. معیار ضریب تعیین(R2) همبستگی بین داده های واقعی و پیش بینی شده را بررسی می کند. مقدار R2 بین صفر و یک است و مقدار یک بیان کننده تطابق کامل داده هاست، در نتیجه هر چه مقدار R2 به یک نزدیک‌تر باشد، مطلوب‌تر خواهد بود.
۳-۶٫اندازه گیری تعهدات کل

برای دانلود متن کامل پایان نامه به سایت  ۴۰y.ir  مراجعه نمایید.

You may also like...