ویژگی های فیزیکی ای که در تقطیر بنزین موتور بایتس مورد اندازه …

پایان نامه های سری بیستم
ماکزیمم

۱۹۶

۱۶۰

۱۱۲

۷۵

۴۶

۸۷٫۴

۴-۷٫ نرمالیزه کردن اطلاعات ورودی
در مرحلهی بعدی باید دادهها را برای ورود به شبکه و انجام فرآیند آموزش آماده نمود. در واقع باید ورودی و خروجی شبکه را نرمال نمود تا همگی دارای اندازهگیری یکسانی گردند. به عبارت دیگر میتوان گفت که نرمالسازی از مراحل موثر در انجام مدلسازی با شبکه عصبی میباشد. اگر اطلاعات ورودی و خروجی دارای یک اندازه بزرگی نباشند برخی متغیرها ممکن است اهمیت بسیار بیشتری از آنچه که دارند از خود نشان دهند. بنابراین الگوریتم آموزش مجبور میگردد تا تفاوت اندازه بزرگی را با استفاده از تنظیم وزنهای شبکه جبران نماید که در اکثر الگوریتمهای آموزش چندان مؤثر نیست.
به عنوان مثال اگر متغیر ورودی اول دارای مقدار ۱ و متغیر ورودی دوم مقدار ۱۰۰۰ داشته باشد وزن مربوط به متغیر اول هنگام ورود به نرون لایه اول باید بزرگتر از وزن مربوط به متغیر دوم باشد. همچنین برخی از تابع تبدیلها مانند توابع سیگموئیدی، تانژانت هیپربولیک نمیتوانند تفاوت بین دو مقدار را در صورتیکه هر دو دارای مقدار زیاد باشند تشخیص دهند. زیرا حد بالای خروجی این توابع ۱ میباشد. برای اجتناب از این گونه مسائل بهتر است متغیرهای ورودی و خروجی نرمال گردند.
روش اول: نرمالسازی بهصورتیکه هر متغیر بین ۰ و ۱ قرار گیرد. متغیرهای نرمال شده از طریق رابطهی زیر محاسبه میگردند. در رابطه زیر xi,max بیشترین مقدار هر متغیر و xi,norm مقدار نرمال شده میباشد.
(۴-۲)
به عنوان مثال فرض نماییم یک متغیر xi دارای توزیع نرمال بین ۵۰۰ تا ۹۰۰ و ضریب نرمالسازی ۱۰۰۰ باشد. با استفاده از رابطهی بالا یک توزیع نرمال بین ۵/۰ تا ۹/۰ ایجاد میگردد. این روش تنها برای شبکههای ساده پیشنهاد میگردد و با پیچیدهتر شدن ساختار شبکه این روش دچار مشکل میگردد.
روش دومدر این روش متغیر نرمال شده با استفاده از ماکزیمم و مینیمم دادههای اصلی بین ۰ و ۱ قرار میگیرد. برای تعیین متغیر نرمال شده رابطه زیر مورد استفاده میگیرد.Xi,min کمترین مقدار متغیر مورد نظر میباشد. در این روش با استفاده از کل محدودهی تابع انتقال نسبت به روش اول اصلاحاتی انجام گرفته است.
در نتیجه:
(۴-۲)
در این روش تمام متغیرهای ورودی در مجموعه دادهها، محدوده توزیع یکسانی خواهد داشت که این امر باعث بهبود بازده آموزش میگردد.
روش سوم :در این روش مجموعه اطلاعات در محدوده ۱ – تا ۱ و با مقدار میانگین صفر نرمال میگردند. این روش، روش نرمال سازی متوسط – صفر[۸۴] نامیده می شود. رابطه مورد نظر برای نرمالسازی داده ها با استفاده از این روش به صورت زیر می باشد. Xi avg میانگین هر متغیر را بیان می نماید.
(۴-۳)
که :

(۴-۴)

همانند روش دوم این روش نیز از تمامی محدودهی تابع انتقال استفاده مینماید و هر متغیر ورودی هم دارای محدودهی توزیع یکسانی است. این روش باعث میگردد فاکتورهای وزنی توزیع استانداردی داشته باشند. همچنین این روش به مقادیر نرمال شده معنی و مفهوم میبخشد. صفر بیان کنندهی حالت نرمال متوسط ، ۱- مقادیر بسیار کوچک متغیرها و ۱ مربوط به بزرگترین مقادیر مجموعه میباشد. علاوه بر این با تنظیم کردن تمام حالتهای نرمال متغیرها به صفر ، شبکه یک ساختار استاندارد خواهد داشت که فرآیند آموزش را بسیار مؤثرتر میکند. با این روش تمام شبکهها باید بهطور معمول برای یکسری از مقادیر متغیرهای نرمال، خروجی صفر را پیشبینی نمایند. بنابراین شبکه در واقع تنها انحرافهای متغیرهای خروجی را به دلیل انحرافات مختلف متغیرهای ورودی پیش بینی مینماید. در این مطالعه از این روش نرمال سازی استفاده شده است [۳۰].
۴-۸٫ مدلسازی به روش شبکههای عصبی مصنوعی
در محاسبات شبکهی عصبی پارامترهای مختلفی وجود دارند که تعیین بهینهی آن ها در کارایی شبکه تأثیرگذار میباشد. این پارامترها باید با دقت زیادی تنظیم گردند.
۴-۸-۱٫ انتخاب الگوریتم آموزشی مناسب
الگوریتمهای متفاوتی در فصل سوم برای آموزش شبکهی عصبی ارائه شدند که هرکدام از آنها دارای نکات ضعف و قوت هستند. در کل میتوان گفت برای شبکههای متوسط که تا چند صد وزن و بایاس دارند الگوریتم لونبرگ- مارکوارت همگرایی سریعتری را ایجاد مینماید. این مزیت زمانی قابل توجه میگردد که آموزش خیلی دقیق نیاز میباشد. در بسیاری از حالتها الگوریتم لونبرگ- مارکوارت قادر است به کمترین مربع میانگین خطا در میان سایر الگوریتمها دست یابد. اگر چه با افزایش تعداد نرونها در شبکه مزیت الگوریتم مذکور کاهش مییابد. در مجموع عملکرد الگوریتم لونبرک- مارکوارت در مسائل تشخیص الگو بسیار ضعیف میباشد. الگوریتم تطبیقی پس انتشار سریعترین الگوریتم در مسائل تشخیص الگو میباشد؛ اگرچه در مسائل تقریب تابع به خوبی عمل نمینماید. عملکرد این الگوریتم در مقایسه با الگوریتم تطبیقی پس انتشار با کاهش خطار کاهش مییابد. الگوریتم گرادیان مرکب نسبت به سایر الگوریتمها به حافظه کمتری نیاز دارد. الگوریتم شبهنیوتنی نیز مشابه الگوریتم لونبرک- مارکوارت بوده، اما نسبت به آن حافظه بیشتری دارد. روش الگوریتم یادگیری متغیر نسبت به دیگر روشها ک

این مطلب را هم بخوانید :  سامانه پژوهشی - ویژگی های فیزیکی ای که در تقطیر بنزین موتور بایتس مورد اندازه گیری- ...

برای دانلود فایل متن کامل پایان نامه به سایت ۴۰y.ir مراجعه نمایید.

ندتر، اما حافظه مورد نظر در آن مشابه الگوریتم تطبیقی پسانتشار بوده، اما برای برخی مسائل مناسب میباشد. در واقع موقعیتهایی وجود دارد که بهتر است بسیار آرام همگرا گردند [۲۷]. با توجه به توضیحات ارائه شده، الگوریتم لونبرگ- مارکوات جهت استفاده در این مطالعه مناسب به نظر میرسد.
۴-۸-۲٫ انتخاب تعداد لایههای پنهان
تعیین تعداد لایههای پنهان و تعداد گرههای هر لایه یکی از مهمترین مراحل طراحی یک شبکهی عصبی میباشد که بیشک به پیچیدگی شبکه و کاربرد آن بستگی دارد. برای تعیین بهینهی تعداد لایهها و گرهها، انتخاب ساختارهای مختلف و آموزش آنها مبنا میباشد. سپس بهترین ساختاری که با تعداد لایهها و گرههای کمتر زودتر به مینیمم مقدار خطای مورد نظر رسیده باشد انتخاب میگردد.Baugham و Liu در سال ۱۹۹۵ بیان کردند که افزودن دومین لایهی پنهان بدون اینکه تأثیر زیانآوری در کاهش عمومیت بخشی دادهها مربوط به آزمایش داشته باشد توانایی پیشبینی شبکه را در پیشبینی نسبت به شبکه با دولایه چندان تغییر نمیدهد فقط به دلیل ایجاد ساختار پیچیده، زمان لازم برای همگرایی افزایش مییابد[۳۰].
در این مطالعه در ابتدا شبکههای مختلف با یک لایه و سپس با دو لایه میانی بررسی و خطای آنها لحاظ گردیدند.
۴-۸-۳٫ انتخاب تعداد نرون ها در لایه میانی
یکی از مهمترین مراحل در مدلسازی با استفاده از شبکهی عصبی تعیین تعداد بهینهی نرونها میباشد. تعیین تعداد بهینهی نرونها در شبکه از جمله کارهای مهم میباشد. قاعده های سرانگشتی حهت تعیین نقطه شروع وحود دارند. اولین پیشنهاد به این صورت می باشد که در صورت تعیین لایه پنهان تعداد نرون ها می تواند ۷۵ درصد تعداد ورودی ها انتخاب گردد. در دومین پیشنهاد تعداد نرون های لایه میانی دو برابر ریشه دوم مجموع تعداد ورودی ها و خروجی ها انتخاب می گردد. در کل می توان گفت هر چه پیچیدگی مساله بیشتر باشد تعداد نرون های بیشتری نیاز می باشد. البته باید متناسب با تعداد کل نرونها، داده جهت آموزش شبکه وجود داشته باشد تا شبکه بهخوبی آموزش یابد [۲۷].