تحقیق دانشگاهی – ویژگی های فیزیکی ای که در تقطیر بنزین موتور بایتس مورد اندازه …

پایان نامه های سری بیستم

شبکههای عصبی توسط دو نوع اصلی از الگوریتمهای یادگیری تربیت می شوند. الگوریتم یادگیری با ناظر و بدون ناظر.
۳-۸-۱٫ الگوریتم یادگیری با ناظر
در یک الگوریتم یادگیری با ناظر، وزنههای اتصالات مطابق با اختلاف بین خروجی واقعی و مطلوب شبکه مربوط با یک ورودی داده شده، تعدیل میگردند. بنابراین یادگیری با ناظر نیاز به یک معلم یا سرپرست دارد تا سیگنالهای خروجی را فراهم نماید. الگوریتم پس انتشار خطا جزء این دسته از الگوریتمهای یادگیری میباشد[۲۳].
۳-۸-۲٫ الگوریتم یادگیری بدون ناظر
در الگوریتم یادگیری بدون ناظر نیازی به شناخته شدن خروجیهای مطلوب نیست. در طول آموزش فقط الگوریتمهای ورودی به شبکه عصبی ارائه می شوند تا بهصورت خودکار وزنههای اتصالاتش برای دستهبندی الگوهای ورودی در گروههای با وجود مشابه سازگار شوند [۲۳].
۳-۹٫ الگوریتم پس انتشار خطا
روش یادگیری پس انتشار خطا (BP) مبتنی بر قانون یادگیری اصلاح خطا[۷۳] میباشد. از قانون یادگیری پس انتشار خطا برای آموزش شبکههای عصبی چند لایه پیش خور استفاده میکنند. قانون پسانتشار خطا از دو مسیر اصلی تشکیل میگردد مسیر اول به مسیر رفت[۷۴] موسوم میباشد که در آن بردار ورودی به شبکه MLP اعمال شده و تأثیراتش از طریق لایههای میانی به لایهی خروجی انتشار مییابد. بردار تشکیل یافته در لایهی خروجی، پاسخ واقعی شبکه MLP را تشکیل میدهد. در این مسیر پارامترهای شبکه عصبی ثابت و بدون تغییر در نظر گرفته میشوند. مسیر دوم به مسیر برگشت موسوم میباشد. در این مسیر بر عکس مسیر رفت، پارامترهای شبکه تنظیم میگردند. این تنظیم مطابق قانون اصلاح خطا انجام میگیرد. سیگنال خطا در لایهی خروجی شبکه تشکیل می گردد[۲۳].
۳-۱۰٫ الگوریتمهای آموزش شبکه عصبی
در این قسمت تعدادی از الگوریتمهای متفاوت برای شبکه پیشخور بیان میگردد. در تمام این الگوریتمها از گرادیان تابع عملکرد برای تنظیم وزنها و بایاسها جهت مینیمم کردن تابع عملکرد استفاده میگردد [۲۳].
۳-۱۰-۱٫ روش گرادیان نزولی
در این روش وزنها در جهت گرادیان منفی تابع عملکرد به روز میگردند.در این الگوریتم تغییر وزن wjiΔ بین نرونهای i و j به صورت زیر است:
(۳-۹)
طوریکه یک پارامتر به نام سرعت یادگیری است. یک فاکتور وابسته به اینکه آیا نرون j یک نرون خروجی است یا یک نرون مخفی به صورت زیر میباشد:
برای نرونهای خارجی:
(۳-۱۰)
برای نرون های مخفی:
(۳-۱۱)
در معادله (۳-۱۰) جمع وزن دار شده کل سیگنال های ورودی و yj (t) خروجی هدف برای نرون j میباشد. همانطور که هیچ خروجی هدف برای نرونهای مخفی وجود ندارد. در معادله (۳-۱۱) اختلاف بین خروجی واقعی و هدف یک نرون مخفی j توسط مجموع وزندار شده ترمهای از پیش محاسبه شده برای نرونهای q متصل شده به خروجی j جایگزین میگردد.برای تعیین وزنها و بایاسها سرعت یادگیری به گرادیان منفی ضرب میگردد. هر چه سرعت یادگیری بزرگتر باشد قدمهای به کار رفته بزرگتر و زمان زیادی برای همگرا شدن نیاز خواهد بود و در صورتیکه سرعت یادگیری خیلی کوچک باشد الگوریتم ناپایدار میگردد [۲۷].
۳-۱۰-۲٫ گرادیان نزولی با مومنتم
الگوریتم یادگیری دیگری که اغلب برای شبکه پیش خور استفاده می گردد الگوریتم گرادیان نزولی با مومنتم میباشد که همگرایی سریعتری را تضمین مینماید. ترم مومنتم این امکان را به شبکه میدهد که فقط به گرادیانهای محلی پاسخگو نبوده بلکه نسبت به تمایلات اخیر سطح خطا نیز عکسالعمل نشان دهد. در واقع ترم مومنتم مثل یک فیلتر عمل نموده و به شبکه این امکان را میدهد که از نقاط کوچک در سطح خطا چشمپوشی نماید. بدون ترم مومنتم شبکه ممکن است در گرادیانهای محلی گیر نماید اما با استفاده از ترم مومنتم از این نقاط عبور مینماید. الگوریتم یادگیری شبکه با تغییر دادن وزنها معادل با مجموع اجزایی از آخرین تغییرات وزنها صورت میگیرد و تغییرات جدید با استفاده از قوانین پسانتشار خطا پیشنهاد میگردد. در واقع مرتبه تأثیر آخرین تغییرات وزنها با استفاده از ثابت مومنتم تعدیل میگردد. ثابت مومنتم عددی بین ۰ و ۱ میباشد. وقتی این ثابت صفر میباشد تغییرات وزنها فقط بر مبنای گرادیان محاسبه میگردد و در صورتیکه ترم مومنتم یک باشد تغییرات مربوط به وزنهای جدید معادل با آخرین تغییر وزن میباشد و از گرادیان چشمپوشی میشود. گرادیان نیز با استفاده از مجموع گرادیانهای محاسبه شده برای هر مثال آموزشی بهدست میآید ولی وزنها و بایاسها بعد از اینکه تمام مثالهای آموزشی به شبکه تزریق شد بهروز میگردند. انتخاب تصادفی وزنها و بایاسهای اولیه روی عملکرد الگوریتم تأثیر میگذارد [۲۷].
۳-۱۰-۳٫ الگوریتم یادگیری سریعتر
در بخش قبلی دو نوع از الگوریتمهای آموزش پسانتشار خطا بیان گردیدند. گرادیان نزولی و گرادیان نزولی با مومنتم. این دو روش برای مسائل عملی کند میباشند. در این بخش چندین الگوریتم دیگر که نسبت به الگوریتمهای بیان شده ۱۰ تا ۱۰۰ برابر سریعتر همگرا میشوند را بیان می نماییم. تمامی الگوریتمهای بیان شده در این بخش به صورت بسته ای عمل مینمایند[۲۷].
الگوریتمهای سریعتر به دو گروه تقسیم میشوند. اولین گروه از تکنیکهای ابتکاری که با استفاده از آنالیز عملکرد الگوریتم استاندارد شیب نزولی ایجاد میشوند، استفاده مینماید. اول

این مطلب را هم بخوانید :  متن کامل - بررسی عناصر قصه در مثنوی «جمشید و خورشید» سلمان ساوجی- قسمت ۷

برای دانلود متن کامل پایان نامه به سایت  fotka.ir  مراجعه نمایید.

ین اصلاح ابتکاری تکنیک مومنتم میباشد.
الگوریتم پس انتشار با سرعت یادگیری متغیر[۷۵] ۲- الگورتم پس انتشار تطبیقی[۷۶]
دومین گروه از الگوریتمهای سریعتر، از تکنیکهای بهینهسازی استاندارد استفاده مینمایند. سه نوع از روشهای بهینهسازی عددی برای آموزش شبکهی عصبی عبارتند از: گرادیان مرکب[۷۷]، شبه نیوتن[۷۸] و لونبرگ – مارکوات[۷۹].
از آنجا که در این بررسی از الگوریتم لونبرگ – مارکوات استفاده گردیده است، لذا به توضیح مختصر این الگوریتم بسنده می گردد.
الگوریتم لونبرگ – مارکوات
این روش هم مانند روش شبه نیوتن به گونهای طراحی شده است که محاسبه ماتریس هسیان مورد نیاز نمیباشد. هنگامی که تابع عملکرد بهصورت مجموع مربعات خطاها در نظر گرفته شود ماتریس هسیان به صورت زیر تقریب زده می شود.
(۳-۱۲)
و گرادیان هم بهصورت زیر محاسبه می گردد.
(۳-۱۳)
ماتریس ژاکوبین میباشد که حاوی مشتقات اول خطای شبکه نسبت به وزنها و بایاسها J که بردار خطای شبکه ماتریس است. ماتریس ژاکوبین می تواند توسط روش پسانتشار استاندارد e میباشد، محاسبه گردد. محاسبه ماتریس ژاکوبین نسبت به ماتریس هسیان سادهتر می باشد.
الگوریتم لونبرگ – مارکوات از تقریب زیر جهت محاسبه استفاده مینماید.
(۳-۱۴)
هنگامی که اسکالر µ صفر باشد این روش به روش نیوتن تبدیل میگردد و هنگامی که µ بزرگ گردد این روش به روش گرادیان نزولی با طول گامهای کوچک تبدیل میگردد. روش نیوتن در اطراف نقاط خطای مینیموم دقیقتر و سریعتر عمل مینماید. بنابراین هدف، انتقال و رسیدن هرچه به روش نیوتن میباشد. بنابراین مقدار µ بعد از یک گام موفقیتآمیز کاهش می یابد (کاهش تابع عملکرد). این روش سریعترین روش برای آموزش شبکههای پیش خور با اندازه متوسط می باشد.
۳-۱۱- خلاصه فصل
در این فصل شبکههای عصبی مصنوعی، ویژگیها، کاربرد و خصوصیات آن به طور مختصر شرح داده شد. پارامترهای موثر در آموزش، انواع الگوریتمهای آموزش بیان گردید.
فصل چهارم
نتایج
۴-۱- مقدمه
برای پیش بینی عددآرامسوزی بنزین موتور با استفاده از دادههای تقطیر نیاز به انجام آزمایش تقطیر وجود دارد. مشخصات بنزین موتور نهایی مطابق استاندارد شرکت ملی پالایش و پخش فراوردههای نفتی ایران[۸۰]بصورت جدول زیر می باشد .