Normalized Pressure Derivative
ِ
شکل(۳- ۷): نمودارهای مشتق فشار شبیه‌سازی شده‌ی مدل هفت
۰
۵
۱۰
۱۵
۲۰
۲۵
۳۰
۳۵
۴۰

-۰٫۵
۰
۰٫۵
۱
sample
Normalized Pressure Derivative
l
شکل(۳- ۸): نمودارهای مشتق فشار شبیه‌سازی شده‌ی مدل هشت
فصل چهارم
۴- بحث و نتایج
۴-۱- مقدمه
همان طور که گفته شد چاه آزمایی از سال ۱۹۳۷ به‌عنوان ابزاری برای شناخت رفتار واقعی مخزن در قبال تغییرات ایجاد شده‌ی درون چاه، وارد مهندسی نفت شد. در این پژوهش سعی بر تشخیص مدل چاه افقی در مخازن نفتی با بهره گرفتن از شبکه ­های عصبی مصنوعی می­باشد که در نوع خود از آنالیز پیچیده ای برخوردار است و تشخیص مدل آن­ها می ­تواند کمک شایانی به بهره برداری و تشخیص سایر خصوصیات آن­ها نماید. در این فصل به بیان نتایج به دست آمده از این شبکه­ ها پرداخته­ایم. شبکه مورد استفاده ما از نوع پیشرو می­باشد که در فصول قبل به توضیح آن پرداخته شد. در ادامه‌ی این فصل، در ابتدا ساختار بهینه‌ی شبکه‌ی پیشرو تعیین شده‌است. میزان توانایی شبکه‌های مختلف با ساختار بهینه، در شناسایی مدل مخزن از داده‌های دارای نویز مورد بررسی قرا گرفته‌است. دقت شبکه‌ با بهره گرفتن از پارامترهای آماری باهم مقایسه شده‌است.

(( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. ))

۴-۲- ساختار بهینه‌ی شبکه‌ی عصبی پیشرو
شبکه‌های عصبی مصنوعی با یک لایه‌ی مخفی توانایی حل بیشتر مسائل غیرخطی را دارند [۴۶]. در این مطالعه نیز از شبکه عصبی مصنوعی با یک لایه مخفی برای تعیین مدل مخزن از نمودارهای مشتق فشار استفاده شده‌است. تعداد نرون موجود در لایه‌ی خروجی با تعداد مدل‌های مخزن در نظر گرفته‌شده برابر بوده، در حالیکه تعداد نرون لایه‌ی مخفی یک مسئله بهینه‌سازی بوده و به سختی مسئله، پیچیدگی ارتباط بین ورودی‌ و خروجی، تعداد داده‌ی در دسترس برای آموزش شبکه و میزان نویز موجود در داده‌های آموزشی بستگی دارد. تعداد کم آنها ممکن است نتواند شبکه را به خطای مطلوب همگرا کند در حالی‌که مقدار زیاد آن ممکن است منجر به عدم عمومیت یافتن شبکه شود. حداقل داده‌ی لازم برای آموزش شبکه بر اساس یک روش اکتشافی باید ده برابر لینک‌های موجود در شبکه باشد [۴۷].
در شبکه‌های پیشرو، در صورتیکه متوسط خطاهای نسبی و مربع خطاها داده‌های تست، در برابر تعداد نرون‌های لایه مخفی رسم‌شود، ساختاری که حداقل مقدار خطای اندازه‌گیری (متوسط خطاهای نسبی و متوسط مربع خطاها) و مقدار مناسب ضریب رگرسیون را ارائه‌دهد به عنوان ساختار بهینه انتخاب می‌شود[۴۸].
متوسط خطاهای نسبی و متوسط مربع خطاها به‌ترتیب از طریق معادلات (۴-۱) و (۴-۲) قابل محاسبه‌اند.
(۴-۱)
(۴-۲)
در رابطه‌های بالا n تعداد داده‌ی تست‌، OutReal و Outnet به‌ترتیب خروجی واقعی و خروجی شبکه عصبی پیشرو می‌باشند.
در پروژه‌ی حاضر نیز، تعداد نرون‌های لایه‌ی مخفی از طریق آنالیز حساسیت مذکور ( رسم‌کردن متوسط خطاهای نسبی و مربع خطاها در برابر تعداد نرون لایه مخفی و تعیین تعداد نرون لایه‌ی مخفی از طریق حداقل نقطه‌ی نمودار) تعیین شده‌است.
مقادیر به‌دست آمده برای متوسط خطاهای نسبی، متوسط مربع خطاها و ضریب رگرسیون[۱۳۹] برای شبکه‌های پیشرو با تعداد نرون مختلف در لایه‌ی مخفی در جدول (۴-۱) ارائه و نمودار مرتبط با آن در شکل (۴-۱)‌ شده‌است. از شکل (۴-۱)، کاملاً واضح است که شبکه‌ای دو لایه با چهارده نرون در لایه‌ی مخفی شبکه‌ی بهینه ‌است.
برای کاهش حساسیت به مقادیر اولیه‌ی وزن و بایاس، مقادیر ارائه‌شده در جدول (۴-۱) بصورت حداقل مقادیر به‌دست آمده در طی پانزده اجرای مختلف در نظر گرفته‌شده‌است.
الگوریتم آموزشی مناسب از طریق شناسایی الگوریتمی که حداقل زمان را برای آموزش نیاز داشته‌باشد تعیین شده‌است. به‌عبارت دیگر، الگوریتمی با کمترین زمان آموزشی مورد‌نیاز الگوریتم بهینه در نظر گرفته شده‌است.
جدول (۴-۱): تعیین ساختار بهینه‌ی شبکه‌ی پیشرو

تعداد نرون لایه‌ی پنهان

MRE
MSE
R-value

موضوعات: بدون موضوع  لینک ثابت


فرم در حال بارگذاری ...