پایه شماره ۴ : : TXD- TTL خروجی
پایه شماره ۵ : خروجی های USB-B
استفاده از ماژول به جهت یکی بودن زمین مدار، با میکروکنترلر لازم است. بنابر نیاز خود هر کدام از ورودیهای TTL یا RS232 را می توانید در مدار خود استفاده نمائیم. پایه شماره ۲ ولتاژ گرفته شده از خروجی USB را در اختیار ما قرار می دهد که می توانیم در پروژه استفاده نمائیم. ولتاژ این قسمت بین ۳٫۵ ولت تا ۴٫۳ ولت متغیر است پس لزومی ندارد به این پایه ولتاژ وصل نماییم. در صورت تمایل نداشتن به استفاده از سوکت USB بر روی برد، می توان از دو خروجی بیرون آمده از برد برای ارتباط مورد نظر استفاده نمائیم.

(( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. ))

محیط برنامه نویسی پروژه
محیط برنامه نویسی استفاده شده در این پروژه Microsoft Visual Studio Ultimate 2013 می باشد که روش نصب برنامه، در پیوست شده موجود می باشد.

کتابخانه OpenCV
کتابخانه پردازش تصویر OpenCV در این پروژه مورد استفاده قرار گرفته شده است که روش نصب برنامه، در پیوست شده موجود می باشد.

نحوه کارکرد پروژه
در مرحله اول، سخت افزار طراحی شده را روشن می نمایم، سپس هلی کوپتر و رادیو کنترل را روشن می نمایم، در مرحله بعد برنامه نوشته شده در نرم افزار VisualStudio2013 را باز کرده و برنامه را اجرا می کنیم در این بخش کامپیوتر تصویر گرفته شده توسط وبکم را در کامپیوتر نمایش می دهد. در پنجره تصویر سه میله لغزان برای تغییر سرعت، جهت چپ و راست و جهت عقب و جلو تعبیه شده است. با تغییر میله لغزان اول به سمت چپ، هلیکوپتر شروع به روشن شدن می نماید، هرچقدر میله را به سمت چپ افزایش دهیم سرعت هلیکوپتر زیاد شده تا جایی که هلیکوپتر از زمین بلند می شود، بعد از پرواز هلیکوپتر، به وسیله وبکم می توانیم تصویر هلیکوپتر را در کامپیوتر مشاهده نمائیم. با توجه به اینکه هلیکوپتر مورد استفاده در پروژه به رنگ زرد می باشد، به محض نمایان شدن هلیکوپتر در تصویر مستطیلی به دور آن کشیده خواهد شد که مبی بر تشخیص آن می باشد. مختصات محور طول و عرض هلیکوپتر در صفحه، کنار مستطیل نمایش داده خواهد شد. در صورتی که روی هر نقطه از فریم تصویر کلیک راست نمائیم، هلیکوپتر موقعیت خود را به آن نقطه مختصات تغییر می دهد و پس از رسیدن به آن نقطه، عمل فرود را انجام می دهد.

الگوریتم پروژه
در فضای رنگ RGB با بهره گرفتن از پیمایش پیکسل های تصویر و میانگین گیری از موقعیت پیکسل ها جهت پیدا کردن موقعیت هلیکوپتر استفاده شده است .اما این روش کارامدی نیست و ایرادتی بر آن وارد می باشد. یکی از مشکلات این است که در فضای رنگ RGB تعریف دقیقی از پیکسل های هلیکوپتر نمی توانیم داشته باشیم و باید نمونه های مختلفی از رنگ توپ رو داشته باشیم تا هلیکوپتر به خوبی تشخیص داده شود. علاوه بر این در فضای رنگ RGB بین هر سه مولفه همبستگی وجود دارد. با توجه به این امر، در صورت تغییر روشنایی تصویر، هر سه مولفه R,G,B تغییر خواهد کرد. اما در فضای رنگ HSV خیلی ساده می توانیم بازه ی رنگ هلیکوپتر را به طور دقیق تعریف نمائیم . با توجه به اینکه تعریف رنگ در این فضا بسیار آسان و قابل فهم می باشد، در پردازش تصویر هم عموما از این فضای رنگ استفاده می شود. فضای رنگ HSV مانند RGB شامل سه مولفه می باشد.) H رنگ) ،) S اشباع) و V (روشنایی) می باشد. جهت تبدیل رنگ از حالت RGB به رنگ HSV از تابع CvtColor استفاده می نمائیم. Img در تابع زیر تصویر اصلی، و hsv تصویر مقصد می باشد. تصویر به وسیله تابع CV_RGB2HSV تصویر تبدیل به HSV شده و در تصویر مقصد ذخیره می شود.
CvtColor (Img, hsv, CV_RGB2HSV);
جهت تشخیص محدوده رنگ زرد، از تابع InRange استفاده می نمائیم. بازه رنگ زرد در زیر مشاهده می شود. در این روش ما ابتدا تصویر را به HSV تبدیل می نمائیم. سپس با بهره گرفتن از تابع InRange بر روی فریم مورد نظر، بازه رنگ مورد نظر را Mask [۵]می کنیم. در نتیجه یک تصویر سیاه) پیکسل های دیگر) و سفید (پیکسل های درون بازه) خواهیم داشت.
InRange (hsv, Scalar (20, 80, 120), Scalar (30, 255, 255), binary);
بعد از انجام این کار با بهره گرفتن از تابع FindContours بر روی فریم، بیرونی ترین لکه های رنگ پیوسته را استخراج می کنیم و تمام آن ها را برای یافتن بزرگترین لکه که هلیکوپتر در تصویر می باشد پیمایش می کنیم .
FindContours (binary, contours, CV_RETR_TREE, CV_CHAIN_APPROX_SIMPLE); //find contours
سپس در شرط زیر هر Contour که سایز آن بزرگتر یا مساوی ۲۰ می باشد را نمایش می دهد و بقیه Contour های کوچکتر را نادیده می گیریم. نحوه نمایش در فریم، کشیدن مستطیل دور هلیکوپتر و نشان دادن مختصات X,Y آن در زیر مستطیل می باشد. عدد ۲۰ جهت استفاده از هلیکوپتر به اندازه ۲۰ سانت و فاصله بین وبکم تا هلیکوپتر ۲٫۵ متر انتخاب شده است. این عدد برای هلیکوپتر بزرگتر و تغییر فاصله وبکم تا هلیکوپتر متغیر می باشد.
If (contours.size () >= 20)
}
r = boundingRect (contours [maxPosition.y]);
Rectangle (img, r.tl (), r.br (), CV_RGB (255, 0, 0), 3, 8, 0); //draw rectangle
center.x = r.x + (r.width / 2);
center.y = r.y + (r.height / 2);
Char x [15], y [6];
Itoa (center.x, x, 10);
Itoa (center.y, y, 10);
Strcat (x, “,”);
PutText (img, strcat(x, y), center, FONT_HERSHEY_COMPLEX_SMALL, 0.8, cvScalar (255, 0, 0), 1, CV_AA);
{

خلاصه
جهت آزمایش قابلیت های برنامه خلبان خودکار، یک سری آزمایشات انجام شد. نتایج این آزمایشات نشان داد توانایی ها و محدودیت های سیستم خلبان خودکار تا چه حد می باشد. همه آزمون ها در محیط نور روشن، مصنوعی و بدون قرار گرفتن در معرض نور خورشید انجام شده است. علاوه بر این آزمایشات، نتایج روش ردیابی اجرا و تست نقشه عمق Kinect هم بحث گردید. نتایج به دست آمده از آزمون سیستم، جدا از چند محدودیت ها و چالش های شناخته شده مثبت بود. محدود کردن بازه محیط داخلی و خارجی تا حدودی یک راه حل بسیار معمول برای ردیابی شی می باشد و در نتیجه این مشکل را می توان با محدود کردن سیستم به محیط، اعمال نمود. تاخیر کوچک در تغییرات حرکات هلیکوپتر باعث شد این سیستم بسیار دقیق باشد. چالش اصلی مواجه شده با سخت افزار، نتیجه عملکرد متفاوت هلیکوپتر به عنوان نداشتن توان یا شارژ باتری در همه زمان مورد استفاده آن به طور یکسان نبود. با این حال، این یک تاثیر منفی بر نتایج، ناشی از نداشتن شارژ یکنواخت در طول مدت آزمون می باشد.
سیستم شبیه سازی خلبان خودکار برای مینی هلیکوپتر کنترل از راه دور برای انجام حرکات خاص، توسط ردیابی تشخیص داده می شود. توابع ردیابی هدف، مورد استفاده قرار گرفته بسیار کارآمد بوده و در سیستم، حفظ کنترل به اندازه کافی سریع می باشد. ترکیبی از روش ها و thresholding مورد استفاده قرار گرفته که به طور همزمان برای ردیابی هدف به منظور افزایش استحکام می باشد. هرچند که وجود برخی محدودیت ها و چالش های مرتبط با سخت افزار و الگوریتم های مورد استفاده سیستم با موفقیت انجام شده و قادر به انجام الزامات و اهداف مندرج در فصل ۱ می باشد.

پیشنهادات
این سیستم بر روی یک مینی هلیکوپتر مدل آزمایش شده است و می تواند به استفاده از وسیله نقلیه هوایی بزرگتر، اما بسیار با ثبات تر، پیاده سازی شده و آسان تر کنترل گردد. یک هلیکوپتر بزرگتر، دارای باتری بزرگتر می باشد که آزمایشات در زمان کمتر و سیستم قوی تر و قابل پیش بینی تر را می توان در نتیجه مشاهده کرد. این سیستم همچنین می تواند در آینده بهبود یافته با استفاده بیش از یک وسیله نقلیه هوایی مورد استفاده قرار گیرد و برای انجام حرکات هماهنگ تحت شبکه انجام شود. نقش اتوماسیون در این سیستم می تواند با بهره گرفتن از هوش داخلی به جای داشتن تنها هوش خارجی تغییر گردد. همچنین Kinect می تواند با یک دوربین کوچک که متصل به هلیکوپتر می باشد جایگزین شود و واحد کنترل هلیکوپتر را در دست بگیرد. به جهت ارسال دیتا بیسیم از سوی کامپیوتر به سخت افزار از ماژول های ارسال دیتای مختلف همچون HMT-HMR و HMTR و XBee می توان استفاده نمود. با انجام این پروژه به صورت کاملا بیسیم با کامپیوتر در ارتباط خواهد بود.
فهرست منابع
[۱] Aguilar-Ponce, R. (۲۰۰۷), automated object detection and tracking based on clustered sensor networks. PhD thesis, University of Louisiana. AAI3294839.
[۲] Altug, E., Ostrowski, J. P., and Taylor, C. J., (2003), Quadrotor control using dual camera visual feedback. In International Conference on Robotics & Automation, IEEE, pp. 4294-4299.
[۳] Amidi, O., Mesaki, Y., and Kanade, T., (1993), Research on an autonomous vision guided helicopter.
[۴] Andersen, M., Jensen, T., Lisouski, P., Mortensen, A., Hansen, M., Gregersen, T., and Ahrendt, P. (2012), Kinect depth sensor evaluation for computer vision applications. Tech. rep., Aarhus University.
[۵] Benezeth, Y., Jodoin, P., Emile, B., Laurent, H., and Rosenberger C. (2008), Review and evaluation of commonly-implemented background subtraction algorithms. In Pattern Recognition, pp. 1-4.
[۶] Fan, J., Yau, D., Elmagarmid, A., and Aref, W. (2001), Automatic image segmentation by integrating color-edge extraction and seeded region growing. IEEE Transaction on Image Processing ۱۴۵۴-۱۴۶۶٫
[۷] Fieguth, P., and Terzopoulos, D. (1997), Color-based tracking of heads and other mobile objects at video frame rates. In Proc. IEEE Conf. on Computer Vision and Pattern Recognition, pp. 21-27.
[۸] Heath, M., Sarkar, S., Sanocki, T., and Bowyer, K. (1996), Comparison of edge detectors: A methodology and initial study. In Computer Vision and Image Understanding, IEEE Computer Society Press, pp. 38-54.

موضوعات: بدون موضوع  لینک ثابت


فرم در حال بارگذاری ...