فشردهسازی تصاویر، کاربردی از فشردهسازی اطلاعات بر روی تصاویر دیجیتال است به عبارتی هدف از این کار کاهش افزونگی (redundancy)محتویات عکس میباشد برای توانایی ذخیره کردن یا انتقال اطلاعات به فرم بهینه .
فشرده سازی عکس می تواند بصورت بدون اتلاف و پر اتلاف صورت گیرد. فشرده سازی بدون اتلاف گاهی اوقات برای بعضی عکسها مثل نقشه کشیهای تکنیکی و آیکونها ترجیح داده میشود و به این دلیل است که در روشهای فشرده سازی پراتلاف خصوصا وقتی برای نرخ بیتهای پایین استفاده شود فشرده سازی به کیفیت عکس لطمه میزند. روشهای فشرده سازی بدون اتلاف همچنین ممکن است برای محتویات پر ارزش مثل عکسهای پزشکی یا عکسهای اسکن شده برای اهداف بایگانی شدن نیز ترجیح داده شوند. روش پراتلاف مخصوصا برای عکسهای طبیعی مناسب است مثل عکس هایی برای کاربردهای کوچک (گاهی اوقات جزئی) که از دست رفتن درستی (fidelity) برای دست یافتن به کاهش نرخ بیت قابل توجه است .
روشهای فشرده سازی بدون اتلاف عکسها عبارتند از:
- کد گذاری طول اجرا (run-length encoding) استفاده شده در روشهای پیش فرض در dcx و یکی از امکانات TIFF ,TGA ,BMP
- entropy coding
- الگوریتم های مطابق واژه نامه مثل lzw استفاده شده در GIF,TIFF
- کاهش اعتبار (deflation) استفاده شده در TIFF ,MNG ,PNG
روشهای فشرده سازی پراتلاف عبارتند از:
- کاهش فضای رنگی برای رنگ هایی که بیشتر در عکس استفاده شده اند. رنگی که انتخاب شده در پالت رنگ در بالای عکس فشرده شده مشخص میشود. هرپیکسل فقط به شاخص رنگ در پالت رنگ اشاره داده میشود.
- chroma subsampling این روش امتیازی برای واقعیت است چون چشم روشنی را سخت تر از رنگ درک میکند بوسیله حذف کردن نصف یا بیشتر اطلاعات رنگ تابی یک عکس.
"- تغییر شکل دادن کد گذاری ("transform coding) این روش بطور عادی بیشترین استفاده را دارد.
- fractal compression بهترین کیفیت عکس در یک نرخ بیت (یا نرخ فشرده سازی) معین هدف اصلی از فشرده سازی عکس است. به هر حال ویژگیهای مهم دیگری از رویههای فشرده سازی عکس وجود دارد که عبارتند از :
"مقیاس پذیری("scability): به طور کلی به کاهش کیفیت حاصل شده در اثر دستکاری گروه بیتی یا فایل گفته می شود. (بدون بازیابی). نامهای دیگر برای مقیاس پذیری ،progressive coding یا embedded biststream است. با وجود خلاف واقعی بودنش مقیاس پذیری نیز میتواند در رمز گذارهای (codec) بدون اتلاف یافت می شود . مقیاس پذیری خصوصاَ برای پیش نمایش عکسها در حال دریافت کردن آنها یا برای تهیه کیفیت دستیابی متغیر در پایگاههای داده مفید است .
انواع مختلف مقیاس پذیری عبارتنداز :
- کیفیت مترقی(quality progressive ")یالایه مترقی("layer progressive):گروه بیتی پی درپی عکس را از نو می سازد.
- وضوح مترقی(resoloution progressive):ابتدا یک عکس وضوح پایین را کد گذاری می کند سپس تفاوتهای وضوح بالاتر را کد گذاری میکند .
- مؤلفه مترقی (component progressive): ابتدا رنگ را کد گذاری میکند .
ناحیه جذاب کدگذاری (region of interest coding)نواحی خاصی از عکس با کیفیت بالاتری نسبت به سایر نقاط کد گذاری میشوند و میتواند با مقیاس پذیری (کدگذاری ابتدایی یک بخش و دیگران بعداَ) ترکیب شود.
اطلاعات غیر نمادین(meta information)دادههای فشرده شده میتوانند شامل اطلاعاتی در رابطه با عکس باشد که می توان برای طبقه بندی کردن، جستجو یا بررسی عمومی عکس از آنها استفاده کرد. مانند اطلاعاتی که میتوانند شامل رنگ و الگو و پیش نمایش کوچکتر عکسها و اطلاعات خالق و کپی رایت باشد.
قدرت پردازش(processing power) الگوریتمهای فشرده سازی اندازه های متفاوتی از قدرت پردازش را برای کدگذاری و کدگشایی درخواست می کنند. بعضی از الگوریتمهای فشرده سازی عالی قدرت پردازش بالا می خواهند.
کیفیت روش فشرده سازی اغلب بوسیله سیگنال ماکزیمم به نسبت پارازیت (peak signal-to-noise ratio) اندازه گیری می شوند . اندازه پارازیتها نشان دهند? فشرده سازی پراتلاف عکس است به هر حال قضاوت موضوع گرایانه بیننده همیشه بیان کنند? اهمیت اندازه گیری است .
Jpeg2000
Jpeg2000 یک استاندارد فشردهسازی عکس براساس wavelet (wavelet-based) است. و در سال 2000 بهوسیله کمیته Joint Photographic Experts Group با نیت جایگزین کردن با استاندارد اصلی Jpegکه براساس تغییر گسسته(discrete cosine transform-based) است(محصول سال1991) تولید شده است.
JPEG 2000 زمان بیشتری را برای عملیات بازکردن فشردگی نسبت به JPEG طلب میکند.
اثبات از بالا به پایین محصولات فشردهسازی JPEG 2000: شمارهها نشاندهنده ضریب تراکم استفاده شدهاست.برای مقایسه بهتر شکل بدون مقیاس را نگاه کنید.
محصولات JPEG 2000 به فرم JPEG متفاوت به نظر میرسند و یک جلوه صیقلی روی عکس وجود دارد و برای نمایان
شدن سطوح فشردهسازی بالاتری اختیار می کنند. اغلب یک عکس گرفته شده میتواند به اندازه اندازه فایل اصلی خود(bitmap فشرده نشده) بدون متحمل شدن اثر نمایان شدن فشرده شوند.
برگرفته از ویکی پدیا
برای دانلود جدیدترین مقالات ISI به وب سایت ایران سای – مرجع علمی فنی مهندسی مراجعه نمایید.
با تشکر
فیلتر کالمن(Kalman Filter) یک فیلتر بازگشتی کارامد است که حالت یک سیستم پویا را از یک سری اندازه گیریهای همراه با خطا بر آورد میکند. به همراه یک تنظیم کننده خطی مرتبه دوم (linear-quadratic regulator -LQR) فیلتر کالمن مسائل Gaussian control خطی مرتبه دوم (linear-quadratic-Gaussian control - LQG) را حل میکند. فیلتر کالمن ، LQR و LQG راه حلی هستند برای آنچه شاید اساسیترین مسائل تئوری کنترل می نامند.
مثالی برای کاربرد : تهیه اطلاعات پیوسته به روز و دقیق در مورد مکان و سرعت یک شی معین فقط به کمک توالی مشاهدات در مورد موقعیت آن شی، که هر کدام شامل مقداری خطاست امکان پذیر است. این فیلتر در طیف گستردهای از کاربریهای مهندسی از رادار گرفته تا بصیرت رایانهای کاربرد دارد. روش تصفیه کالمن یکی از عناوین مهم در تئوری کنترل و مهندسی سیستمهای کنترلی میباشد.
به عنوان مثال، برای کاربری آن در رادار، آنجا که علاقه مند به ردیابی هدف هستید، اطلاعات در مورد موقعیت، سرعت و شتاب هدف با حجم عظیمی از انحراف به لطف پارازیت در هر لحظه اندازه گیری میشود. فیلتر کالمن از پویایی هدف بهره میگیرد به این صورت که سیر تکاملی آن را کنترل میکند، تا تاثیرات پارازیت را از بین ببرد و یک برآورد خوب از موقیت هدف در زمان حال (تصفیه کردن) و در آینده (پیش بینی) و یا در گذشته (الحاق یا هموار سازی) ارائه میدهد. یک نسخه ساده شده فیلتر کالمن، فیلتر آلفا بتا (alpha beta filter)، که همچنان عموماً استفاده میشود از ثابتهای static weighting به جای ماتریسهای کواریانس استفاده میکند.
نام گذاری و تاریخچه توسعه : اگر چه Thorvald Nicolai Thiele و Peter Swerling قبلاً الگوریتم مشابهی ارائه داده بودند، این فیلتر به افخار Rudolf E. Kalman، فیلتر کالمن نام گذاری شد و Stanley F. Schmidt عموماً به خاطر توسعه اولین پیاده سازی فیلتر کالمن شهرت یافت. این رخدادهنگام ملاقات با کالمن در مرکز تحقیقاتی ناسا (NASA Ames Research Center) روی داد و وی شاهد کارائی ایده کالمن در برآورد مسیر پرتاب پروژه آپولو بود، که منجر به الحاق آن به رایانه ناوبری آپولو شد. این فیلتر بر روی کاغذ در 1958 توسط Swerling، در 1960 توسط Kalman و در 1961 توسط Kalman and Bucy ایجاد و بسط داده شد.
این فیلتر بعضی مواقع فیلتر Stratonovich-Kalman-Bucy نامیده میشود، چرا که یک نمونه خاص از فیلتر بسیار معمولی و غیر خطی ای است که قبلاً توسط Ruslan L. Stratonovich ایجاد شده، در حقیقت معادله این نمونه خاص، فیلتر خطی در اسنادی که از Stratonovich قبل از تابستان 1960، یعنی زمانی که کالمن ،Stratonovich را در کنفرانسی در موسکو ملاقات کرد به چاپ رسید بود.
در تئوری کنترل، فیلتر کالمن بیشتر به برآورد مرتبه دوم (LQE) اشاره دارد. امروزه تنوع گستردهای از فیلتر کالمن بوجود آمده، از فرمول اصلی کالمن در حال حاضر فیلترهای : کالمن ساده، توسعه یافته اشمیت، اطلاعاتی و فیلترهای گوناگون جذر بیرمن، تورنتون و بسیاری دیگر بوجود آمده اند. گویا مرسومترین نوع فیلتر کالمن فاز حلقه? بسته (phase-locked loop) میباشد که امروزه در رادیوها، رایانهها و تقریباً تمامی انواع ابزارهای تصویری و ارتباطی کاربرد دارد.
اساس مدل سیستم پویا فیلترهای کالمن بر اساس سیستمهای خطی پویا (linear dynamical systems) گسسته در بازه زمانی هستند. آنها بر اساس زنجیره ماکوف (Markov chain) مدل شده، به کمک عملگرهای خطی ساخته شده اند و توسط پارازیت گاشین (Gaussian noise) تحریک میشوند. حالت سیستم توسط برداری از اعداد حقیقی بیان میشود. در هر افزایش زمانی که در بازههای گسسته صورت میگیرد، یک عملگر خطی روی حالت فعلی اعمال میشود تا حالت بعدی را با کمی پارازیت ایجاد کند و اختیاراً در صورت شناخت روی کنترل کنندههای سیستم برخی اطلاعات مرتبط را استخراج میکند. سپس عملگر خطی دیگر به همراه مقدار دیگری پارازیت خروجی قابل مشاهدهای از این حالت نامشخص تولید میکند. فیلتر کالمن قادر است مشابه مدل نامشخص مارکوف برخورد کند. با این تفاوت کلیدی که متغییرهای حالت نامشخص در یک فضای پیوسته مقدار میگیرند( نقطه? مقابل فضای حالت گسسته در مدل مارکوف). بعلاوه، مدل نامشخص مارکوف میتواند یک توزیع دلخواه برای مقادیر بعدی متغییرهای حالت ارائه کند، که در تناقض با مدل پارازیت گاشین ای است که در فیلتر کالمن استفاده میشود. در اینجا یک دوگانگی بزرگ بین معادلات فیلتر کالمن و آن مدل مارکوف وجود دارد. مقالهای در رابطه با این مدل و دیگر مدلها در Roweis and Ghahramani (1999) ارائه شده است. از فیلتر کالمن برای پیش بینی و اعلام خطرسیلاب نیز استفاده میشودیعنی به عنوان یک آلارم دهنده برای خطرسیلاب عمل می نماید.
بر گرفته از ویکی پدیا
برای دانلود مقالات ISI به وب سایت ایران سای – مرجع علمی فنی مهندسی مراجعه نمایید..
با تشکر
ینایی رایانهای یا بینایی کامپیوتری (Computer vision) یا بینایی ماشینی (Machine vision) یکی از شاخههای مدرن، و پرتنوٌع هوش مصنوعیست که با ترکیب روشهای مربوط به پردازش تصاویر[1] و ابزارهای یادگیری ماشینی[2] رایانهها را به بینایی اشیاء، مناظر، و "درک" هوشمند خصوصیات گوناگون آنها توانا میگرداند.
کاوش در دادهها
مقاله? اصلی: کاوشهای ماشینی در دادهها
بینایی ماشینی را میشود یکی از مصادیق و نمونههای بارز زمینه? مادر و اصلیتر کاوشهای ماشینی دادهها بهحساب آورد که در آن دادهها تصاویر دوبعدی یا سهبعدی هستند، که آنها را با هوش مصنوعی مورد آنالیز و ادراک قرار میدهیم.
وظایف اصلی در بینایی رایانهای
تشخیص شیء
تشخیص حضور و/یا حالت شیء در یک تصویر. به عنوان مثال:
• جستجو برای تصاویر دیجیتال بر اساس محتوایشان (بازیابی محتوامحور تصاویر).
• شناسایی صورت انسانها و موقعیت آنها در عکسها.
• تخمین حالت سهبعدی انسانها و اندامهایشان.
پیگیری
پیگیری اشیاء شناخته شده در میان تعدادی تصویر پشت سر هم. به عنوان مثال:
• پیگیری یک شخص هنگامی که در یک مرکز خرید راه میرود.
تفسیر منظره
ساختن یک مدل از یک تصویر/تصویر متحرک. بهعنوان مثال:
• ساختن یک مدل از ناحیه? پیرامونی به کمک تصاویری که از دوربین نصب شده بر روی یک ربات گرفته میشوند.
خودمکانیابی
مشحص کردن مکان و حرکت خود دوربین به عنوان عضو بینایی رایانه. بهعنوان مثال:
• مسیریابی یک ربات درون یک موزه.
سامانههای بینایی رایانهای
یک سامانه? نوعی بینایی رایانهای را میتوان به زیرسامانههای زیر تقسیم کرد:
تصویربرداری
تصویر یا دنباله تصاویر با یک سامانه تصویربرداری(دوربین، رادار، لیدار، سامانه توموگرافی) برداشته میشود. معمولاً سامانه تصویربرداری باید پیش از استفاده تنظیم شود.
پیشپردازش
در گام پیشپردازش، تصویر در معرض اَعمال "سطح پایین" قرار میگیرد. هدف این گام کاهش نوفه (کاهش نویز - جدا کردن سیگنال از نویز) و کمکردن مقدار کلی داده ها است. این کار نوعاً با بهکارگیری روشهای گوناگون پردازش تصویر(دیجیتال) انجام میشود. مانند:
• زیرنمونهگیری تصویر.
• اعمال فیلترهای دیجیتال.
• پیچشها.
• همبستگیها یا فیلترهای خطی لغزشنابسته.
• عملگر سوبل.
• محاسبه? گرادیان x و y(و احتمالاً گرادیان زمانی).
• تقطیع تصویر.
• آستانهگیری پیکسلی.
• انجام یک ویژهتبدیل بر تصویر.
• تبدیل فوریه.
• انجام تخمین حرکت برای ناحیههای محلی تصویرکه به نام تخمین شارش نوری هم شناخته میشود.
• تخمین ناهمسانی در تصاویر برجستهبینی.
• تحلیل چنددقتی.
استخراج ویژگی
هدف از استخراج ویژگی کاهش دادن بیشتر دادهها به مجموعهای از ویژگیهاست، که باید به اغتشاشاتی چون شرایط نورپردازی، موقعیت دوربین، نویز و اعوجاج ایمن باشند. نمونههایی از استخراج ویژگی عبارتاند از:
• انجام آشکارسازی لبه.
• استخراج ویژگیهای گوشهای.
• استخراج تصاویر چرخش از نقشههای ژرفا.
• بدست آوردن خطوط تراز و احتمالاً گذر از صفرهای خمش.
ثبت
هدف گام ثبت برقراری تناظر میان ویژگیهای مجموعه برداشت شده و ویژگیهای اجسام شناختهشده در یک پایگاه دادههای مدل و/یا ویژگیهای تصویر قبلی است. در گام ثبت باید به یک فرضیه نهایی رسید. چند روش این کار عبارتاند از:
• تخمین کمترین مربعات.
• تبدیل هاگ در انواع گوناگون.
• درهمسازی هندسی.
• پالودن ذرهای.
برگرفته از ویکی پدیا
برای دانلود جدیدترین مقالات ISI بینایی ماشین به وب سایت ایران سای – مرجع علمی فنی مهندسی مراجعه نمایید.
با تشکر
نظریّه? آشوب یا نظریّه? بینظمیها به مطالعه? سیستمهای دینامیکی آشوبناک میپردازد. سیستمهای آشوبناک، سیستمهای دینامیکیای غیرخطی هستند که نسبت به شرایط اولیهشان بسیار حساساند. تغییری اندک در شرایط اولیه? چنین سیستمهایی باعث تغییرات بسیار در آینده خواهد شد. این پدیده در نظریه? آشوب به اثر پروانهای مشهور است.
رفتار سیستمهای آشوبناک به ظاهر تصادفی مینماید. با اینحال هیچ لزومی به وجود عنصر تصادف در ایجاد رفتار آشوبی نیست و سیستمهای دینامیکیی معین (deterministic) نیز میتوانند رفتار آشوبناک از خود نشان دهند.
میتوان نشان داد که شرط لازم وجود رفتار آشوبگونه در سیستمهای دینامیکیی زمانپیوسته مستقل از زمان (time invariant) داشتن کمینه سه متغیر حالت است (سیستم مرتبه سه). دینامیک لورنتس نمونهای از چنین سیستمای است. برای سیستمهای زمانگسسته، وجود یک متغیر حالت کفایت میکند. نمونه? مشهور چنین سیستمای، مدل جمعیتیی بیانشده توسط logistic map است.
تاریخچه
این نظریه، گسترش خود را بیشتر مدیون کارهای هانری پوانکاره، ادوارد لورنز، بنوا مندلبروت و مایکل فیگنباوم میباشد. پوانکاره اولین کسی بود که اثبات کرد، مساله سه جرم (به عنوان مثال، خورشید، زمین، ماه) مسالهای آشوبی و غیر قابل حل است. شاخه دیگر از نظریه آشوب که در مکانیک کوانتومی به کار میرود، آشوب کوانتومی نام دارد. گفته میشود که پیر لاپلاس و عمر خیام قبل از پوانکاره، به این مساله و پدیده پی برده بودند.
اولین آزمایش واقعی در زمینه ی آشوب توسط یک هواشناس به نام ادوارد لورنز انجام شد. در سال 1960، وی روی یک مسئله ی پیش بینی وضع هوا کار می کرد. وی بر روی کامپیوترش 12 معادله برای پیش بینی وضع هوا درنظر گرفته بود. این معادلات وضع هوا را پیش بینی نمی کرد. ولی این برنامه ی کامپیوتری به طور نظری پیش بینی می کرد که هوا چگونه می تواند باشد. او می خواست دنباله ی مشخصی را دوباره ببیند. برای کاهش زمان، وی به جای شروع از اول، از وسط دنباله شروع کرد. او عددی را که دفعه ی قبل از دنباله در دست داشت وارد کرد و کامپیوتر را برای پردازش رها نمود و رفت. وقتی یک ساعت بعد برگشت، دنباله به صورتی متفاوت از دفعه ی قبل پیشرفت کرده بود. به جای حالت قبلی، الگوی جدید آن واگرا می شد و در آخر شکلی کاملا به هم ریخته نسبت به اولی پیدا می کرد. او بالاخره فهمید که مشکل کار کجاست. کامپیوتر تا 6 رقم اعشار را در خود ذخیره می کرد و برای اینکه وی کاغذ کمتری مصرف کند فقط تا 3 رقم اعشار را برای خروجی درنظر گرفته بود. در الگوی اولیه، عدد بدست آمده در اصل506127/0 بود ولی وی برای حالت بعدی فقط 506/0را وارد کرد. براساس تمام ایده های آن زمان، این دنباله باید شبیه و یا خیلی نزدیک به حالت اولیه می شد. رقم های پنجم و ششم، که برای بعضی از روش ها غیر قابل اندازه گیری هستند، نمی توانند تاثیر زیادی روی خروجی داشته باشند. لورنز این باور را رد کرد. این اثر به عنوان اثر پروانه ای شناخته شد. مقدار تفاوت بین نقاط شروع دو نمودار آنقدر کم است، که به اندازه ی بال زدن یک پروانه می تواند باشد: بال زدن یک پروانه تغییر بسیار اندکی در وضعیت اتمسفر ایجاد می کند. در طول یک دوره، اتمسفر از حالتی که باید می بود، عملأ دور می شود. به همین دلیل، در طول یک دوره، یک گردباد که قرار بود سواحل اندونزی را تخریب کند، هیچ وقت اتفاق نمی افتد و یا ممکن است، گردبادی که اصلا قرار نبود اتفاق بیفتد، رخ دهد. این پدیده، به عنوان حساسیت بالا به شرایط اولیه نیز شناخته شده است. *
آشوب دقیقا چیست؟
اگر فقط ذره ای در هر سوی این بازه جابجا شوید همه چیز به بی نهایت میرود ! یک بار به هم خوردن بالهای یک پروانه کافیست تا شما با یک رفتار آشوبگونه روبرو شوید. این رفتار به آرامی به آشوبگونگی میل نمیکند بلکه سیستم از نقطه ای ناگهان به سمت بی نهایت می رود . آیا در طبیعت پدیده ای – مثلا دانه های برف یا کریستال ها – وجود دارد که در قالب ابعاد کلاسیک طبیعت که تا به امروز می شناختیم نگنجد؟ پدیده هایی مثل دانه برف دارای ویژگی جالبی به نام خود متشابهی هستند به این معنا که شکل کلی شان از قسمت هایی تشکیل شده است که هرکدام به شدت شبیه به این شکل کلی هستند. ایده اصلی آشوب تعریف رفتار سیستمهای مشخصی است که شدیدا به شرایط اولیه شان حساسند. ادوارد لورنتز در دهه 60 میلادی اعلام کرد که معادلات دیفرانسیل می توانند خاصیت فوق را داشته باشند. این ویژگی اثر پروانه ای نام گرفت.
آشوب از نقطه نظر ریاضی به چه معناست؟
یک سیستم جوی ساده را در نظر بگیرید. تابع برای تخمین دمای فردا از روی دمای امروز در دست است. اوربیت یک نقطه تحت یک تابع مجموعه اتفاقاتی است که در اثر تکرار تابع (دینامیک) برای آن نقطه می افتد. برای مثال اربیت نقطه 1 تحت تابع ما این است که 1 ابتدا 3 سپس 5 بعد 7 و ... می شود. مهمترین گونه اربیت ها نقطه ثابت است که هرگز تحت اجرای تابع تغییر نمی کند ولی تابع ما چنین نقطه ای ندارد. حال را در نظر بگیرید. این تابع ما را به دنیای آشوب می برد. به نظر می رسد اربیتهای تمام نقاط به بی نهایت میل می کنند. باید اشاره شود که نقاط پایانی هر بازه ای روی این تابع ثابتند. با اجرای تابع و ادامه دادن آن می بینیم که تمام نقاط داخل بازه به بی نهایت میل می کنند ولی حدود بازه همچنان متناهی اند . این رفتار یک رفتار آشوب گونه است. مثلث سرپینسکی و پوست مار کخ دو فرکتال یا برخال معروف اند. در مورد پوست مار کخ جالب اینکه ناحیه متناهی ولی پارامتر نامتناهی دارد. می توان سطح خود تشابهی در فرکتالها را با مفهوم جدیدی از بعد که مبتنی بر تعداد کپی های مجموعه های خودمتشابه در فرکتال و میزان بزرگنمایی هر مجموعه است اندازه گیری کرد. به این معنی که بعد فرکتالی یک مجموعه از تقسیم لگاریتم تعداد کپی ها به لگاریتم بزرگنمایی به دست می آید. این مقدار برای مثلث سرپینسکی 1.584 و برای پوست مار کخ 1.261 است.
برگرفته از ویکی پدیا
برای دانلود مقالات ISI سال 2013 مربوط به نظریه آشوب به وب سایت ایران سای – مرجع علمی فنی مهندسی مراجعه نمایید.
با تشکر
انبار داده به انگلیسی: Data warehouse یک بانک اطلاعاتی بزرگ میباشد که از طریق آن کلیه دادههای حال و گذشته یک سازمان جهت انجام عملیات گزارش گیری و آنالیز در دسترس مدیران قرار میگیرد. انبار داده نقش مهمی در تصمیم گیری مدیران کمپانی برای تعیین یک استراتژی موفق دارد.
بعضی از دادهها قبل از ورود به انبار به یک فضای عملیاتی کوچکتر (operational data store) برای پردازش بیشتر وارد میشود.
انبار داده سه لایه دارد که به ترتیب (Integration),(Staging) و(Presentation) نام دارد.
دادههای خام از منابع اطلاعاتی مختلفی جمع آوری شده ودر لایه staging وارد میشوند. منبع داده خام میتواند یک سیستم ERP,پایگاه داده یک برنامه کاربردی و یا یک فایل Excel باشد.
ایجاد یکنواختی بین دادههای وارد شده به انبار در دومین لایه یعنی integration انجام میشود. به عنوان مثال حذف رکوردهای تکراری و یا نرمال سازی دادهها.
در لایه Presentation دادهها در دسترس کاربران قرار میگیرد. نرمافزارهای تهیه گزارش مانند Cognos ,Business Object,SAP با دسترسی به این لایه میتوانند اطلاعات مورد نیاز مدیران و تحلیلگران را استخراج و در قالب گزارش یا Dashboard عرضه نمایند.
در لایه Presentation میتواند چندین Data mart وجود داشته باشد.
برگرفته از ویکی پدیا
برای دانلود مقاله های ISI چاپ شده در ژورنالهای 2013 و 2012 به وب سایت ایران سای – مرجع علمی فنی مهندسی مراجعه نمایید.