تحلیل جاذب‌ها در شبکه‌های عصبی خودانجمنی و کاربرد آن در آنالیز تصاویر چهره

نویسندگان

1 فارغ‌التحصیل دکتری، گروه بیوالکتریک، دانشکدة مهندسی پزشکی، دانشگاه صنعتی امیرکبیر، تهران، ایران

2 دانشیار، گروه بیوالکتریک، دانشکدة مهندسی پزشکی، دانشگاه صنعتی امیرکبیر، تهران، ایران

چکیده

شبکه‌های عصبی خودانجمنی بالقوه امکان به‌کارگیری برای پردازش و هنجارسازی غیرخطی داده‌ها را در خود دارند؛ زیرا نخست، به یادگیری و شبیه‌سازی ارتباطات غیرخطی پیچیده قادرند و دوم، این ارتباطات را با تجزیه و گسترده‌سازی اطلاعات روی نورون‌ها و وزن‌ها و سپس ترکیب نتایج پردازش آنها به انجام می‌رسانند و از این طریق روی اطلاعات ورودی و ارتباطات مابین آنها عملاً درون‌یابی انجام می‌دهند. ایراد این شبکه‌ها این است که نمی‌توانند رفتار جاذب‌گونه را توضیح دهند که یکی از واضح‌ترین عملکردهای مغز است. در این مقاله با برقراری اتصال بازگشتی در ساختار این شبکه‌ها، قابلیت رفتار جاذب‌گونه نیز به آنها افزوده شده است. تحلیل‌های انجام‌شده در این راستا نشان داد برای یک نورون با تابع غیرخطی تانژانت هیپرپولیک، با برقراری این اتصال بازگشتی، همواره در محل نمونة تعلیم داده شده و قرینة آن دو جاذب ایجاد می‌شود؛ اما در صورتی که تابع غیرخطی، سیگموئید باشد برای محدودة خاصی جاذب تشکیل می‌شود. در آزمایشات روی تصاویر چهره نشان داده شد با افزایش تعداد لایه‌های شبکة خودانجمنی، قابلیت ذخیرة تصاویر بیشتری فراهم می‌شود؛ به‌طوری که با پیش‌تعلیم لایه‌به‌لایه باسرپرست، به‌منظور جهت‌دهی به نحوة تشکیل جاذب‌ها، میزان جذب تصاویر به جاذب‌هایی با حالت مشابه از 67/52% به 27/87% بهبود یافت.

کلیدواژه‌ها

موضوعات


عنوان مقاله [English]

Attractor Analysis in Associative Neural Networks and its Application to Facial Image Analysis

نویسندگان [English]

  • Seyyedeh Zohreh Seyyedsalehi 1
  • Seyyed Ali Seyyedsalehi 2
1 Bioelectric, Biomedical Engineering, Amirkabir University, Tehran, Iran
2 Bioelectric, Biomedical Engineering, Amirkabir University, Tehran, Iran
چکیده [English]

Autoassociative neural networks can be used for nonlinear processing and normalization of data. Because, firstly, they are able to learn and simulate complex nonlinear communications, and secondly, the communications can be learned through analyzing and distributing information on the neurons and weights and then combining the results of their processing. In this way, they actually make an interpolation between the input data and their communications. But these neural networks cannot model attractor dynamics that is obviously used in brain function. In this paper, the output of autoassociative neural network is connected to its input, and through recursive connections the ability of attractor behavior in these models is provided. This study showed that a recursive neuron with a logistic function forms two attractors, in its training point and its symmetry, but for it with a sigmoid nonlinear function can be formed an attractor in a certain range. In the experiments on face images, it was shown that the absorbance of the images to their attractors was improved from 52.67% to 87.27% by increasing the number of layers and the supervised layer-by-layer pre-training in order to adjust the attractors.

کلیدواژه‌ها [English]

  • Associative Neural Networks
  • Attractor Dynamics
  • Face Images
  • Fixed Point
  • Recursive Connection

1- مقدمه[1]

وجود نویز در داده‌ها از مشکلاتی است که روش‌های کاهش بعد و استخراج منیفلد با آن مواجه‌اند [1]. در چنین مواردی با توجه به اینکه نمونه‌ها دقیقاً روی منیفلد قرار نمی‌گیرند، منیفلدی که تخمین زده می‌شود، نسبت به منیفلد ذاتی داده‌ها خطای زیادی دارد؛ بنابراین در بسیاری از موارد، زمانی که الگوهای ورودی جدید از نمونه‌های تعلیم داده شده فاصله می‌گیرند، قابلیت تعمیم‌دهی به‌شدت افت می‌کند. در این موارد سعی می‌شود با در اختیار گرفتن داده‌های بیشتر و میانگین‌گیری از آنها تا حدودی نویز داده‌ها کاهش داده شود [3و2]؛ اما باید در نظر داشت که در خیلی از مواقع امکان دسترسی به داده‌های بیشتر وجود ندارد. بنابراین راهکار دیگر در این زمینه، هدایت نمونة جدید با قابلیت جاذب‌ها به سمت یکی از الگوهای یادگیری‌شده است که به آن نزدیک‌تر است.

شواهد فیزیولوژیکی نیز بر وجود این جاذب‌ها در مغز دلالت دارند [4]. برخلاف ساختار منحصراً جلوسوی یک شبکة عصبی جلوسوی چند لایه، بین قسمت‌های مختلف مغز اتصالات رفت و برگشتی بسیاری دیده می‌شود. مشخص شده است در ساختار محلی تک‌تک قسمت‌های مغز، بازخوردهای محلی وجود دارند که به رفتارهای جاذب‌گونه منجر می‌شوند؛ برای مثال می‌توان به پردازش در منطقة CA3 از هیپوکمپوس اشاره نمود. همچنین یکی از کاراترین قابلیت‌های مغز انسان، عملکرد آن به‌عنوان حافظة انجمنی است. این حافظه، پیونددهندة اطلاعات ورودی با سایر اطلاعات و نیز سایر اطلاعات با یکدیگر در مغز است. بازیابی اطلاعات در این حافظه از یک حالت دلخواه که می‌تواند یک بازنمایی کدشده از یک تصویر بینایی باشد، آغاز و در نهایت فعالیت مغز به یکی از حالت‌ها همگرا می‌شود. این حالت، وضعیت پایدار یا همان جاذب است که قبلاً مغز آن را به خاطر سپرده است [5].

پویایی غیرخطی را با استفاده از اتصالات بازگشتی در شبکه‌های عصبی و حافظه‌های ذخیره‌شده در آنها می توان مدلسازی نمود [6]. شبکه‌های عصبی بازگشتی با توجه به اینکه در ساختار خود بازخورد دارند، قادر به تولید رفتارهای جاذب‌گونه‌اند؛ به همین دلیل، این شبکه‌ها اهمیت زیادی در دانش عصبی محاسباتی دارند و نشانه‌های زیادی وجود دارد که از این سازوکارها برای پردازش اطلاعات در مغز بسیار استفاده می‌شود [7]. این شبکه‌ها کاربردهایی شامل ذخیرة حافظة انجمنی و بازسازی تصاویر نویزی دارند. در این کاربردها یک‌سری محاسبات توزیع‌شده با پویایی جاذب‌گونه انجام می‌شود و به یک نقطة ثابت پایدار منجر می‌شود [8]؛ اما مشکل این مدل‌های بازگشتی این است که این شبکه‌ها را حتماً باید با نمونه‌های تمیز بدون نویز تعلیم داد؛ زیرا همان نمونه‌های تعلیمی‌اند که جاذب‌ها را تشکیل می‌دهند و دسته‌های الگوها را نمایندگی می‌کنند؛ درحالی‌که انسان قادر است با دیدن نمونه‌های نامحدود از اشیا و مفاهیم، تعداد بسیار کوچک‌تری گروه مفهومی بسازد و هنگام برخورد با مفاهیم، آنها را در یکی از گروه‌های موجود در ذهن طبقه‌بندی کند. این خاصیتی است که در شبکه‌های عصبی خودانجمنی وجود دارد؛ به همین دلیل، این شبکه‌ها را برای مقابله با مسئلة تنوعات کارآمد دانسته‌اند [9]. ایراد این شبکه‌ها این است که رفتار جاذب‌گونه را توضیح نمی‌دهند که یکی از واضح‌ترین عملکردهای مغز است [10]. هنگامی که به شبکة عصبی خودانجمنی الگویی ارائه می‌شود که برخی مؤلفه‌های آن شبیه یکی از الگوهای یادگیری‌شده است و برخی دیگر به الگوی دیگر مشابه است، شبکه الگویی با ترکیب این مؤلفه‌ها ارائه می‌دهد که لزوماً به هیچ دو دستة الگوی یادگیری‌شده متعلق نیست که این مطلوب نیست.

در این مقاله در راستای فراهم‌کردن قابلیت رفتارهای جاذب‌گونه در شبکه‌های عصبی خودانجمنی راهکاری معرفی شده است و آن برقراری اتصالات بازگشتی در این ساختارهاست که با حفظ توانمندی آنها در استخراج مؤلفه‌های اساسی، قابلیت رفتار جاذب‌گونه را نیز به آنها می‌افزاید. انتظار می‌رود این جاذب‌های سراسری بتوانند قابلیت این شبکه‌ها را در حذف تنوعات الگوهای جدید تا حد چشمگیری بهبود بخشند و آنها را مقاوم کنند.

 

1- شبکة خودانجمنی با اتصال بازگشتی تأخیردار

می‌توان نشان داد هنگامی که به شبکة خودانجمنی با اتصال بازگشتی تأخیردار، تعدادی الگو تعلیم داده می‌شود، در صورت داشتن ظرفیت کافی و تعلیم صحیح شبکه، با شرایطی به تعداد الگوها در ساختار شبکه، جاذب ساخته می‌شود [11 و 12]. این جاذب‌ها در راستای حذف تنوعات داده‌ها استفاده می‌شوند. به‌عبارتی هنگامی که به چنین ساختاری نمونه‌ای داده می‌شود که به‌دلیل نویز یا سایر عوامل از منیفلد ذاتی فاصله گرفته‌است، شبکة جاذب، آن را به سمت منیفلد هدایت می‌کند. در ادامه، تحلیل‌های ریاضی اولیه مبنی بر اثبات وجود این جاذب‌ها ارائه می‌شود.

 

1-1- تحلیل رفتار جاذب‌گونه نورون با اتصال بازگشتی تأخیردار

هرگاه به شبکه با نورون غیرخطی، ورودی   به‌صورت خودانجمنی تعلیم داده شود، می‌توان ثابت کرد اگر یک اتصال بازگشتی تأخیردار از خروجی به ورودی برقرار شود، نقطة تعلیم داده شده در شرایطی به‌عنوان یک نقطة ثابت پایدار در شبکه عمل می‌کند؛ یعنی به‌ازای ورودی ، خروجی همواره  خواهد بود یا به‌عبارتی، خروجی و ورودی شبکه در مقدار  پایدار باقی می‌مانند. همچنین، برای هر مقدار  دیگر که به‌عنوان نقطۀ آغازین به ورودی این شبکه داده می‌شود، پس از مدتی تغییرات، شبکه به نقطة  همگرا خواهد شد. به‌عبارت دیگر، تمامی محور  ورودی، بستر جذب این نقطة ثابت پایدار خواهند بود و نقطة  در فضای ورودی همانند قعر یک دره عمل می‌کند که سایر نقاط را به خود جذب می‌کند.

 

شکل (1): ساختار یک شبکة تک‌لایه با یک نورون غیرخطی

به‌منظور ساده‌سازی مسئله، تحلیل‌های اولیه روی یک شبکة تک‌لایه با ساختار شکل (1) صورت می‌گیرد. این شبکه یک شبکة تک‌لایه با یک نورون با تابع غیرخطی  است که به‌صورت خودانجمنی تعلیم داده می‌شود. مقدار  با کمینه‌کردن خطای تعلیم تعیین می‌شود که با رابطة 1 تعریف می‌شود و در آن،  خروجی مطلوب شبکه است.

(1)

 

با توجه به اینکه یک نمونه به‌صورت خودانجمنی تعلیم داده می‌شود، خطای تعلیم با رابطة (2) برابر خواهد بود که با کمینه‌کردن این خطا  به دست می‌آید.

 

(2)

 

 

 

(3)

 

 

 

(4)

 

 

در نقطه ثابت ، خروجی شبکه بالا یعنی ، دقیقاً با همان  ورودی برابر خواهد بود؛ ولی برای هر نقطة  دلخواه غیر از  که به ورودی شبکه داده شود،  برابر می‌شود با:

(5)

 

(6)

 

(7)

 

 

اگر  حول  بسط داده شود:

 

(8)

 

 

اگر  به اندازة کافی کوچک باشد، از جملة دوم به بعد صرف‌نظر می‌شود؛ درنتیجه  برابر است با:

 

(9)

 

 

 

(10)

 

 

به‌ازای  تغییرات خروجی نورون حول  ناشی از ، همواره از آن کوچک‌تر خواهد بود؛ بنابراین با دادن  به ورودی نورون، پس از یک دورزدن، مقدار ورودی نورون به  نزدیک‌تر می‌شود و با ادامة دورزدن در نهایت به سمت  جذب خواهد شد. باید توجه داشت  شرط نقطه ثابت پایدار مجانبی‌بودن  را برای تابع  تضمین می‌کند که این خود تأییدکنندة جاذب‌بودن نقطة تعلیم داده شده است. این شرط به‌صورت رابطة (11) بیان می‌شود که با شرط پایداری مجانبی نقطه ثابت در [13] نیز مطابقت دارد.

 

(11)

 

همان‌طور که مشاهده می‌شود تابع  برای جاذب‌بودن نمونة  نقش تعیین‌کننده‌ای دارد. با توجه به اینکه معمولاً دو تابع تانژانت هیپرپولیک و سیگموئید در ساختارها استفاده می‌شوند، در ادامه این دو تابع بررسی خواهند شد.

 

1-1-1- تابع غیرخطی دوقطبی تانژانت هیپرپولیک

در شکل (2)، تابع  برای مقادیر مختلف  نشان داده شده است. همان‌طور که مشاهده می‌شود، تابع فوق برای  خط  را در سه نقطه قطع می‌کند؛ یکی نقطة صفر است که می‌توان نشان داد نقطة ناپایدار یا دافع برای تابع است و دو نقطة دیگر، دو نقطة قرینه هستند که هر دو پایدار و جاذب‌اند؛ اما برای مقادیر  یک تقاطع با خط  در صفر است که جاذب است.

 

شکل (2): تابع  برای مقادیر مختلف

 

در شبکة تک‌نورونی خودانجمنی شکل (1)، با فرض تعلیم کامل، مقدار وزن برای تابع تانژانت هیپرپولیک براساس رابطة 4 برابر است با:

 

(12)

 

 

از آنجا که  مقداری بین 1 و 1- ( خروجی تابع  بین این دو مقدار است) دارد، مقدار  که در رابطة (12) محاسبه شده است برای مقادیر مختلف  در نمودار (3- الف) رسم شده است.

 

 

الف

 

ب

شکل (3): (الف) نمودار مقادیر  برای  مطابق با رابطة 12 برای  و (ب)، نمودار  برای مقادیر مختلف

 

همان‌طور که مشاهده می‌شود،  در این بازه، مثبت و بزرگ‌تر از یک است؛ بنابراین با توجه به شکل (2)، تابع فوق خط  را در سه نقطه قطع می‌کند؛ یکی نقطة صفر است که نقطة ناپایدار یا دافع است و دو نقطه دیگر، دو نقطة قرینه هستند که هر دو پایدار مجانبی و جاذبند. این مسئله با استفاده از شرط پایداری نیز نشان داده می‌شود. برای جاذب‌بودن، نقطة تعلیم داده شده، لازم است قدرمطلق تابع رابطة (13) کمتر از یک باشد.

(13)

 

 

 برای مقادیر مختلف  در نمودار (3- ب) رسم شده است. همان‌طور که مشاهده می‌شود، همواره مقداری بین صفر و یک دارد که با توجه به شرط پایداری مجانبی نقطه ثابت در [13]، برای هر نقطة تعلیمی در بازة ، دو جاذب برای آن نقطه و قرینة آن ایجاد می‌شود. شکل (4) نیز نحوة جذب‌شدن نمونه‌ها به نقطة تعلیم داده شده (54/0) و قرینة آن و دفع‌شدن از (0) را در شبکة تک‌لایه شکل (1) با نورون غیرخطی با تابع  نشان می‌دهد.

 

شکل (4): نحوة جذب‌شدن نمونه‌ها با مقادیر اولیة مختلف به نقطة تعلیم داده شده (54/0) و قرینة آن و دفع شدن از (0)

1-1-2- تابع غیرخطی تک‌قطبی سیگموئید

تابع دیگری که بیشتر استفاده می‌شود، تابع سیگموئید است که در نمودار (5- الف) نشان داده شده است. همان‌طور که مشاهده می‌شود، تابع فوق خط  را در یک نقطه قطع می‌کند؛ اما جاذب یا دافع‌بودن این نقطه به بررسی بیشتری نیاز دارد. در شبکة تک‌نورونی خودانجمنی شکل (1)، با توجه به رابطة (4)، مقدار وزن برای تابع سیگموئید برابر است با:

 

(14)

 

 

که درنتیجه

 

(15)

 

 

برای جاذب‌بودن، نقطة تعلیم داده شده، لازم است قدرمطلق این تابع کمتر از یک باشد.

 

الف

 

ب

شکل (5): (الف)، تابع  و تقاطع آن با خط  و (ب)، نمودار  برای مقادیر مختلف

 

مشتق تابع سیگموئید برای مقادیر مختلف  (خروجی تابع سیگموئید در این بازه است) در نمودار (5- ب) نشان داده شده است. همان‌طور که مشاهده می‌شود، این تابع برای  شرط جاذب نقطه‌ای‌بودن را دارد؛ اما برای نمونه‌های تعلیمی کمتر از این مقدار،  یک نقطه ثابت دافع خواهد شد که بررسی‌ها نشان می‌دهد این نقطه در مرز بستر جذب دو جاذب نوسانی قرار می‌گیرد؛ به‌طوری‌که خروجی برای  جذب یکی از این جاذب‌ها و برای  جذب جاذب نوسانی دیگر می‌شود.

در شکل (6)، نحوة همگراشدن نمونه‌ها برای نورون خودانجمنی با تابع غیرخطی سیگموئید برای ورودی‌های تعلیم داده شدة مختلف نشان داده شده است. همان‌طور که مشاهده می‌شود برای دو نمونة   و  که بزرگ‌تر از  هستند در نقطة تعلیم داده شده جاذب نقطه‌ای ایجاد شده است و تمام فضای ورودی به آن جذب شده‌اند؛ درحالی‌که برای دو نمونة دیگر جاذب‌های نوسانی مشاهده می‌شود.

این بررسی‌ها نشان داد برای یک نورون با تابع غیرخطی تانژانت هیپرپولیک برای هر نقطة تعلیم داده شده و با تابع غیرخطی سیگموئید برای  در نقطة تعلیم داده شده جاذب تشکیل می‌شود؛ بنابراین، اگر ورودی تعلیم داده شده یعنی  به ورودی این شبکه داده شود، خروجی شبکه دقیقاً برابر با همان  خواهد بود؛ یعنی در نقطة  نگاشت معکوس دقیقاً برابر با معکوس نگاشت مستقیم عمل می‌کند. همچنین، اگر نمونة دیگر  به ورودی شبکه داده شود، پس از محاسبة خروجی و سپس دورزدن در مسیر بازگشتی،  به دست می‌آید که تخمین غیرخطی شبکه از  است و به جاذب  نزدیک‌تر خواهد بود. با دورزدن در این ساختار در نهایت  به  جذب خواهد شد.


 

   
   
   
   

شکل (6): نمودارهای همگرایی نمونه‌ها با مقادیر اولیة مختلف برای نقاط تعلیم داده شده به نورون غیرخطی با تابع

 


1-1-3- تأثیر سطح آستانه

اگر در ورودی شبکة تک‌نورونی خودانجمنی شکل (1)، مقدار سطح آستانه نیز اضافه شود، وجود آن هم در مقدار وزن و هم در مشتق تابع غیرخطی نورون مطابق روابط (16) و (17) برای تابع تانژانت هیپرپولیک و روابط (18) و (19) برای تابع سیگموئید تأثیرگذار است؛ بنابراین، رفتار نورون را تغییر می‌دهد.

 

(16)

 

 

 

(17)

 

 

 

(18)

 

 

 

(19)

 

 

شکل (7)، تأثیر سطح آستانه را در تغییر رفتار نورون نشان می‌دهد. شکل (7-الف) نشان می‌دهد برای تابع تانژانت هیپرپولیک برای ،  برای برخی مقادیر ، مقداری بزرگ‌تر از یک خواهد داشت؛ درنتیجه در این نقاط و قرینة آنها جاذب تشکیل نخواهد شد. همچنین، با توجه به نمودار (7-ب)، با تغییر  می‌توان آستانة مقدار  را برای ایجاد جاذب تنظیم کرد. با کاهش  این آستانه کاهش می‌یابد.

 

 
 

الف

 
 

ب

شکل (7): نمودار  برای مقادیر مختلف ، (الف) برای تابع تانژانت هیپرپولیک و (ب) برای تابع سیگموئید

 

شکل (8) نیز این تغییر رفتار نورون تأثیرگرفته از سطح آستانه را نشان می‌دهد. برای تابع تانژانت هیپرپولیک در شکل (4) نشان داده شد که برای نمونة تعلیم داده شده ، دو جاذب در  و  تشکیل می‌شود؛ درحالی‌که در نمودار (8-الف) مشاهده می‌شود در صورت وجود سطح آستانه فقط یک جاذب در  تشکیل می‌شود.

 

 
 

الف

 
 

ب

شکل (8): نمودارهای همگرایی نمونه‌ها با مقادیر اولیة مختلف برای نقاط تعلیم داده شده به نورون غیرخطی به‌همراه سطح آستانه برای تابع تانژانت هیپرپولیک  (ب) و تابع سیگموئید  

همچنین در شکل (7-ب) برخلاف شکل (6) نشان داده شده است برای نمونة تعلیم داده شده  به نورون غیرخطی با تابع سیگموئید به همراه سطح آستانه، جاذب به دست می‌آید. این بررسی‌ها نشان می‌دهد سطح آستانه به‌طور مستقیم در رفتار نورون تأثیرگذار است و در تشکیل جاذب‌ها نقش به‌سزایی دارد.

1-2-  تحلیل رفتار جاذب‌گونه در شبکة جلوسوی تک‌لایه

شبکة شکل (9) را با  نورون در ورودی و خروجی در نظر بگیرید. فرض کنید به این شبکه تعدادی نمونة بعدی به‌صورت  به‌طور خودانجمنی تعلیم داده شود. اگر خروجی شبکه به‌صورت  تعریف شود برای هر نقطه ثابت باید معادلات رابطة (20) برقرار باشد.

 

 
   

شکل (9): شبکة جلوسوی تک‌لایه

(20)

 

 

با دقت در روابط فوق مشاهده می‌شود که اطلاعات سایر نورون‌ها برای تابع غیرخطی هر نورون خروجی مانند سطح آستانه عمل می‌کند با این تفاوت که مقدار آنها متغیر است. همچنین در بخش قبل نشان داده شد سطح آستانه بر رفتار یک نورون غیرخطی تأثیر مستقیم دارد؛ به‌گونه‌ای‌که رفتار آن را از حالت سه نقطه ثابت به شرایط ناپایدار تغییر می‌دهد. با این تفسیر در اینجا از خروجی هریک از نورون‌ها به‌ازای ورودی ثابت در همان بعد می‌توان رفتارهای مختلفی را انتظار داشت که بررسی آنها برای به‌دست‌آوردن رفتار کلی شبکه الزامیست. ابتدا باید نقاط تعادل در خروجی هر نورون تعیین شود. نقاط تعادل در خروجی که در آن ، نقاطی خواهند بود که برای آنها همواره  باشد؛ بنابراین با تعیین نقاط تقاطع ابررویه  و ابرصفحه  می‌توان این نقاط تعادل را به دست آورد. این نقاط تقاطع که در رابطة (21) نیز تعریف شده‌اند یک ابررویه[i] با بعد  تشکیل می‌دهند. به عبارت دیگر،  مکان هندسی نقاطی از ابررویه  است که برای آنها  است.

 

(21)

 

نقاط تعادل کل شبکه نقاطی هستند که برای تمام نورون‌های خروجی شبکه، نقطه تعادل باشند؛ بنابراین، این نقاط به‌صورت رابطة (22) تعریف می‌شوند.

 

(22)

 

 

به عبارت دیگر، نقاط تقاطع ابررویه‌های  نقاط تعادل شبکه را تشکیل می‌دهند. برای روشن‌ترشدن مسئله، رویه‌های تصمیم برای شبکة شکل (9) در نظر گرفته می‌شود که با 3 نمونة دوبعدی  تعلیم داده شده است.

 

 

الف

 

ب

شکل (10): نمودارهای رویه‌های  و  که به‌ترتیب با صفحات  و  قطع داده شده‌اند.

این رویه‌ها در شکل (10) نشان داده شده‌اند. ابتدا باید نقاط تعادل در خروجی هر نورون تعیین شود. نقاط تعادل در خروجی  نقاطی خواهند بود که برای آنها همواره  باشد؛ بنابراین، رویه  با صفحه  مطابق نمودار (10- الف) قطع داده می‌شود. نقاط روی منحنی تقاطع این دو، نقاط تعادل برای خروجی  شبکه هستند. برای خروجی  در (10-ب) نیز نقاط تعادل، نقاط روی محل تقاطع رویه  با صفحه  هستند. شکل (11) نمودارهای شکل (10) را در صفحه  نشان می‌دهد.

 

الف

 

ب

شکل (11): نمودارهای رویه‌های  و  در صفحه  است که به ترتیب با صفحات  و  قطع داده شده‌اند.

 

در شکل (12)، تقاطع منحنی‌های و  نشان داده شده است. همان‌طور که مشاهده می‌شود این دو منحنی در 5 نقطه همدیگر را قطع می‌کنند که نقاط تعادل شبکه هستند؛ البته نوع تعادل این نقاط به بررسی نیاز دارد.

 

 

الف

 

ب

شکل (12): (الف)، نمودار تقاطع منحنی‌های  و  و (ب)، بستر جذب‌ها در فضای ورودی و نقاط تعلیم، مربع‌ها نقاط تعلیم و + خروجی‌های شبکه را به‌ازای این نقاط تعلیم نشان می‌دهد.

برای بررسی نوع تعادل این نقاط، یک‌سری نقاط با توزیع یکنواخت در بازة  تعریف می‌شوند و با برقراری اتصال بازگشتی از خروجی به ورودی در طی نگاشت‌های تکراری خروجی محاسبه می‌شود. نمودار (12-ب) نحوة جذب شدن نمونه‌های فضای ورودی به جاذب‌های شبکه را نشان می‌دهد. همان‌طور که مشاهده می‌شود این جاذب‌های پایدار همان نقاط تقاطعی هستند که در نمودار (12-الف) با فلش نشان داده شده‌اند؛ اما نکتة درخور توجه این است که جاذب‌ها لزوماً در نقاط تعلیم تشکیل نشده‌اند. با وجود تعلیم کامل شبکه به‌گونه‌ای‌که خروجی به‌ازای هر ورودی دقیقاً خود ورودی شود، مشاهده می‌شود در محل دو مورد از نقاط تعلیم دو نقطه ثابت با تعادل زینی شکل گرفته‌است. برخلاف شبکة تک‌نورونی که با برقراری شرایط حتماً در محل نمونة تعلیم داده شده یک جاذب ایجاد می‌شود، برای شبکة تک‌لایة چندبعدی آرایش نمونه‌های تعلیم در نوع تعادلشان نقش دارد؛ به‌طوری‌که در اینجا 5 نقطة تعادل ایجاد شده است که از دو مورد جاذب، یک جاذب در محل نمونه‌های تعلیم تشکیل شده است.

 

 

 

 

1-3- رفتار جاذب‌گونه در شبکة خودانجمنی یک‌لایه پنهان

با افزایش تعداد لایه‌های غیرخطی در شبکة خودانجمنی و افزایش عمق آن، ها غیرخطی‌تر می‌شوند؛ بنابراین، ایجاد تقاطع‌های بیشتری بین آنها، ممکن و در نتیجة آن، ظرفیت یادگیری جاذب‌های بیشتری فراهم می‌شود. برای مثال، اگر به شبکة یک‌لایه پنهان شکل (13) با دو نورون غیرخطی در هر لایه، 4 نمونة نشان داده شده در نمودار (14-الف) تعلیم داده شود، با برقراری اتصال بازگشتی بعد از تعلیم شبکه، جاذب‌های شبکه مشاهده می‌شوند.

 

 

شکل (13): ساختار شبکة عصبی خودانجمنی با اتصال بازگشتی

 

در نمودار (14-الف) نمونه‎های تعلیم، مرز تقریبی نواحی تصمیم با 2 نورون لایۀ پنهان، تعیین و نحوۀ همگراشدن نمونه‌ها در فضای ورودی نشان داده شده است. درواقع آنچه رخ می‌دهد این است که نواحی تصمیم شبکه بعد از تعلیم، فضای ورودی را به 4 قسمت افراز کرده‌اند. هر بخش از این فضا، بستر جذب یکی از الگوهای تعلیمی تلقی می‌شود که دادة جدید برحسب اینکه در بستر جذب کدام جاذب باشد، به سمت یکی از نمونه‌های تعلیم جذب می‌شود.

 

 

الف

 

ب

شکل (14): (الف)، نمونه‌های تعلیم، مرز نواحی تصمیم و جاذب‌ها در فضای ورودی و (ب)، منحنی‌های  و  و نمایش جاذب‌ها در محل‌های تقاطع آنها

 

نمودار (ب) شکل (14) نیز  و  را نشان می‌دهد. همان‌طور که مشاهده می‌شود جاذب‌ها دقیقاً در محل‌های تقاطع آنها تشکیل شده‌اند.  و  در 5 نقطة دیگر نیز تقاطع دارند که 4 مورد آنها تعادل زینی دارند و نقطة وسطی، تعادل ناپایدار دارد.

1-4- خوشه‌بندی در شبکة خودانجمنی با اتصال بازگشتی

گفتنی است اگر تعداد نمونه‌های تعلیمی بیش از قابلیت یادگیری شبکه باشد، شبکه عملاً خوشه‌بندی می‌کند؛ بدین‌ترتیب هنگامی که شبکه، دو نمونة  و  را در یک خوشه تخمین می‌زند، برای آنها یک جاذب مشترک به دست می‌آید که بر هیچ‌یک از دو نمونه منطبق نیست؛ بنابراین، خطای تخمین هردو غیرصفر است؛ اما وقتی به یک خوشه فقط یک نمونه تخصیص می‌یابد، خطای تخمین آن می‌تواند صفر باشد و نمونه در جاذب خوشه قرار گیرد. به این ترتیب دربارة حالت خوشه‌بندی چند نمونه در یک خوشه، شبکه عملاً از هر نمونه پس از جذب‌شدن آنها تخمینی ارائه می‌دهد؛ ولی این تخمین غیرخطی توأم با خطا است و هرچه آن نمونه از نقطة جاذب خوشه دورتر باشد این خطا بیشتر خواهد بود. به‌عبارتی نقطة جاذب خوشه، وجه مشترک (میانگین غیرخطی) نمونه‌های خوشه است و فاصلة هر نمونه از جاذب، تفاوت‌های هر نمونه با این میانگین تلقی می‌شود. نمودار (15-الف) مجموعه داده‌ای شامل 4 دسته را نشان می‌دهد که هر دسته حاوی 40 نمونه است. این 160 الگو به شبکة شکل (13) با دو نورون غیرخطی در هر لایه تعلیم داده می‌شود. در اینجا تعداد نمونه‌های تعلیمی به نسبت قابلیت شبکه خیلی بیشتر است. به‌عبارتی، 160 نمونه برای تعلیم داده شده است؛ درحالی‌که شبکه قادر است فضا را فقط به 4 بخش تقسیم کند؛ بنابراین به‌صورت دادگان، خوشه‌بندی می‌کند. در ساختار این شبکه نیز جاذب‌ها شکل می‌گیرند؛ اما مرکز خوشه‌ها به‌جای نمونه‌ها به‌عنوان جاذب عمل می‌کنند.

 

 

الف

 

ب

 

ج

شکل (15): (الف)، نمونه‌های تعلیم، مرز نواحی تصمیم و نحوة جذب ورودی‌ها به مراکز خوشه‌ها و (ب)، تقاطع‌های منحنی‌های  و  و (ج)، نحوة جذب نمونه‌های آزمون به مراکز خوشه‌ها در شبکة خودانجمنی با اتصال بازگشتی

نمودار (15-الف)، نمونه‌های تعلیم، مرز نواحی تصمیم که با 2 نورون لایه پنهان تعیین شده است و نحوة همگراشدن نمونه‌ها به مرکز خوشه‌ها در فضای ورودی را نشان می‌دهد. در اینجا نیز مشاهده می‌شود 4 جاذب در محل تقاطع‌های منحنی‌های  و  مطابق نمودار (15-ب) تشکیل شده است. نمودار (15-ج) نیز نحوة جذب‌شدن سایر نمونه‌های فضای ورودی که در تعلیم حضور نداشته‌اند را به سمت مرکز یکی از این مراکز خوشه‌ها نشان می‌دهد.

این مدل یک فیلترسازی غیرخطی مقاوم انجام می‌دهد و نمونه‌های ورودی را به یکی از جاذب‌ها هدایت می‌کند؛ بنابراین با تعلیم مناسب الگوهای مدنظر و تشکیل جاذب‌ها سایر مؤلفه‌های ناخواسته پالایش می‌شود. یک روش برای کنترل بستر جذب‌ها تنظیم مرزهای تصمیم متناسب با مؤلفه‌های متمایزکنندة مدنظر است. در [14] نشان داده شده است در ساختار دو تکلیفة شبکة عصبی گلوگاه باسرپرست (SBNN) با استفاده از اطلاعات برچسب‌ها، ابرصفحات که مرزهای تقریبی مرزهای تصمیم هستند، به‌گونه‌ای قرار می‌گیرند که تمایز بین طبقات را حتی‌الامکان حفظ کنند. با همین روش در اینجا نیز بستر جذب‌ها با هدف جذب نمونه‌های هم‌طبقه به یک خوشه کنترل می‌شود. شکل (16)، ساختار این شبکة عصبی خودانجمنی باسرپرست را نشان می‌دهد.

 

 

شکل (16): ساختار شبکة عصبی خودانجمنی باسرپرست

 

نمودارهای شکل (17) تأثیر بهره‌گیری از برچسب طبقات را برای شبکة خودانجمنی باسرپرست نشان می‌دهد. در اینجا نیز همان 160 نمونة قبلی تعلیم داده شده است. با مقایسة نمودارهای (15-الف) و شکل (17-الف) مشاهده می‌شود بستر جذب‌ها به‌گونه‌ای تشکیل شده‌اند که در حد امکان نمونه‌های هم‌برچسب را در یک بستر جذب قرار دهند.

 

الف

 

ب

شکل (17): (الف)، نمونه‌های تعلیم، مرز نواحی تصمیم و نحوة جذب ورودی‌ها به مراکز خوشه‌ها و (ب)، نحوة جذب نمونه‌های آزمون به مراکز خوشه‌ها در شبکة عصبی خودانجمنی باسرپرست

2- پیاده‌سازی‌ها

2-1- دادگان

در این مقاله از پایگاه دادة CK+ استفاده شده است. پایگاه دادة CK+ توسعه‌یافتة پایگاه دادة کوهن-کند[ii] است [15]. در پایگاه دادة CK+ دنباله‌ای از تصاویر برای 6 حالت احساسی افراد موجود است که از حالت خنثی تا حالت مدنظر تغییر می‌کنند؛ البته در این مقاله تصاویر نیمه اول هریک از این دسته‌ها حذف شدند تا تصاویری نگه داشته شوند که واقعاً حالت احساسی مربوطه را نمایان می‌کنند.‌

این حالت‌های احساسی شامل حالت‌های شاد، متعجب، خشمگین، ترسیده، متنفر و ناراحت هستند. همچنین برای هر تصویر چهره، برداری از نشانه‌ها وجود دارد که از آن برای ترازکردن چهره‌ها استفاده می‌شود. در اینجا چهره‌ها طوری تراز شده‌اند که چشم‌ها در یک راستای افقی قرار بگیرند [16]. اطلاعات اضافة اطراف تصاویر نیز به‌نحوی حذف شده است که همة جزئیات مهم در تصویر موجود باشند. در نهایت، ابعاد همة تصاویر به 50×50 تبدیل شدند.

دو مجموعه از این دادگان استفاده شده است. یکی با عنوان پایگاه دادة CK+ که شامل تصاویر مربوط به 96 نفر با 7 حالت احساسی مختلف است. این مجموعه در کل حاوی 2816 تصویر است.

دادگان دیگر، پایگاه دادة کوچک CK+ است که شامل بخشی از این دادگان است. این داده نیز شامل 281 تصویر از 10 نفر با سه حالت خنثی، لبخند و تعجب است.

2-2- ارزیابی تأثیر عمق شبکة خودانجمنی در شکل‌گیری جاذب‌ها

در این بخش، تأثیر عمق ساختار در یادگیری جاذب‌ها در شبکه‌های عصبی خودانجمنی ارزیابی شده است. بدین‌منظور، جاذب‌های دو شبکة خودانجمنی کم‌عمق و عمیق بعد از یادگیری خودانجمنی تصاویر پایگاه دادة CK+ بررسی شده است. برای شبکة خودانجمنی یک لایه پنهان، 1000 نورون در لایه پنهان آن و همچنین تعداد نورون‌های لایه‌های پنهان شبکة خودانجمنی عمیق نیز 1000-400-100-400-1000 قرار داده شده است. برای پیش‌تعلیم شبکة خودانجمنی عمیق نیز از روش پیش‌تعلیم لایه‌به‌لایه [17] استفاده شده است. برای تعیین جاذب‌های هر مدل از نمونه‌های تعلیم داده شده به مدل‌ها استفاده شد. در نتیجة آن برای شبکة یک لایه پنهان، 12 نقطه ثابت پایدار مجانبی حاصل شد که در شکل (18) نشان داده شده‌اند. این جاذب‌ها هیچ‌یک از تصاویر تعلیم داده شده نیستند. با توجه به حجم بالای تصاویر تعلیم داده شده و ساختار یک لایه پنهان شبکه، این شبکه قادر به یادگیری هریک از نمونه‌ها در یک ناحیة تصمیم مجزا نیست. درنتیجه، نمونه‌ها را خوشه‌بندی می‌کند و برای تمام نمونه‌هایی که در یک ناحیة تصمیم قرار دارند یک جاذب مشترک ارائه می‌دهد. این جاذب مشترک، نمایندة خوشة مربوطه است.

 

شکل (18): نقاط تعادل پایدار مجانبی شبکة خودانجمنی یک لایه پنهان تعلیم داده شده با دادة CK+ برای نقاط شروع از نمونه‌های تعلیم

از مجموع 2816 نمونة تعلیم داده شده، 1313 نمونه جذب این جاذب‌ها شدند که توزیع آنها نیز در نمودار شکل (19) نشان داده شده است. همان‌طور که مشاهده می‌شود این توزیع یکنواخت نیست و برای برخی جاذب‌ها نسبت به سایرین، نمونه‌های بسیار بیشتری در بستر جذبشان قرار گرفته‌اند.

 

شکل (19): توزیع نمونه‌های جذب‌شده به نقاط تعادل پایدار شبکة خودانجمنی یک لایه پنهان

رفتار شبکه برای 1503 نمونة دیگر درخور توجه است. مشاهده شد با شروع از این نمونه‌ها در نهایت شبکه حول یکی از تصاویر نشان داده شده در شکل (20) رفتار نوسانی خواهد داشت. شکل (21) این رفتار نوسانی را حول تصویر 1 شکل (20) نشان می‌دهد.

 

     

شکل (20): نقاط تعادلی که شبکة یک لایه پنهان تعلیم داده شده با دادة CK+ به‌ازای برخی شرایط اولیه حول آنها رفتار نوسانی دارد.

در ادامه، وزن‌های شبکة یک لایه پنهان، وزن‌های پیش‌تعلیم‌یافتة شبکة خودانجمنی عمیق فرض شد و بعد از پیش‌تعلیم سایر وزن‌ها تعلیم یک‌پارچة آن صورت گرفت. سپس رفتار شبکه به‌ازای نقطة شروع از ورودی‌های تعلیم داده شده بررسی شد. مشاهده شد شبکة خودانجمنی عمیق دارای 56 جاذب مطابق شکل (22) خواهد بود که برخی از آنها نیز دقیقاً تصاویر تعلیم هستند.

 

شکل (21): مسیر نمونه‌برداری‌شدة رفتار نوسانی حول تصویر 1، تصویر اول از سمت چپ در سطر اول، نقطة شروع است. تصاویر از سطر 8 به بعد مجدداً تکرار شده‌اند.

 

شکل (22): نقاط تعادل پایدار مجانبی شبکة خودانجمنی عمیق تعلیم داده شده با دادة CK+ برای نقاط شروع از نمونه‌های تعلیم.

شکل (23) نیز نحوة جذب‌شدن برای دو تا از تصویرهای ورودی را نشان می‌دهد. همان‌طور که مشاهده شد با افزایش تعداد لایه‌های شبکه، امکان ذخیرة جاذب‌های بیشتری فراهم شد؛ اما به‌نظر می‌رسد برای یادگیری تمام نمونه‌های تعلیم به‌عنوان جاذب به ساختار بسیار بزرگ‌تری نیاز باشد.

 

 

شکل (23): مسیر نمونه‌برداری‌شدة جذب به نقاط تعادل پایدار مجانبی شبکة عمیق با شروع از 2 نمونة تعلیم، تصویر اول از سمت چپ، نقطه شروع است.

2-3- ارزیابی تأثیر روش پیش‌تعلیم با دو روش پیش‌تعلیم در شکل‌گیری جاذب‌ها

با توجه به اینکه در آزمایش قبل مشاهده شد به‌دلیل حجم بالای نمونه‌های تعلیم فقط تعداد کمی از آنها نقاط تعادل شبکة خودانجمنی عمیق نیز شده‌اند. در این بخش از دادگان کوچک CK+ استفاده می‌شود. همان‌طور که قبلاً گفته شده است این دادگان شامل تصاویر مربوط به سه حالت خنثی، تعجب و لبخند برای ده نفر هستند که تصاویر خنثی این ده نفر در شکل (24) نشان داده شده است.

 

شکل (24): تصویرهای خنثی برای هریک از افراد دادة کوچک CK+.

ساختار شبکة خودانجمنی عمیق نیز مانند قسمت قبل است فقط تعداد نورون‌های لایه گلوگاه به 200 افزایش داده شده است. برای پیش‌تعلیم آن از دو روش پیش‌تعلیم لایه‌به‌لایه [17] و لایه‌به‌لایه باسرپرست [14] استفاده شد. مراحل پیش‌تعلیم نقش تعیین‌کننده‌ای در تنظیم ابرصفحات دارند و از سوی دیگر این ابرصفحات هستند که مرزهای تقریبی بستر جذب‌ها را تعیین می‌کنند؛ بنابراین با جهت‌دهی به نحوة تنظیم آنها در مراحل پیش‌تعلیم در چگونگی تشکیل بستر جذب جاذب‌ها مداخله می‌شود. برای شبکة پیش‌تعلیم داده شده با روش لایه‌به‌لایه مشاهده شد که با شروع از 281 نمونة تعلیم، در نهایت خروجی به 40 نقطه ثابت پایدار مجانبی همگرا می‌شود که در شکل (25) نشان داده شده است. همان‌طور که مشاهده می‌شود تمام این نقاط ثابت دقیقاً روی نمونه‌های تعلیم تشکیل شده‌اند و فقط یکی از آنها کمی فاصله دارد. به‌عبارتی با کاهش نمونه‌های تعلیم امکان ذخیرة آنها به‌عنوان نقاط ثابت پایدار در شبکه فراهم شده است. هرچند برخی از این جاذب‌ها ظاهراً مشابه هستند، بررسی دقیق‌تر آنها نشان می‌دهد تفاوت اندکی با هم دارند و این تفاوت اندک در فضای ورودی به اختلاف بیشتر در لایة میانی شبکه نیز منجر شده است؛ برای مثال، دو تصویر پنجم و ششم در سطر دوم در فضای ورودی، میانگین مجذور اختلاف 004/0 را دارند؛ درحالی‌که در لایة میانی این مقدار 0543/0 است.

 

شکل (25): نقاط تعادل پایدار مجانبی شبکة خودانجمنی عمیقتعلیم داده شده با دادة کوچک CK+ با روش پیش‌تعلیم لایه‌به‌لایه برای نقاط شروع از نمونه‌های تعلیم.

همچنین، شکل‌گیری این جاذب‌های نسبتاً مشابه به‌دلیل وجود چند تصویر از یک حالت فرد در دادگان است که شبکه برای آنها نواحی تصمیم مجزا ایجاد کرده است. بار دیگر شبکة خودانجمنی عمیق با روش لایه‌به‌لایه باسرپرست پیش‌تعلیم شد و بعد از تعلیم یک‌پارچه، جاذب‌های آن به‌ازای شروع از نقاط تعلیم تعیین شدند که شکل (26) این جاذب‌ها را نشان می‌دهد. در اینجا در طی پیش‌تعلیم حفظ اطلاعات متمایزکننده حالت مدنظر قرار داده شده است.

 

شکل (26): جاذب‌های شبکة خودانجمنی عمیق تعلیم داده شده با دادة کوچک CK با روش پیش‌تعلیم لایه‌به‌لایه باسرپرست برای نقاط شروع از نمونه‌های تعلیم.

شکل (27) نیز مسیر نمونه‌برداری‌شدة جذب به یکی از این نقاط تعادل پایدار را نشان می‌دهد.

 

شکل (27): مسیر نمونه‌برداری‌شدة جذب به یکی از نقاط تعادل پایدار مجانبی شبکة خودانجمنی عمیق تعلیم داده شده با دادة کوچک CK+ با روش پیش‌تعلیم لایه‌به‌لایه باسرپرست، تصویر اول از سمت چپ، نقطه شروع است.

برای بررسی تأثیر اطلاعات برچسب در طی مراحل پیش‌تعلیم در نحوة شکل‌گیری جاذب‌ها، ماتریس اختلاط[iii] بین حالت‌های مختلف برای شبکة پیش‌تعلیم‌شده با هریک از روش‌ها ارزیابی شده است. این ماتریس‌های اختلاط در جدول (1) و جدول (2) آورده شده‌اند.

جدول (1): ماتریس اختلاط حالت‌ها برای جاذب‌های شبکة خودانجمنی عمیق با روش پیش‌تعلیم لایه‌به‌لایه

برچسب حالت جاذب‌ها

 

تعجب

لبخند

خنثی

 

20%

43/11%

57/68%

خنثی

39/50%

76/38%

85/10%

لبخند

24/63%

93/23%

82/12%

تعجب

جدول (2): ماتریس اختلاط حالت‌ها برای جاذب‌های شبکة خودانجمنی عمیق با روش پیش‌تعلیم لایه‌به‌لایه باسرپرست

برچسب حالت جاذب‌ها

 

تعجب

لبخند

خنثی

 

20%

14/37%

86/42%

خنثی

98/6%

95/82%

08/10%

لبخند

6/90%

55/8%

85/0%

تعجب

 

هر سطر از این جدول‌ها نشان می‌دهند چه درصدی از نمونه‌های با برچسب آن سطر، جذب جاذب‌هایی با برچسب مشخص‌شده برای ستون مربوطه می‌شوند؛ درنتیجه، عناصر روی قطر نشان‌دهندة درصد نمونه‌هایی هستند که جذب جاذب‌هایی با برچسب مشابه خود شده‌اند. با مقایسة عناصر روی قطرهای این ماتریس‌های اختلاط مشاهده می‌شود با روش پیش‌تعلیم لایه‌به‌لایه باسرپرست برای حالت‌های لبخند و تعجب میزان جذب به جاذب‌هایی با برچسب مشابه به‌طور معناداری افزایش می‌یابد. علت کاهش این میزان برای حالت خنثی، تصویر لبخند ضعیف فرد 8ام در دادگان است. همان‌طور که در شکل (28) مشاهده می‌شود برای فرد 8ام شدت حالت لبخند در تصویر ضعیف است و تصویر به حالت خنثی نزدیک است؛ بنابراین، هنگامی که در پیش‌تعلیم لایه‌به‌لایه باسرپرست برای این تصویر، برچسب لبخند تعریف می‌شود، به‌دلیل شباهت حالت این تصویر به حالت خنثی، برخی از تصاویر خنثی جذب جاذب‌هایی با برچسب لبخند می‌شوند.

 

شکل (28): تصویر حالت لبخند فرد 8ام از دادة کوچک CK+

در ادامه به‌منظور رفع این مسئله، تصاویر لبخند فرد 8ام به‌عنوان دادة نامناسب، حذف و پیش‌تعلیم باسرپرست مجدد انجام شد. نتایج این ارزیابی در جدول (3) آورده شده است.

جدول (3): ماتریس اختلاط حالت‌ها برای جاذب‌های شبکة خودانجمنی عمیق با روش پیش‌تعلیم لایه‌به‌لایه باسرپرست با حذف نمونة نامناسب

برچسب حالت جاذب‌ها

 

تعجب

لبخند

خنثی

 

29/14%

86/22%

60%

خنثی

0%

43/90%

57/9%

لبخند

31/92%

0%

69/7%

تعجب

 

در یک مقایسة کلی، متوسط عناصر روی قطرهای این ماتریس‌های اختلاط با در نظر گرفتن تعداد نمونه‌های هر دسته برای DBNN با روش لایه‌به‌لایه 67/52% است؛ درحالی‌که با جهت‌دهی به نحوة تشکیل جاذب‌ها با روش لایه‌به‌لایه باسرپرست این میزان تا 14/81% و با حذف تصاویر لبخند فرد 8ام و پیش‌تعلیم لایه‌به‌لایه باسرپرست تا 27/87% رشد داشته است. همچنین در مقایسة نتایج جدول (2) و درک‌های انسانی از حالت‌های احساسی [18]، همبستگی‌هایی مشاهده می‌شود؛ به‌طوری‌که هردو در اختلاط بین حالت‌های مختلف نقاط مشترکی دارند؛ به‌گونه‌ای‌که برای هردو، اختلاط‌های تصاویر خنثی با لبخند نسبت به اختلاط با تعجب و لبخند با خنثی نسبت به اختلاط با تعجب بیشتر هستند.

3- جمع‌بندی

یکی از کاراترین قابلیت‌های مغز انسان، عملکرد آن به‌عنوان حافظة انجمنی است. این حافظه پیونددهندة بین دانش ورودی با سایر اطلاعات است. بازیابی اطلاعات در این حافظه از یک حالت دلخواه - بازنمایی کدشده از یک تصویر بینایی - آغاز می‌شود و نهایتاً فعالیت مغز به یک حالت دیگر همگرا می‌شود. این حالت، وضعیت پایدار است که قبلاً مغز آن را به خاطر سپرده است [19]. در این مقاله کوششی اولیه در راستای مدل‌کردن این توانمندی با استفاده از شبکه‌های خودانجمنی استخراج‌کنندة مولفه‌های اساسی صورت گرفت. با تحلیل‌های انجام‌شده نشان داده شد برای یک نورون با تابع غیرخطی تانژانت هیپرپولیک با برقراری این اتصال بازگشتی، همواره در محل نمونة تعلیم داده شده و قرینة آن دو جاذب ایجاد می‌شود؛ اما در صورتی که تابع غیرخطی، سیگموئید باشد برای  جاذب، تشکیل و برای مقادیر کمتر از آن نمونة تعلیم‌داده شده دافع می‌شود و در مرز بستر جذب‌های دو جاذب نوسانی قرار می‌گیرد. همچنین، مشاهده شد با افزودن بایاس در روابط برای مقادیر مختلف آن، رفتار نورون تغییر خواهد کرد و لزوماً قانون کلی برای رفتار آن وجود ندارد.‌

در ادامه، رفتار شبکة خودانجمنی تک‌لایه با اتصال بازگشتی تحلیل شده است و نشان داده شد برخلاف شبکة تک‌نورونی که با برقراری شرایط حتماً در محل نمونة تعلیم داده شده یک جاذب پایدار ایجاد می‌شود، برای شبکة تک‌لایة چندبعدی آرایش نمونه‌های تعلیم در نوع تعادلشان نقش دارد. همچنین، آزمایشات نشان دادند با افزایش تعداد لایه‌های شبکة خودانجمنی، قابلیت ذخیرة جاذب‌های بیشتری فراهم می‌شود. همچنین، مشاهده شد جهت‌دهی به نحوة تشکیل جاذب‌ها با روش لایه‌به‌لایه باسرپرست در شبکة خودانجمنی به‌عنوان روشی برای کنترل مرز بستر جذب‌ها مؤثر واقع می‌شود. در مقایسة نتایج این روش و درک‌های انسانی از حالت‌های احساسی نیز مشاهده شد هردو در اختلاط بین حالت‌های مختلف نقاط مشترکی دارند؛ به‌گونه‌ای‌که برای هردو، اختلاط‌های تصاویر خنثی با لبخند نسبت به اختلاط با تعجب و لبخند با خنثی نسبت به اختلاط با تعجب بیشتر هستند.



[1]تاریخ ارسال مقاله: 06/11/1393

تاریخ پذیرش مقاله: 16/04/1397

نام نویسندۀ مسئول: سیده زهره سیدصالحی

نشانی نویسندۀ مسئول: ایران ـ تهران ـ دانشگاه صنعتی امیرکبیر، دانشکدة مهندسی پزشکی



[i] Hypersurface

[ii] Cohn-Kanade

[iii] Confusion Matrix

 

 

[1] Hou Y., Yao L., and He P., "Robust Nonlinear Dimension Reduction: A Self-organizing Approach", in Fuzzy Systems and Knowledge Discovery, ed: Springer, pp. 67-72, 2005.

[2] Huang D., Yi Z., and Pu X., "Manifold-based Learning and Synthesis", IEEE Transactions on Systems, Man, and Cybernetics, Part B: Cybernetics, Vol. 39, No. 3, pp. 592-606, 2009

[3] Moghadam S.M. and Seyyedsalehi S.A., " Nonlinear analysis and synthesis of video images using deep dynamic bottleneck neural networks for face recognition", Neural Networks, Vol. 105, pp. 304–315, 2018.

[4] .Seow M.- J. and Asari V.K., "Learning a Perceptual Manifold", in Proceedings of the ninth international conference on cognitive and neural systems, 2005.

[5] Seow M.-J. and Asari V.K., "Recurrent Neural Network as a Linear Attractor for Pattern Association", IEEE Transactions on Neural Networks, Vol. 17, No. 1, pp. 246-250, 2006.

[6] Nejadgholi I., Seyyedsalehi S.A., and Chartier S., "A Brain-Inspired Method of Facial Expression Generation Using Chaotic Feature Extracting Bidirectional Associative Memory", Neural Processing Letters, Vol. 46, pp. 943-960, 2017.

[7] Trappenberg T.P., "Continuous Attractor Neural Networks", Recent developments in biologically inspired computing, pp. 398-425, 2003.

[8] Saul L.K. and Jordan M.I., "Attractor Dynamics in Feedforward Neural Networks", Neural computation, Vol. 12, No. 6, pp. 1313-1335, 2000.

[9] Diamantaras K.I. and Kung S.Y., Principal Component Neural Networks: Wiley New York, 1996.

[10] Chartier S. and Boukadoum M., "A Bidirectional Heteroassociative Memory for Binary and Grey-level Patterns", IEEE Transactions on Neural Networks, Vol. 17, No. 2, pp. 385-396, 2006.

[11]  Amini N. and Seyyedsalehi S.A., "Manipulation of attractors in feed-forward autoassociative neural networks for robust learning", Electrical Engineering (ICEE), 2017 Iranian Conference on, pp. 29–33, 2017.

[12]  Seyyedsalehi S.Z. and Seyyedsalehi S.A., "Improvement of Autoassociative Neural Networks by Attractor Dynamics", ICBME2012.

[13]  Kulenovic M.R. and Merino O., Discrete Dynamical Systems and Difference Equations with Mathematica: Chapman and Hall/CRC, 2010.

[14] Seyyedsalehi S.Z. and Seyyedsalehi S.A., "Simultaneous Learning of Nonlinear Manifolds Based on the Bottleneck Neural Network", Neural Processing Letters, Vol. 40, No. 2, pp. 191-209, 2014.

[15]  Lucey P., Cohn J. F., Kanade T., Saragih J., Ambadar Z., and Matthews I., "The Extended Cohn-Kanade Dataset (CK+): A Complete Dataset for Action Unit and Emotion-specified Expression", in 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), pp. 94-101, 2010.

[16] Mohammadian, A., Aghaeinia, H., & Towhidkhah, F. "Video-based Facial Expression Recognition by Removing the Style Variations", Image Processing, IET, Vol. 9, No. 7, pp. 596-603, 2015.

[17]  Seyyedsalehi S.Z. and Seyyedsalehi S.A., "A Fast and Efficient Pre-training Method Based on Layer-by-layer Maximum Discrimination for Deep Neural Networks", Neurocomputing, Vol. 168, pp. 669–680, 2015.

[18] Calder A., Rhodes G., Johnson M., and Haxby J., Oxford Handbook of Face Perception, Oxford University Press, 2011.

[19] Seow M.-J., Asari V.K., and Livingston A., "Learning as a Nonlinear Line of Attraction in a Recurrent Neural Network", Neural Computing and Applications, Vol. 19, No. 2, pp. 337-342, 2010.