۱۳۸۷ اسفند ۶, سه‌شنبه

خود آگاهی مصنوعی

به دليل نوع کار پژوهشی ام در نجوم همواره مجبورم با کامپيوتر، برنامه نويسی و استفاده از الگوريتم های بهينه درگير باشم. برای من مشابهت کارکرد دنيای بی جان کامپيوتر با شبکه های عصبی بيولوژيک هيجان انگيز ترين بخش علم کامپيوتر است . حقيقتش دوست داشتم به اندازه ی کافی وقت داشتم که می توانستم به اين مقوله از علم هم وارد شوم. ولی حيف که در اين دنيای حرفه ای گری تنها می بايست همه فکر ها را در يک کاسه ريخت، بگذريم.
ببينيم بين اين دنيای بی جان و آن جان دار چه شباهتی است. در دنيای سخت افزار عمل گرها ی پايه از ترکيب دروازه هايی تعريف شده اند که مثلا می تواند عمل جمع دو عدد در آن انجام شود. ترکيب اين ريز عمل گر ها در داخل يک چيپ می تواند از تصويرگری گرفته تا خواندن و اجراء يک برنامه را در کامپيوتر عملی کند. با توجه به عمل يک رشته ی عصبی در دريافت يک سری داده های ورودی و خروج نتيجه ی فرايند تحت يک الگوريتم مشخص، به نظر می رسد بين اين دو سيستم بی جان و بيولوژيک از اين نقطه نظر اختلافی وجود نداشته باشد. دوست داشتم می شد اين هم ارزی را مثلا با انجام دادن عمل جمع توسط يک رشته شبکه بيولوژيک نشان داد. واضح است که در اين آزمايش سيگنال های باينری می بايست به صورت سيگنال های قابل فهم به يک سلول عصبی خورانده شود.
اما چرا شبکه بيولوژيک عصبی وقتی از يک حد بزرگ تر شده و پيچيده تر می شود می تواند احساس خود آگاهی داشته باشد ؟ من خود آگاهی را به اين صورت تعريف می کنم که سيستم منطقی بتواند در مقابل داده های پيچيده و بحرانی از حالت تعادل خارج شده و دوباره بتواند به حالت پايه ی خود بر گردد. داده های بحرانی را داده هايی تعريف می کنم که همبسته باشد با بقای سيستم. در مورد عمل گر های کامپيوتر با افزايش اجزا و پيچيده تر کردن آنها شايد بتوان همان جواب های ترکيبی را از آن انتظار داشت، ليکن يک چيپ کامپيوتری چيزی از بقای بهينه و نابودی نمی داند. فکر می کنيد اگر عمل گر نابودی در داخل يک سخت افزار تعريف کنيم چه اتفاقی می افتد؟ می توان سخت افزار را طوری طراحی کرد که در آن بقا به صورت محدود کردن دسته از فضای جواب ها باشد. اين جواب ها در بالاترين درجه ی اهميت قرار داده شوند و الگوريتم های شرطی طوری کار کنند که همواره جواب ها در حفظ بقای سيستم عمل کند. در اين صورت با نزديک شدن به جواب های ممنوعه الگوريتم خود را طوری عوض کند که از جواب ممنوعه دوری کند. در ضمن سيستم تعريف شده برگشت پذير هم باشد. فکر کنم بشود اين سيستم را حدالمکان شبيه سازی کرد. در اين صورت خروجی های اين برنامه مسئله بقا را همواره مد نظر خواهند داشت و اين يعنی خود آگاهی !
اگر اين استدلال درست باشد در آن صورت می توان عمل گر های خودآگاه ( زنده) در داخل يک شبکه ی سخت افزار داشته باشيم. اگر شد، فقط مواظب باشيد اين موجودات زبان بسته را با
Delete کردن نکشيد !

۵ نظر:

ناشناس گفت...

سلام! (:

مطمئن نیستم تعریف‌تان را از خودآگاهی («من خود آگاهی را به اين صورت تعريف می کنم که سيستم منطقی بتواند در مقابل داده های پيچيده و بحرانی از حالت تعادل خارج شده و دوباره بتواند به حالت پايه ی خود بر گردد») درست فهمیده باشم.

کدام تعادل منظورتان است؟ تعادل تازه‌ای که داده‌های بحرانی ایجاد کرده‌اند؟
و سیستم پایه چیست؟ یک نقطه‌ی تعادل دیگر؟ که مثلا نقطه‌ی تعادل «مطلوب» است؟
و باز برای‌ام مشخص نیست منظور از این‌که داده‌ای با بقای سیستم هم‌بسته باشد چیست. منظور آیا این است که ورودی‌هایی که سیستم را ممکن است به حالت‌ای برسانند که بقای‌اش -با هر تعریفی- به خطر بیافتد، همان «داده‌های» بحرانی هستند؟

اگر همه‌ی این‌ها درست باشد، این تعریف‌تان شبیه به توصیف یک سیستم دینامیکی‌ای است که نقطه‌ی تعادل «پایداری» دارد و نسبت به تغییر از آن نقطه مقاومت نشان می‌دهد.
طبیعتا می‌توان تابع انرژی‌ای نیز تعریف کرد و گفت که این سیستم دارد آن تابع انرژی را بهینه‌سازی می‌کند.
کسانی که در دهه‌ی چهل و پنجاه روی سایبرنتیک کار می‌کردند به چنین مفاهیمی فکر می‌کردند. بعد از مدتی کارهای آن‌ها به چند زیرشاخه تقسیم شد که یکی‌اش تئوری‌ی کنترل بود که راجع به رفتار سیستم‌های دینامیکی صحبت می‌کرد (البته ریشه‌ها و ابزارهای تئوری‌ی کنترل قدیمی‌ترند).

هم‌چنین طبیعی است که کسانی که روی AI کار می‌کنند نیز بر روی مسایلی شبیه به همین کار کنند. بعضی‌ها ممکن است سعی در مدل‌سازی‌ی ریاضی‌ی یادگیری بکنند، بعضی‌ها ممکن است رفتار جمعیت موجوداتِ در محیط قرار-گرفته را تحلیل کنند، بعضی‌ها هم ممکن است سعی کنند المان‌های اصلی‌ی هوش‌مندی و تفکر را تا حد ممکن به صورت عمل‌گرهایی در فضای مجرد در بیاورند و غیره و غیره.
در واقع آن‌قدر تعداد زیرشاخه‌های مرتبطی که در علوم مختلف روی این زمینه کار کرده‌اند زیاد است که من در حال حاضر جرات ندارم سعی کنم خلاصه‌شان کنم (جدا از این‌که با بخش بزرگی از آن‌ها آشنا نیستم).


اما همه‌ی این‌ها به کنار، من تصور می‌کنم این تعریف شما، تعریف خوبی برای «خودآگاهی» نیست. اگر برداشت من درست بوده باشد، سیستم‌های زیادی (چه بیولوژیکی و چه غیر بیولوژیکی) در چنان تعریف‌اش صدق می‌کنند ولی ما به طور معمول -و در زبان طبیعی- آن‌ها را خودآگاه نمی‌نامیم.
البته در نهایت باید اذعان کنم که ارایه‌ی تعریف‌ای همه‌پسند از خودآگاهی احتمالا به این زودی‌ها میسر نمی‌شود.

ناشناس گفت...

سلام

از نکاتی که اشاره کرديد ممنونم.

منظور من از تعادل حالت پايه ای است که يک الگوريتم به صورت طبيعی کار می کند و ورودی های بحرانی را تعريف کنيم داده هايی که به جواب های مممنوعه در فضای جواب ها نزديک هستند. در اين صورت خروج از تعادل را تعريف کنيم, اختلال در الگوريتم ( که البته اين قابليت در سيستم می بايست ايجاد شود) به نحوی که روند اصلی الگوريتم کاملا به هم نريزد.
برای مثال زمانی که شرايط محيطی يک تک سلولی مختل می شود, بسته به شرايط جديد اين موجود خود آگاه عکس العمل نشان می دهد تا از شرايط پيش آمده دوری کند در حالی که الگوريتم پايه آن که اعمال زيستی است تنها کمی مختل می شود. در مورد سيستم های ديناميکی فکر کنم اين مسئله بر قرار نيست چرا که اين نوع سيستم ها هيچ نوع ورودی و خروجی ندارد.

به هر حال مطلب نوشته شده ( خود آگاهی مصنوعی) محصول استراحت در خانه ی يک روز تعطيل غير متخصص در اين رشته بود. برای من استراحت و خواب بهترين راه برای دريافت ايده ها, هر چند نا پخته است.

ناشناس گفت...

ممنون از توضیح‌تان. (:
به نظرم فکرکردن به زمینه‌های متفاوت از تخصص هر شخص خیلی هم خوب است. گاهی در همین بحث‌های میان‌رشته‌ای چیزهای جدیدی کشف می‌شود.

در مورد سیستم دینامیکی، منظور من چیزی بود که کنترلی‌ها به آن controlled dynamical systems می‌گویند.
توصیف‌اش می‌تواند چنین چیزی باشد:

dx/dt = f(x,u)
y = g(x)


که در آن x حالت (state) سیستم در نظر گرفته می‌شود و u هم ورودی‌ی آن سیستم و y نیز خروجی‌ی آن.
هرگونه اختلال‌ای از طریق u وارد می‌شود.

Qasem گفت...

از آن طرف به قضیه داستان جور دیگری می‌شود. این که پایان هر چیزی که ما به آن خود آگاهی نسبت می‌دهیم مثل و به همان ساده‌گی‌ی دِلِت کردن یک فایل است.

ناشناس گفت...

بهتره همه تو پروژه باغ وحش کهکشانها شرکت کنیم
www.galaxyzoo.org