لطفا منتظر بمانید، در حال بارگذاری ...

مقاله آیا کامپیوتر دارای ذهن است؟ رویکرد انتقادی جان سرل به تفسیر قوی از هوش مصنوعی-فصلنامه ذهن-رضا اکبری

گنجینه معارف
آیا کامپیوتر دارای ذهن است؟ ؛ رویکرد انتقادی جان سرل به تفسیر قوی از هوش مصنوعی
تاریخ انتشار : 1388/9/19
بازدید : 2922
منبع : فصلنامه ذهن، شماره 5 , اکبری، رضا

اشاره
جان سِرل فیلسوف برجسته ذهن و زبان در دوره معاصر است که از سال 1959 تا کنون در دانشگاه کالیفرنیا در برکلی به تدریس اشتغال دارد. وی دارای تألیفات و آثار فراوانی است ازجمله کتاب اَعمال گفتاری (Speech Acts) و حیث التفاتی (intentionality) و آخرین کتاب وی با نام ساخت واقعیت اجتماعی (The Construction of Social Reality) است که در سال 1995 منتشر گردیده است.

در این مقاله دیدگاه وی درباره نقد تفسیری قوی از هوش مصنوعی، تبیین می گردد. وی در عین باور به این که کامپیوتر می تواند به مثابه ابزار، در مطالعه ذهن مؤثر باشد، این اعتقاد را که کامپیوتر درصورت برنامه ریزی کامل، می تواند واقعا یک ذهن باشد مردود می داند.

***
تا چه میزان به کارهای انجام شده در باب شبیه سازی توانایی های انسان در کامپیوتر، لازم است توجه فلسفی و روانشناختی داشته باشیم؟ سرل(1) در مقام پاسخ به این سؤال میان دو نوع تفسیر از هوش مصنوعی(2) تمایز می نهد. تفسیر قوی(3) و تفسیر ضعیف(4) (محتاطانه). براساس تفسیر ضعیف از هوش مصنوعی، ارزش اساسی کامپیوتر در مقام مطالعه ذهن آن است که در این مقام ابزاری قدرتمند را در اختیار ما می نهد. اما براساس تفسیر قوی از هوش مصنوعی، کامپیوتر فقط ابزاری برای مطالعه ذهن نیست، بلکه کامپیوتری که به نحوی کامل برنامه ریزی شده باشد، واقعا یک ذهن است. به عبارت دیگر کامپیوتری که به نحو کامل برنامه ریزی شده باشد، می تواند همچون انسان مطالب را بفهمد و واجد حالات ذهنی می باشد. براساس تفسیر قوی از هوش مصنوعی اسناد فهم به کامپیوتر، به هیچ وجه اِسنادی مجازی نیست، بلکه اسنادی حقیقی می باشد. در تفسیر قوی از هوش مصنوعی، به دلیل اینکه کامپیوتر برنامه ریزی شده، واقعا دارای حالات ذهنی قلمداد می شود، برنامه آن صرفا ابزاری در دست ما برای آزمایش های روانشناختی و تبیین های روانشناختی از ذهن بشر نیست، بلکه خود برنامه ها همان تبیین های روانشناختی محسوب می شوند.

سرل با تمایزی که میان این دو تفسیر می نهد، بیان می کند که اشکالات او متوجه تفسیر قوی از هوش مصنوعی است. او خصوصا این ادعا را که کامپیوتر برنامه ریزی شده، دارای حالات ذهنی شناختی است مورد انتقاد قرار می دهد و از این رو معتقد است که برنامه های کامپیوتری نمی توانند همان تبیین از شناخت انسان باشند. از آنجا که مقصود، نقد تفسیر قوی از هوش مصنوعی است، در ادامه هر جا که هوش مصنوعی گفته می شود، مقصود همین تفسیر قوی است که مشتمل بر دو ادعاست. 1 کامپیوتر برنامه ریزی شده و به تعبیر دیگر کامپیوترِ واجد نرم افزار، دارای حالات شناختی است و 2 برنامه ها و به تعبیر دیگر، نرم افزار، تبیین کننده شناخت بشر هستند.

سرل، برای ورود به بحث، پروژه کامپیوتری راجر اِشنَک(5) و گروه او را مبنایی برای آغاز نقد خود قرار می دهد. البته همانگونه که خود سرل می گوید آغاز بحث با مقدمه قراردادن این پروژه و نه دیگر پروژه های کامپیوتری به خاطر آشنایی بیشتر خود او با پروژه مذکور است. البته سرل

این نکته را نیز متذکر می شود که او به جزئیات این پروژه توجه چندانی نخواهد داشت و نیز سخنان او متوجه پروژه هایی شبیه پروژه اشنک نیز می گردد.

اما پروژه اشنک چیست؟ به طور خلاصه، هدف نرم افزاری که او و گروهش طرح ریزی کرده اند، شبیه سازی قدرت فهم داستان توسط انسان است. هنگامی که انسان داستانی را می شنود، این توانایی را دارد که به سؤال هایی پاسخ دهد که پاسخ آنها صریحا در خود داستان ذکر نشده است. مثلاً این داستان را در نظر بگیرید که مردی به غذاخوری می رود و چلوکباب سفارش می دهد. هنگامی که غذا حاضر می شود، با نگاهی به غذا درمی یابد، که کباب خوب پخته نشده و برنج نیز دم نکشیده است. لذا با عصبانیت از پخت غذا انتقاد می کند و بدون اینکه مبلغی پرداخت کند یا انعامی به کارگران بدهد، غذاخوری را ترک می کند. حال اگر سؤال شود که آیا این شخص غذا خورده است؟ شما پاسخ می دهید که خیر او غذا نخورده است. حال این داستان دیگر را در نظر بگیرید که فردی وارد غذاخوری می شود و چلوکباب سفارش می دهد. هنگامی که غذا حاضر می شود، با نگاهی به غذا درمی یابد که غذا بسیار مطبوع است. او قبل از اینکه از غذاخوری بیرون برود، به کارگران مقدار زیادی انعام داده و پول غذا را نیز حساب می کند. حال اگر پرسیده شود که آیا این شخص غذا خورده است یا خیر؟ شما پاسخ می دهید که مطمئنا او غذا خورده است. در هر دو مورد صریحا ذکر نشده است که آیا این فرد غذا خورده است یا خیر. ولی این توانایی را داریم که به این سؤال پاسخ دهیم. کامپیوترهایی که با نرم افزار اشنک برنامه ریزی شده اند توانایی پاسخ به چنین سؤالاتی را در باب مسائل مربوط به غذاخوری دارند. اشنک برای این کار، مجموعه اطلاعاتی را که انسان برای پاسخگویی به چنین سؤالاتی پیرامون غذاخوری نیاز دارد، در اختیار کامپیوتر قرار داده است و لذا با ذکر چنین داستان هایی، کامپیوتر پاسخی را تایپ می کند، که ما توقع داریم هر انسانی آن را بیان کند. مدافعان هوش مصنوعی، ادعا می کنند که در این پرسش و پاسخ، مسأله این نیست که کامپیوتر، توانایی انسان را در این حیطه شبیه سازی کرده است، بلکه می توان گفت: که اولاً کامپیوتر واقعا داستان را می فهمد و پاسخ های لازم به سؤالات را مهیا می کند و ثانیا کامپیوتر و برنامه آن کاملاً توانایی انسان را در فهم داستان و پاسخ به سؤالات مربوط به آن را تبیین می کند.(6)

سرل معتقد است که هیچ یک از این دو ادعا را نمی توان بر پایه پروژه اشنک استوار کرد و پروژه او به هیچ وجه، هیچ یک از این دو ادعا را اثبات نمی کند. سرل برای نقد دیدگاه هایی که درباره ذهن مطرح می شود، ملاکی را معرفی می کند. او معتقد است که یکی از بهترین راههای بررسی صحت و سقم این نظریات آن است که بپرسیم، اگر ذهن انسان چنان که این نظریه معرفی کرده و براساس اصولی که این نظریه بر آن استوار است فعالیت کند، شبیه چه چیزی خواهد بود؟(7)

براین اساس او یک حالت فرضی را مطرح می کند که در آن، اصولی که در دیدگاه طرفداران هوش مصنوعی بنا شده بر پروژه اشنک مدنظر قرار گرفته است، رعایت شده اند. حال آنکه شعور و ادراک انسان در چنین حالتی تحقق ندارد. این حالت فرضی که دیدگاه طرفداران هوش مصنوعی را نفی می کند به «برهان اتاق چینی»(8) معروف است. حالت فرضی ای که سرل بیان می کند چنین است: «فرض کنید که من در اتاقی محبوس شده ام و دسته ای از نوشته های چینی در اختیار من قرار گرفته است. در حالی که من اصلاً زبان چینی را کتباً و شفاهاً نمی دانم و حتی قادر نیستم که زبان چینی را از زبان ژاپنی تمییز دهم و هر دو برایم نه به عنوان زبان چینی یا زبان ژاپنی، بلکه به عنوان علامت هایی کاملاً بی معنا که مثلاً فردی بی کار آنها را ترسیم کرده است به نظر می آید. حال فرض کنید که دسته دیگری از نوشته های چینی در اختیار من قرار می گیرد و نیز مجموعه دستوراتی را دریافت می کنم که براساس آن، دسته اول نوشته های چینی و دسته دوم آنها را با یکدیگر ارتباط می دهم. مجموعه قواعد و دستوراتی که دریافت کرده ام به زبان انگلیسی است و من مانند هر فرد دیگری که زبان انگلیسی، زبان مادری اوست آن را می فهمم. با استفاده از این قواعد، من قسمتی از نوشته های دسته اول را با قسمتی از نوشته های دسته دوم مرتبط می کنم با این توضیح که من فقط از طریق تفاوتی که در شکل این علامت ها وجود دارد، این کار را انجام می دهم.

حال فرض کنید که دسته سومی از علامت های چینی و مجموعه دستوراتی به زبان انگلیسی در اختیار من قرار می گیرد، که مرا قادر می سازد این دسته از علامت های چینی را با دو دسته دیگر مرتبط سازم. این مجموعه دستورات به گونه ای است که در صورت دادن علامت های چینی با شکل های خاص خود، می توانم از جعبه اول، علامت های چینی دیگری را با شکل های خاص خود به بیرون از اتاق بیفکنم. حال در نظر بگیرید افرادی که این سه دسته از علائم چینی را در اختیار من قرار داده اند، به دسته اول، «حروف»، به دسته دوم «داستان» و به دسته سوم «سؤالات» می گویند هر چند که من به هیچ وجه از این مسأله آگاهی ندارم. همین افراد به علامت های چینی که من در پی دریافت دسته سوم سؤالات به بیرون از اتاق می اندازم، «پاسخ به سؤالات» و به قواعدی که به زبان انگلیسی در اختیار من قرار داده شده است، «برنامه» اطلاق می کنند. و من از این دو نامگذاری نیز کاملاً بی اطلاع هستم. حال فرض کنید که در پی تمرین و خواندن قواعد انگلیسی و به کار بردن آنها، چنان مهارتی پیدا کنم که افراد خارجی افرادی که نمی دانند من اصلاً زبان چینی را بلد نیستم چنین بپندارند که شخص موجود در اتاق کاملاً به زبان چینی مسلط است خصوصا اینکه مهارت من به حدی باشد که با پاسخهای کسی که زبان چینی زبان مادری اوست، هیچ تفاوتی نداشته باشد.

چنین وضعیتی، وضعیت یک کامپیوتر است: یعنی پاسخهای من به سؤالات چینی علامت هایی که من حتی نمی دانم در برگیرنده یک سؤال هستند و علامت هایی که بیرون می اندازم و نمی دانم که دربرگیرنده جواب می باشند، صرفا انجام عملیات کامپیوتری است و هیچ گونه فهمی نسبت به علامت ها در من وجود ندارد.

حال با تصور این حالت فرضی، به ادعای دیدگاه هوش مصنوعی بازگردیم: دیدگاه هوش مصنوعی معتقد است که کامپیوتر برنامه ریزی شده، دارای قدرت فهم داستان است و برنامه کامپیوتر نیز تبیین کننده فهم انسان می باشد. با حالت فرضی ذکر شده، می توان این دو ادعا را مورد بررسی قرار داد.

1 در باب ادعای اول باید بگوییم که در حالت فرضی ذکر شده، کسی که در اتاق محبوس است به هیچ وچه زبان چینی را نمی فهمد. در چنینی وضعیتی فردی که در داخل اتاق است، فقط دارای داده ها و پرداخته هایی است که البته از نظر ناظر بیرونی، با آنچه که یک چینی کسی که زبان مادری او، زبان چینی است ارائه می کند، تفاوتی نخواهد داشت. نوع نرم افزار نیز در اینجا رهگشا نیست: یعنی هر نوع نرم افزاری نیز که جایگزین شود تأثیری در عدم فهم من نسبت به زبان چینی نخواهد داشت. به همین علت، کامپیوتر اشنک که با نرم افزار او برنامه ریزی شده است، هیچ داستانی را نمی فهمد؛ چه داستان به زبان انگلیسی، چینی و یا هر زبان دیگر باشد.

2 در باب ادعای دوم باید گفت که نرم افزار کامپیوتر نمی تواند تبیین کننده فهم انسان باشد؛ زیرا با توجه به مثال فرضی، معلوم شد که نرم افزار دارای کارکرد است نه فهم. ممکن است گفته شود هر چند که نرم افزار تبیین کننده تمام شروط فهم در انسان نیست، اما می تواند شروط کافی را در این زمینه در اختیار ما قرار دهد؛ زیرا به نظر می آید در هنگام فهم داستان توسط انسان، هر شخصی از یک کارکرد ذهنی همانند آنچه در نرم افزار کامپیوتر تعبیه شده است استفاده می کند.

سرل معتقد است که این سخن دارای امکان تجربی می باشد، اما در مورد مثال فرضی ذکر شده، این امر ممکن، تحقق ندارد.(9) سرل بیان می کند که در مورد اتاق چینی، برنامه هیچ ارتباطی به فهم داستان توسط شخص انگلیسی زبان ندارد. حال اگر فرض کنیم که سؤالات، داستان و پاسخهای شخص محبوس در اتاق به زبان انگلیسی باشد، او همه چیز را خواهد فهمید برعکس موردی که همه علامت ها غیر از قواعد، به زبان چینی باشد اما فهم او در اینجا نیز ربطی به برنامه ندارد. چون که برنامه بر روی علامتهایی که به نحو صوری نه معنایی مشخص شده اند، عمل می کند و شکل ظاهری ارتباطی با معنا ندارد. به دیگر سخن، انسان می تواند از برنامه ای تبعیت کند بدون اینکه بفهمد چه می کند و این نشان دهنده عدم ارتباط فهم با برنامه می باشد.

استدلال سرل، در نفی فهم از کامپیوتر و اینکه نرم افزار کامپیوتر تبیین کننده فهم انسان نیست، استدلالی کارآمد است و افرادی همچون «نِدبلاک» به این مسأله اعتراف کرده اند.(10) در عین حال پاسخ های متعددی نیز در نفی استدلال سرل ذکر شده است که سرل به آنها پاسخ می دهد و موارد مذکور را نفی کننده استدلال خود نمی داند. اما قبل از پرداختن به اشکالات و پاسخ ها، توضیح یک مطلب ضروری است.

ممکن است کسی بگوید که «فهم»، مفهومی متواطی نیست که فقط دارای صدق در مواردی و عدم صدق در موارد دیگر باشد، بلکه مفهومی مشکک است که مراتب مختلفی را دربرمی گیرد و مصادیق گوناگونی را شامل می شود. بر همین اساس می توان فهم، را هر چند در حیطه پایین تر به کامپیوتر نسبت داد. در مقابل چنین سخنی باید گفت که هر چند فهم، در مواردی مشکک است اما به این معنا نیست که بتوان آن را در همه موارد به کار برد. مثلاً من زبان فارسی را می فهمم و در درجه بعدی زبان عربی و در درجه ای پایین تر زبان انگلیسی را نیز می فهمم ولی اصلاً زبان چینی یا اسپانیایی را نمی فهمم. مسأله در کامپیوتر نیز با توجه به مثال فرضی ذکر شده چنین است: یعنی کامپیوتر به هیچ وجه دارای فهم نبوده و فقط یک پردازشگر می باشد.

از سوی دیگر، گاهی به صورت مجازی، اصطلاحات مربوط به فهم را به اشیاء پیرامون خود نسبت می دهیم. مثلاً می گوییم که «دَر» می داند چه موقعی باز و بسته شود و این به خاطر داشتن سلول فتوالکتریک است. یا می گوییم که دماسنج، تغییرات محیط را درک می کند. در صورتی که مقصود طرفداران هوش مصنوعی از فهم همین استفاده مجازی باشد، کل بحث ما، بحثی لفظی خواهد بود. اما با مراجعه به دیدگاه طرفداران هوش مصنوعی، متوجه می شویم که مقصود آنان از فهم کامپیوتر همان فهمی است که مثلاً به انسان در باب زبان مادری یک فرد نسبت داده می شود. این امر سبب می شود که بحث، صرفا بحثی لفظی نباشد.

پاسخهای داده شده در مقام نفی استدلال سرل

***1- این مثال بیان می کند که فرد محبوس در اتاق، زبان چینی را نمی فهمد. این چیزی است که ما نیز مخالفتی با آن نداریم. اما باید توجه داشت که این فرد، بخشی از یک ساختار متشکل از اجزاء است و کل این ساختار دارای فهم است. به عبارت دیگر «فهم» به فرد محبوس در اتاق اِسناد داده نمی شود، بلکه به کل ساختار، اعم از فرد، علامت ها، اتاق و…، نسبت داده می شود. این اشکال به «پاسخ ساختاری»(11) معروف است و ناشی از کارهایی است که در دانشگاه «برکلی» صورت گرفته است.

سرل در پاسخ به این اشکال، همه اجزای ساختار را درونی می کند. او مثال را تغییر می دهد و بیان می کند فرض کنیم که فرد، همه قواعد و علامت های چینی را حفظ کند و تمام محاسبات را به جای اینکه روی کاغذ انجام دهد، در مغز خود به انجام رساند و نیز به جای اینکه در اتاقی محبوس باشد در فضای باز که همگان او را مشاهده می کنند موجود باشد. آیا چنین کارهایی سبب می شود که او زبان چینی را بفهمد؟ مطمئنا خیر! در این وضعیت، این شخص تمام ساختار یک کامپیوتر را در درون خود جمع کرده است ولی برخلاف ادعای مستشکل، نسبت به زبان چینی فهمی پیدا نکرده است.

***2- پاسخ دیگری که به استدلال سرل داده شده «پاسخ روباتی»(12) است و ناشی از کارهایی است که در دانشگاه «ییل» انجام شده است. این گروه گفته اند: فرض کنید که نرم افزار دیگری را براساس نرم افزار اشنک بنویسم و کامپیوتری را داخل یک روبات قرار دهیم. از طرف دیگر این کامپیوتر صرفا داده ها و پرداخته هایی براساس زبان صوری نداشته باشد، بلکه روبات را اداره کند. مثلاً کارهای روبات مثل ادارک، قدم زدن، حرکت کردن، کوبیدن میخ، خوردن، نوشیدن و هر چیز دیگر را اداره کند و فرض کنید که مثلاً روبات دارای دوربینی باشد که او را قادر به دیدن اطراف می کند و نیز دست و پا داشته باشد تا بتواند به وسیله آنها کارهایی را انجام دهد، و البته همه این کارها توسط همان کامپیوتر کنترل شود. در چنین صورتی، این روبات برخلاف کامپیوتر برنامه ریزی شده توسط اشنک، دارای فهم خواهد بود.

سرل در مقام پاسخ بیان می کند که در این سخن پیشرفتی نسبت به مورد اول مشاهده می شود و آن اینکه این دیدگاه، فهم را منحصر در سمبول ها و علامات نمی سازد، بلکه امور دیگری را نیز در باب فهم مدنظر قرار می دهد. در این دیدگاه ارتباط علّی با جهان اطراف نیز در مفهوم «فهم» مدنظر قرار گرفته است. در عین حال چنین امری تأثیری در مسأله فهم ندارد. سرل می گوید: فرض کنید به جای کامپیوتر مرا در روبات قرار دهند و همان علامت های چینی را حتی در حدی بیشتر در اختیار من قرار دهند. و فرض کنید که برخی از این علامت ها از طریق تلویزیون در اختیار من قرار گیرد و برخی از علامت های چینی که براساس قواعد انگلیسی در عنوان پرداخته حاصل می شود، سبب حرکت موتوری می شود که در روبات قرار دارد و آن را به حرکت وا می دارد. در تمام این حالات آنچه من می دانم فقط قواعد انگلیسی و شکل متفاوت علامت هاست و از اینکه این علامت ها چگونه حاصل می شود و یا پرداخته های من باعث حرکت موتور روبات می شود، کاملاً بی اطلاع هستم. بنابراین در چنین وضعیتی نیز من هیچ چیز درباره زبان چینی نمی فهم و تنها از قواعدی در باب ارتباط علامت های مختلف که از معنای آنها و اینکه چه هستند کاملاً بی اطلاعم پیروی می کنم.

***3- پاسخ سوم به استدلال سرل، به پاسخ «شبیه سازی مغزی»(13) مشهور است. این امر نیز ناشی از کارهایی است که در دانشگاه های «برکلی» و «ام.ای.تی» صورت گرفته است. فرض کنیم که به جای نوشتن برنامه ای همچون نرم افزار اشنک که در برگیرنده اطلاعاتی در باب جهان و نحوه رفتار انسان در موارد متعدد است (مثلاً رفتاری که پس از فهمیدن یک داستان از او سر می زند و به سؤالی خاص، پاسخی خاص می دهد) انفعالات عصبی را در «سیناپس»های مغز فردی که زبان چینی، زبان مادری اوست به هنگام شنیدن داستانی به زبان چینی و فهمیدن آن، در کامپیوتر شبیه سازی کنیم. در چنین صورتی، با دادن اطلاعات به کامپیوتر، نرم افزار آن اجازه می دهد که همانند فردی چینی زبان، داستان را پردازش کرده و پاسخی را به عنوان پرداخته در اختیار ما قرار دهد. بنابراین، در این حالت، مطمئنا کامپیوتر زبان چینی را می فهمد زیرا اگر کسی این مسأله را انکار کند، لازم است فهم داستان توسط یک چینی زبان را نیز انکار کند؛ چرا که کامپیوتر دقیقا براساس فعالیت عصبی یک فرد چینی زبان، در مورد فهم داستان، شبیه سازی شده است.(14) حتی می توان شبیه سازی را دقیقتر کرد به گونه ای که همچون مغز که فعالیت عصب های آن به صورت موازی می باشد برنامه کامپیوتر به گونه ای باشد که پردازش اطلاعات را به صورت موازی انجام دهد، نه اینکه با پردازش یک مسأله به مسأله دیگر بپردازد.

پاسخ سرل به این دیدگاه آن است که این پاسخ، در ساختار با دیدگاه های طرفداران هوش مصنوعی ناسازگار است. براساس ادعای هوش مصنوعی پردازشگر کامپیوتر (سخت افزار کامپیوتر) در حکم مغز و نرم افزار آن در حکم پردازش اطلاعات در مغز می باشد. بر این اساس کسی که طرفدار هوش مصنوعی است، نمی تواند به فیزیولوژی عصب دست اندازی کند و با مدد گرفتن از آن مسأله فهم در کامپیوتر را توجیه کند. چون مغز در حکم سخت افزار کامپیوتر است، اما اگر از این اشکال بگذریم، اشکال دوم خود را نشان می دهد یعنی حتی با انجام چنین کاری، لازم نمی آید که کامپیوتر دارای فهم باشد. سرل می گوید: فرض کنید مردی که در اتاق است لوله های آبی را که به یکدیگر با اتصالاتی وصل شده اند کنترل کند. هنگامی که این فرد، علامتی را به زبان چینی دریافت می کند، با نگاه به قواعدی که به زبان انگلیسی نوشته شده است، متوجه می شود که کدام اتصال باید برقرار شود. هر اتصال در حکم یک سیناپس عصبی در مغز انسانی است که زبان چینی، زبان مادری اوست. هنگامی که این فرد تمام اتصالات را به نحو صحیح انجام دهد، پاسخ، از طریق لوله هایی که به یک لوله اصلی ختم می شوند بیرون می آید و در اختیار قرار می گیرد. همان گونه که معلوم است در اینجا هیچ گونه فهمی وجود ندارد و این عملیات گسترده سبب نمی شود که آن فرد، نسبت به زبان چینی فهمی حاصل کند. سرل توضیح می دهد که اگر کسی بگوید هر چند لوله ها دارای فهم نیستند، اما کل این ساختار دارای فهم است، باید به او همان پاسخی را داد که به پاسخ های ساختاری داده شد: یعنی می توان کل ساختار را در درون فرد درنظر گرفت و در عین حال چنین وضعیتی را لازم نمی آورد که فرد دارای فهم گردد.

***4- پاسخ ترکیبی(15) که ناشی از کارهای انجام شده در دانشگاه های «برکلی» و «استانفورد» است بیان می کند که هر چند هر یک از سه پاسخ قبلی به تنهایی «فهم» را در کامپیوتر حاصل نمی کند اما مجموع این سه پاسخ به گونه ای است که به ما اجازه می دهد، کامپیوتر را دارای فهم بدانیم: یعنی روباتی را در نظر بگیریم که به عنوان یک ساختار نه فقط نرم افزار یا سخت افزار آن دارای دست و پا و موتور حرکتی و نیز دوربینی است که ارتباط او را با بیرون برقرار می کند و تغییرات عصبی مغز انسان چینی زبان به هنگام فهمیدن داستان، در او شبیه سازی شده و نحوه رفتار او هیچ تفاوتی با نحوه رفتار یک انسان چینی زبان در وضعیت مذکور ندارد. در چنین موردی مطمئنا می توان «فهم» را به کامپیوتر نسبت داد.

سرل بیان می کند اگر وضعیت فرضی را به گونه ای در نظر بگیریم که هر سه مورد ذکر شده را در برگیرد، متوجه می شویم که باز جای «فهم» خالی است. البته ما به حیواناتی همچون میمون، سگ و حتی پشه «فهم» را نسبت می دهیم. اما این امر به خاطر شباهتی است که میان ما و حیوانات از جهات مختلف (مثلاً داشتن گوش، چشم، بینی، مغز و…) وجود دارد. اما چنین شباهتی میان انسان و کامپیوتر که با نرم افزار کار می کند مشاهده نمی شود و لذا به صرف متمایز نبودن رفتار کامپیوتر و انسان نمی توان حکم کرد که کامپیوتر دارای فهم است.

***5- پاسخ مبتنی بر مسأله دیگر اذهان(16) بیان می کند که اگر از شباهت رفتار کامپیوتر و انسان نتوانیم کامپیوتر را دارای فهم بدانیم، لازم می آید که دیگر انسانها را نیز دارای «فهم» ندانیم؛ زیرا تنها راهی که برای اِسناد «فهم» به دیگر انسانها وجود دارد آن است که رفتار دیگر انسانها نیز شبیه رفتار ما می باشد.(17)

سرل بیان می کند که این پاسخ، مسأله اصلی را در بحث ما به دست فراموشی سپرده است. مسأله این نیست که چه ملاکی برای اسناد «فهم» به انسانها یا دیگر اشیاء وجود دارد، بلکه بحث این است که کارکرد کامپیوتر در اینکه با داشتن یک سری داده ها، پرداخته هایی را حاصل می کند، با کارکرد ذهن انسان متفاوت است. اما این مساله که انسان ها دارای شعور و ادراک هستند، در مباحث علوم شناختی، پیش فرض می باشد همانگونه که وجود اشیاء، پیش فرض مباحث فیزیک می باشد و فیزیک در باب وجود اشیاء اقامه دلیل نمی کند.

***6- پاسخ دیگر که ناشی از کارهای انجام شده در «برکلی» است، آن است که اشکال سرل علیه هوش مصنوعی، اشکال به وضعیت موجود است، نه اشکال به اصل این مدعی. چون با پیشرفت علم می توان کامپیوترهایی را ساخت که دارای هوش باشند. سرل بیان می کند که آنچه بعدا رخ می دهد مسأله دیگری است و البته اشکال او مربوط به وضعیت موجود است و اضافه می کند که اگر چنین مسأله ای اتفاق افتد و هوش مصنوعی تحقق یابد، اشکال او ساقط می شود ولی تمام مسأله در امکان پیدایش و تحقق هوش مصنوعی است. سرل معتقد است فقط ساختاری می تواند دارای هوش باشد، که مانند مغز دارای روابط علّی و تاثیر و تأثرات فیزیک شیمیایی و…، باشد؛ زیرا وحدت علت، سبب وحدت معلول می گردد.

سرل در ادامه، دیدگاه خود را چنین خلاصه می کند که ذهن را نسبت به مغز همانند نسبت نرم افزار به سخت افزار دانستن، از جهات مختلف مخدوش است.

اولاً: برنامه کامپیوتری واحد، می تواند در موارد مختلف مورد استفاده قرار گیرد. کما اینکه در مثال های فرضی، می توان برنامه را حفظ کرد و عملکرد دستگاه، از طریق لوله های آب، حرکت دست و پا و…، صورت گیرد اما نه حفظ کردن برنامه سبب فهم برنامه است، و نه لوله های آب و حرکت دست و پا، نشانه فهم هستند. در حالی که رابطه ذهن با مغز چنین نیست.

ثانیا: برنامه های نرم افزاری، صرفا صوری هستند. حال آنکه حالات مغزی، که دارای حیث التفاتی(18) و به تعبیری بازنمایی هستند صرفا صوری نیستند. به عنوان مثال، باورها چنین هستند، و هیچ شکل یا صورت خاصی ندارند. مثلاً باور به اینکه باران در حال باریدن است در صورتی که رفتاری خاص نیز از شخصی که این باور را دارد صادر نشود هیچ نشانه بیرونی و هیچ شکل درونی ندارد و صرفا یک باور ذهنی است و این نشانه تفاوت ذهن و نرم افزار کامپیوتری می باشد.

ثالثا: حالات ذهنی و رویدادهای ذهنی، محصول عملکرد مغز هستند. حال آنکه نرم افزار کامپیوتر، محصول خود کامپیوتر نیست.(19)

سؤال سرل این است که با وجود این تمایزات میان ذهن و نرم افزار، چرا عده زیادی از فیلسوفان ذهن به هوش مصنوعی اعتقاد دارند و پاسخ می دهد که این اعتقاد در امور متعددی ریشه دارد:

اولاً: اشتباه در مفهوم «پردازش اطلاعات» سبب این اعتقاد شده است. بسیاری از دانشمندان در حیطه علوم شناختی بر این عقیده اند که مغز و ذهن انسان، کاری را انجام می دهد که از سنگ یا باران برنمی آید. لذا اگر کامپیوتری به نحو صحیح برنامه ریزی شده باشد، پردازش اطلاعات دقیقا همانند ذهن انسان صورت می گیرد.

از دیدگاه سرل، مسأله اصلی در اینجا، خلط کردن معنای «اطلاعات» است: اطلاعاتی که کامپیوتر پردازش می کند، صرفا اطلاعاتی صوری است اما در مورد انسان، اطلاعات صرفا صوری نیستند. خصوصا در مواردی مثل دیدن، شنیدن، بوئیدن و…، که دارای حیث التفاتی هستند و چیزی عینی را بازنمایی می کنند.

ثانیا: بسیاری از افرادی که در حیطه هوش مصنوعی فعالیت می کنند متأثر از دیدگاه های رفتارگروی(20) و عملگروی(21) هستند. لذا از آنجاکه کامپیوتر برنامه ریزی شده رفتاری شبیه انسان از خود بروز می دهد این میل در دانشمندان حاصل می شود که کامپیوتر را نیز دارای فهم بدانند. سرل بیان می کند که این اشتباه با مثال ذکر شده توسط او برطرف می شود زیرا بنابه مثال ذکر شده می توان مواردی را در نظر گرفت که کامپیوتر رفتاری همانند انسان را واجد باشد حال آنکه دارای حیث التفاتی نباشد.

ثالثا: این رویکرد عملگرایانه، ناشی از پیش فرضی ثنوی است که پیش فرضی نادرست می باشد. ثنویتی که دکارت مطرح می کند، ثنویت میان نفس مجرد و بدن مادی است، که البته در دیدگاه طرفداران هوش مصنوعی وجود ندارد. اما در عین حال تفاوت گذاردن میان نرم افزار و سخت افزار کامپیوتر، این اجازه را به طرفداران هوش مصنوعی می دهد که معتقد شوند چنین نرم افزاری را می توان در مغز، کامپیوتر، یا حتی روح جهان که از سوی هگل مطرح شده است قرار داد.(22) اما سرل معتقد است که چنین ثنویتی را نمی توان پذیرفت و ذهن انسان، برآمده از مغز، با تمام ویژگی های زیست شناختی و روابط علّی آن است و لذا فهم، به عنوان بخشی از ذهن، فقط در حالتی امکان پذیر است که بتوان مغز انسان را با تمام روابط علّی و ویژگی های آن بازسازی کرد.

انتقاد جان سرل، تنها انتقاد به دیدگاه هوش مصنوعی و مدل کامپیوتری ذهن نیست، بلکه اشکالات دیگری نیز به این دیدگاه از سوی دیگران ذکر شده است. از میان مهمترین اشکالات مطرح شده می توان به اشکال «هیلاری پاتنم» در کتاب «تجدید فلسفه» اشاره کرد.(23) پاتنم در این کتاب معتقد است که مسأله استقراء که یکی از اساسی ترین کارکردهای هوش طبیعی است، قابلیت پیاده سازی در هوش مصنوعی را ندارد و لذا نمی توان هوش مصنوعی را معادل هوش طبیعی قلمداد کرد. اشکال دیگر، اشکالی است که از سوی هربرت دریفوس(24) ذکر شده است و به اشکال چارچوب معروف است. براساس این اشکال، کامپیوتر به دلیل داشتن الگوریتم خاص خود، دارای انعطافی که دارندگان هوش طبیعی از آن برخوردار هستند نمی باشد. به عبارت دیگر، کامپیوتر محصور چارچوبی است که الگوریتم برای آن حاصل کرده است، حال آنکه انسان می تواند قواعد کلی خود را در شرایط خاص کنار نهاده و از قانون جدید یا مورد خاصی پیروی کند.

در هر حال دیدگاه هوش مصنوعی تفسیر قوی و به بیان دیگر، مدل کامپیوتری ذهن، به عنوان یک دیدگاه دارای اشکالات فراوانی است و نمی تواند به عنوان دیدگاهی در تبیین هوش طبیعی تلقی شود.

پی نوشت ها:

1. (John R.Searl). استاد فلسفه در دانشگاه کالیفرنیا در برکلی است. کارهای او در زمینه کارگفتاری (Speach Acts)به تبع استادش آوستین (Austin) بسیار معروف است و کتابی نیز به همین نام دارد. در زمینه ادراک حسی نیز نظریات او مطرح می باشد. از جمله کارهای او در این زمینه می توان به کتاب «حیث التفاتی» (intentionality)اشاره کرد.

نوشتار حاضر نیز برگرفته ای از مقاله ذیل است که نوشته سرل می باشد (به جز بخش آخر مقاله و پاورقی ها)

John R.Searl, “Minds, Brains and Programs, in Behavioral and Brain Science (Cambridge University Press, 1980) 3, 417 – 429.

2. Artificial intelligence (AI)

3. Strong AI

4. Weak (Cautious) AI

5. Roger Schank

6. این مطلب در باب آزمایش تورینگ (Turing) نیز مشاهده می شود. تورینگ ادعا می کند که اگر یک ماشین و یک انسان را در دو اتاق قرار دهیم و فردی که از آنچه در دو اتاق می گذرد، کاملاً بی اطلاع باشد سؤالاتی از آن دو بپرسد و تفاوت قابل ملاحظه ای را میان پاسخ آن دو در نیابد، می توان هر دو را به هوش متصف کرد و براین اساس کامپیوتر را دارای هوش می داند و مقصود او هوش قوی است. ر.ک:

A. M. Turing, “Computing Machinery and Interlligence, “Mind 59 (1950)

7. این سؤال «سرل» برای آغاز نقد خود ریشه در اصطلاحی دارد که نخستین بار توسط توماس نیگل مطرح شد. نیگل در مقاله ای بسیار اثر گذار با نام «خفاش بودن شبیه چیست» اصطلاح مذکور را که در عبارت سرل نیز دیده می شود، به حیطه فلسفه ذهن وارد ساخت و به تبع آن بحث کیفیات ذهنی و…، در فلسفه (qualia)، شکاف تبیینی (explanatory gap)، محتوای حالات ذهنی (Content) و… در فلسفه ذهن مطرح شد. مقاله نیگل با مقاله ای که بعدها «فرانک جکسون» با نام «آنچه مری نمی دانست» نگاشت، جدیت بیشتری پیدا کرد و مقالات متعددی در این زمینه نوشته شد که حتی ارائه فهرستی از آنها بسیار مشکل است. ر.ک:

Thomas Nagel, “What Is It Like to BeaBat, “Philosophical Review (1974) Frank Jackson, “What Mary Didn”t Know, “The Journal of Philosophy L×××III, 5 (May 1986).

برای آشنایی با مقالاتی که در پی مقاله نیگل و نیز جکسون نوشته شده می توانید به سایت دیوید چالمرز (David Chalmers) در اینترنت مراجعه کرده و در بخش کتابنامه مباحث مربوط به فلسفه بخش کیفیات ذهنی (qualia)را بررسی نمایید.

8. Chinese room argument

9. به بیان دیگر، مسأله امکان یک شی ء با تحقق و به بیان دیگر صدق آن متفاوت است. هر امر ممکنی لزوما رخ نمی دهد.

10. ندبلاک در مقاله مدل کامپیوتری ذهن (The Computeral Model of Mind)پاسخ سرل را پاسخی هوشمندانه تلقی کرده است. هر چند که او این توصیف را در ذکر پاسخ سرل به جوی فودر (J.A.Fodor) ذکر کرده است اما می تواند توصیفی برای اصل استدلال نیز تلقی شود.

11. The Systems Reply

12. The Robot Reply

13. The Brain Simulator Reply

14. این مسأله براساس قانون لایب نیتز، ظاهرا نتیجه می شود:

(×) (Y) [(x=y) Ý (Fx Ý Fy)]

15. The Combination Reply

16. The Othe Minds Reply

مسأله دیگر اذهان یک بحث معرفت شناختی است که به صورت جدی در ابتدای قرن بیستم مطرح شد.معمولاً برای اثبات اینکه انسان های دیگر نیز دارای ذهن و حالات ذهنی هستند، از استدلالی تمثیلی استفاده می شود. چنین رویکردی در راسل و جان استورات میل مشاهده می شود. بحث دیگر اذهان تاثیری بس شگرف در فلسفه دین نیز برجای نهاده است. پلانتینجا در کتاب خدا و دیگر اذهان (God and Other Minds)از این مسأله معرفتی در باب استدلال مربوط به خداوند استفاده می کند و معتقد می شود که چنین استدلالی، معقولیت اعتقاد اذهان به خداوند را اثبات می کند. برای اطلاع بیشتر ر.ک:

فلسفه دین در قرن بیستم، ترجمه رضا اکبری، کتاب ماه دین.

17. ادوارد ویرنگا: در این پاسخ، مسأله دیگر اذهان براساس دیدگاه رفتارگروی (behaviorism)مورد دقت قرار گرفته است. از طرفداران رفتارگروی در مسأله دیگر اذهان می توان به «نورمن مالکولم» اشاره کرد. البته او در این تفکر از اندیشه های ویتگنشتاین متأثر است. رک:

Norman Malcolm ” Knowledge of other Minds, ” The Journal of Philosophy, 56 (1959)

18. حیث التفاقی (intentionality) که شباهت زیادی با بحث بازنمایی ذهنی (Mental representation)دارد، از مباحث بسیار مهم در فلسفه ذهن است. سرل این مسأله را یکی از تفاوت های ذهن و نرم افزار کامپیوتر می داند.

19. در واقع سرل با این ادعا تا حدودی به دیدگاه پدیدار فرعی (epiphenomenalism) در بحث شعور نزدیک می شود. براساس این دیدگاه ادراک و شعور، ناشی از فعالیت های مغز است و در عین حال امری مجرد تلقی نمی شود. برای اطلاع از دیدگاههای مطرح در باب رابطه نفس و بدن می توانید به مقاله نگارنده مراجعه کنید.

رضا اکبری: رابطه نفس و بدن نزد فیلسوفان پس از دکارت، حوزه و دانشگاه، ش 13 (زمستان 1376) صص 619.

20. Behaviorism

21. Operationalism

22. نمونه بارز این مسأله «جفری اولن» (Olen) است. او در کتابی که در باب جاودانگی نوشته با تمایز نمادین میان ذهن، به عنوان نرم افزار و مغز به عنوان سخت افزار بیان می کند که می توان نرم افزار را که همان ذهن و به دیگر سخن حافظه است، در هر سخت افزار دیگری قرار داد. کمااینکه یک برنامه کامپیوتری را می توان در کامپیوترهای مختلف اجرا کرد. به همین علت هر چند که روح را نفی می کند، معتقد است که امکان گذاشتن نرم افزار یک انسان بر روی یک بدن مثالی وجود دارد و بر این اساس امکان جاودانگی را می پذیرد.

23. Hilary Putnam, Renewing Philosophy (Cambridge MA: Harvard University Press, 1992)

24. Herbert Dregfus, What Computer can not Do.

معرفی کتاب
کلمات کليدي:
کامپیوتر
هوش مصنوعی
سرل
هوش
ذهن
فهم
زبان
اطلاعات
زبان چینی
لینک کوتاه:
https://noo.rs/MACbJ

اشتراک گذاری:

پاسخ دهید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

14 − دوازده =

آیکن های اجتماعی