۱. بازی تقلید
پیشنهاد میکنم این پرسش را در نظر بگیریم که: «آیا ماشینها میتوانند فکر کنند؟» این بررسی باید با تعاریفی از معنای واژگان «ماشین» و «تفکر» آغاز شود. این تعاریف ممکن است به گونهای تدوین شوند که تا حد امکان بازتابدهنده استفاده معمول از این کلمات باشند؛ اما این رویکرد خطرناک است. اگر قرار باشد معنای کلمات «ماشین» و «فکر کردن» را با بررسی نحوه استفاده رایج آنها بیابیم، دشوار است که از این نتیجه بگریزیم که معنا و پاسخ به پرسش «آیا ماشینها میتوانند فکر کنند؟» را باید در یک نظرسنجی آماری، مانند نظرسنجی گالوپ، جستجو کرد. اما این مضحک است. من به جای تلاش برای ارائه چنین تعریفی، پرسش مذکور را با پرسش دیگری جایگزین میکنم که ارتباط نزدیکی با آن دارد و با کلماتی نسبتاً بیابهام بیان شده است.
صورت جدید مسئله را میتوان در قالب بازیای توصیف کرد که ما آن را «بازی تقلید» مینامیم. این بازی با سه نفر انجام میشود: یک مرد (الف)، یک زن (ب) و یک بازجو (ج) که میتواند از هر دو جنس باشد. بازجو در اتاقی جدا از آن دو نفر مستقر میشود. هدف بازی برای بازجو این است که تشخیص دهد کدامیک از آن دو نفر مرد و کدامیک زن است. او آنها را با برچسبهای X و Y میشناسد و در پایان بازی یا میگوید «X همان الف و Y همان ب است» یا «X همان ب و Y همان الف است». بازجو مجاز است پرسشهایی را از الف و ب بپرسد؛ به این صورت:
«ج: لطفاً X به من بگوید بلندی موهایش چقدر است؟»
حال فرض کنید X در واقع همان الف (مرد) باشد، آنگاه الف باید پاسخ دهد. هدف الف در بازی این است که سعی کند بازجو (ج) را در تشخیص دچار اشتباه کند. بنابراین پاسخ او ممکن است چنین باشد:
«موهای من کوتاه است و بلندترین رشتههای آن حدود نه اینچ طول دارد.»
برای آنکه طنین صدا کمکی به بازجو نکند، پاسخها باید مکتوب باشند یا بهتر از آن، تایپ شوند. چیدمان ایدهآل این است که یک تلهپرینتر (دورنویس) ارتباط بین دو اتاق را برقرار کند. روش جایگزین این است که پرسش و پاسخ توسط یک میانجی تکرار شود. هدف بازی برای نفر سوم (ب یا همان زن) کمک به بازجو است. بهترین استراتژی برای او احتمالاً دادن پاسخهای صادقانه است. او میتواند جملاتی مانند «من زن هستم، به حرف او گوش نده!» را به پاسخهایش اضافه کند، اما این کار سودی نخواهد داشت، زیرا مرد نیز میتواند جملات مشابهی بگوید.
اکنون این سوال را میپرسیم: «چه اتفاقی میافتد اگر یک ماشین نقش “الف” را در این بازی ایفا کند؟» آیا بازجو در این حالت نیز به همان اندازه دچار اشتباه در تشخیص میشود که بازی بین یک مرد و یک زن انجام میگشت؟ این پرسشها جایگزین پرسش اصلی ما یعنی «آیا ماشینها میتوانند فکر کنند؟» میشوند.
۲. نقد مسئله جدید
همانطور که میتوان پرسید «پاسخ به این شکل جدیدِ پرسش چیست»، میتوان پرسید «آیا این پرسش جدید ارزش بررسی دارد؟» ما بدون معطلی به بررسی این سوال دوم میپردازیم تا از تسلسل بیهوده جلوگیری کنیم.
مسئله جدید این مزیت را دارد که مرز نسبتاً مشخصی میان تواناییهای جسمانی و تواناییهای فکری یک انسان ترسیم میکند. هیچ مهندس یا شیمیدانی ادعا نمیکند که قادر به تولید مادهای است که از پوست انسان قابل تشخیص نباشد. ممکن است زمانی این کار انجام شود، اما حتی با فرض در دسترس بودن چنین اختراعی، احساس میکنیم که تلاش برای انسانیتر کردن یک «ماشین متفکر» با پوشاندن آن در چنین گوشت مصنوعی، فایده چندانی ندارد. شکلی که ما برای مسئله طراحی کردهایم، این واقعیت را در شرطی بازتاب میدهد که بازجو را از دیدن، لمس کردن یا شنیدن صدای رقبا باز میدارد. برخی مزایای دیگر معیارِ پیشنهادی را میتوان با نمونههایی از پرسش و پاسخ نشان داد:
پرسش: لطفاً برای من سونتی (نوعی شعر) با موضوع «پل فورث» بنویسید.
پاسخ: روی من حساب نکنید. من هرگز نتوانستهام شعر بگویم.
پرسش: ۳۴۹۵۷ را با ۷۰۷۶۴ جمع کنید.
پاسخ: (حدود ۳۰ ثانیه مکث و سپس پاسخ دادن) ۱۰۵۶۲۱.
پرسش: آیا شطرنج بازی میکنید؟
پاسخ: بله.
پرسش: من شاه در خانه K1 دارم و هیچ مهره دیگری ندارم. شما فقط شاه در K6 و رخ در R1 دارید. نوبت حرکت با شماست. چه بازی میکنید؟
پاسخ: (پس از ۱۵ ثانیه مکث) رخ به R8، مات.
به نظر میرسد روش پرسش و پاسخ برای معرفی تقریباً هر یک از حوزههای تلاش انسانی که مایل به گنجاندن آنها هستیم، مناسب باشد. ما نمیخواهیم ماشین را به خاطر ناتوانی در درخشش در مسابقات زیبایی جریمه کنیم، همانطور که نمیخواهیم انسانی را برای شکست در مسابقه با هواپیما مجازات کنیم. شرایط بازی ما این ناتوانیها را بیاهمیت جلوه میدهد. «شاهدان» اگر صلاح بدانند، میتوانند تا هر اندازه که میخواهند درباره جذابیتها، قدرت یا قهرمانیهای خود لاف بزنند، اما بازجو نمیتواند تقاضای نمایش عملی آنها را داشته باشد.
شاید بتوان از این بازی انتقاد کرد که احتمال برد (شانس) به شدت علیه ماشین است. اگر انسانی سعی میکرد وانمود کند که ماشین است، قطعاً نمایش بسیار ضعیفی میداشت. او بلافاصله با کندی و بی دقتی در محاسبات لو میرفت. آیا ممکن نیست ماشینها کاری انجام دهند که باید به عنوان «تفکر» توصیف شود اما با آنچه انسان انجام میدهد بسیار متفاوت باشد؟ این اعتراض بسیار قوی است، اما حداقل میتوانیم بگوییم که اگر با این وجود، ماشینی ساخته شود که بتواند بازی تقلید را به طور رضایت بخشی بازی کند، نیازی نیست نگران این اعتراض باشیم.
ممکن است اصرار شود که هنگام انجام «بازی تقلید»، بهترین استراتژی برای ماشین احتمالاً چیزی غیر از تقلید از رفتار یک انسان باشد. این ممکن است، اما فکر نمیکنم چنین موضوعی تأثیر چندانی داشته باشد. در هر صورت، قصدی برای بررسی تئوری بازیها در اینجا وجود ندارد و فرض بر این خواهد بود که بهترین استراتژی، تلاش برای ارائه پاسخهایی است که به طور طبیعی توسط یک انسان داده میشود.
۳. ماشینهای مورد نظر در بازی
پرسشی که در بخش ۱ مطرح کردیم، کاملاً دقیق نخواهد بود مگر اینکه مشخص کنیم منظورمان از کلمه «ماشین» چیست. طبیعی است که بخواهیم اجازه دهیم هر نوع تکنیک مهندسی در ماشینهای ما به کار رود. همچنین میخواهیم این امکان را فراهم کنیم که یک مهندس یا تیمی از مهندسان ماشینی بسازند که کار کند، اما نحوه عملکرد آن توسط سازندگانش به طور رضایتبخشی قابل توصیف نباشد، زیرا آنها روشی را به کار بردهاند که تا حد زیادی تجربی است. در نهایت، میخواهیم انسانهایی را که به روش معمول متولد شدهاند، از زمره «ماشینها» حذف کنیم. دشوار است که تعاریف را بهگونهای تنظیم کنیم که این سه شرط را برآورده کند. به عنوان مثال، میتوان اصرار داشت که تیم مهندسان همگی از یک جنس باشند، اما این واقعاً رضایت بخش نخواهد بود، زیرا احتمالاً ممکن است یک فرد کامل را از یک تک سلول پوست (مثلاً) یک مرد پرورش داد. انجام این کار شاهکاری در تکنیک بیولوژیکی خواهد بود که شایسته بالاترین ستایشهاست، اما ما تمایلی نداریم آن را موردی از «ساختن یک ماشین متفکر» بدانیم. این امر ما را بر آن میدارد که از این شرط که هر نوع تکنیکی باید مجاز باشد، صرفنظر کنیم. ما به ویژه با توجه به این واقعیت که علاقه فعلی به «ماشینهای متفکر» توسط نوع خاصی از ماشین ایجاد شده است که معمولاً «رایانه الکترونیکی» یا «رایانه دیجیتال» نامیده میشود، برای انجام این کار آمادهتر هستیم. با پیروی از این پیشنهاد، ما فقط به رایانههای دیجیتال اجازه میدهیم در بازی ما شرکت کنند.
این محدودیت در نگاه اول بسیار سختگیرانه به نظر میرسد. من تلاش خواهم کرد نشان دهم که در واقعیت چنین نیست. انجام این کار نیازمند شرح کوتاهی از ماهیت و ویژگیهای این رایانهها است.
همچنین میتوان گفت که این یکی دانستنِ ماشینها با رایانههای دیجیتال، درست مانند معیار ما برای «تفکر»، تنها در صورتی نامطلوب خواهد بود که (برخلاف باور من) مشخص شود که رایانههای دیجیتال قادر به ارائه نمایش خوبی در بازی نیستند.
در حال حاضر تعدادی رایانه دیجیتال در حال کار وجود دارد و ممکن است پرسیده شود: «چرا بلافاصله این آزمایش را انجام نمیدهیم؟ برآورده کردن شرایط بازی آسان خواهد بود. میتوان از تعدادی بازجو استفاده کرد و آماری تهیه کرد تا نشان دهد چقدر تشخیص درست داده شده است.» پاسخ کوتاه این است که ما نمیپرسیم آیا همه رایانههای دیجیتال در بازی خوب عمل میکنند یا اینکه آیا رایانههای فعلی خوب عمل خواهند کرد، بلکه میپرسیم آیا رایانههای «قابل تصوری» وجود دارند که خوب عمل کنند. اما این فقط پاسخ کوتاه است؛ ما بعداً این پرسش را از زاویهای دیگر خواهیم دید.
۴. رایانههای دیجیتال
ایده نهفته در رایانههای دیجیتال را میتوان اینگونه توضیح داد که این ماشینها برای انجام هر عملیاتی که یک «محاسب انسانی» (human computer) میتوانست انجام دهد، در نظر گرفته شدهاند. فرض بر این است که محاسب انسانی از قوانین ثابتی پیروی میکند؛ او اجازه ندارد در هیچ جزئیاتی از آنها منحرف شود. میتوانیم فرض کنیم که این قوانین در یک کتاب عرضه شدهاند که هرگاه او به کار جدیدی گماشته میشود، تغییر میکند. او همچنین ذخیره نامحدودی از کاغذ دارد که محاسبات خود را روی آن انجام میدهد. او ممکن است ضرب و جمعهای خود را روی یک «ماشین رومیزی» نیز انجام دهد، اما این مهم نیست.
اگر از توضیح فوق به عنوان یک تعریف استفاده کنیم، در خطرِ «دُور در استدلال» خواهیم بود. ما با ارائه طرحی کلی از ابزاری که از طریق آن اثر مطلوب حاصل میشود، از این امر اجتناب میکنیم. یک رایانه دیجیتال معمولاً شامل سه بخش در نظر گرفته میشود:
(۱) حافظه (Store)
(۲) واحد اجرایی (Executive unit)
(۳) کنترل (Control)
«حافظه» مخزنی از اطلاعات است و متناظر با کاغذِ محاسب انسانی است، خواه این کاغذ همان باشد که محاسباتش را روی آن انجام میدهد، یا همان که کتاب قوانینش روی آن چاپ شده است. تا جایی که محاسب انسانی محاسبات را در ذهن خود انجام میدهد، بخشی از حافظه متناظر با حافظه او خواهد بود.
«واحد اجرایی» بخشی است که عملیاتهای انفرادی مختلف مربوط به یک محاسبه را انجام میدهد. اینکه این عملیاتهای انفرادی چه هستند، از ماشینی به ماشین دیگر متفاوت خواهد بود. معمولاً عملیاتهای نسبتاً طولانی مانند «ضرب ۳۵۴۰۶۷۵۴۴۵ در ۷۰۷۶۳۴۵۶۸۷» را میتوان انجام داد، اما در برخی ماشینها فقط عملیاتهای بسیار ساده مانند «نوشتن عدد ۰» امکانپذیر است.
ذکر کردیم که «کتاب قوانین» که به محاسب انسانی داده میشد، در ماشین با بخشی از حافظه جایگزین میشود. در آن صورت به آن «جدول دستورالعملها» گفته میشود. وظیفه «کنترل» این است که اطمینان حاصل کند این دستورالعملها به درستی و با ترتیب صحیح اجرا میشوند. واحد کنترل به گونهای ساخته شده است که این امر لزوماً اتفاق میافتد.
اطلاعات در حافظه معمولاً به بستههایی با اندازه نسبتاً کوچک تقسیم میشوند. برای مثال در یک ماشین، یک بسته ممکن است شامل ده رقم دهدهی باشد. به بخشهایی از حافظه که بستههای مختلف اطلاعات در آنها ذخیره میشوند، به روشی سیستماتیک، اعدادی اختصاص داده میشود. یک دستورالعمل معمولی ممکن است بگوید:
«عدد ذخیره شده در موقعیت ۶۸۰۹ را با عدد موجود در موقعیت ۴۳۰۲ جمع کن و نتیجه را دوباره در موقعیت دومی ذخیره کن.»
نیازی به گفتن نیست که این دستور در ماشین به زبان انگلیسی بیان نمیشود. احتمال بیشتری دارد که به شکلی مانند ۶۸۰۹۴۳۰۲۱۷ کدگذاری شود. در اینجا ۱۷ میگوید که کدام یک از عملیاتهای مختلف ممکن باید روی دو عدد انجام شود. در این مورد، عملیات همان است که در بالا توضیح داده شد، یعنی «جمع کردن عدد…». ملاحظه میشود که دستورالعمل ۱۰ رقم را اشغال میکند و به این ترتیب، به شکلی بسیار راحت، یک بسته اطلاعاتی را تشکیل میدهد. کنترل به طور معمول دستورالعملها را به ترتیب موقعیتهایی که در آن ذخیره شدهاند برای اجرا برمیدارد، اما گاهی ممکن است با دستورالعملی مانند این مواجه شود:
«اکنون از دستورالعمل ذخیره شده در موقعیت ۵۶۰۶ پیروی کن و از آنجا ادامه بده.»
یا مجدداً:
«اگر موقعیت ۴۵۰۵ حاوی عدد ۰ است، دستورالعمل بعدی را از ۶۷۰۷ بخوان، در غیر این صورت مستقیماً ادامه بده.»
دستورالعملهای نوع اخیر بسیار مهم هستند، زیرا تکرار یک توالی از عملیات را تا زمانی که شرطی برقرار شود ممکن میسازند؛ اما در انجام این کار، در هر بار تکرار نه از دستورالعملهای جدید، بلکه از همان دستورالعملهای قبلی بارها و بارها استفاده میشود. برای استفاده از یک مثال خانگی: فرض کنید مادری میخواهد فرزندش «تامی» هر روز صبح در راه مدرسه به کفاشی سر بزند تا ببیند آیا کفشهایش آماده است یا نه؛ او میتواند هر روز صبح این را از او بخواهد. روش دیگر این است که یک بار برای همیشه اعلانی را در راهرو بچسباند که تامی هنگام خروج به سمت مدرسه آن را ببیند و به او بگوید که سراغ کفشها را بگیرد و همچنین وقتی برگشت، اگر کفشها همراهش بود، آن اعلان را پاره کند.
خواننده باید این را به عنوان یک واقعیت بپذیرد که رایانههای دیجیتال میتوانند طبق اصولی که توصیف کردیم ساخته شوند (و در واقع ساخته شدهاند) و میتوانند به خوبی رفتار یک محاسب انسانی را با دقت زیاد تقلید کنند.
کتاب قوانینی که برای محاسب انسانی توصیف کردیم، البته یک تخیلِ مصلحتی است. محاسبان انسانی واقعی در حقیقت آنچه را که باید انجام دهند به خاطر میسپارند. اگر کسی بخواهد ماشینی بسازد که رفتار محاسب انسانی را در یک عملیات پیچیده تقلید کند، باید از او بپرسد که این کار چگونه انجام میشود و سپس پاسخ را به شکل یک جدول دستورالعمل ترجمه کند. ساختن جداول دستورالعمل معمولاً به عنوان «برنامهنویسی» شناخته میشود. «برنامهریزی یک ماشین برای انجام عملیات الف» به معنای قرار دادن جدول دستورالعمل مناسب در ماشین است بهطوری که عملیات الف را انجام دهد.
یک تنوع جالب در ایده رایانه دیجیتال، «رایانه دیجیتال با یک عنصر تصادفی» است. اینها دستورالعملهایی دارند که شامل پرتاب تاس یا یک فرآیند الکترونیکی معادل آن است؛ برای مثال یک دستورالعمل ممکن است این باشد: «تاس را پرتاب کن و عدد حاصل را در حافظه ۱۰۰۰ قرار بده.» گاهی اوقات چنین ماشینی به عنوان ماشینی دارای اراده آزاد توصیف میشود (اگرچه من خودم از این عبارت استفاده نمیکنم). معمولاً نمیتوان با مشاهده یک ماشین تشخیص داد که آیا عنصر تصادفی دارد یا خیر، زیرا اثر مشابهی را میتوان با ابزارهایی مانند وابسته کردن انتخابها به ارقام اعشاری عدد $\pi$ ایجاد کرد.
اکثر رایانههای دیجیتال واقعی حافظه محدودی دارند. در ایده رایانهای با حافظه نامحدود هیچ دشواری تئوریکی وجود ندارد. البته در هر زمان مشخص تنها بخش محدودی از آن میتواند استفاده شده باشد. به همین ترتیب تنها مقدار محدودی میتواند ساخته شده باشد، اما ما میتوانیم تصور کنیم که در صورت نیاز، بخشهای بیشتری اضافه شود. چنین رایانههایی جذابیت تئوریک خاصی دارند و «رایانههای با ظرفیت بینهایت» نامیده میشوند.
ایده رایانه دیجیتال قدیمی است. چارلز ببیج، استاد ریاضیات لوکاسی در کمبریج از ۱۸۲۸ تا ۱۸۳۹، چنین ماشینی را به نام «موتور تحلیلی» طراحی کرد، اما هرگز تکمیل نشد. اگرچه ببیج تمام ایدههای اصلی را داشت، ماشین او در آن زمان چشمانداز چندان جذابی نبود. سرعتی که در دسترس میبود قطعاً از یک محاسب انسانی سریعتر بود، اما چیزی حدود ۱۰۰ برابر کندتر از ماشین منچستر (یکی از کندترین ماشینهای مدرن در زمان نگارش مقاله) بود. حافظه قرار بود کاملاً مکانیکی و با استفاده از چرخدندهها و کارتها باشد.
این واقعیت که موتور تحلیلی ببیج قرار بود کاملاً مکانیکی باشد، به ما کمک میکند تا خود را از یک خرافه رها کنیم. اغلب به این واقعیت اهمیت داده میشود که رایانههای دیجیتال مدرن الکتریکی هستند و سیستم عصبی نیز الکتریکی است. از آنجایی که ماشین ببیج الکتریکی نبود و تمام رایانههای دیجیتال به نوعی معادل یکدیگر هستند، میبینیم که این استفاده از الکتریسیته نمیتواند اهمیت تئوریک داشته باشد. البته الکتریسیته معمولاً هر جا که انتقال سریع سیگنال مطرح باشد وارد میشود، بنابراین تعجب آور نیست که آن را در هر دوی این موارد (اعصاب و رایانه) مییابیم. در سیستم عصبی، پدیدههای شیمیایی حداقل به اندازه پدیدههای الکتریکی مهم هستند. در برخی رایانهها سیستم ذخیره سازی عمدتاً صوتی (آکوستیک) است. بنابراین ویژگیِ استفاده از الکتریسیته تنها یک شباهت بسیار سطحی دیده میشود. اگر بخواهیم چنین شباهتهایی را بیابیم، باید بیشتر به دنبال شباهتهای ریاضی در «عملکرد» باشیم.
۵. جهانی بودن رایانههای دیجیتال
رایانههای دیجیتالی که در بخش قبل بررسی کردیم، میتوانند در زمره «ماشینهای با وضعیت گسسته» طبقهبندی شوند. اینها ماشینهایی هستند که با جهشها یا تیکتاکهای ناگهانی، از یک وضعیت کاملاً مشخص به وضعیتی دیگر تغییر حالت میدهند. این وضعیتها به اندازه کافی با یکدیگر تفاوت دارند که بتوان از احتمال اشتباه گرفتن آنها با هم چشم پوشی کرد. اگر دقیقتر بگوییم، در واقعیت چنین ماشینهایی وجود ندارند؛ چراکه همه چیز در عالم واقع به صورت «پیوسته» حرکت میکند. اما انواع بسیاری از ماشینها وجود دارند که میتوان به شکل سودمندی آنها را به عنوان «ماشین با وضعیت گسسته» در نظر گرفت. برای مثال، در بررسی کلیدهای یک سیستم روشنایی، این یک «فرضِ مصلحتی» است که هر کلید باید حتماً یا کاملاً «روشن» باشد یا کاملاً «خاموش». مسلماً وضعیتهای میانی هم وجود دارند، اما در اکثر موارد میتوانیم آنها را نادیده بگیریم.
به عنوان مثالی از یک ماشین با وضعیت گسسته، میتوانیم چرخی را در نظر بگیریم که در هر ثانیه ۱۲۰ درجه میچرخد و با صدایی کلیکمانند جابهجا میشود، اما میتوان آن را با اهرمی که از بیرون کنترل میشود متوقف کرد؛ علاوه بر این، قرار است در یکی از این موقعیتهای چرخ، چراغی روشن شود. این ماشین را میتوان به صورت انتزاعی اینگونه توصیف کرد: وضعیت داخلی ماشین (که با موقعیت چرخ توصیف میشود) میتواند $q_1$، $q_2$ یا $q_3$ باشد. یک سیگنال ورودی $i_0$ یا $i_1$ (موقعیت اهرم) وجود دارد. وضعیت داخلی در هر لحظه، بر اساس وضعیت قبلی و سیگنال ورودی، مطابق با یک جدول تعیین میشود. سیگنالهای خروجی، که تنها نشانههای قابل مشاهده بیرونی از وضعیت داخلی (نور چراغ) هستند نیز طبق جدولی توصیف میشوند (مانند اینکه در وضعیت $q_3$ چراغ روشن و در بقیه خاموش باشد).
این مثال نمونهای بارز از ماشینهای با وضعیت گسسته است. تا زمانی که این ماشینها تعداد محدودی وضعیت ممکن داشته باشند، میتوان آنها را با چنین جدولهایی توصیف کرد. به نظر میرسد که با داشتن وضعیت اولیه ماشین و سیگنالهای ورودی، همیشه میتوان تمام وضعیتهای آینده را پیشبینی کرد. این موضوع یادآور دیدگاه لاپلاس است؛ او معتقد بود که با داشتن وضعیت کامل جهان در یک لحظه از زمان (یعنی موقعیت و سرعت تمام ذرات)، باید بتوان تمام وضعیتهای آینده را پیشبینی کرد. با این حال، پیشبینیای که ما در اینجا در نظر داریم، نسبت به آنچه لاپلاس میگفت، به «قابلیت اجرا» نزدیکتر است. سیستم «جهان به عنوان یک کل» بهگونهای است که خطاهای بسیار کوچک در شرایط اولیه میتواند تأثیرات بسیار بزرگی در زمانهای آینده داشته باشد. جابهجایی یک الکترون به اندازه یک میلیاردم سانتیمتر در یک لحظه، میتواند باعث شود یک انسان یک سال بعد یا بر اثر بهمن کشته شود یا از آن جان سالم به در ببرد. این یکی از ویژگیهای اساسی سیستمهای مکانیکی است که ما آنها را «ماشینهای با وضعیت گسسته» نامیدیم؛ اینکه چنین پدیدهای (حساسیت شدید به شرایط اولیه) در آنها رخ نمیدهد. حتی وقتی به جای ماشینهای ایدهآل، ماشینهای فیزیکی واقعی را در نظر میگیریم، دانش نسبتاً دقیق از وضعیت در یک لحظه، دانشی نسبتاً دقیق از وضعیت ماشین در هر چند مرحله بعد را به دست میدهد.
همانطور که اشاره کردیم، رایانههای دیجیتال در رده ماشینهای با وضعیت گسسته قرار میگیرند. اما تعداد وضعیتهایی که چنین ماشینی قادر به داشتن آنهاست، معمولاً به شکلی باورنکردنی زیاد است. برای مثال، این تعداد برای ماشینی که اکنون در منچستر کار میکند، حدود $۲^{۱۶۵,۰۰۰}$ (یعنی حدود $۱۰^{۵۰,۰۰۰}$) است. این را با مثال چرخِ در حال چرخش که قبلاً ذکر شد و تنها سه وضعیت داشت، مقایسه کنید. درک اینکه چرا تعداد وضعیتها اینقدر عظیم است، دشوار نیست. رایانه شامل یک «حافظه» است که متناظر با کاغذ مورد استفاده یک محاسب انسانی است. باید امکانپذیر باشد که در این حافظه، هر ترکیبی از نمادهایی را که ممکن بود روی آن کاغذ نوشته شود، ثبت کرد. برای سادگی، فرض کنید فقط از ارقام ۰ تا ۹ به عنوان نماد استفاده شود و تفاوت در دستخطها نادیده گرفته شود. فرض کنید به رایانه اجازه داده شود ۱۰۰ برگ کاغذ داشته باشد که هر کدام ۵۰ خط و هر خط ظرفیت ۳۰ رقم را داشته باشد. در این صورت تعداد وضعیتها $۱۰^{۱۰۰ \times 50 \times 30}$ یعنی $۱۰^{۱۵۰,۰۰۰}$ خواهد بود. این تقریباً معادل تعداد وضعیتهای سه ماشین منچستر در کنار هم است. لگاریتم در مبنای ۲ِ تعداد وضعیتها، معمولاً «ظرفیت حافظه» ماشین نامیده میشود. بنابراین ظرفیت حافظه ماشین منچستر حدود ۱۶۵,۰۰۰ و ماشین چرخدندهای مثال ما حدود ۱.۶ است. اگر دو ماشین در کنار هم قرار گیرند، ظرفیتهای آنها برای به دست آوردن ظرفیت ماشینِ ترکیبی با هم جمع میشود. این امر منجر به امکان بیان جملاتی از این دست میشود: «ماشین منچستر شامل ۶۴ شیار مغناطیسی است که هر کدام ظرفیت ۲۵۶۰ دارند، به اضافه هشت لامپ الکترونیکی با ظرفیت ۱۲۸۰ و… که در مجموع ۱۷۴,۳۸۰ میشود.»
با داشتن جدول مربوط به یک ماشین با وضعیت گسسته، میتوان پیشبینی کرد که آن ماشین چه خواهد کرد. هیچ دلیلی وجود ندارد که این محاسبات توسط یک رایانه دیجیتال انجام نشود. به شرطی که این کار با سرعت کافی انجام شود، رایانه دیجیتال میتواند رفتار «هر» ماشین با وضعیت گسستهای را تقلید (Mimic) کند. در این صورت میتوان بازی تقلید را با ماشین مورد نظر (به عنوان بازیکن ب) و رایانه دیجیتالِ تقلیدکننده (به عنوان بازیکن الف) انجام داد و بازجو قادر نخواهد بود آنها را از هم تشخیص دهد. البته رایانه دیجیتال باید ظرفیت حافظه کافی و سرعت عمل لازم را داشته باشد. علاوه بر این، باید برای هر ماشین جدیدی که قصد تقلید از آن را دارد، مجدداً برنامهنویسی شود.
این ویژگی خاص رایانههای دیجیتال، یعنی توانایی آنها در تقلید از هر ماشین با وضعیت گسسته، با این عبارت توصیف میشود که آنها «ماشینهای جهانی» (Universal Machines) هستند. وجود ماشینهایی با این ویژگی یک نتیجه مهم دارد: صرفنظر از ملاحظات مربوط به سرعت، نیازی به طراحی ماشینهای مختلف و جدید برای انجام فرآیندهای محاسباتی مختلف نیست. همه آنها را میتوان با یک رایانه دیجیتال واحد که برای هر مورد به درستی برنامهریزی شده است، انجام داد. خواهیم دید که در نتیجه این امر، همه رایانههای دیجیتال به نوعی با هم معادل هستند.
اکنون میتوانیم دوباره به نکتهای که در انتهای بخش ۳ مطرح شد بپردازیم. به طور آزمایشی پیشنهاد شده بود که پرسش «آیا ماشینها میتوانند فکر کنند؟» با این پرسش جایگزین شود: «آیا رایانههای دیجیتال قابل تصوری وجود دارند که در بازی تقلید عملکرد خوبی داشته باشند؟». اگر بخواهیم، میتوانیم این را از نظر ظاهری کلیتر کنیم و بپرسیم: «آیا ماشینهای با وضعیت گسستهای وجود دارند که عملکرد خوبی داشته باشند؟». اما با توجه به ویژگی «جهانی بودن»، میبینیم که هر دو پرسش معادل این هستند: «بیایید توجه خود را روی یک رایانه دیجیتال خاص “C” متمرکز کنیم. آیا درست است که با اصلاح این رایانه به منظور داشتن حافظه کافی، افزایش سرعت عمل آن به میزان لازم و ارائه یک برنامه مناسب به آن، میتوان کاری کرد که “C” نقش بازیکن “الف” را در بازی تقلید به طور رضایت بخشی ایفا کند، در حالی که نقش بازیکن “ب” توسط یک انسان ایفا میشود؟»
۶. دیدگاههای مخالف درباره پرسش اصلی
اکنون میتوانیم فرض کنیم که مسیر هموار شده است و آمادهایم تا به بحث درباره پرسش اصلی خود، یعنی «آیا ماشینها میتوانند فکر کنند؟» و روایت دیگر آن که در پایان بخش قبل ذکر شد، بپردازیم. ما نمیتوانیم صورت اصلی مسئله را به کلی کنار بگذاریم، زیرا نظرات درباره مناسب بودن این جایگزینی متفاوت خواهد بود و ما باید دست کم به آنچه در این باره گفته میشود گوش فرا دهیم.
برای سادهتر شدن موضوع برای خواننده، ابتدا عقاید خودم را در این باره توضیح میدهم. ابتدا شکل دقیقتر پرسش را در نظر بگیرید. من معتقدم که در حدود پنجاه سال دیگر (حوالی سال ۲۰۰۰)، امکان برنامه نویسی رایانههایی با ظرفیت حافظه حدود $۱۰^۹$ فراهم خواهد شد تا بتوانند بازی تقلید را چنان خوب بازی کنند که یک بازجوی متوسط، پس از پنج دقیقه پرسشگری، بیش از ۷۰ درصد شانس تشخیص درست (تفکیک ماشین از انسان) را نداشته باشد. معتقدم پرسش اصلی، یعنی «آیا ماشینها میتوانند فکر کنند؟»، چنان بیمعناست که ارزش بحث کردن ندارد. با این حال، باور دارم که در پایان این قرن، کاربرد کلمات و افکار عمومیِ تحصیلکرده چنان تغییر خواهد کرد که فرد میتواند از «تفکر ماشینها» صحبت کند بدون آنکه انتظار داشته باشد کسی با او مخالفت کند. علاوه بر این، معتقدم پنهان کردن این باورها هیچ فایدهای ندارد. این دیدگاه عامیانه که دانشمندان به طور تزلزلناپذیری از یک واقعیت اثبات شده به واقعیت دیگر حرکت میکنند و هرگز تحت تأثیر حدسیات قرار نمیگیرند، کاملاً اشتباه است. تا زمانی که مشخص باشد کدامها «واقعیتهای اثباتشده» و کدامها «حدسیات» هستند، هیچ ضرری متوجه کسی نخواهد بود. حدسیات اهمیت زیادی دارند زیرا مسیرهای مفید تحقیقاتی را پیشنهاد میدهند.
اکنون به بررسی نظرات مخالف با نظرات خودم میپردازم.
(۱) اعتراض الهیاتی
«تفکر، کارکردِ روح جاودان انسان است. خداوند به هر مرد و زنی روحی جاودان عطا کرده است، اما به هیچ حیوان یا ماشینی چنین روحی نداده است. بنابراین، هیچ حیوان یا ماشینی نمیتواند فکر کند.»
من قادر به پذیرش هیچ بخشی از این استدلال نیستم، اما تلاش میکنم با اصطلاحات الهیاتی به آن پاسخ دهم. اگر حیوانات همردیف انسانها قرار میگرفتند، این استدلال برای من متقاعدکنندهتر میبود؛ چرا که به نظر من تفاوت بین موجودات جاندار و بیجان بسیار بیشتر از تفاوت بین انسان و سایر حیوانات است. ماهیت سلیقهای و مستبدانه دیدگاهِ ارتدوکس زمانی روشنتر میشود که فکر کنیم این دیدگاه از نظر پیروان سایر ادیان چگونه به نظر میرسد. مثلاً مسیحیان درباره دیدگاه برخی مسلمانان که (در گذشته) معتقد بودند زنان روح ندارند، چه فکر میکنند؟ اما بیایید این نکته را کنار بگذاریم و به بحث اصلی برگردیم. به نظر من، استدلال فوق مستلزم محدودیتی جدی برای قدرت مطلق خداوند است. پذیرفته شده است که کارهای خاصی وجود دارد که او نمیتواند انجام دهد (مانند مساوی قرار دادن یک با دو)، اما آیا نباید باور داشته باشیم که او این آزادی را دارد که اگر صلاح بداند، به یک فیل روح عطا کند؟ شاید انتظار داشته باشیم که او این قدرت را تنها در پیوند با جهشی اعمال کند که برای فیل مغزی پیشرفتهتر فراهم سازد تا نیازهای این روح را برآورده کند. دقیقاً مشابه همین استدلال را میتوان برای مورد ماشینها نیز به کار برد. ممکن است این مورد متفاوت به نظر برسد چون «هضم» آن دشوارتر است؛ اما این فقط به این معناست که ما فکر میکنیم بعیدتر است که خداوند شرایط را برای اعطای روح به ماشین مناسب بداند. شرایط مورد بحث در ادامه این مقاله بررسی میشوند. ما با تلاش برای ساختن چنین ماشینهایی، به هیچ وجه به شکلی بیشرمانه قدرت او در خلق ارواح را غصب نمیکنیم، همانطور که در تولید مثل و به دنیا آوردن فرزندان چنین نمیکنیم؛ بلکه در هر دو مورد، ما ابزارهای اراده او هستیم که مأواهایی را برای ارواحی که او خلق میکند، فراهم میآوریم.
با این حال، اینها صرفاً گمانهزنی است. من چندان تحت تأثیر استدلالهای الهیاتی قرار نمیگیرم، فارغ از اینکه برای حمایت از چه موضوعی به کار روند. چنین استدلالهایی در گذشته اغلب نامناسب تشخیص داده شدهاند. در زمان گالیله، استدلال میشد که متون مقدس (مانند: «و خورشید ایستاد… و حدود یک روز کامل برای غروب کردن شتاب نکرد») یا («او مبانی زمین را بنا کرد تا در هیچ زمانی حرکت نکند») ردّیهای کافی بر نظریه کوپرنیک هستند. با دانش فعلی ما، چنین استدلالی بیهوده به نظر میرسد. اما زمانی که آن دانش در دسترس نبود، این حرفها تأثیر کاملاً متفاوتی داشتند.
(۲) اعتراض «سر در برف کردن» (کبکوار)
«پیامدهای تفکر ماشینها بسیار وحشتناک خواهد بود. بیایید امیدوار باشیم و باور داشته باشیم که آنها نمیتوانند چنین کنند.»
این استدلال به ندرت به این صراحت بیان میشود، اما بر اکثر ما که اصلاً به این موضوع فکر میکنیم، تأثیر میگذارد. ما دوست داریم باور کنیم که انسان به شکلی ظریف برتر از بقیه خلقت است. بهترین حالت این است که نشان داده شود او «لزوماً» برتر است، زیرا در آن صورت خطری موقعیت فرماندهی او را تهدید نمیکند. محبوبیت استدلال الهیاتی آشکارا با این احساس در ارتباط است. این حس احتمالاً در افراد روشنفکر قویتر است، زیرا آنها برای قدرت تفکر ارزش بیشتری نسبت به دیگران قائل هستند و تمایل بیشتری دارند که باور خود به برتری انسان را بر این قدرت بنا کنند.
من فکر نمیکنم این استدلال آن قدر مستدل باشد که نیاز به رد کردن داشته باشد؛ بلکه «دلداری دادن» مناسبتر است: شاید این تسلی را باید در ایده «تناسخ ارواح» جستجو کرد (کنایه از اینکه جایگاه انسان لزوماً منحصر به فرد نیست).
(۳) اعتراض ریاضی
تعدادی از نتایج منطق ریاضی وجود دارد که میتواند برای نشان دادن محدودیتهای قدرت ماشینهای با وضعیت گسسته به کار رود. شناختهشدهترین این نتایج، «قضیه گودل» (۱۹۳۱) است که نشان میدهد در هر سیستم منطقی به اندازه کافی قدرتمند، میتوان گزارههایی را فرموله کرد که نه اثبات و نه رد میشوند، مگر اینکه خودِ سیستم ناسازگار باشد. نتایج مشابه دیگری نیز توسط چرچ، کلین، راسر و تورینگ (۱۹۳۷) ارائه شده است. نتیجه اخیر (تورینگ) برای بررسی راحتتر است، زیرا مستقیماً به ماشینها اشاره دارد. این نتیجه بیان میکند که کارهای خاصی وجود دارد که یک ماشین (رایانه دیجیتال با ظرفیت نامحدود) نمیتواند انجام دهد. اگر ماشین برای پاسخ به سوالات در بازی تقلید تنظیم شده باشد، سوالاتی وجود خواهد داشت که ماشین یا به آنها پاسخ اشتباه میدهد یا اصلاً پاسخی نمیدهد، هر چقدر هم که زمان به آن داده شود. البته ممکن است سوالات زیادی از این دست وجود داشته باشد و سوالی که توسط یک ماشین قابل پاسخگویی نیست، توسط ماشین دیگری به خوبی پاسخ داده شود. ما در اینجا فرض میکنیم که سوالات از نوعی هستند که پاسخ «بله» یا «خیر» برای آنها مناسب است (نه سوالاتی مثل «نظر شما درباره پیکاسو چیست؟»). سوالاتی که میدانیم ماشینها در آنها شکست میخورند از این نوع هستند: «ماشینی را در نظر بگیرید که به این صورت توصیف شده است… آیا این ماشین هرگز به هیچ سوالی پاسخ “بله” خواهد داد؟». نشان داده شده است که وقتی ماشینِ توصیفشده رابطه خاص و نسبتاً سادهای با ماشینِ تحت بازجویی داشته باشد، پاسخ یا اشتباه است یا هرگز داده نمیشود. بر اساس این نتیجه ریاضی، استدلال میشود که ماشینها دچار ناتوانیهایی هستند که عقل انسانی با آنها روبهرو نیست.
پاسخ کوتاه به این استدلال این است که اگرچه ثابت شده که برای قدرتهای هر «ماشینِ خاص» محدودیتهایی وجود دارد، اما صرفاً بدون هیچ گونه اثباتی ادعا شده است که چنین محدودیتهایی برای عقل انسانی اعمال نمیشود. اما فکر نمیکنم بتوان این دیدگاه را به این راحتی کنار گذاشت. هر زمان که از یکی از این ماشینها سوال بحرانیِ مناسب پرسیده شود و ماشین پاسخ قطعی بدهد، ما میدانیم که این پاسخ «باید» اشتباه باشد و این به ما احساس برتری خاصی میدهد. آیا این احساس توهم آمیز است؟ بیشک این حس کاملاً واقعی است، اما فکر نمیکنم باید اهمیت زیادی به آن داد. ما خودمان آن قدر به سوالات پاسخ اشتباه میدهیم که مجاز نیستیم از دیدن چنین شواهدی از جایز الخطا بودنِ ماشینها، خیلی خوشحال شویم. علاوه بر این، برتری ما در چنین موقعیتی تنها نسبت به «آن یک ماشینی» احساس میشود که بر آن پیروزیِ ناچیزی کسب کردهایم. اصلاً بحث پیروزی همزمان بر «همه» ماشینها در میان نیست. خلاصه اینکه، ممکن است انسانهایی باهوشتر از هر ماشین خاصی وجود داشته باشند، اما باز هم ممکن است ماشینهای دیگری باهوشتر از آن انسانها وجود داشته باشند و الی آخر.
(۴) استدلال مبتنی بر آگاهی
این استدلال به خوبی در سخنرانی پروفسور جفرسون (۱۹۴۹) بیان شده است که از او نقلقول میکنم: «تا زمانی که ماشینی نتواند به دلیل افکار و عواطفِ احساسشده – و نه بر حسب تصادف و چیدمان نمادها – سونتی بنویسد یا کنسرتویی بسازد، نمیتوانیم توافق کنیم که ماشین با مغز برابر است؛ یعنی نه تنها آن را بنویسد، بلکه “بداند” که آن را نوشته است. هیچ مکانیزمی نمیتواند از موفقیتهایش احساس لذت کند، از سوختن سوپاپهایش (لامپهای خلأ) احساس غم کند، با تملق گرم شود، از اشتباهاتش بدبخت شود، مجذوب جنسیت شود، یا وقتی به آنچه میخواهد نمیرسد عصبانی یا افسرده شود.»
به نظر میرسد این استدلال، اعتبارِ آزمون ما را نفی میکند. طبق افراطیترین شکل این دیدگاه، تنها راهی که فرد میتواند مطمئن شود ماشینی فکر میکند، این است که «خودِ آن ماشین باشد» و فکر کردنِ خودش را حس کند. آن فرد میتواند این احساسات را برای دنیا توصیف کند، اما البته هیچکس مجاز نخواهد بود به حرف او توجهی کند. به همین ترتیب، طبق این دیدگاه تنها راه برای دانستن اینکه یک انسان فکر میکند، این است که «همان انسانِ خاص» باشیم. این در واقع همان دیدگاه «سولیپسیسم» (تنهاگروی یا خودتنهاانگاری) است. این ممکن است منطقیترین دیدگاه برای برگزیدن باشد، اما انتقال ایدهها را دشوار میکند. در این حالت شخص “الف” تمایل دارد باور کند که «من فکر میکنم اما “ب” فکر نمیکند»، در حالی که “ب” باور دارد «من فکر میکنم اما “الف” فکر نمیکند». معمولاً به جای بحث مداوم بر سر این نقطه، از قراردادِ مودبانه «همه فکر میکنند» استفاده میشود.
مطمئنم پروفسور جفرسون نمیخواهد دیدگاه افراطی و سولیپسیستی را بپذیرد. احتمالاً او کاملاً مایل خواهد بود که بازی تقلید را به عنوان یک آزمون قبول کند. این بازی (در صورتی که بازیکن “ب” حذف شود) مکرراً در عمل تحت نام «امتحان شفاهی» (viva voce) استفاده میشود تا کشف شود که آیا کسی واقعاً چیزی را میفهمد یا آن را «طوطی وار» یاد گرفته است. بیایید به بخشی از چنین امتحان شفاهی فرضی گوش دهیم:
بازجو: در اولین خط سونت شما که میگوید «آیا تو را به یک روز تابستانی تشبیه کنم»، آیا «یک روز بهاری» به همان اندازه یا بهتر نبود؟
شاهد: وزن شعر به هم میخورد (اسکن نمیشد).
بازجو: «یک روز زمستانی» چطور؟ وزن آن که درست است.
شاهد: بله، اما هیچ کس دوست ندارد به یک روز زمستانی تشبیه شود.
بازجو: آیا میگویید آقای پِیک و یک شما را یاد کریسمس میاندازد؟
شاهد: تا حدی.
بازجو: اما کریسمس یک روز زمستانی است و فکر نمیکنم آقای پیک و یک از این تشبیه ناراحت شود.
شاهد: فکر نمیکنم جدی باشید. منظور از یک روز زمستانی، یک روزِ معمولی زمستانی است، نه یک روز خاص مانند کریسمس.
و الی آخر. اگر ماشینِ سونتنویس قادر بود در یک امتحان شفاهی اینگونه پاسخ دهد، پروفسور جفرسون چه میگفت؟ نمیدانم که آیا او این پاسخها را «صرفاً سیگنالدهی مصنوعی» قلمداد میکرد یا خیر؛ اما اگر پاسخها به اندازه متن بالا رضایت بخش و مستدل میبودند، فکر نمیکنم او آن را «یک تمهید ساده» توصیف میکرد. عبارت «تمهید ساده» به نظر من برای پوشش دادن وسایلی است مثل قرار دادن صدای ضبط شده کسی که سونت میخواند در ماشین، با کلیدهایی که هر از گاهی آن را روشن کنند.
خلاصه اینکه، فکر میکنم اکثر کسانی که از استدلالِ آگاهی حمایت میکنند، میتوان متقاعد کرد که به جای گرفتار شدن در موضع سولیپسیسم، این استدلال را رها کنند. آنها احتمالاً در آن صورت مایل خواهند بود آزمون ما را بپذیرند.
من نمیخواهم این برداشت را ایجاد کنم که فکر میکنم هیچ رازی در مورد «آگاهی» وجود ندارد. به عنوان مثال، پارادوکسی در هر تلاش برای مکانیابیِ آن (در مغز) وجود دارد. اما فکر نمیکنم برای پاسخ به پرسشی که در این مقاله با آن سر و کار داریم، لزوماً نیازی به حل کردن این رازها باشد.
(۵) استدلال بر پایه ناتوانیهای مختلف
این استدلالها معمولاً به این صورت بیان میشوند: «من میپذیرم که شما میتوانید ماشینها را وادار به انجام تمام کارهایی که گفتید بکنید، اما هرگز نمیتوانید ماشینی بسازید که کار X را انجام دهد.» در این زمینه، ویژگیهای بیشماری برای X پیشنهاد شده است که من مجموعهای از آنها را برگزیدهام:
-
مهربان باشد، مدبر باشد، زیبا یا خوش برخورد باشد، ابتکار عمل داشته باشد، حس شوخ طبعی داشته باشد.
-
درست را از نادرست تشخیص دهد، اشتباه کند، عاشق شود، از توت فرنگی با خامه لذت ببرد.
-
کسی را عاشق خود کند، از تجربه بیاموزد، کلمات را به درستی به کار ببرد، موضوعِ تفکر خودش باشد.
-
به اندازه یک انسان تنوع رفتاری داشته باشد یا کاری واقعاً جدید انجام دهد.
معمولاً هیچ دلیلی برای اثبات این ادعاها ارائه نمیشود. من معتقدم این باورها بیشتر بر پایه اصل «استقرای علمی» بنا شدهاند. یک فرد در طول زندگی خود هزاران ماشین دیده است؛ او از آنچه میبیند، چندین نتیجهگیری کلی میگیرد: اینکه ماشینها زشت هستند، هر کدام برای هدفی بسیار محدود طراحی شدهاند، وقتی برای هدفی حتی کمی متفاوت به کار گرفته شوند بی استفادهاند، تنوع رفتاری هر یک از آنها بسیار کم است و غیره. طبیعتاً او نتیجه میگیرد که اینها ویژگیهای ضروریِ تمام ماشینها به طور کلی هستند. بسیاری از این محدودیتها به «ظرفیت حافظه بسیار کم» در اکثر ماشینها مربوط میشود. (من فرض میکنم ایده ظرفیت حافظه به نوعی گسترش یافته است که ماشینهایی غیر از ماشینهای با وضعیت گسسته را نیز در بر بگیرد؛ تعریف دقیق آن در این بحث که ادعای دقت ریاضی ندارد، چندان مهم نیست.)
چند سال پیش که نامی از رایانههای دیجیتال شنیده نشده بود، اگر کسی ویژگیهای آنها را بدون توصیف ساختارشان بیان میکرد، با ناباوری زیادی روبهرو میشد. این احتمالاً به دلیل استفاده مشابه از اصل استقرای علمی بود. البته این کاربردهای استقرا تا حد زیادی ناخودآگاه هستند. وقتی کودکی که دستش سوخته از آتش میترسد و با دوری کردن از آن نشان میدهد که میترسد، من میگویم او دارد استقرای علمی را به کار میبندد. (البته میتوان رفتار او را به روشهای بسیار دیگری نیز توصیف کرد.) به نظر نمیرسد آثار و آداب و رسوم بشری مواد بسیار مناسبی برای اعمال استقرای علمی باشند. اگر قرار است نتایج قابل اعتمادی به دست آید، باید بخش بسیار بزرگی از زمان-مکان مورد بررسی قرار گیرد. در غیر این صورت ممکن است (مانند اکثر کودکان انگلیسی) به این نتیجه برسیم که همه دنیا انگلیسی صحبت میکنند و یادگیری زبان فرانسوی احمقانه است.
با این حال، در مورد بسیاری از ناتوانیهایی که ذکر شد، ملاحظات خاصی وجود دارد. ناتوانی در «لذت بردن از توت فرنگی و خامه» ممکن است برای خواننده بیهوده به نظر برسد. احتمالاً میتوان ماشینی ساخت که از این غذای لذیذ لذت ببرد، اما هر تلاشی برای انجام این کار احمقانه خواهد بود. آنچه در مورد این ناتوانی اهمیت دارد، این است که در برخی ناتوانیهای دیگر نقش دارد؛ مثلاً در دشواریِ ایجاد همان نوع دوستی بین انسان و ماشین که بین دو انسان (فارغ از نژاد) برقرار میشود.
ادعای اینکه «ماشینها نمیتوانند اشتباه کنند» عجیب به نظر میرسد. آدم وسوسه میشود پاسخ دهد: «مگر از این بابت عیبی دارند؟» اما بیایید رویکردی همدلانهتر در پیش بگیریم و سعی کنیم ببینیم منظور واقعی چیست. فکر میکنم این نقد را میتوان در قالب بازی تقلید توضیح داد. ادعا میشود که بازجو میتواند ماشین را از انسان تشخیص دهد، صرفاً با دادن تعدادی مسئله محاسباتی. ماشین به دلیل دقت مرگبارش لو میرود. پاسخ به این ادعا ساده است: ماشین (که برای بازی برنامهریزی شده) تلاشی برای دادن پاسخهای درست به مسائل محاسباتی نخواهد کرد؛ بلکه به طور عمدی اشتباهاتی را به شکلی حسابشده وارد میکند تا بازجو را گیج کند. یک نقص فنی احتمالاً خود را در قالب یک تصمیم نامناسب در مورد «نوعِ اشتباهی» که باید در محاسبات انجام دهد، نشان میدهد. حتی این تفسیر از نقد نیز به اندازه کافی همدلانه نیست، اما مجالی برای بررسی بیشتر آن نداریم. به نظر من این نقد ناشی از خلط میان دو نوع اشتباه است: «خطاهای عملکردی» و «خطاهای استنتاجی». خطاهای عملکردی ناشی از نقصی مکانیکی یا الکتریکی هستند که باعث میشود ماشین رفتاری متفاوت با آنچه برایش طراحی شده انجام دهد. در بحثهای فلسفی، فرد دوست دارد امکان چنین خطاهایی را نادیده بگیرد، بنابراین درباره «ماشینهای انتزاعی» بحث میکند. این ماشینهای انتزاعی بیشتر تخیلات ریاضی هستند تا اشیاء فیزیکی؛ و طبق تعریف، ناتوان از خطاهای عملکردی هستند. در این معنا، واقعاً میتوانیم بگوییم «ماشینها هرگز اشتباه نمیکنند». اما «خطاهای استنتاجی» تنها زمانی پدید میآیند که معنایی به سیگنالهای خروجی ماشین نسبت داده شود. برای مثال، ماشین ممکن است معادلات ریاضی یا جملات انگلیسی تایپ کند؛ وقتی یک گزاره غلط تایپ شود، میگوییم ماشین مرتکب خطای استنتاجی شده است. به وضوح هیچ دلیلی وجود ندارد که بگوییم ماشین نمیتواند این نوع اشتباه را انجام دهد. ماشین ممکن است هیچ کاری نکند جز اینکه مدام تایپ کند «$۰ = 1$». برای مثالی کمتر لجبازانه، ماشین ممکن است روشی برای نتیجهگیری از طریق استقرای علمی داشته باشد؛ ما باید انتظار داشته باشیم که چنین روشی گاهی به نتایج اشتباه ختم شود.
این ادعا که ماشین نمیتواند «موضوعِ تفکر خودش باشد» تنها زمانی قابل پاسخگویی است که نشان داده شود ماشین اصلاً «تفکری» درباره «موضوعی» دارد. با این حال، «موضوع عملیات یک ماشین» حداقل برای افرادی که با آن سر و کار دارند، معنایی دارد. برای مثال، اگر ماشین در حال تلاش برای یافتن راه حل معادله $x^2 – 40x – ۱۱ = 0$ باشد، فرد وسوسه میشود این معادله را بخشی از موضوع تفکر ماشین در آن لحظه توصیف کند. در این معنا، یک ماشین بدون شک میتواند موضوعِ تفکر خودش باشد. ماشین میتواند برای کمک به تنظیم برنامههای خودش یا پیشبینی اثرِ تغییرات در ساختار خودش به کار رود. با مشاهده نتایج رفتار خود، ماشین میتواند برنامههایش را تغییر دهد تا به هدفی خاص، موثرتر دست یابد. اینها احتمالات آینده نزدیک هستند، نه رویاهای آرمانشهری.
این نقد که ماشین نمیتواند «تنوع رفتاری زیادی» داشته باشد، صرفاً روش دیگری برای بیان این است که ماشین نمیتواند «ظرفیت حافظه زیادی» داشته باشد. تا همین اواخر، ظرفیت حافظه حتی در حد هزار رقم نیز بسیار نادر بود. نقدهایی که در اینجا بررسی میکنیم اغلب شکلهای تغییریافتهای از «استدلال مبتنی بر آگاهی» هستند. معمولاً اگر کسی ادعا کند ماشین میتواند یکی از این کارها را انجام دهد و روشی را که ماشین برای آن به کار میبرد توصیف کند، تأثیر چندانی بر منتقد نخواهد گذاشت؛ چرا که تصور میشود آن روش (هر چه که باشد، چون مکانیکی است) در واقع بسیار پست و پیشپا افتاده است.
(۶) اعتراض لیدی لاولیس
دقیقترین اطلاعات ما درباره موتور تحلیلی ببیج از خاطرات لیدی لاولیس (۱۸۴۲) به دست آمده است. او در آنجا بیان میکند: «موتور تحلیلی هیچ ادعایی برای ابداع هیچ چیزی ندارد. این موتور میتواند هر کاری را که ما بدانیم چگونه به او دستور دهیم، انجام دهد.» هارتری (۱۹۴۹) با نقل این جمله اضافه میکند: «این بدان معنا نیست که ساخت تجهیزات الکترونیکی که “برای خودش فکر کند” غیرممکن باشد، یا تجهیزاتی که در آن بتوان (به زبان بیولوژیکی) یک واکنش شرطی ایجاد کرد که پایه و اساس “یادگیری” باشد. اینکه آیا این کار در اصول ممکن است یا خیر، پرسشی محرک و هیجانانگیز است که با برخی پیشرفتهای اخیر مطرح شده است؛ اما به نظر نمیرسید ماشینهایی که در آن زمان ساخته یا طراحی شده بودند، این ویژگی را داشته باشند.»
من در این مورد کاملاً با هارتری موافقم. توجه کنید که او ادعا نمیکند که آن ماشینها این ویژگی را «نداشتند»، بلکه میگوید شواهد در دسترس لیدی لاولیس او را تشویق نمیکرد که باور کند آنها چنین ویژگیای دارند. کاملاً ممکن است که آن ماشینها به نوعی این ویژگی را داشتهاند؛ زیرا فرض کنید ماشینی با وضعیت گسسته این ویژگی را داشته باشد. موتور تحلیلی یک رایانه دیجیتال جهانی بود، بنابراین اگر ظرفیت حافظه و سرعتش کافی بود، میتوانست با برنامهنویسی مناسب، رفتار ماشین مورد نظر را تقلید کند. احتمالاً این استدلال به ذهن کنتس (لاولیس) یا ببیج خطور نکرده بود؛ در هر صورت آنها وظیفهای نداشتند که هر آنچه قابل ادعا بود را ادعا کنند. این پرسش دوباره تحت عنوان «ماشینهای یادگیرنده» بررسی خواهد شد.
روایت دیگری از اعتراض لیدی لاولیس بیان میکند که ماشین «هرگز نمیتواند کاری واقعاً جدید انجام دهد». این حرف را میتوان با این ضربالمثل پاسخ داد: «هیچ چیز جدیدی زیر خورشید وجود ندارد». چه کسی میتواند مطمئن باشد که «کار اصیلی» که انجام داده، صرفاً رشد بذری نبوده که با آموزش در او کاشته شده، یا نتیجه پیروی از اصول کلی و شناختهشده نبوده است؟ روایت بهتری از این اعتراض میگوید که ماشین هرگز نمیتواند «ما را غافلگیر کند». این ادعا یک چالش مستقیمتر است و میتوان مستقیماً به آن پاسخ داد: ماشینها مکرراً مرا غافلگیر میکنند. این تا حد زیادی به این دلیل است که من محاسبات کافی انجام نمیدهم تا تصمیم بگیرم چه انتظاری از آنها داشته باشم؛ یا بهتر بگویم، اگر چه محاسباتی انجام میدهم، اما آن را به شکلی عجولانه، سرسری و با ریسک انجام میدهم. مثلاً به خودم میگویم «فکر میکنم ولتاژ اینجا باید با آنجا یکی باشد؛ به هر حال فرض میکنیم که هست». طبیعتاً اغلب اشتباه میکنم و نتیجه برای من غافلگیر کننده است، زیرا تا زمانی که آزمایش تمام شود، آن فرضها فراموش شدهاند. این اعترافات ممکن است مرا در معرض سرزنش قرار دهد، اما شکّی در صداقت من وقتی از غافلگیریهایی که تجربه میکنم سخن میگویم، ایجاد نمیکند.
انتظار ندارم این پاسخ منتقد مرا ساکت کند. او احتمالاً خواهد گفت که چنین غافلگیریهایی ناشی از یک عمل ذهنی خلاقانه از جانب «من» است و اعتباری برای ماشین محسوب نمیشود. این ما را دوباره به استدلال مبتنی بر آگاهی برمیگرداند. شاید بد نباشد اشاره کنیم که درک چیزی به عنوان «غافلگیر کننده»، به همان اندازه مستلزم یک «عمل ذهنی خلاقانه» است، خواه آن رویداد غافلگیر کننده از یک انسان سر بزند، خواه از یک کتاب، یک ماشین یا هر چیز دیگری.
این دیدگاه که ماشینها نمیتوانند باعث غافلگیری شوند، به نظر من ناشی از مغالطهای است که فلاسفه و ریاضیدانان به ویژه دچار آن میشوند: این فرض که به محض ارائه یک واقعیت به یک ذهن، تمام نتایج آن واقعیت همزمان با خودِ آن در ذهن جوانه میزند. این فرض در بسیاری از شرایط بسیار مفید است، اما آدم خیلی راحت فراموش میکند که این فرض نادرست است. نتیجه طبیعی این فراموشی این است که فرد تصور میکند صرفِ استخراج نتایج از دادهها و اصول کلی، هیچ ارزشی ندارد.
(۷) استدلال مبتنی بر پیوستگی در سیستم عصبی
سیستم عصبی قطعاً یک ماشین با وضعیت گسسته نیست. یک خطای کوچک در اطلاعات مربوط به اندازه یک تکانه عصبی که به یک نورون برخورد میکند، میتواند تفاوت بزرگی در اندازه تکانه خروجی ایجاد کند. ممکن است استدلال شود که با توجه به این موضوع، نمیتوان انتظار داشت که بتوان رفتار سیستم عصبی را با یک سیستم «وضعیت گسسته» تقلید کرد.
درست است که یک ماشین با وضعیت گسسته باید با یک ماشینِ پیوسته متفاوت باشد. اما اگر به شرایط بازی تقلید پایبند بمانیم، بازجو نخواهد توانست از این تفاوت مزیتی کسب کند. اگر یک ماشین پیوسته سادهتر دیگر را در نظر بگیریم، موقعیت روشنتر میشود: یک «تحلیلگر تفاضلی» (Differential Analyser) مثال خوبی است. برخی از این ماشینها پاسخهای خود را به صورت تایپشده ارائه میدهند و بنابراین برای شرکت در بازی مناسب هستند. برای یک رایانه دیجیتال ممکن نیست که «دقیقاً» پیشبینی کند تحلیلگر تفاضلی چه پاسخی به یک مسئله میدهد، اما کاملاً قادر خواهد بود پاسخهایی از «نوعِ درست» بدهد. برای مثال اگر از آن بخواهند مقدار $\pi$ (که حدود ۳.۱۴۱۶ است) را بدهد، منطقی است که به طور تصادفی بین مقادیر ۳.۱۲، ۳.۱۳، ۳.۱۴، ۳.۱۵ و ۳.۱۶ (مثلاً با احتمالات مختلف) انتخاب کند. تحت این شرایط، برای بازجو بسیار دشوار خواهد بود که تحلیلگر تفاضلی را از رایانه دیجیتال تشخیص دهد.
(۸) استدلال مبتنی بر غیررسمی بودن رفتار
ممکن نیست مجموعهای از قوانین ارائه کرد که توصیف کند یک انسان در هر مجموعه قابل تصوری از شرایط، چه باید انجام دهد. برای مثال، ممکن است قانونی داشته باشیم که وقتی چراغ راهنمایی قرمز است باید ایستاد و وقتی سبز است باید رفت؛ اما اگر بر اثر نقصی، هر دو چراغ با هم روشن شوند چه؟ شاید فرد تصمیم بگیرد که امنترین کار توقف است؛ اما ممکن است از همین تصمیم، بعدها دشواریِ دیگری پیش بیاید. تلاش برای ارائه قوانین رفتاری که تمام احتمالات را پوشش دهد (حتی احتمالات ناشی از چراغ راهنمایی) غیرممکن به نظر میرسد. من با تمام اینها موافقم.
از این مقدمه چنین استدلال میشود که «ما نمیتوانیم ماشین باشیم». من سعی میکنم این استدلال را بازسازی کنم: «اگر هر انسانی مجموعه مشخصی از قوانین رفتاری داشت که طبق آن زندگیاش را تنظیم میکرد، او چیزی بهتر از یک ماشین نبود. اما چنین قوانینی وجود ندارند، بنابراین انسانها نمیتوانند ماشین باشند.» در اینجا مغالطه «حد وسطِ توزیعنشده» (Undistributed Middle) کاملاً آشکار است. فکر نمیکنم این استدلال هرگز دقیقاً به این صورت بیان شود، اما معتقدم با این حال، این همان استدلالی است که استفاده میشود. ممکن است خلطی بین «قواعدِ رفتار» (Rules of conduct) و «قوانینِ رفتار» (Laws of behaviour) وجود داشته باشد که موضوع را تیره و تار کند. منظور من از «قواعد رفتار»، دستوراتی مانند «اگر چراغ قرمز دیدی بایست» است که فرد میتواند بر اساس آنها عمل کند و نسبت به آنها آگاه باشد. منظورم از «قوانین رفتار»، قوانین طبیعت است که بر بدن انسان اعمال میشود، مانند «اگر او را نیشگون بگیرید، جیغ خواهد کشید». اگر در استدلال بالا، «قوانین رفتاری که زندگی او را تنظیم میکنند» را جایگزین «قواعد رفتاری که او زندگیاش را با آنها تنظیم میکند» کنیم، مغالطه دیگر چندان حلناپذیر نخواهد بود؛ زیرا ما باور داریم که نه تنها تنظیم شدن توسط قوانین رفتار به معنای نوعی ماشین بودن است، بلکه برعکس، چنین ماشینی بودن به معنای تنظیم شدن توسط چنین قوانینی است. با این حال، ما نمیتوانیم به همان راحتی که خود را از نبودِ «قواعد کامل رفتار» مطمئن میکنیم، از نبودِ «قوانین کامل رفتار» هم مطمئن شویم. تنها راهی که برای یافتن چنین قوانینی میشناسیم، مشاهده علمی است و ما قطعاً هیچ شرایطی را نمیشناسیم که تحت آن بتوانیم بگوییم: «ما به اندازه کافی جستجو کردهایم؛ چنین قوانینی وجود ندارند.»
ما میتوانیم با قدرت بیشتری نشان دهیم که چنین ادعایی (نبود قوانین) ناموجه است. فرض کنید مطمئن بودیم که اگر چنین قوانینی وجود داشتند، آنها را پیدا میکردیم. آنگاه با داشتن یک ماشین با وضعیت گسسته، قطعاً باید ممکن میبود که با مشاهده، به اندازه کافی درباره آن کشف کرد تا رفتار آیندهاش را پیشبینی کنیم، آن هم در زمانی معقول (مثلاً هزار سال). اما به نظر نمیرسد چنین باشد. من روی رایانه منچستر برنامه کوچکی با استفاده از تنها ۱۰۰۰ واحد حافظه تنظیم کردهام که وقتی به ماشین یک عدد ۱۶ رقمی داده میشود، در عرض دو ثانیه با عدد دیگری پاسخ میدهد. من هر کسی را به چالش میکشم که از روی این پاسخها، آنقدر درباره برنامه یاد بگیرد که بتواند پاسخ به اعدادِ امتحان نشده را پیشبینی کند.
(۹) استدلال مبتنی بر ادراک فراحسی
من فرض میکنم که خواننده با ایده «ادراک فراحسی» (ESP) و معنای چهار شاخه آن یعنی تلهپاتی (دورآگاهی)، غیبگویی، پیشگویی و روانجنبشی (حرکت دادن اشیاء با ذهن) آشنا است. این پدیدههای نگران کننده به نظر میرسد تمام ایدههای علمی معمول ما را نفی میکنند. چقدر دوست داشتیم که میتوانستیم آنها را بیاعتبار کنیم! اما متأسفانه شواهد آماری، حداقل برای تله پاتی، بسیار کوبنده است. بسیار دشوار است که فرد ایدههای خود را به گونهای بازسازی کند که این حقایق جدید در آن بگنجد. وقتی کسی اینها را پذیرفت، باور کردن به ارواح و غولها دیگر گام خیلی بزرگی به نظر نمیرسد. این ایده که بدن ما صرفاً طبق قوانین شناختهشده فیزیک (و برخی قوانین هنوز کشفنشده اما مشابه) حرکت میکند، یکی از اولین باورهایی خواهد بود که فرو میریزد.
این استدلال به نظر من بسیار قوی است. در پاسخ میتوان گفت که بسیاری از نظریههای علمی علیرغم تضاد با ادراک فراحسی، در عمل کارآمد باقی میمانند و در واقع میتوان بدون توجه به آن، به خوبی به زندگی ادامه داد. این تسلیِ چندان گرمی نیست و آدم میترسد که «تفکر» دقیقاً همان پدیدهای باشد که ادراک فراحسی در آن نقش ویژهای ایفا میکند.
یک استدلال خاصتر بر پایه ادراک فراحسی میتواند چنین باشد: «بیایید بازی تقلید را با حضور یک انسان که در تلهپاتی قوی است و یک رایانه دیجیتال انجام دهیم. بازجو میتواند سوالاتی از این دست بپرسد: “ورقِ در دست راست من متعلق به کدام دسته (خال) است؟”. آن انسان از طریق تلهپاتی یا غیبگویی، از بین ۴۰۰ کارت، ۱۳۰ بار پاسخ درست میدهد. ماشین فقط میتواند به صورت تصادفی حدس بزند و شاید ۱۰۴ بار درست بگوید؛ بنابراین بازجو تشخیص درستی خواهد داد.» در اینجا احتمال جالبی گشوده میشود. فرض کنید رایانه دیجیتال شامل یک تولیدکننده اعداد تصادفی باشد. در این صورت طبیعی است که از آن برای تصمیمگیری در مورد پاسخها استفاده کند. اما ممکن است تولیدکننده اعداد تصادفی تحت تأثیر قدرت روان جنبشیِ بازجو قرار بگیرد. شاید این قدرت باعث شود ماشین بیش از آنچه در محاسبات احتمال انتظار میرود، درست حدس بزند، بهطوری که بازجو باز هم نتواند تشخیص درستی بدهد. از سوی دیگر، خودِ بازجو ممکن است بتواند بدون هیچ سوالی و از طریق غیبگویی، پاسخ درست را حدس بزند. با وجود ادراک فراحسی، هر اتفاقی ممکن است بیفتد.
اگر تله پاتی پذیرفته شود، لازم است آزمون خود را سخت گیرانهتر کنیم. این وضعیت مشابه حالتی است که بازجو با خودش حرف بزند و یکی از رقبا گوشش را به دیوار چسبانده باشد تا بشنود. قرار دادن رقبا در یک «اتاق ضد تله پاتی» تمام الزامات را برآورده خواهد کرد.
۷. ماشینهای یادگیرنده
خواننده احتمالاً حدس زده است که من استدلالهای مثبتِ چندان متقاعدکنندهای برای حمایت از دیدگاههایم ندارم. اگر داشتم، اینقدر زحمت نمیکشیدم که مغالطهها را در دیدگاههای مخالف نشان دهم. اکنون شواهدی را که در اختیار دارم ارائه میدهم.
بیایید لحظهای به اعتراض لیدی لاولیس برگردیم که میگفت ماشین فقط کاری را انجام میدهد که ما به او بگوییم. میتوان گفت که انسان میتواند ایدهای را به ماشین «تزریق» کند و ماشین تا حد معینی پاسخ میدهد و سپس آرام میگیرد، مانند سیم پیانو که با چکش به آن ضربه زده شود. تشبیه دیگر، یک «پیل اتمی» با اندازهای کمتر از حدِ بحرانی است: ایده تزریق شده متناظر با نوترونی است که از بیرون وارد پیل میشود. هر چنین نوترونی باعث اغتشاش خاصی میشود که در نهایت از بین میرود. اما اگر اندازه پیل به اندازه کافی بزرگ شود، اغتشاش ناشی از ورود نوترون به احتمال زیاد مدام افزایش مییابد تا زمانی که کل پیل نابود شود. آیا پدیده مشابهی برای ذهنها و ماشینها وجود دارد؟ به نظر میرسد برای ذهن انسان چنین چیزی وجود داشته باشد. اکثر ذهنها «زیرِ بحرانی» هستند؛ یعنی در این تشبیه متناظر با پیلهای زیر حدِ بحرانیاند. ایدهای که به چنین ذهنی ارائه میشود، به طور متوسط منجر به ایجاد کمتر از یک ایده در پاسخ میگردد. بخش کوچکی از ذهنها «فوقِ بحرانی» هستند. ایدهای که به چنین ذهنی ارائه میشود ممکن است منجر به ایجاد یک «نظریه» کامل شامل ایدههای ثانویه، ثالث و دورتر شود. به نظر میرسد ذهن حیوانات قطعاً زیر حد بحرانی است. با پایبندی به این تشبیه، میپرسیم: «آیا میتوان ماشینی ساخت که فوقِ بحرانی باشد؟»
تشبیه «پوست پیاز» نیز مفید است. در بررسی عملکردهای ذهن یا مغز، عملیاتهای خاصی را مییابیم که میتوانیم با عبارات کاملاً مکانیکی توضیح دهیم. میگوییم اینها متناظر با ذهن واقعی نیستند؛ اینها نوعی پوستهاند که باید برداشته شوند تا ذهن واقعی را پیدا کنیم. اما در آنچه باقی میماند، دوباره پوسته دیگری پیدا میکنیم که باید کنده شود و الی آخر. آیا با ادامه این مسیر، هرگز به ذهن «واقعی» میرسیم، یا در نهایت به پوستهای میرسیم که هیچ چیز در آن نیست؟ در حالت دوم، کل ذهن مکانیکی است. (البته نه لزوماً یک ماشین با وضعیت گسسته که قبلاً دربارهاش بحث کردیم).
این دو پاراگراف اخیر ادعای استدلال متقاعدکننده ندارند. آنها را باید بیشتر به عنوان «گفتههایی برای ایجاد باور» توصیف کرد.
تنها حمایت واقعاً رضایت بخشی که میتوان از دیدگاه بیان شده در ابتدای بخش ۶ ارائه داد، این است که تا پایان قرن صبر کنیم و سپس آزمایش توصیف شده را انجام دهیم. اما در این میان چه میتوانیم بگوییم؟ اگر قرار است آزمایش موفقیت آمیز باشد، اکنون چه گامهایی باید برداشته شود؟
همانطور که توضیح دادم، مسئله عمدتاً مربوط به برنامه نویسی است. پیشرفتهایی در مهندسی نیز باید صورت گیرد، اما بعید به نظر میرسد که این پیشرفتها برای نیازهای ما کافی نباشد. برآوردهای ظرفیت حافظه مغز از $۱۰^{۱۰}$ تا $۱۰^{۱۵}$ رقم باینری (بیت) متغیر است. من به مقادیر کمتر تمایل دارم و معتقدم که تنها بخش بسیار کوچکی برای انواع بالاتر تفکر استفاده میشود. بیشتر آن احتمالاً برای نگهداری برداشتهای بصری استفاده میشود. اگر برای انجام رضایت بخش بازی تقلید (حداقل در برابر یک فرد نابینا) بیش از $۱۰^۹$ بیت نیاز باشد، متعجب خواهم شد. (یادداشت: ظرفیت دایره المعارف بریتانیکا، ویرایش یازدهم، $۲ \times 10^9$ است). ظرفیت حافظه $۱۰^۷$ حتی با تکنیکهای فعلی یک امکان کاملاً عملی است. احتمالاً اصلاً نیازی به افزایش سرعت عملیات ماشینها نیست. بخشهایی از ماشینهای مدرن که میتوانند به عنوان آنالوگ سلولهای عصبی در نظر گرفته شوند، حدود هزار برابر سریعتر از اعصاب کار میکنند. این باید یک «حاشیه امنیت» ایجاد کند که افت سرعت ناشی از مسائل مختلف را بپوشاند. بنابراین مسئله ما این است که بفهمیم چگونه این ماشینها را برای انجام بازی برنامهریزی کنیم. با سرعت فعلی کارم، من روزانه حدود هزار رقم برنامه تولید میکنم، بنابراین حدود ۶۰ کارگر که به طور مداوم در طول ۵۰ سال کار کنند، میتوانند کار را به اتمام برسانند، به شرطی که هیچ چیز راهی سطل زباله نشود. به نظر میرسد روش سریعتری مطلوب باشد.
در فرآیند تلاش برای تقلید از ذهن یک انسان بالغ، ناچاریم به فرآیندی که ذهن را به وضعیت فعلیاش رسانده است، زیاد فکر کنیم. میتوانیم سه جزء را مشاهده کنیم:
(الف) وضعیت اولیه ذهن، مثلاً در هنگام تولد.
(ب) آموزشی که ذهن دیده است.
(ج) تجربیات دیگر (غیر از آموزش) که ذهن از سر گذرانده است.
به جای تلاش برای تولید برنامهای که ذهنِ «بالغ» را شبیهسازی کند، چرا سعی نکنیم برنامهای بسازیم که ذهن یک «کودک» را شبیه سازی کند؟ اگر این برنامه تحت یک دوره آموزشی مناسب قرار گیرد، مغز بالغ به دست خواهد آمد. احتمالاً مغز کودک شبیه دفتری است که از لوازمتحریری میخرید: مکانیزمهای بسیار کم و صفحات سفیدِ زیاد. (از دیدگاه ما، مکانیزم و نوشتن تقریباً مترادف هستند). امید ما این است که مکانیزم در مغز کودک آن قدر کم باشد که بتوان چیزی شبیه به آن را به راحتی برنامهنویسی کرد. مقدار کاری که برای آموزش لازم است را میتوان در تقریب اول، مشابه آموزش یک کودک انسان در نظر گرفت.
بنابراین مسئله خود را به دو بخش تقسیم کردهایم: «برنامه کودک» و «فرآیند آموزش». این دو بسیار به هم متصل باقی میمانند. نمیتوان انتظار داشت که در اولین تلاش، ماشینِ کودک خوبی پیدا کنیم. باید با آموزش دادن به یک چنین ماشینی آزمایش کرد و دید چقدر خوب یاد میگیرد. سپس میتوان ماشین دیگری را امتحان کرد و دید بهتر است یا بدتر. پیوند آشکاری بین این فرآیند و «تکامل» وجود دارد:
-
ساختار ماشین کودک = مواد موروثی (ژنتیک)
-
تغییرات ماشین کودک = جهش (موتاسیون)
-
انتخاب طبیعی = قضاوت آزمایشگر
با این حال، میتوان امیدوار بود که این فرآیند سریعتر از تکامل باشد. بقای اصلح روش کندی برای اندازه گیری مزایا است. آزمایشگر با استفاده از هوش خود باید بتواند سرعت آن را افزایش دهد. به همان اندازه مهم است که او محدود به جهشهای تصادفی نیست؛ اگر او بتواند علتی برای یک ضعف پیدا کند، احتمالاً میتواند نوعی جهش را طراحی کند که آن را بهبود بخشد.
اعمال دقیقاً همان فرآیند آموزشی که برای یک کودک معمولی به کار میرود، برای ماشین ممکن نخواهد بود. برای مثال، ماشین پا ندارد، بنابراین نمیتوان از او خواست بیرون برود و سطل زغال سنگ را پر کند. شاید چشم هم نداشته باشد. اما هر چقدر هم این نقصها با مهندسی هوشمندانه برطرف شوند، نمیتوان موجود را به مدرسه فرستاد بدون اینکه سایر کودکان بیش از حد او را مسخره کنند. باید به او آموزش خصوصی (در خانه) داد. لازم نیست نگران پاها، چشمها و غیره باشیم. نمونه خانم «هلن کلر» نشان میدهد که آموزش میتواند صورت بگیرد به شرطی که ارتباط دو طرفه بین معلم و شاگرد از راهی برقرار باشد.
ما به طور معمول پاداش و تنبیه را با فرآیند آموزش مرتبط میدانیم. برخی ماشینهای ساده کودک را میتوان بر اساس این اصل ساخت یا برنامهریزی کرد. ماشین باید به گونهای ساخته شود که وقایعی که مدت کوتاهی پیش از وقوع «سیگنال تنبیه» رخ دادهاند، احتمال تکرارشان کم شود؛ در حالی که «سیگنال پاداش» احتمال تکرار وقایعی را که منجر به آن شدهاند افزایش دهد. این تعاریف هیچگونه «احساسی» را در ماشین پیشفرض نمیگیرند. من آزمایشهایی با یک چنین ماشینِ کودکی انجام دادهام و موفق شدم چند چیز به او یاد بدهم، اما روش آموزش بیش از حد غیر متعارف بود که آزمایش واقعاً موفقیت آمیز تلقی شود. استفاده از پاداش و تنبیه در بهترین حالت میتواند بخشی از فرآیند آموزش باشد. به زبان ساده، اگر معلم راه دیگری برای ارتباط با شاگرد نداشته باشد، مقدار اطلاعاتی که به او میرسد از مجموع تعداد پاداشها و تنبیهها فراتر نخواهد رفت. تا زمانی که یک کودک یاد بگیرد شعر «کازابیانکا» را تکرار کند، اگر قرار باشد متن را فقط از طریق تکنیک «بیست سوالی» کشف کند و هر پاسخ «نه» به شکل یک ضربه (تنبیه) باشد، احتمالاً بسیار آزرده خواهد شد. بنابراین داشتن کانالهای ارتباطی دیگر و «غیر احساسی» ضروری است. اگر این کانالها در دسترس باشند، میتوان با پاداش و تنبیه به ماشین یاد داد که از دستوراتی که به یک زبان (مثلاً زبان نمادین) داده میشود، اطاعت کند. این دستورات از طریق کانالهای غیر احساسی منتقل میشوند. استفاده از این زبان، تعداد پاداش و تنبیه مورد نیاز را به شدت کاهش میدهد.
نظرات در مورد پیچیدگی مناسب برای ماشین کودک متفاوت است. میتوان سعی کرد آن را تا حد ممکن ساده و منطبق بر اصول کلی ساخت. از سوی دیگر، میتوان یک سیستم کامل از «استنتاج منطقی» را در آن تعبیه کرد. در حالت دوم، حافظه تا حد زیادی با تعاریف و گزارهها اشغال میشود. گزارهها انواع مختلفی از وضعیت را خواهند داشت: مثلاً واقعیتهای ثابتشده، حدسیات، قضایای اثبات شده ریاضی، اظهارات داده شده توسط یک مرجع (Authority) و عباراتی که فرم منطقی گزاره را دارند اما ارزشِ باور ندارند. برخی گزارهها را میتوان «الزامی» (امری) توصیف کرد. ماشین باید بهگونهای ساخته شود که به محض اینکه یک گزاره الزامی در رده «ثابت شده» قرار گرفت، عمل مربوط به آن به طور خودکار انجام شود. برای روشن شدن مطلب، فرض کنید معلم به ماشین میگوید: «الان مشقهایت را انجام بده». این ممکن است باعث شود جمله «معلم میگوید: الان مشقهایت را انجام بده» در میان واقعیتهای ثابت شده قرار گیرد. واقعیت دیگر ممکن است این باشد: «هر چه معلم بگوید درست است». ترکیب اینها ممکن است در نهایت منجر به این شود که گزاره الزامیِ «الان مشقهایت را انجام بده» در میان واقعیتهای ثابتشده قرار گیرد و این، طبق ساختار ماشین، به این معنی است که انجام مشقها واقعاً شروع میشود؛ و این نتیجه بسیار رضایت بخش است.
فرآیندهای استنتاجی که ماشین به کار میبرد نیازی نیست چنان باشند که سختگیرترین منطق دانان را راضی کنند. برای مثال، ممکن است سلسله مراتبی از انواع (Types) وجود نداشته باشد. اما این به معنای وقوع مغالطات نخواهد بود، همانطور که ما لزوماً از صخرههای بدون حصار سقوط نمیکنیم. گزارههای الزامیِ مناسب (که در داخل سیستم بیان میشوند، نه به عنوان بخشی از قوانین سیستم) مانند «از هیچ طبقهای استفاده نکن مگر اینکه زیرمجموعه طبقهای باشد که معلم ذکر کرده است»، میتواند تأثیری مشابهِ «خیلی به لبه صخره نزدیک نشو» داشته باشد.
دستوراتی که یک ماشینِ بدون دست و پا میتواند از آنها اطاعت کند، ناچاراً ماهیتی فکری دارند، مانند مثالِ «انجام تکالیف». در میان این دستورات، موارد مهم آنهایی هستند که ترتیبِ اعمال قوانین سیستم منطقیِ مربوطه را تنظیم میکنند؛ زیرا در هر مرحله از استفاده از یک سیستم منطقی، تعداد بسیار زیادی از گامهای جایگزین وجود دارد که طبق قوانین سیستم، مجاز به استفاده از هر یک از آنها هستیم. این انتخابها هستند که تفاوت بین یک استدلالگر نابغه و یک استدلالگر بی عرضه را رقم میزنند، نه تفاوت بین یک استدلالگر صحیح و یک استدلالگر مغالطهکار. گزارههایی که منجر به این نوع دستورات میشوند ممکن است چنین باشند: «وقتی از سقراط نام برده شد، از قیاس باربارا استفاده کن» یا «اگر ثابت شد روشی سریعتر از روش دیگر است، از روش کندتر استفاده نکن». برخی از اینها ممکن است «توسط مرجع» داده شوند، اما برخی دیگر ممکن است توسط خودِ ماشین تولید شوند، مثلاً از طریق استقرای علمی.
ایده یک ماشین یادگیرنده ممکن است برای برخی خوانندگان متناقض به نظر برسد. چگونه قوانین عملکرد ماشین میتواند تغییر کند؟ این قوانین باید به طور کامل توصیف کنند که ماشین بدون توجه به تاریخچهاش و تغییراتی که ممکن است متحمل شود، چگونه واکنش نشان خواهد داد. بنابراین قوانین کاملاً «ناوردا نسبت به زمان» (ثابت) هستند. این کاملاً درست است. توضیحِ این پارادوکس این است که قوانینی که در فرآیند یادگیری تغییر میکنند، از نوعِ بسیار کمادعاتری هستند و فقط اعتباری گذرا دارند. خواننده میتواند شباهتی بین این موضوع و قانون اساسی ایالات متحده پیدا کند.
یک ویژگی مهم ماشین یادگیرنده این است که معلمِ آن اغلب تا حد زیادی از آنچه دقیقاً در درون ماشین میگذرد بیاطلاع خواهد بود، هرچند ممکن است هنوز تا حدی بتواند رفتار شاگردش را پیشبینی کند. این موضوع باید به شدت در مورد آموزشهای بعدی ماشینی که از یک ماشینِ کودک با طراحی (یا برنامه) آزموده شده پدید آمده، صادق باشد. این در تضاد آشکار با روند معمولِ استفاده از ماشین برای انجام محاسبات است: در آنجا هدفِ فرد این است که تصویر ذهنی واضحی از وضعیت ماشین در هر لحظه از محاسبه داشته باشد. این هدف تنها با تلاش زیاد به دست میآید. در مواجهه با این موضوع، دیدگاه «ماشین فقط کاری را انجام میدهد که ما بدانیم چگونه به او دستور دهیم» عجیب به نظر میرسد. اکثر برنامههایی که میتوانیم در ماشین قرار دهیم، منجر به انجام کاری میشوند که ما نمیتوانیم از آن سر در بیاوریم، یا آن را رفتاری کاملاً تصادفی تلقی میکنیم. رفتار هوشمندانه احتمالاً شامل انحرافی از رفتار کاملاً منضبطِ محاسباتی است، اما انحرافی بسیار اندک که منجر به رفتار تصادفی یا حلقههای تکراریِ بی معنا نشود. نتیجه مهم دیگرِ آمادهسازی ماشین برای بازی تقلید از طریق فرآیند تعلیم و تعلم این است که «جایزالخطا بودنِ انسانی» احتمالاً به شکلی کاملاً طبیعی و بدون نیاز به «مربیگریِ» ویژه (برای یاد دادن اشتباه کردن به ماشین) در آن گنجانده میشود. فرآیندهایی که آموخته میشوند، قطعیت صد درصدی در نتیجه تولید نمیکنند؛ اگر چنین میکردند، نمیشد آنها را «فراموش کرد» یا تغییر داد.
احتمالاً عاقلانه است که یک «عنصر تصادفی» در ماشین یادگیرنده گنجانده شود. یک عنصر تصادفی هنگام جستجو برای راه حل یک مسئله بسیار مفید است. برای مثال، فرض کنید میخواهیم عددی بین ۵۰ و ۲۰۰ پیدا کنیم که برابر با مربعِ مجموع ارقامش باشد. ممکن است از ۵۱ شروع کنیم و بعد ۵۲ را امتحان کنیم و همینطور ادامه دهیم تا به عددی برسیم که درست باشد. روش دیگر این است که اعداد را به صورت تصادفی انتخاب کنیم تا به یک عدد مناسب برسیم. این روش این مزیت را دارد که نیازی به پیگیری مقادیر امتحان شده نیست، اما این عیب را دارد که ممکن است یک عدد را دو بار امتحان کنیم؛ هرچند اگر چندین راه حل وجود داشته باشد، این موضوع چندان مهم نیست. روش سیستماتیک این عیب را دارد که ممکن است در منطقهای که اول بررسی میشود، بلوک عظیمی بدون هیچ راه حلی وجود داشته باشد. اکنون فرآیند یادگیری را میتوان به عنوان جستجویی برای یافتن شکلی از رفتار در نظر گرفت که معلم را (یا معیاری دیگر را) راضی کند. از آنجایی که احتمالاً تعداد بسیار زیادی راه حل رضایت بخش وجود دارد، روش تصادفی بهتر از روش سیستماتیک به نظر میرسد. باید توجه داشت که این روش در فرآیند مشابهِ تکامل نیز استفاده میشود؛ اما در آنجا روش سیستماتیک ممکن نیست. چگونه میتوان ترکیبات ژنتیکی مختلفی را که امتحان شدهاند ردیابی کرد تا از امتحان مجدد آنها جلوگیری شود؟
میتوان امیدوار بود که ماشینها در نهایت در تمام زمینههای صرفاً فکری با انسان رقابت کنند. اما بهترین زمینهها برای شروع کدامند؟ حتی این هم تصمیم دشواری است. بسیاری فکر میکنند فعالیتی بسیار انتزاعی مانند بازی شطرنج بهترین گزینه است. همچنین میتوان ادعا کرد که بهتر است ماشین را با بهترین اندامهای حسی که با پول میتوان خرید مجهز کرد و سپس به او یاد داد که انگلیسی بفهمد و صحبت کند. این فرآیند میتواند از آموزش معمول یک کودک پیروی کند: اشیاء نشان داده شوند و نامگذاری شوند و غیره. باز هم نمیدانم پاسخ درست چیست، اما فکر میکنم هر دو رویکرد باید امتحان شوند.
ما فقط میتوانیم فاصله کوتاهی از پیش رو را ببینیم، اما در همان فاصله هم کارهای زیادی هست که باید انجام شوند.