جهت بهره مندی از شبکه ارتباطی منتورینگ مرکز نوآوری همیار دانش بنیان و اخذ مشاوره، به صفحه منتورهاب مراجعه نمایید.

بلاگ دانش بنیان و خلاق مقالات دانش بنیان و خلاق ماشین‌ های محاسباتی و هوش نوشته آلن تورینگ

ماشین‌ های محاسباتی و هوش نوشته آلن تورینگ

ماشین‌ های محاسباتی و هوش نوشته آلن تورینگ

۱. بازی تقلید

پیشنهاد می‌کنم این پرسش را در نظر بگیریم که: «آیا ماشین‌ها می‌توانند فکر کنند؟» این بررسی باید با تعاریفی از معنای واژگان «ماشین» و «تفکر» آغاز شود. این تعاریف ممکن است به‌ گونه‌ای تدوین شوند که تا حد امکان بازتاب‌دهنده استفاده معمول از این کلمات باشند؛ اما این رویکرد خطرناک است. اگر قرار باشد معنای کلمات «ماشین» و «فکر کردن» را با بررسی نحوه استفاده رایج آن‌ها بیابیم، دشوار است که از این نتیجه بگریزیم که معنا و پاسخ به پرسش «آیا ماشین‌ها می‌توانند فکر کنند؟» را باید در یک نظرسنجی آماری، مانند نظرسنجی گالوپ، جستجو کرد. اما این مضحک است. من به جای تلاش برای ارائه چنین تعریفی، پرسش مذکور را با پرسش دیگری جایگزین می‌کنم که ارتباط نزدیکی با آن دارد و با کلماتی نسبتاً بی‌ابهام بیان شده است.

صورت جدید مسئله را می‌توان در قالب بازی‌ای توصیف کرد که ما آن را «بازی تقلید» می‌نامیم. این بازی با سه نفر انجام می‌شود: یک مرد (الف)، یک زن (ب) و یک بازجو (ج) که می‌تواند از هر دو جنس باشد. بازجو در اتاقی جدا از آن دو نفر مستقر می‌شود. هدف بازی برای بازجو این است که تشخیص دهد کدام‌یک از آن دو نفر مرد و کدام‌یک زن است. او آن‌ها را با برچسب‌های X و Y می‌شناسد و در پایان بازی یا می‌گوید «X همان الف و Y همان ب است» یا «X همان ب و Y همان الف است». بازجو مجاز است پرسش‌هایی را از الف و ب بپرسد؛ به این صورت:

«ج: لطفاً X به من بگوید بلندی موهایش چقدر است؟»

حال فرض کنید X در واقع همان الف (مرد) باشد، آن‌گاه الف باید پاسخ دهد. هدف الف در بازی این است که سعی کند بازجو (ج) را در تشخیص دچار اشتباه کند. بنابراین پاسخ او ممکن است چنین باشد:

«موهای من کوتاه است و بلندترین رشته‌های آن حدود نه اینچ طول دارد.»

برای آنکه طنین صدا کمکی به بازجو نکند، پاسخ‌ها باید مکتوب باشند یا بهتر از آن، تایپ شوند. چیدمان ایده‌آل این است که یک تله‌پرینتر (دورنویس) ارتباط بین دو اتاق را برقرار کند. روش جایگزین این است که پرسش و پاسخ توسط یک میانجی تکرار شود. هدف بازی برای نفر سوم (ب یا همان زن) کمک به بازجو است. بهترین استراتژی برای او احتمالاً دادن پاسخ‌های صادقانه است. او می‌تواند جملاتی مانند «من زن هستم، به حرف او گوش نده!» را به پاسخ‌هایش اضافه کند، اما این کار سودی نخواهد داشت، زیرا مرد نیز می‌تواند جملات مشابهی بگوید.

اکنون این سوال را می‌پرسیم: «چه اتفاقی می‌افتد اگر یک ماشین نقش “الف” را در این بازی ایفا کند؟» آیا بازجو در این حالت نیز به همان اندازه دچار اشتباه در تشخیص می‌شود که بازی بین یک مرد و یک زن انجام می‌گشت؟ این پرسش‌ها جایگزین پرسش اصلی ما یعنی «آیا ماشین‌ها می‌توانند فکر کنند؟» می‌شوند.

۲. نقد مسئله جدید

همان‌طور که می‌توان پرسید «پاسخ به این شکل جدیدِ پرسش چیست»، می‌توان پرسید «آیا این پرسش جدید ارزش بررسی دارد؟» ما بدون معطلی به بررسی این سوال دوم می‌پردازیم تا از تسلسل بیهوده جلوگیری کنیم.

مسئله جدید این مزیت را دارد که مرز نسبتاً مشخصی میان توانایی‌های جسمانی و توانایی‌های فکری یک انسان ترسیم می‌کند. هیچ مهندس یا شیمیدانی ادعا نمی‌کند که قادر به تولید ماده‌ای است که از پوست انسان قابل تشخیص نباشد. ممکن است زمانی این کار انجام شود، اما حتی با فرض در دسترس بودن چنین اختراعی، احساس می‌کنیم که تلاش برای انسانی‌تر کردن یک «ماشین متفکر» با پوشاندن آن در چنین گوشت مصنوعی، فایده چندانی ندارد. شکلی که ما برای مسئله طراحی کرده‌ایم، این واقعیت را در شرطی بازتاب می‌دهد که بازجو را از دیدن، لمس کردن یا شنیدن صدای رقبا باز می‌دارد. برخی مزایای دیگر معیارِ پیشنهادی را می‌توان با نمونه‌هایی از پرسش و پاسخ نشان داد:

پرسش: لطفاً برای من سونتی (نوعی شعر) با موضوع «پل فورث» بنویسید.

پاسخ: روی من حساب نکنید. من هرگز نتوانسته‌ام شعر بگویم.

پرسش: ۳۴۹۵۷ را با ۷۰۷۶۴ جمع کنید.

پاسخ: (حدود ۳۰ ثانیه مکث و سپس پاسخ دادن) ۱۰۵۶۲۱.

پرسش: آیا شطرنج بازی می‌کنید؟

پاسخ: بله.

پرسش: من شاه در خانه K1 دارم و هیچ مهره دیگری ندارم. شما فقط شاه در K6 و رخ در R1 دارید. نوبت حرکت با شماست. چه بازی می‌کنید؟

پاسخ: (پس از ۱۵ ثانیه مکث) رخ به R8، مات.

به نظر می‌رسد روش پرسش و پاسخ برای معرفی تقریباً هر یک از حوزه‌های تلاش انسانی که مایل به گنجاندن آن‌ها هستیم، مناسب باشد. ما نمی‌خواهیم ماشین را به خاطر ناتوانی در درخشش در مسابقات زیبایی جریمه کنیم، همان‌طور که نمی‌خواهیم انسانی را برای شکست در مسابقه با هواپیما مجازات کنیم. شرایط بازی ما این ناتوانی‌ها را بی‌اهمیت جلوه می‌دهد. «شاهدان» اگر صلاح بدانند، می‌توانند تا هر اندازه که می‌خواهند درباره جذابیت‌ها، قدرت یا قهرمانی‌های خود لاف بزنند، اما بازجو نمی‌تواند تقاضای نمایش عملی آن‌ها را داشته باشد.

شاید بتوان از این بازی انتقاد کرد که احتمال برد (شانس) به شدت علیه ماشین است. اگر انسانی سعی می‌کرد وانمود کند که ماشین است، قطعاً نمایش بسیار ضعیفی می‌داشت. او بلافاصله با کندی و بی‌ دقتی در محاسبات لو می‌رفت. آیا ممکن نیست ماشین‌ها کاری انجام دهند که باید به عنوان «تفکر» توصیف شود اما با آنچه انسان انجام می‌دهد بسیار متفاوت باشد؟ این اعتراض بسیار قوی است، اما حداقل می‌توانیم بگوییم که اگر با این وجود، ماشینی ساخته شود که بتواند بازی تقلید را به طور رضایت‌ بخشی بازی کند، نیازی نیست نگران این اعتراض باشیم.

ممکن است اصرار شود که هنگام انجام «بازی تقلید»، بهترین استراتژی برای ماشین احتمالاً چیزی غیر از تقلید از رفتار یک انسان باشد. این ممکن است، اما فکر نمی‌کنم چنین موضوعی تأثیر چندانی داشته باشد. در هر صورت، قصدی برای بررسی تئوری بازی‌ها در اینجا وجود ندارد و فرض بر این خواهد بود که بهترین استراتژی، تلاش برای ارائه پاسخ‌هایی است که به طور طبیعی توسط یک انسان داده می‌شود.

۳. ماشین‌های مورد نظر در بازی

پرسشی که در بخش ۱ مطرح کردیم، کاملاً دقیق نخواهد بود مگر اینکه مشخص کنیم منظورمان از کلمه «ماشین» چیست. طبیعی است که بخواهیم اجازه دهیم هر نوع تکنیک مهندسی در ماشین‌های ما به کار رود. همچنین می‌خواهیم این امکان را فراهم کنیم که یک مهندس یا تیمی از مهندسان ماشینی بسازند که کار کند، اما نحوه عملکرد آن توسط سازندگانش به طور رضایت‌بخشی قابل توصیف نباشد، زیرا آن‌ها روشی را به کار برده‌اند که تا حد زیادی تجربی است. در نهایت، می‌خواهیم انسان‌هایی را که به روش معمول متولد شده‌اند، از زمره «ماشین‌ها» حذف کنیم. دشوار است که تعاریف را به‌گونه‌ای تنظیم کنیم که این سه شرط را برآورده کند. به عنوان مثال، می‌توان اصرار داشت که تیم مهندسان همگی از یک جنس باشند، اما این واقعاً رضایت‌ بخش نخواهد بود، زیرا احتمالاً ممکن است یک فرد کامل را از یک تک‌ سلول پوست (مثلاً) یک مرد پرورش داد. انجام این کار شاهکاری در تکنیک بیولوژیکی خواهد بود که شایسته بالاترین ستایش‌هاست، اما ما تمایلی نداریم آن را موردی از «ساختن یک ماشین متفکر» بدانیم. این امر ما را بر آن می‌دارد که از این شرط که هر نوع تکنیکی باید مجاز باشد، صرف‌نظر کنیم. ما به ویژه با توجه به این واقعیت که علاقه فعلی به «ماشین‌های متفکر» توسط نوع خاصی از ماشین ایجاد شده است که معمولاً «رایانه الکترونیکی» یا «رایانه دیجیتال» نامیده می‌شود، برای انجام این کار آماده‌تر هستیم. با پیروی از این پیشنهاد، ما فقط به رایانه‌های دیجیتال اجازه می‌دهیم در بازی ما شرکت کنند.

این محدودیت در نگاه اول بسیار سخت‌گیرانه به نظر می‌رسد. من تلاش خواهم کرد نشان دهم که در واقعیت چنین نیست. انجام این کار نیازمند شرح کوتاهی از ماهیت و ویژگی‌های این رایانه‌ها است.

همچنین می‌توان گفت که این یکی دانستنِ ماشین‌ها با رایانه‌های دیجیتال، درست مانند معیار ما برای «تفکر»، تنها در صورتی نامطلوب خواهد بود که (برخلاف باور من) مشخص شود که رایانه‌های دیجیتال قادر به ارائه نمایش خوبی در بازی نیستند.

در حال حاضر تعدادی رایانه دیجیتال در حال کار وجود دارد و ممکن است پرسیده شود: «چرا بلافاصله این آزمایش را انجام نمی‌دهیم؟ برآورده کردن شرایط بازی آسان خواهد بود. می‌توان از تعدادی بازجو استفاده کرد و آماری تهیه کرد تا نشان دهد چقدر تشخیص درست داده شده است.» پاسخ کوتاه این است که ما نمی‌پرسیم آیا همه رایانه‌های دیجیتال در بازی خوب عمل می‌کنند یا اینکه آیا رایانه‌های فعلی خوب عمل خواهند کرد، بلکه می‌پرسیم آیا رایانه‌های «قابل تصوری» وجود دارند که خوب عمل کنند. اما این فقط پاسخ کوتاه است؛ ما بعداً این پرسش را از زاویه‌ای دیگر خواهیم دید.

۴. رایانه‌های دیجیتال

ایده نهفته در رایانه‌های دیجیتال را می‌توان این‌گونه توضیح داد که این ماشین‌ها برای انجام هر عملیاتی که یک «محاسب انسانی» (human computer) می‌توانست انجام دهد، در نظر گرفته شده‌اند. فرض بر این است که محاسب انسانی از قوانین ثابتی پیروی می‌کند؛ او اجازه ندارد در هیچ جزئیاتی از آن‌ها منحرف شود. می‌توانیم فرض کنیم که این قوانین در یک کتاب عرضه شده‌اند که هرگاه او به کار جدیدی گماشته می‌شود، تغییر می‌کند. او همچنین ذخیره نامحدودی از کاغذ دارد که محاسبات خود را روی آن انجام می‌دهد. او ممکن است ضرب و جمع‌های خود را روی یک «ماشین رومیزی» نیز انجام دهد، اما این مهم نیست.

اگر از توضیح فوق به عنوان یک تعریف استفاده کنیم، در خطرِ «دُور در استدلال» خواهیم بود. ما با ارائه طرحی کلی از ابزاری که از طریق آن اثر مطلوب حاصل می‌شود، از این امر اجتناب می‌کنیم. یک رایانه دیجیتال معمولاً شامل سه بخش در نظر گرفته می‌شود:

(۱) حافظه (Store)

(۲) واحد اجرایی (Executive unit)

(۳) کنترل (Control)

«حافظه» مخزنی از اطلاعات است و متناظر با کاغذِ محاسب انسانی است، خواه این کاغذ همان باشد که محاسباتش را روی آن انجام می‌دهد، یا همان که کتاب قوانینش روی آن چاپ شده است. تا جایی که محاسب انسانی محاسبات را در ذهن خود انجام می‌دهد، بخشی از حافظه متناظر با حافظه او خواهد بود.

«واحد اجرایی» بخشی است که عملیات‌های انفرادی مختلف مربوط به یک محاسبه را انجام می‌دهد. اینکه این عملیات‌های انفرادی چه هستند، از ماشینی به ماشین دیگر متفاوت خواهد بود. معمولاً عملیات‌های نسبتاً طولانی مانند «ضرب ۳۵۴۰۶۷۵۴۴۵ در ۷۰۷۶۳۴۵۶۸۷» را می‌توان انجام داد، اما در برخی ماشین‌ها فقط عملیات‌های بسیار ساده مانند «نوشتن عدد ۰» امکان‌پذیر است.

ذکر کردیم که «کتاب قوانین» که به محاسب انسانی داده می‌شد، در ماشین با بخشی از حافظه جایگزین می‌شود. در آن صورت به آن «جدول دستورالعمل‌ها» گفته می‌شود. وظیفه «کنترل» این است که اطمینان حاصل کند این دستورالعمل‌ها به درستی و با ترتیب صحیح اجرا می‌شوند. واحد کنترل به‌ گونه‌ای ساخته شده است که این امر لزوماً اتفاق می‌افتد.

اطلاعات در حافظه معمولاً به بسته‌هایی با اندازه نسبتاً کوچک تقسیم می‌شوند. برای مثال در یک ماشین، یک بسته ممکن است شامل ده رقم دهدهی باشد. به بخش‌هایی از حافظه که بسته‌های مختلف اطلاعات در آن‌ها ذخیره می‌شوند، به روشی سیستماتیک، اعدادی اختصاص داده می‌شود. یک دستورالعمل معمولی ممکن است بگوید:

«عدد ذخیره شده در موقعیت ۶۸۰۹ را با عدد موجود در موقعیت ۴۳۰۲ جمع کن و نتیجه را دوباره در موقعیت دومی ذخیره کن.»

نیازی به گفتن نیست که این دستور در ماشین به زبان انگلیسی بیان نمی‌شود. احتمال بیشتری دارد که به شکلی مانند ۶۸۰۹۴۳۰۲۱۷ کدگذاری شود. در اینجا ۱۷ می‌گوید که کدام‌ یک از عملیات‌های مختلف ممکن باید روی دو عدد انجام شود. در این مورد، عملیات همان است که در بالا توضیح داده شد، یعنی «جمع کردن عدد…». ملاحظه می‌شود که دستورالعمل ۱۰ رقم را اشغال می‌کند و به این ترتیب، به شکلی بسیار راحت، یک بسته اطلاعاتی را تشکیل می‌دهد. کنترل به طور معمول دستورالعمل‌ها را به ترتیب موقعیت‌هایی که در آن ذخیره شده‌اند برای اجرا برمی‌دارد، اما گاهی ممکن است با دستورالعملی مانند این مواجه شود:

«اکنون از دستورالعمل ذخیره شده در موقعیت ۵۶۰۶ پیروی کن و از آنجا ادامه بده.»

یا مجدداً:

«اگر موقعیت ۴۵۰۵ حاوی عدد ۰ است، دستورالعمل بعدی را از ۶۷۰۷ بخوان، در غیر این صورت مستقیماً ادامه بده.»

دستورالعمل‌های نوع اخیر بسیار مهم هستند، زیرا تکرار یک توالی از عملیات را تا زمانی که شرطی برقرار شود ممکن می‌سازند؛ اما در انجام این کار، در هر بار تکرار نه از دستورالعمل‌های جدید، بلکه از همان دستورالعمل‌های قبلی بارها و بارها استفاده می‌شود. برای استفاده از یک مثال خانگی: فرض کنید مادری می‌خواهد فرزندش «تامی» هر روز صبح در راه مدرسه به کفاشی سر بزند تا ببیند آیا کفش‌هایش آماده است یا نه؛ او می‌تواند هر روز صبح این را از او بخواهد. روش دیگر این است که یک بار برای همیشه اعلانی را در راهرو بچسباند که تامی هنگام خروج به سمت مدرسه آن را ببیند و به او بگوید که سراغ کفش‌ها را بگیرد و همچنین وقتی برگشت، اگر کفش‌ها همراهش بود، آن اعلان را پاره کند.

خواننده باید این را به عنوان یک واقعیت بپذیرد که رایانه‌های دیجیتال می‌توانند طبق اصولی که توصیف کردیم ساخته شوند (و در واقع ساخته شده‌اند) و می‌توانند به خوبی رفتار یک محاسب انسانی را با دقت زیاد تقلید کنند.

کتاب قوانینی که برای محاسب انسانی توصیف کردیم، البته یک تخیلِ مصلحتی است. محاسبان انسانی واقعی در حقیقت آنچه را که باید انجام دهند به خاطر می‌سپارند. اگر کسی بخواهد ماشینی بسازد که رفتار محاسب انسانی را در یک عملیات پیچیده تقلید کند، باید از او بپرسد که این کار چگونه انجام می‌شود و سپس پاسخ را به شکل یک جدول دستورالعمل ترجمه کند. ساختن جداول دستورالعمل معمولاً به عنوان «برنامه‌نویسی» شناخته می‌شود. «برنامه‌ریزی یک ماشین برای انجام عملیات الف» به معنای قرار دادن جدول دستورالعمل مناسب در ماشین است به‌طوری که عملیات الف را انجام دهد.

یک تنوع جالب در ایده رایانه دیجیتال، «رایانه دیجیتال با یک عنصر تصادفی» است. این‌ها دستورالعمل‌هایی دارند که شامل پرتاب تاس یا یک فرآیند الکترونیکی معادل آن است؛ برای مثال یک دستورالعمل ممکن است این باشد: «تاس را پرتاب کن و عدد حاصل را در حافظه ۱۰۰۰ قرار بده.» گاهی اوقات چنین ماشینی به عنوان ماشینی دارای اراده آزاد توصیف می‌شود (اگرچه من خودم از این عبارت استفاده نمی‌کنم). معمولاً نمی‌توان با مشاهده یک ماشین تشخیص داد که آیا عنصر تصادفی دارد یا خیر، زیرا اثر مشابهی را می‌توان با ابزارهایی مانند وابسته کردن انتخاب‌ها به ارقام اعشاری عدد $\pi$ ایجاد کرد.

اکثر رایانه‌های دیجیتال واقعی حافظه محدودی دارند. در ایده رایانه‌ای با حافظه نامحدود هیچ دشواری تئوریکی وجود ندارد. البته در هر زمان مشخص تنها بخش محدودی از آن می‌تواند استفاده شده باشد. به همین ترتیب تنها مقدار محدودی می‌تواند ساخته شده باشد، اما ما می‌توانیم تصور کنیم که در صورت نیاز، بخش‌های بیشتری اضافه شود. چنین رایانه‌هایی جذابیت تئوریک خاصی دارند و «رایانه‌های با ظرفیت بی‌نهایت» نامیده می‌شوند.

ایده رایانه دیجیتال قدیمی است. چارلز ببیج، استاد ریاضیات لوکاسی در کمبریج از ۱۸۲۸ تا ۱۸۳۹، چنین ماشینی را به نام «موتور تحلیلی» طراحی کرد، اما هرگز تکمیل نشد. اگرچه ببیج تمام ایده‌های اصلی را داشت، ماشین او در آن زمان چشم‌انداز چندان جذابی نبود. سرعتی که در دسترس می‌بود قطعاً از یک محاسب انسانی سریع‌تر بود، اما چیزی حدود ۱۰۰ برابر کندتر از ماشین منچستر (یکی از کندترین ماشین‌های مدرن در زمان نگارش مقاله) بود. حافظه قرار بود کاملاً مکانیکی و با استفاده از چرخ‌دنده‌ها و کارت‌ها باشد.

این واقعیت که موتور تحلیلی ببیج قرار بود کاملاً مکانیکی باشد، به ما کمک می‌کند تا خود را از یک خرافه رها کنیم. اغلب به این واقعیت اهمیت داده می‌شود که رایانه‌های دیجیتال مدرن الکتریکی هستند و سیستم عصبی نیز الکتریکی است. از آنجایی که ماشین ببیج الکتریکی نبود و تمام رایانه‌های دیجیتال به نوعی معادل یکدیگر هستند، می‌بینیم که این استفاده از الکتریسیته نمی‌تواند اهمیت تئوریک داشته باشد. البته الکتریسیته معمولاً هر جا که انتقال سریع سیگنال مطرح باشد وارد می‌شود، بنابراین تعجب‌ آور نیست که آن را در هر دوی این موارد (اعصاب و رایانه) می‌یابیم. در سیستم عصبی، پدیده‌های شیمیایی حداقل به اندازه پدیده‌های الکتریکی مهم هستند. در برخی رایانه‌ها سیستم ذخیره‌ سازی عمدتاً صوتی (آکوستیک) است. بنابراین ویژگیِ استفاده از الکتریسیته تنها یک شباهت بسیار سطحی دیده می‌شود. اگر بخواهیم چنین شباهت‌هایی را بیابیم، باید بیشتر به دنبال شباهت‌های ریاضی در «عملکرد» باشیم.

۵. جهانی بودن رایانه‌های دیجیتال

رایانه‌های دیجیتالی که در بخش قبل بررسی کردیم، می‌توانند در زمره «ماشین‌های با وضعیت گسسته» طبقه‌بندی شوند. این‌ها ماشین‌هایی هستند که با جهش‌ها یا تیک‌تاک‌های ناگهانی، از یک وضعیت کاملاً مشخص به وضعیتی دیگر تغییر حالت می‌دهند. این وضعیت‌ها به اندازه کافی با یکدیگر تفاوت دارند که بتوان از احتمال اشتباه گرفتن آن‌ها با هم چشم‌ پوشی کرد. اگر دقیق‌تر بگوییم، در واقعیت چنین ماشین‌هایی وجود ندارند؛ چراکه همه چیز در عالم واقع به صورت «پیوسته» حرکت می‌کند. اما انواع بسیاری از ماشین‌ها وجود دارند که می‌توان به شکل سودمندی آن‌ها را به عنوان «ماشین با وضعیت گسسته» در نظر گرفت. برای مثال، در بررسی کلیدهای یک سیستم روشنایی، این یک «فرضِ مصلحتی» است که هر کلید باید حتماً یا کاملاً «روشن» باشد یا کاملاً «خاموش». مسلماً وضعیت‌های میانی هم وجود دارند، اما در اکثر موارد می‌توانیم آن‌ها را نادیده بگیریم.

به عنوان مثالی از یک ماشین با وضعیت گسسته، می‌توانیم چرخی را در نظر بگیریم که در هر ثانیه ۱۲۰ درجه می‌چرخد و با صدایی کلیک‌مانند جابه‌جا می‌شود، اما می‌توان آن را با اهرمی که از بیرون کنترل می‌شود متوقف کرد؛ علاوه بر این، قرار است در یکی از این موقعیت‌های چرخ، چراغی روشن شود. این ماشین را می‌توان به صورت انتزاعی این‌گونه توصیف کرد: وضعیت داخلی ماشین (که با موقعیت چرخ توصیف می‌شود) می‌تواند $q_1$، $q_2$ یا $q_3$ باشد. یک سیگنال ورودی $i_0$ یا $i_1$ (موقعیت اهرم) وجود دارد. وضعیت داخلی در هر لحظه، بر اساس وضعیت قبلی و سیگنال ورودی، مطابق با یک جدول تعیین می‌شود. سیگنال‌های خروجی، که تنها نشانه‌های قابل مشاهده بیرونی از وضعیت داخلی (نور چراغ) هستند نیز طبق جدولی توصیف می‌شوند (مانند اینکه در وضعیت $q_3$ چراغ روشن و در بقیه خاموش باشد).

این مثال نمونه‌ای بارز از ماشین‌های با وضعیت گسسته است. تا زمانی که این ماشین‌ها تعداد محدودی وضعیت ممکن داشته باشند، می‌توان آن‌ها را با چنین جدول‌هایی توصیف کرد. به نظر می‌رسد که با داشتن وضعیت اولیه ماشین و سیگنال‌های ورودی، همیشه می‌توان تمام وضعیت‌های آینده را پیش‌بینی کرد. این موضوع یادآور دیدگاه لاپلاس است؛ او معتقد بود که با داشتن وضعیت کامل جهان در یک لحظه از زمان (یعنی موقعیت و سرعت تمام ذرات)، باید بتوان تمام وضعیت‌های آینده را پیش‌بینی کرد. با این حال، پیش‌بینی‌ای که ما در اینجا در نظر داریم، نسبت به آنچه لاپلاس می‌گفت، به «قابلیت اجرا» نزدیک‌تر است. سیستم «جهان به عنوان یک کل» به‌گونه‌ای است که خطاهای بسیار کوچک در شرایط اولیه می‌تواند تأثیرات بسیار بزرگی در زمان‌های آینده داشته باشد. جابه‌جایی یک الکترون به اندازه یک میلیاردم سانتی‌متر در یک لحظه، می‌تواند باعث شود یک انسان یک سال بعد یا بر اثر بهمن کشته شود یا از آن جان سالم به در ببرد. این یکی از ویژگی‌های اساسی سیستم‌های مکانیکی است که ما آن‌ها را «ماشین‌های با وضعیت گسسته» نامیدیم؛ اینکه چنین پدیده‌ای (حساسیت شدید به شرایط اولیه) در آن‌ها رخ نمی‌دهد. حتی وقتی به جای ماشین‌های ایده‌آل، ماشین‌های فیزیکی واقعی را در نظر می‌گیریم، دانش نسبتاً دقیق از وضعیت در یک لحظه، دانشی نسبتاً دقیق از وضعیت ماشین در هر چند مرحله بعد را به دست می‌دهد.

همان‌طور که اشاره کردیم، رایانه‌های دیجیتال در رده ماشین‌های با وضعیت گسسته قرار می‌گیرند. اما تعداد وضعیت‌هایی که چنین ماشینی قادر به داشتن آن‌هاست، معمولاً به شکلی باورنکردنی زیاد است. برای مثال، این تعداد برای ماشینی که اکنون در منچستر کار می‌کند، حدود $۲^{۱۶۵,۰۰۰}$ (یعنی حدود $۱۰^{۵۰,۰۰۰}$) است. این را با مثال چرخِ در حال چرخش که قبلاً ذکر شد و تنها سه وضعیت داشت، مقایسه کنید. درک اینکه چرا تعداد وضعیت‌ها این‌قدر عظیم است، دشوار نیست. رایانه شامل یک «حافظه» است که متناظر با کاغذ مورد استفاده یک محاسب انسانی است. باید امکان‌پذیر باشد که در این حافظه، هر ترکیبی از نمادهایی را که ممکن بود روی آن کاغذ نوشته شود، ثبت کرد. برای سادگی، فرض کنید فقط از ارقام ۰ تا ۹ به عنوان نماد استفاده شود و تفاوت در دست‌خط‌ها نادیده گرفته شود. فرض کنید به رایانه اجازه داده شود ۱۰۰ برگ کاغذ داشته باشد که هر کدام ۵۰ خط و هر خط ظرفیت ۳۰ رقم را داشته باشد. در این صورت تعداد وضعیت‌ها $۱۰^{۱۰۰ \times 50 \times 30}$ یعنی $۱۰^{۱۵۰,۰۰۰}$ خواهد بود. این تقریباً معادل تعداد وضعیت‌های سه ماشین منچستر در کنار هم است. لگاریتم در مبنای ۲ِ تعداد وضعیت‌ها، معمولاً «ظرفیت حافظه» ماشین نامیده می‌شود. بنابراین ظرفیت حافظه ماشین منچستر حدود ۱۶۵,۰۰۰ و ماشین چرخ‌دنده‌ای مثال ما حدود ۱.۶ است. اگر دو ماشین در کنار هم قرار گیرند، ظرفیت‌های آن‌ها برای به دست آوردن ظرفیت ماشینِ ترکیبی با هم جمع می‌شود. این امر منجر به امکان بیان جملاتی از این دست می‌شود: «ماشین منچستر شامل ۶۴ شیار مغناطیسی است که هر کدام ظرفیت ۲۵۶۰ دارند، به اضافه هشت لامپ الکترونیکی با ظرفیت ۱۲۸۰ و… که در مجموع ۱۷۴,۳۸۰ می‌شود.»

با داشتن جدول مربوط به یک ماشین با وضعیت گسسته، می‌توان پیش‌بینی کرد که آن ماشین چه خواهد کرد. هیچ دلیلی وجود ندارد که این محاسبات توسط یک رایانه دیجیتال انجام نشود. به شرطی که این کار با سرعت کافی انجام شود، رایانه دیجیتال می‌تواند رفتار «هر» ماشین با وضعیت گسسته‌ای را تقلید (Mimic) کند. در این صورت می‌توان بازی تقلید را با ماشین مورد نظر (به عنوان بازیکن ب) و رایانه دیجیتالِ تقلیدکننده (به عنوان بازیکن الف) انجام داد و بازجو قادر نخواهد بود آن‌ها را از هم تشخیص دهد. البته رایانه دیجیتال باید ظرفیت حافظه کافی و سرعت عمل لازم را داشته باشد. علاوه بر این، باید برای هر ماشین جدیدی که قصد تقلید از آن را دارد، مجدداً برنامه‌نویسی شود.

این ویژگی خاص رایانه‌های دیجیتال، یعنی توانایی آن‌ها در تقلید از هر ماشین با وضعیت گسسته، با این عبارت توصیف می‌شود که آن‌ها «ماشین‌های جهانی» (Universal Machines) هستند. وجود ماشین‌هایی با این ویژگی یک نتیجه مهم دارد: صرف‌نظر از ملاحظات مربوط به سرعت، نیازی به طراحی ماشین‌های مختلف و جدید برای انجام فرآیندهای محاسباتی مختلف نیست. همه آن‌ها را می‌توان با یک رایانه دیجیتال واحد که برای هر مورد به درستی برنامه‌ریزی شده است، انجام داد. خواهیم دید که در نتیجه این امر، همه رایانه‌های دیجیتال به نوعی با هم معادل هستند.

اکنون می‌توانیم دوباره به نکته‌ای که در انتهای بخش ۳ مطرح شد بپردازیم. به طور آزمایشی پیشنهاد شده بود که پرسش «آیا ماشین‌ها می‌توانند فکر کنند؟» با این پرسش جایگزین شود: «آیا رایانه‌های دیجیتال قابل تصوری وجود دارند که در بازی تقلید عملکرد خوبی داشته باشند؟». اگر بخواهیم، می‌توانیم این را از نظر ظاهری کلی‌تر کنیم و بپرسیم: «آیا ماشین‌های با وضعیت گسسته‌ای وجود دارند که عملکرد خوبی داشته باشند؟». اما با توجه به ویژگی «جهانی بودن»، می‌بینیم که هر دو پرسش معادل این هستند: «بیایید توجه خود را روی یک رایانه دیجیتال خاص “C” متمرکز کنیم. آیا درست است که با اصلاح این رایانه به منظور داشتن حافظه کافی، افزایش سرعت عمل آن به میزان لازم و ارائه یک برنامه مناسب به آن، می‌توان کاری کرد که “C” نقش بازیکن “الف” را در بازی تقلید به طور رضایت‌ بخشی ایفا کند، در حالی که نقش بازیکن “ب” توسط یک انسان ایفا می‌شود؟»

۶. دیدگاه‌های مخالف درباره پرسش اصلی

اکنون می‌توانیم فرض کنیم که مسیر هموار شده است و آماده‌ایم تا به بحث درباره پرسش اصلی خود، یعنی «آیا ماشین‌ها می‌توانند فکر کنند؟» و روایت دیگر آن که در پایان بخش قبل ذکر شد، بپردازیم. ما نمی‌توانیم صورت اصلی مسئله را به کلی کنار بگذاریم، زیرا نظرات درباره مناسب بودن این جایگزینی متفاوت خواهد بود و ما باید دست‌ کم به آنچه در این باره گفته می‌شود گوش فرا دهیم.

برای ساده‌تر شدن موضوع برای خواننده، ابتدا عقاید خودم را در این باره توضیح می‌دهم. ابتدا شکل دقیق‌تر پرسش را در نظر بگیرید. من معتقدم که در حدود پنجاه سال دیگر (حوالی سال ۲۰۰۰)، امکان برنامه‌ نویسی رایانه‌هایی با ظرفیت حافظه حدود $۱۰^۹$ فراهم خواهد شد تا بتوانند بازی تقلید را چنان خوب بازی کنند که یک بازجوی متوسط، پس از پنج دقیقه پرسشگری، بیش از ۷۰ درصد شانس تشخیص درست (تفکیک ماشین از انسان) را نداشته باشد. معتقدم پرسش اصلی، یعنی «آیا ماشین‌ها می‌توانند فکر کنند؟»، چنان بی‌معناست که ارزش بحث کردن ندارد. با این حال، باور دارم که در پایان این قرن، کاربرد کلمات و افکار عمومیِ تحصیل‌کرده چنان تغییر خواهد کرد که فرد می‌تواند از «تفکر ماشین‌ها» صحبت کند بدون آنکه انتظار داشته باشد کسی با او مخالفت کند. علاوه بر این، معتقدم پنهان کردن این باورها هیچ فایده‌ای ندارد. این دیدگاه عامیانه که دانشمندان به طور تزلزل‌ناپذیری از یک واقعیت اثبات‌ شده به واقعیت دیگر حرکت می‌کنند و هرگز تحت تأثیر حدسیات قرار نمی‌گیرند، کاملاً اشتباه است. تا زمانی که مشخص باشد کدام‌ها «واقعیت‌های اثبات‌شده» و کدام‌ها «حدسیات» هستند، هیچ ضرری متوجه کسی نخواهد بود. حدسیات اهمیت زیادی دارند زیرا مسیرهای مفید تحقیقاتی را پیشنهاد می‌دهند.

اکنون به بررسی نظرات مخالف با نظرات خودم می‌پردازم.

(۱) اعتراض الهیاتی

«تفکر، کارکردِ روح جاودان انسان است. خداوند به هر مرد و زنی روحی جاودان عطا کرده است، اما به هیچ حیوان یا ماشینی چنین روحی نداده است. بنابراین، هیچ حیوان یا ماشینی نمی‌تواند فکر کند.»

من قادر به پذیرش هیچ بخشی از این استدلال نیستم، اما تلاش می‌کنم با اصطلاحات الهیاتی به آن پاسخ دهم. اگر حیوانات هم‌ردیف انسان‌ها قرار می‌گرفتند، این استدلال برای من متقاعدکننده‌تر می‌بود؛ چرا که به نظر من تفاوت بین موجودات جاندار و بی‌جان بسیار بیشتر از تفاوت بین انسان و سایر حیوانات است. ماهیت سلیقه‌ای و مستبدانه دیدگاهِ ارتدوکس زمانی روشن‌تر می‌شود که فکر کنیم این دیدگاه از نظر پیروان سایر ادیان چگونه به نظر می‌رسد. مثلاً مسیحیان درباره دیدگاه برخی مسلمانان که (در گذشته) معتقد بودند زنان روح ندارند، چه فکر می‌کنند؟ اما بیایید این نکته را کنار بگذاریم و به بحث اصلی برگردیم. به نظر من، استدلال فوق مستلزم محدودیتی جدی برای قدرت مطلق خداوند است. پذیرفته شده است که کارهای خاصی وجود دارد که او نمی‌تواند انجام دهد (مانند مساوی قرار دادن یک با دو)، اما آیا نباید باور داشته باشیم که او این آزادی را دارد که اگر صلاح بداند، به یک فیل روح عطا کند؟ شاید انتظار داشته باشیم که او این قدرت را تنها در پیوند با جهشی اعمال کند که برای فیل مغزی پیشرفته‌تر فراهم سازد تا نیازهای این روح را برآورده کند. دقیقاً مشابه همین استدلال را می‌توان برای مورد ماشین‌ها نیز به کار برد. ممکن است این مورد متفاوت به نظر برسد چون «هضم» آن دشوارتر است؛ اما این فقط به این معناست که ما فکر می‌کنیم بعیدتر است که خداوند شرایط را برای اعطای روح به ماشین مناسب بداند. شرایط مورد بحث در ادامه این مقاله بررسی می‌شوند. ما با تلاش برای ساختن چنین ماشین‌هایی، به هیچ وجه به شکلی بی‌شرمانه قدرت او در خلق ارواح را غصب نمی‌کنیم، همان‌طور که در تولید مثل و به دنیا آوردن فرزندان چنین نمی‌کنیم؛ بلکه در هر دو مورد، ما ابزارهای اراده او هستیم که مأواهایی را برای ارواحی که او خلق می‌کند، فراهم می‌آوریم.

با این حال، این‌ها صرفاً گمانه‌زنی است. من چندان تحت تأثیر استدلال‌های الهیاتی قرار نمی‌گیرم، فارغ از اینکه برای حمایت از چه موضوعی به کار روند. چنین استدلال‌هایی در گذشته اغلب نامناسب تشخیص داده شده‌اند. در زمان گالیله، استدلال می‌شد که متون مقدس (مانند: «و خورشید ایستاد… و حدود یک روز کامل برای غروب کردن شتاب نکرد») یا («او مبانی زمین را بنا کرد تا در هیچ زمانی حرکت نکند») ردّیه‌ای کافی بر نظریه کوپرنیک هستند. با دانش فعلی ما، چنین استدلالی بیهوده به نظر می‌رسد. اما زمانی که آن دانش در دسترس نبود، این حرف‌ها تأثیر کاملاً متفاوتی داشتند.

(۲) اعتراض «سر در برف کردن» (کبک‌وار)

«پیامدهای تفکر ماشین‌ها بسیار وحشتناک خواهد بود. بیایید امیدوار باشیم و باور داشته باشیم که آن‌ها نمی‌توانند چنین کنند.»

این استدلال به ندرت به این صراحت بیان می‌شود، اما بر اکثر ما که اصلاً به این موضوع فکر می‌کنیم، تأثیر می‌گذارد. ما دوست داریم باور کنیم که انسان به شکلی ظریف برتر از بقیه خلقت است. بهترین حالت این است که نشان داده شود او «لزوماً» برتر است، زیرا در آن صورت خطری موقعیت فرماندهی او را تهدید نمی‌کند. محبوبیت استدلال الهیاتی آشکارا با این احساس در ارتباط است. این حس احتمالاً در افراد روشنفکر قوی‌تر است، زیرا آن‌ها برای قدرت تفکر ارزش بیشتری نسبت به دیگران قائل هستند و تمایل بیشتری دارند که باور خود به برتری انسان را بر این قدرت بنا کنند.

من فکر نمی‌کنم این استدلال آن‌ قدر مستدل باشد که نیاز به رد کردن داشته باشد؛ بلکه «دلداری دادن» مناسب‌تر است: شاید این تسلی را باید در ایده «تناسخ ارواح» جستجو کرد (کنایه از اینکه جایگاه انسان لزوماً منحصر به فرد نیست).

(۳) اعتراض ریاضی

تعدادی از نتایج منطق ریاضی وجود دارد که می‌تواند برای نشان دادن محدودیت‌های قدرت ماشین‌های با وضعیت گسسته به کار رود. شناخته‌شده‌ترین این نتایج، «قضیه گودل» (۱۹۳۱) است که نشان می‌دهد در هر سیستم منطقی به اندازه کافی قدرتمند، می‌توان گزاره‌هایی را فرموله کرد که نه اثبات و نه رد می‌شوند، مگر اینکه خودِ سیستم ناسازگار باشد. نتایج مشابه دیگری نیز توسط چرچ، کلین، راسر و تورینگ (۱۹۳۷) ارائه شده است. نتیجه اخیر (تورینگ) برای بررسی راحت‌تر است، زیرا مستقیماً به ماشین‌ها اشاره دارد. این نتیجه بیان می‌کند که کارهای خاصی وجود دارد که یک ماشین (رایانه دیجیتال با ظرفیت نامحدود) نمی‌تواند انجام دهد. اگر ماشین برای پاسخ به سوالات در بازی تقلید تنظیم شده باشد، سوالاتی وجود خواهد داشت که ماشین یا به آن‌ها پاسخ اشتباه می‌دهد یا اصلاً پاسخی نمی‌دهد، هر چقدر هم که زمان به آن داده شود. البته ممکن است سوالات زیادی از این دست وجود داشته باشد و سوالی که توسط یک ماشین قابل پاسخگویی نیست، توسط ماشین دیگری به خوبی پاسخ داده شود. ما در اینجا فرض می‌کنیم که سوالات از نوعی هستند که پاسخ «بله» یا «خیر» برای آن‌ها مناسب است (نه سوالاتی مثل «نظر شما درباره پیکاسو چیست؟»). سوالاتی که می‌دانیم ماشین‌ها در آن‌ها شکست می‌خورند از این نوع هستند: «ماشینی را در نظر بگیرید که به این صورت توصیف شده است… آیا این ماشین هرگز به هیچ سوالی پاسخ “بله” خواهد داد؟». نشان داده شده است که وقتی ماشینِ توصیف‌شده رابطه خاص و نسبتاً ساده‌ای با ماشینِ تحت بازجویی داشته باشد، پاسخ یا اشتباه است یا هرگز داده نمی‌شود. بر اساس این نتیجه ریاضی، استدلال می‌شود که ماشین‌ها دچار ناتوانی‌هایی هستند که عقل انسانی با آن‌ها روبه‌رو نیست.

پاسخ کوتاه به این استدلال این است که اگرچه ثابت شده که برای قدرت‌های هر «ماشینِ خاص» محدودیت‌هایی وجود دارد، اما صرفاً بدون هیچ‌ گونه اثباتی ادعا شده است که چنین محدودیت‌هایی برای عقل انسانی اعمال نمی‌شود. اما فکر نمی‌کنم بتوان این دیدگاه را به این راحتی کنار گذاشت. هر زمان که از یکی از این ماشین‌ها سوال بحرانیِ مناسب پرسیده شود و ماشین پاسخ قطعی بدهد، ما می‌دانیم که این پاسخ «باید» اشتباه باشد و این به ما احساس برتری خاصی می‌دهد. آیا این احساس توهم‌ آمیز است؟ بی‌شک این حس کاملاً واقعی است، اما فکر نمی‌کنم باید اهمیت زیادی به آن داد. ما خودمان آن‌ قدر به سوالات پاسخ اشتباه می‌دهیم که مجاز نیستیم از دیدن چنین شواهدی از جایز الخطا بودنِ ماشین‌ها، خیلی خوشحال شویم. علاوه بر این، برتری ما در چنین موقعیتی تنها نسبت به «آن یک ماشینی» احساس می‌شود که بر آن پیروزیِ ناچیزی کسب کرده‌ایم. اصلاً بحث پیروزی همزمان بر «همه» ماشین‌ها در میان نیست. خلاصه اینکه، ممکن است انسان‌هایی باهوش‌تر از هر ماشین خاصی وجود داشته باشند، اما باز هم ممکن است ماشین‌های دیگری باهوش‌تر از آن انسان‌ها وجود داشته باشند و الی آخر.

(۴) استدلال مبتنی بر آگاهی

این استدلال به خوبی در سخنرانی پروفسور جفرسون (۱۹۴۹) بیان شده است که از او نقل‌قول می‌کنم: «تا زمانی که ماشینی نتواند به دلیل افکار و عواطفِ احساس‌شده – و نه بر حسب تصادف و چیدمان نمادها – سونتی بنویسد یا کنسرتویی بسازد، نمی‌توانیم توافق کنیم که ماشین با مغز برابر است؛ یعنی نه تنها آن را بنویسد، بلکه “بداند” که آن را نوشته است. هیچ مکانیزمی نمی‌تواند از موفقیت‌هایش احساس لذت کند، از سوختن سوپاپ‌هایش (لامپ‌های خلأ) احساس غم کند، با تملق گرم شود، از اشتباهاتش بدبخت شود، مجذوب جنسیت شود، یا وقتی به آنچه می‌خواهد نمی‌رسد عصبانی یا افسرده شود.»

به نظر می‌رسد این استدلال، اعتبارِ آزمون ما را نفی می‌کند. طبق افراطی‌ترین شکل این دیدگاه، تنها راهی که فرد می‌تواند مطمئن شود ماشینی فکر می‌کند، این است که «خودِ آن ماشین باشد» و فکر کردنِ خودش را حس کند. آن فرد می‌تواند این احساسات را برای دنیا توصیف کند، اما البته هیچ‌کس مجاز نخواهد بود به حرف او توجهی کند. به همین ترتیب، طبق این دیدگاه تنها راه برای دانستن اینکه یک انسان فکر می‌کند، این است که «همان انسانِ خاص» باشیم. این در واقع همان دیدگاه «سولیپسیسم» (تنها‌گروی یا خود‌تنها‌انگاری) است. این ممکن است منطقی‌ترین دیدگاه برای برگزیدن باشد، اما انتقال ایده‌ها را دشوار می‌کند. در این حالت شخص “الف” تمایل دارد باور کند که «من فکر می‌کنم اما “ب” فکر نمی‌کند»، در حالی که “ب” باور دارد «من فکر می‌کنم اما “الف” فکر نمی‌کند». معمولاً به جای بحث مداوم بر سر این نقطه، از قراردادِ مودبانه «همه فکر می‌کنند» استفاده می‌شود.

مطمئنم پروفسور جفرسون نمی‌خواهد دیدگاه افراطی و سولیپسیستی را بپذیرد. احتمالاً او کاملاً مایل خواهد بود که بازی تقلید را به عنوان یک آزمون قبول کند. این بازی (در صورتی که بازیکن “ب” حذف شود) مکرراً در عمل تحت نام «امتحان شفاهی» (viva voce) استفاده می‌شود تا کشف شود که آیا کسی واقعاً چیزی را می‌فهمد یا آن را «طوطی‌ وار» یاد گرفته است. بیایید به بخشی از چنین امتحان شفاهی فرضی گوش دهیم:

بازجو: در اولین خط سونت شما که می‌گوید «آیا تو را به یک روز تابستانی تشبیه کنم»، آیا «یک روز بهاری» به همان اندازه یا بهتر نبود؟

شاهد: وزن شعر به هم می‌خورد (اسکن نمی‌شد).

بازجو: «یک روز زمستانی» چطور؟ وزن آن که درست است.

شاهد: بله، اما هیچ‌ کس دوست ندارد به یک روز زمستانی تشبیه شود.

بازجو: آیا می‌گویید آقای پِیک‌ و یک شما را یاد کریسمس می‌اندازد؟

شاهد: تا حدی.

بازجو: اما کریسمس یک روز زمستانی است و فکر نمی‌کنم آقای پیک‌ و یک از این تشبیه ناراحت شود.

شاهد: فکر نمی‌کنم جدی باشید. منظور از یک روز زمستانی، یک روزِ معمولی زمستانی است، نه یک روز خاص مانند کریسمس.

و الی آخر. اگر ماشینِ سونت‌نویس قادر بود در یک امتحان شفاهی این‌گونه پاسخ دهد، پروفسور جفرسون چه می‌گفت؟ نمی‌دانم که آیا او این پاسخ‌ها را «صرفاً سیگنال‌دهی مصنوعی» قلمداد می‌کرد یا خیر؛ اما اگر پاسخ‌ها به اندازه متن بالا رضایت‌ بخش و مستدل می‌بودند، فکر نمی‌کنم او آن را «یک تمهید ساده» توصیف می‌کرد. عبارت «تمهید ساده» به نظر من برای پوشش دادن وسایلی است مثل قرار دادن صدای ضبط‌ شده کسی که سونت می‌خواند در ماشین، با کلیدهایی که هر از گاهی آن را روشن کنند.

خلاصه اینکه، فکر می‌کنم اکثر کسانی که از استدلالِ آگاهی حمایت می‌کنند، می‌توان متقاعد کرد که به جای گرفتار شدن در موضع سولیپسیسم، این استدلال را رها کنند. آن‌ها احتمالاً در آن صورت مایل خواهند بود آزمون ما را بپذیرند.

من نمی‌خواهم این برداشت را ایجاد کنم که فکر می‌کنم هیچ رازی در مورد «آگاهی» وجود ندارد. به عنوان مثال، پارادوکسی در هر تلاش برای مکان‌یابیِ آن (در مغز) وجود دارد. اما فکر نمی‌کنم برای پاسخ به پرسشی که در این مقاله با آن سر و کار داریم، لزوماً نیازی به حل کردن این رازها باشد.

(۵) استدلال بر پایه ناتوانی‌های مختلف

این استدلال‌ها معمولاً به این صورت بیان می‌شوند: «من می‌پذیرم که شما می‌توانید ماشین‌ها را وادار به انجام تمام کارهایی که گفتید بکنید، اما هرگز نمی‌توانید ماشینی بسازید که کار X را انجام دهد.» در این زمینه، ویژگی‌های بی‌شماری برای X پیشنهاد شده است که من مجموعه‌ای از آن‌ها را برگزیده‌ام:

  • مهربان باشد، مدبر باشد، زیبا یا خوش‌ برخورد باشد، ابتکار عمل داشته باشد، حس شوخ‌ طبعی داشته باشد.

  • درست را از نادرست تشخیص دهد، اشتباه کند، عاشق شود، از توت‌ فرنگی با خامه لذت ببرد.

  • کسی را عاشق خود کند، از تجربه بیاموزد، کلمات را به درستی به کار ببرد، موضوعِ تفکر خودش باشد.

  • به اندازه یک انسان تنوع رفتاری داشته باشد یا کاری واقعاً جدید انجام دهد.

معمولاً هیچ دلیلی برای اثبات این ادعاها ارائه نمی‌شود. من معتقدم این باورها بیشتر بر پایه اصل «استقرای علمی» بنا شده‌اند. یک فرد در طول زندگی خود هزاران ماشین دیده است؛ او از آنچه می‌بیند، چندین نتیجه‌گیری کلی می‌گیرد: اینکه ماشین‌ها زشت هستند، هر کدام برای هدفی بسیار محدود طراحی شده‌اند، وقتی برای هدفی حتی کمی متفاوت به کار گرفته شوند بی‌ استفاده‌اند، تنوع رفتاری هر یک از آن‌ها بسیار کم است و غیره. طبیعتاً او نتیجه می‌گیرد که این‌ها ویژگی‌های ضروریِ تمام ماشین‌ها به طور کلی هستند. بسیاری از این محدودیت‌ها به «ظرفیت حافظه بسیار کم» در اکثر ماشین‌ها مربوط می‌شود. (من فرض می‌کنم ایده ظرفیت حافظه به نوعی گسترش یافته است که ماشین‌هایی غیر از ماشین‌های با وضعیت گسسته را نیز در بر بگیرد؛ تعریف دقیق آن در این بحث که ادعای دقت ریاضی ندارد، چندان مهم نیست.)

چند سال پیش که نامی از رایانه‌های دیجیتال شنیده نشده بود، اگر کسی ویژگی‌های آن‌ها را بدون توصیف ساختارشان بیان می‌کرد، با ناباوری زیادی روبه‌رو می‌شد. این احتمالاً به دلیل استفاده مشابه از اصل استقرای علمی بود. البته این کاربردهای استقرا تا حد زیادی ناخودآگاه هستند. وقتی کودکی که دستش سوخته از آتش می‌ترسد و با دوری کردن از آن نشان می‌دهد که می‌ترسد، من می‌گویم او دارد استقرای علمی را به کار می‌بندد. (البته می‌توان رفتار او را به روش‌های بسیار دیگری نیز توصیف کرد.) به نظر نمی‌رسد آثار و آداب و رسوم بشری مواد بسیار مناسبی برای اعمال استقرای علمی باشند. اگر قرار است نتایج قابل اعتمادی به دست آید، باید بخش بسیار بزرگی از زمان-مکان مورد بررسی قرار گیرد. در غیر این صورت ممکن است (مانند اکثر کودکان انگلیسی) به این نتیجه برسیم که همه دنیا انگلیسی صحبت می‌کنند و یادگیری زبان فرانسوی احمقانه است.

با این حال، در مورد بسیاری از ناتوانی‌هایی که ذکر شد، ملاحظات خاصی وجود دارد. ناتوانی در «لذت بردن از توت‌ فرنگی و خامه» ممکن است برای خواننده بیهوده به نظر برسد. احتمالاً می‌توان ماشینی ساخت که از این غذای لذیذ لذت ببرد، اما هر تلاشی برای انجام این کار احمقانه خواهد بود. آنچه در مورد این ناتوانی اهمیت دارد، این است که در برخی ناتوانی‌های دیگر نقش دارد؛ مثلاً در دشواریِ ایجاد همان نوع دوستی بین انسان و ماشین که بین دو انسان (فارغ از نژاد) برقرار می‌شود.

ادعای اینکه «ماشین‌ها نمی‌توانند اشتباه کنند» عجیب به نظر می‌رسد. آدم وسوسه می‌شود پاسخ دهد: «مگر از این بابت عیبی دارند؟» اما بیایید رویکردی همدلانه‌تر در پیش بگیریم و سعی کنیم ببینیم منظور واقعی چیست. فکر می‌کنم این نقد را می‌توان در قالب بازی تقلید توضیح داد. ادعا می‌شود که بازجو می‌تواند ماشین را از انسان تشخیص دهد، صرفاً با دادن تعدادی مسئله محاسباتی. ماشین به دلیل دقت مرگبارش لو می‌رود. پاسخ به این ادعا ساده است: ماشین (که برای بازی برنامه‌ریزی شده) تلاشی برای دادن پاسخ‌های درست به مسائل محاسباتی نخواهد کرد؛ بلکه به طور عمدی اشتباهاتی را به شکلی حساب‌شده وارد می‌کند تا بازجو را گیج کند. یک نقص فنی احتمالاً خود را در قالب یک تصمیم نامناسب در مورد «نوعِ اشتباهی» که باید در محاسبات انجام دهد، نشان می‌دهد. حتی این تفسیر از نقد نیز به اندازه کافی همدلانه نیست، اما مجالی برای بررسی بیشتر آن نداریم. به نظر من این نقد ناشی از خلط میان دو نوع اشتباه است: «خطاهای عملکردی» و «خطاهای استنتاجی». خطاهای عملکردی ناشی از نقصی مکانیکی یا الکتریکی هستند که باعث می‌شود ماشین رفتاری متفاوت با آنچه برایش طراحی شده انجام دهد. در بحث‌های فلسفی، فرد دوست دارد امکان چنین خطاهایی را نادیده بگیرد، بنابراین درباره «ماشین‌های انتزاعی» بحث می‌کند. این ماشین‌های انتزاعی بیشتر تخیلات ریاضی هستند تا اشیاء فیزیکی؛ و طبق تعریف، ناتوان از خطاهای عملکردی هستند. در این معنا، واقعاً می‌توانیم بگوییم «ماشین‌ها هرگز اشتباه نمی‌کنند». اما «خطاهای استنتاجی» تنها زمانی پدید می‌آیند که معنایی به سیگنال‌های خروجی ماشین نسبت داده شود. برای مثال، ماشین ممکن است معادلات ریاضی یا جملات انگلیسی تایپ کند؛ وقتی یک گزاره غلط تایپ شود، می‌گوییم ماشین مرتکب خطای استنتاجی شده است. به وضوح هیچ دلیلی وجود ندارد که بگوییم ماشین نمی‌تواند این نوع اشتباه را انجام دهد. ماشین ممکن است هیچ کاری نکند جز اینکه مدام تایپ کند «$۰ = 1$». برای مثالی کمتر لجبازانه، ماشین ممکن است روشی برای نتیجه‌گیری از طریق استقرای علمی داشته باشد؛ ما باید انتظار داشته باشیم که چنین روشی گاهی به نتایج اشتباه ختم شود.

این ادعا که ماشین نمی‌تواند «موضوعِ تفکر خودش باشد» تنها زمانی قابل پاسخگویی است که نشان داده شود ماشین اصلاً «تفکری» درباره «موضوعی» دارد. با این حال، «موضوع عملیات یک ماشین» حداقل برای افرادی که با آن سر و کار دارند، معنایی دارد. برای مثال، اگر ماشین در حال تلاش برای یافتن راه حل معادله $x^2 – 40x – ۱۱ = 0$ باشد، فرد وسوسه می‌شود این معادله را بخشی از موضوع تفکر ماشین در آن لحظه توصیف کند. در این معنا، یک ماشین بدون شک می‌تواند موضوعِ تفکر خودش باشد. ماشین می‌تواند برای کمک به تنظیم برنامه‌های خودش یا پیش‌بینی اثرِ تغییرات در ساختار خودش به کار رود. با مشاهده نتایج رفتار خود، ماشین می‌تواند برنامه‌هایش را تغییر دهد تا به هدفی خاص، موثرتر دست یابد. این‌ها احتمالات آینده نزدیک هستند، نه رویاهای آرمان‌شهری.

این نقد که ماشین نمی‌تواند «تنوع رفتاری زیادی» داشته باشد، صرفاً روش دیگری برای بیان این است که ماشین نمی‌تواند «ظرفیت حافظه زیادی» داشته باشد. تا همین اواخر، ظرفیت حافظه حتی در حد هزار رقم نیز بسیار نادر بود. نقدهایی که در اینجا بررسی می‌کنیم اغلب شکل‌های تغییریافته‌ای از «استدلال مبتنی بر آگاهی» هستند. معمولاً اگر کسی ادعا کند ماشین می‌تواند یکی از این کارها را انجام دهد و روشی را که ماشین برای آن به کار می‌برد توصیف کند، تأثیر چندانی بر منتقد نخواهد گذاشت؛ چرا که تصور می‌شود آن روش (هر چه که باشد، چون مکانیکی است) در واقع بسیار پست و پیش‌پا افتاده است.

(۶) اعتراض لیدی لاولیس

دقیق‌ترین اطلاعات ما درباره موتور تحلیلی ببیج از خاطرات لیدی لاولیس (۱۸۴۲) به دست آمده است. او در آنجا بیان می‌کند: «موتور تحلیلی هیچ ادعایی برای ابداع هیچ چیزی ندارد. این موتور می‌تواند هر کاری را که ما بدانیم چگونه به او دستور دهیم، انجام دهد.» هارتری (۱۹۴۹) با نقل این جمله اضافه می‌کند: «این بدان معنا نیست که ساخت تجهیزات الکترونیکی که “برای خودش فکر کند” غیرممکن باشد، یا تجهیزاتی که در آن بتوان (به زبان بیولوژیکی) یک واکنش شرطی ایجاد کرد که پایه و اساس “یادگیری” باشد. اینکه آیا این کار در اصول ممکن است یا خیر، پرسشی محرک و هیجان‌انگیز است که با برخی پیشرفت‌های اخیر مطرح شده است؛ اما به نظر نمی‌رسید ماشین‌هایی که در آن زمان ساخته یا طراحی شده بودند، این ویژگی را داشته باشند.»

من در این مورد کاملاً با هارتری موافقم. توجه کنید که او ادعا نمی‌کند که آن ماشین‌ها این ویژگی را «نداشتند»، بلکه می‌گوید شواهد در دسترس لیدی لاولیس او را تشویق نمی‌کرد که باور کند آن‌ها چنین ویژگی‌ای دارند. کاملاً ممکن است که آن ماشین‌ها به نوعی این ویژگی را داشته‌اند؛ زیرا فرض کنید ماشینی با وضعیت گسسته این ویژگی را داشته باشد. موتور تحلیلی یک رایانه دیجیتال جهانی بود، بنابراین اگر ظرفیت حافظه و سرعتش کافی بود، می‌توانست با برنامه‌نویسی مناسب، رفتار ماشین مورد نظر را تقلید کند. احتمالاً این استدلال به ذهن کنتس (لاولیس) یا ببیج خطور نکرده بود؛ در هر صورت آن‌ها وظیفه‌ای نداشتند که هر آنچه قابل ادعا بود را ادعا کنند. این پرسش دوباره تحت عنوان «ماشین‌های یادگیرنده» بررسی خواهد شد.

روایت دیگری از اعتراض لیدی لاولیس بیان می‌کند که ماشین «هرگز نمی‌تواند کاری واقعاً جدید انجام دهد». این حرف را می‌توان با این ضرب‌المثل پاسخ داد: «هیچ چیز جدیدی زیر خورشید وجود ندارد». چه کسی می‌تواند مطمئن باشد که «کار اصیلی» که انجام داده، صرفاً رشد بذری نبوده که با آموزش در او کاشته شده، یا نتیجه پیروی از اصول کلی و شناخته‌شده نبوده است؟ روایت بهتری از این اعتراض می‌گوید که ماشین هرگز نمی‌تواند «ما را غافلگیر کند». این ادعا یک چالش مستقیم‌تر است و می‌توان مستقیماً به آن پاسخ داد: ماشین‌ها مکرراً مرا غافلگیر می‌کنند. این تا حد زیادی به این دلیل است که من محاسبات کافی انجام نمی‌دهم تا تصمیم بگیرم چه انتظاری از آن‌ها داشته باشم؛ یا بهتر بگویم، اگر چه محاسباتی انجام می‌دهم، اما آن را به شکلی عجولانه، سرسری و با ریسک انجام می‌دهم. مثلاً به خودم می‌گویم «فکر می‌کنم ولتاژ اینجا باید با آنجا یکی باشد؛ به هر حال فرض می‌کنیم که هست». طبیعتاً اغلب اشتباه می‌کنم و نتیجه برای من غافلگیر کننده است، زیرا تا زمانی که آزمایش تمام شود، آن فرض‌ها فراموش شده‌اند. این اعترافات ممکن است مرا در معرض سرزنش قرار دهد، اما شکّی در صداقت من وقتی از غافلگیری‌هایی که تجربه می‌کنم سخن می‌گویم، ایجاد نمی‌کند.

انتظار ندارم این پاسخ منتقد مرا ساکت کند. او احتمالاً خواهد گفت که چنین غافلگیری‌هایی ناشی از یک عمل ذهنی خلاقانه از جانب «من» است و اعتباری برای ماشین محسوب نمی‌شود. این ما را دوباره به استدلال مبتنی بر آگاهی برمی‌گرداند. شاید بد نباشد اشاره کنیم که درک چیزی به عنوان «غافلگیر کننده»، به همان اندازه مستلزم یک «عمل ذهنی خلاقانه» است، خواه آن رویداد غافلگیر کننده از یک انسان سر بزند، خواه از یک کتاب، یک ماشین یا هر چیز دیگری.

این دیدگاه که ماشین‌ها نمی‌توانند باعث غافلگیری شوند، به نظر من ناشی از مغالطه‌ای است که فلاسفه و ریاضی‌دانان به ویژه دچار آن می‌شوند: این فرض که به محض ارائه یک واقعیت به یک ذهن، تمام نتایج آن واقعیت همزمان با خودِ آن در ذهن جوانه می‌زند. این فرض در بسیاری از شرایط بسیار مفید است، اما آدم خیلی راحت فراموش می‌کند که این فرض نادرست است. نتیجه طبیعی این فراموشی این است که فرد تصور می‌کند صرفِ استخراج نتایج از داده‌ها و اصول کلی، هیچ ارزشی ندارد.

(۷) استدلال مبتنی بر پیوستگی در سیستم عصبی

سیستم عصبی قطعاً یک ماشین با وضعیت گسسته نیست. یک خطای کوچک در اطلاعات مربوط به اندازه یک تکانه عصبی که به یک نورون برخورد می‌کند، می‌تواند تفاوت بزرگی در اندازه تکانه خروجی ایجاد کند. ممکن است استدلال شود که با توجه به این موضوع، نمی‌توان انتظار داشت که بتوان رفتار سیستم عصبی را با یک سیستم «وضعیت گسسته» تقلید کرد.

درست است که یک ماشین با وضعیت گسسته باید با یک ماشینِ پیوسته متفاوت باشد. اما اگر به شرایط بازی تقلید پایبند بمانیم، بازجو نخواهد توانست از این تفاوت مزیتی کسب کند. اگر یک ماشین پیوسته ساده‌تر دیگر را در نظر بگیریم، موقعیت روشن‌تر می‌شود: یک «تحلیل‌گر تفاضلی» (Differential Analyser) مثال خوبی است. برخی از این ماشین‌ها پاسخ‌های خود را به صورت تایپ‌شده ارائه می‌دهند و بنابراین برای شرکت در بازی مناسب هستند. برای یک رایانه دیجیتال ممکن نیست که «دقیقاً» پیش‌بینی کند تحلیل‌گر تفاضلی چه پاسخی به یک مسئله می‌دهد، اما کاملاً قادر خواهد بود پاسخ‌هایی از «نوعِ درست» بدهد. برای مثال اگر از آن بخواهند مقدار $\pi$ (که حدود ۳.۱۴۱۶ است) را بدهد، منطقی است که به طور تصادفی بین مقادیر ۳.۱۲، ۳.۱۳، ۳.۱۴، ۳.۱۵ و ۳.۱۶ (مثلاً با احتمالات مختلف) انتخاب کند. تحت این شرایط، برای بازجو بسیار دشوار خواهد بود که تحلیل‌گر تفاضلی را از رایانه دیجیتال تشخیص دهد.

(۸) استدلال مبتنی بر غیررسمی بودن رفتار

ممکن نیست مجموعه‌ای از قوانین ارائه کرد که توصیف کند یک انسان در هر مجموعه قابل تصوری از شرایط، چه باید انجام دهد. برای مثال، ممکن است قانونی داشته باشیم که وقتی چراغ راهنمایی قرمز است باید ایستاد و وقتی سبز است باید رفت؛ اما اگر بر اثر نقصی، هر دو چراغ با هم روشن شوند چه؟ شاید فرد تصمیم بگیرد که امن‌ترین کار توقف است؛ اما ممکن است از همین تصمیم، بعدها دشواریِ دیگری پیش بیاید. تلاش برای ارائه قوانین رفتاری که تمام احتمالات را پوشش دهد (حتی احتمالات ناشی از چراغ راهنمایی) غیرممکن به نظر می‌رسد. من با تمام این‌ها موافقم.

از این مقدمه چنین استدلال می‌شود که «ما نمی‌توانیم ماشین باشیم». من سعی می‌کنم این استدلال را بازسازی کنم: «اگر هر انسانی مجموعه مشخصی از قوانین رفتاری داشت که طبق آن زندگی‌اش را تنظیم می‌کرد، او چیزی بهتر از یک ماشین نبود. اما چنین قوانینی وجود ندارند، بنابراین انسان‌ها نمی‌توانند ماشین باشند.» در اینجا مغالطه «حد وسطِ توزیع‌نشده» (Undistributed Middle) کاملاً آشکار است. فکر نمی‌کنم این استدلال هرگز دقیقاً به این صورت بیان شود، اما معتقدم با این حال، این همان استدلالی است که استفاده می‌شود. ممکن است خلطی بین «قواعدِ رفتار» (Rules of conduct) و «قوانینِ رفتار» (Laws of behaviour) وجود داشته باشد که موضوع را تیره و تار کند. منظور من از «قواعد رفتار»، دستوراتی مانند «اگر چراغ قرمز دیدی بایست» است که فرد می‌تواند بر اساس آن‌ها عمل کند و نسبت به آن‌ها آگاه باشد. منظورم از «قوانین رفتار»، قوانین طبیعت است که بر بدن انسان اعمال می‌شود، مانند «اگر او را نیشگون بگیرید، جیغ خواهد کشید». اگر در استدلال بالا، «قوانین رفتاری که زندگی او را تنظیم می‌کنند» را جایگزین «قواعد رفتاری که او زندگی‌اش را با آن‌ها تنظیم می‌کند» کنیم، مغالطه دیگر چندان حل‌ناپذیر نخواهد بود؛ زیرا ما باور داریم که نه تنها تنظیم شدن توسط قوانین رفتار به معنای نوعی ماشین بودن است، بلکه برعکس، چنین ماشینی بودن به معنای تنظیم شدن توسط چنین قوانینی است. با این حال، ما نمی‌توانیم به همان راحتی که خود را از نبودِ «قواعد کامل رفتار» مطمئن می‌کنیم، از نبودِ «قوانین کامل رفتار» هم مطمئن شویم. تنها راهی که برای یافتن چنین قوانینی می‌شناسیم، مشاهده علمی است و ما قطعاً هیچ شرایطی را نمی‌شناسیم که تحت آن بتوانیم بگوییم: «ما به اندازه کافی جستجو کرده‌ایم؛ چنین قوانینی وجود ندارند.»

ما می‌توانیم با قدرت بیشتری نشان دهیم که چنین ادعایی (نبود قوانین) ناموجه است. فرض کنید مطمئن بودیم که اگر چنین قوانینی وجود داشتند، آن‌ها را پیدا می‌کردیم. آنگاه با داشتن یک ماشین با وضعیت گسسته، قطعاً باید ممکن می‌بود که با مشاهده، به اندازه کافی درباره آن کشف کرد تا رفتار آینده‌اش را پیش‌بینی کنیم، آن هم در زمانی معقول (مثلاً هزار سال). اما به نظر نمی‌رسد چنین باشد. من روی رایانه منچستر برنامه کوچکی با استفاده از تنها ۱۰۰۰ واحد حافظه تنظیم کرده‌ام که وقتی به ماشین یک عدد ۱۶ رقمی داده می‌شود، در عرض دو ثانیه با عدد دیگری پاسخ می‌دهد. من هر کسی را به چالش می‌کشم که از روی این پاسخ‌ها، آن‌قدر درباره برنامه یاد بگیرد که بتواند پاسخ به اعدادِ امتحان‌ نشده را پیش‌بینی کند.

(۹) استدلال مبتنی بر ادراک فراحسی

من فرض می‌کنم که خواننده با ایده «ادراک فراحسی» (ESP) و معنای چهار شاخه آن یعنی تله‌پاتی (دورآگاهی)، غیب‌گویی، پیش‌گویی و روان‌جنبشی (حرکت دادن اشیاء با ذهن) آشنا است. این پدیده‌های نگران‌ کننده به نظر می‌رسد تمام ایده‌های علمی معمول ما را نفی می‌کنند. چقدر دوست داشتیم که می‌توانستیم آن‌ها را بی‌اعتبار کنیم! اما متأسفانه شواهد آماری، حداقل برای تله‌ پاتی، بسیار کوبنده است. بسیار دشوار است که فرد ایده‌های خود را به‌ گونه‌ای بازسازی کند که این حقایق جدید در آن بگنجد. وقتی کسی این‌ها را پذیرفت، باور کردن به ارواح و غول‌ها دیگر گام خیلی بزرگی به نظر نمی‌رسد. این ایده که بدن ما صرفاً طبق قوانین شناخته‌شده فیزیک (و برخی قوانین هنوز کشف‌نشده اما مشابه) حرکت می‌کند، یکی از اولین باورهایی خواهد بود که فرو می‌ریزد.

این استدلال به نظر من بسیار قوی است. در پاسخ می‌توان گفت که بسیاری از نظریه‌های علمی علیرغم تضاد با ادراک فراحسی، در عمل کارآمد باقی می‌مانند و در واقع می‌توان بدون توجه به آن، به خوبی به زندگی ادامه داد. این تسلیِ چندان گرمی نیست و آدم می‌ترسد که «تفکر» دقیقاً همان پدیده‌ای باشد که ادراک فراحسی در آن نقش ویژه‌ای ایفا می‌کند.

یک استدلال خاص‌تر بر پایه ادراک فراحسی می‌تواند چنین باشد: «بیایید بازی تقلید را با حضور یک انسان که در تله‌پاتی قوی است و یک رایانه دیجیتال انجام دهیم. بازجو می‌تواند سوالاتی از این دست بپرسد: “ورقِ در دست راست من متعلق به کدام دسته (خال) است؟”. آن انسان از طریق تله‌پاتی یا غیب‌گویی، از بین ۴۰۰ کارت، ۱۳۰ بار پاسخ درست می‌دهد. ماشین فقط می‌تواند به صورت تصادفی حدس بزند و شاید ۱۰۴ بار درست بگوید؛ بنابراین بازجو تشخیص درستی خواهد داد.» در اینجا احتمال جالبی گشوده می‌شود. فرض کنید رایانه دیجیتال شامل یک تولیدکننده اعداد تصادفی باشد. در این صورت طبیعی است که از آن برای تصمیم‌گیری در مورد پاسخ‌ها استفاده کند. اما ممکن است تولیدکننده اعداد تصادفی تحت تأثیر قدرت روان‌ جنبشیِ بازجو قرار بگیرد. شاید این قدرت باعث شود ماشین بیش از آنچه در محاسبات احتمال انتظار می‌رود، درست حدس بزند، به‌طوری که بازجو باز هم نتواند تشخیص درستی بدهد. از سوی دیگر، خودِ بازجو ممکن است بتواند بدون هیچ سوالی و از طریق غیب‌گویی، پاسخ درست را حدس بزند. با وجود ادراک فراحسی، هر اتفاقی ممکن است بیفتد.

اگر تله‌ پاتی پذیرفته شود، لازم است آزمون خود را سخت‌ گیرانه‌تر کنیم. این وضعیت مشابه حالتی است که بازجو با خودش حرف بزند و یکی از رقبا گوشش را به دیوار چسبانده باشد تا بشنود. قرار دادن رقبا در یک «اتاق ضد تله‌ پاتی» تمام الزامات را برآورده خواهد کرد.

۷. ماشین‌های یادگیرنده

خواننده احتمالاً حدس زده است که من استدلال‌های مثبتِ چندان متقاعدکننده‌ای برای حمایت از دیدگاه‌هایم ندارم. اگر داشتم، این‌قدر زحمت نمی‌کشیدم که مغالطه‌ها را در دیدگاه‌های مخالف نشان دهم. اکنون شواهدی را که در اختیار دارم ارائه می‌دهم.

بیایید لحظه‌ای به اعتراض لیدی لاولیس برگردیم که می‌گفت ماشین فقط کاری را انجام می‌دهد که ما به او بگوییم. می‌توان گفت که انسان می‌تواند ایده‌ای را به ماشین «تزریق» کند و ماشین تا حد معینی پاسخ می‌دهد و سپس آرام می‌گیرد، مانند سیم پیانو که با چکش به آن ضربه زده شود. تشبیه دیگر، یک «پیل اتمی» با اندازه‌ای کمتر از حدِ بحرانی است: ایده تزریق شده متناظر با نوترونی است که از بیرون وارد پیل می‌شود. هر چنین نوترونی باعث اغتشاش خاصی می‌شود که در نهایت از بین می‌رود. اما اگر اندازه پیل به اندازه کافی بزرگ شود، اغتشاش ناشی از ورود نوترون به احتمال زیاد مدام افزایش می‌یابد تا زمانی که کل پیل نابود شود. آیا پدیده مشابهی برای ذهن‌ها و ماشین‌ها وجود دارد؟ به نظر می‌رسد برای ذهن انسان چنین چیزی وجود داشته باشد. اکثر ذهن‌ها «زیرِ بحرانی» هستند؛ یعنی در این تشبیه متناظر با پیل‌های زیر حدِ بحرانی‌اند. ایده‌ای که به چنین ذهنی ارائه می‌شود، به طور متوسط منجر به ایجاد کمتر از یک ایده در پاسخ می‌گردد. بخش کوچکی از ذهن‌ها «فوقِ بحرانی» هستند. ایده‌ای که به چنین ذهنی ارائه می‌شود ممکن است منجر به ایجاد یک «نظریه» کامل شامل ایده‌های ثانویه، ثالث و دورتر شود. به نظر می‌رسد ذهن حیوانات قطعاً زیر حد بحرانی است. با پایبندی به این تشبیه، می‌پرسیم: «آیا می‌توان ماشینی ساخت که فوقِ بحرانی باشد؟»

تشبیه «پوست پیاز» نیز مفید است. در بررسی عملکردهای ذهن یا مغز، عملیات‌های خاصی را می‌یابیم که می‌توانیم با عبارات کاملاً مکانیکی توضیح دهیم. می‌گوییم این‌ها متناظر با ذهن واقعی نیستند؛ این‌ها نوعی پوسته‌اند که باید برداشته شوند تا ذهن واقعی را پیدا کنیم. اما در آنچه باقی می‌ماند، دوباره پوسته دیگری پیدا می‌کنیم که باید کنده شود و الی آخر. آیا با ادامه این مسیر، هرگز به ذهن «واقعی» می‌رسیم، یا در نهایت به پوسته‌ای می‌رسیم که هیچ‌ چیز در آن نیست؟ در حالت دوم، کل ذهن مکانیکی است. (البته نه لزوماً یک ماشین با وضعیت گسسته که قبلاً درباره‌اش بحث کردیم).

این دو پاراگراف اخیر ادعای استدلال متقاعدکننده ندارند. آن‌ها را باید بیشتر به عنوان «گفته‌هایی برای ایجاد باور» توصیف کرد.

تنها حمایت واقعاً رضایت‌ بخشی که می‌توان از دیدگاه بیان‌ شده در ابتدای بخش ۶ ارائه داد، این است که تا پایان قرن صبر کنیم و سپس آزمایش توصیف‌ شده را انجام دهیم. اما در این میان چه می‌توانیم بگوییم؟ اگر قرار است آزمایش موفقیت‌ آمیز باشد، اکنون چه گام‌هایی باید برداشته شود؟

همان‌طور که توضیح دادم، مسئله عمدتاً مربوط به برنامه‌ نویسی است. پیشرفت‌هایی در مهندسی نیز باید صورت گیرد، اما بعید به نظر می‌رسد که این پیشرفت‌ها برای نیازهای ما کافی نباشد. برآوردهای ظرفیت حافظه مغز از $۱۰^{۱۰}$ تا $۱۰^{۱۵}$ رقم باینری (بیت) متغیر است. من به مقادیر کمتر تمایل دارم و معتقدم که تنها بخش بسیار کوچکی برای انواع بالاتر تفکر استفاده می‌شود. بیشتر آن احتمالاً برای نگهداری برداشت‌های بصری استفاده می‌شود. اگر برای انجام رضایت‌ بخش بازی تقلید (حداقل در برابر یک فرد نابینا) بیش از $۱۰^۹$ بیت نیاز باشد، متعجب خواهم شد. (یادداشت: ظرفیت دایره‌ المعارف بریتانیکا، ویرایش یازدهم، $۲ \times 10^9$ است). ظرفیت حافظه $۱۰^۷$ حتی با تکنیک‌های فعلی یک امکان کاملاً عملی است. احتمالاً اصلاً نیازی به افزایش سرعت عملیات ماشین‌ها نیست. بخش‌هایی از ماشین‌های مدرن که می‌توانند به عنوان آنالوگ سلول‌های عصبی در نظر گرفته شوند، حدود هزار برابر سریع‌تر از اعصاب کار می‌کنند. این باید یک «حاشیه امنیت» ایجاد کند که افت سرعت ناشی از مسائل مختلف را بپوشاند. بنابراین مسئله ما این است که بفهمیم چگونه این ماشین‌ها را برای انجام بازی برنامه‌ریزی کنیم. با سرعت فعلی کارم، من روزانه حدود هزار رقم برنامه تولید می‌کنم، بنابراین حدود ۶۰ کارگر که به طور مداوم در طول ۵۰ سال کار کنند، می‌توانند کار را به اتمام برسانند، به شرطی که هیچ‌ چیز راهی سطل زباله نشود. به نظر می‌رسد روش سریع‌تری مطلوب باشد.

در فرآیند تلاش برای تقلید از ذهن یک انسان بالغ، ناچاریم به فرآیندی که ذهن را به وضعیت فعلی‌اش رسانده است، زیاد فکر کنیم. می‌توانیم سه جزء را مشاهده کنیم:

(الف) وضعیت اولیه ذهن، مثلاً در هنگام تولد.

(ب) آموزشی که ذهن دیده است.

(ج) تجربیات دیگر (غیر از آموزش) که ذهن از سر گذرانده است.

به جای تلاش برای تولید برنامه‌ای که ذهنِ «بالغ» را شبیه‌سازی کند، چرا سعی نکنیم برنامه‌ای بسازیم که ذهن یک «کودک» را شبیه‌ سازی کند؟ اگر این برنامه تحت یک دوره آموزشی مناسب قرار گیرد، مغز بالغ به دست خواهد آمد. احتمالاً مغز کودک شبیه دفتری است که از لوازم‌تحریری می‌خرید: مکانیزم‌های بسیار کم و صفحات سفیدِ زیاد. (از دیدگاه ما، مکانیزم و نوشتن تقریباً مترادف هستند). امید ما این است که مکانیزم در مغز کودک آن‌ قدر کم باشد که بتوان چیزی شبیه به آن را به راحتی برنامه‌نویسی کرد. مقدار کاری که برای آموزش لازم است را می‌توان در تقریب اول، مشابه آموزش یک کودک انسان در نظر گرفت.

بنابراین مسئله خود را به دو بخش تقسیم کرده‌ایم: «برنامه کودک» و «فرآیند آموزش». این دو بسیار به هم متصل باقی می‌مانند. نمی‌توان انتظار داشت که در اولین تلاش، ماشینِ کودک خوبی پیدا کنیم. باید با آموزش دادن به یک چنین ماشینی آزمایش کرد و دید چقدر خوب یاد می‌گیرد. سپس می‌توان ماشین دیگری را امتحان کرد و دید بهتر است یا بدتر. پیوند آشکاری بین این فرآیند و «تکامل» وجود دارد:

  • ساختار ماشین کودک = مواد موروثی (ژنتیک)

  • تغییرات ماشین کودک = جهش (موتاسیون)

  • انتخاب طبیعی = قضاوت آزمایشگر

با این حال، می‌توان امیدوار بود که این فرآیند سریع‌تر از تکامل باشد. بقای اصلح روش کندی برای اندازه‌ گیری مزایا است. آزمایشگر با استفاده از هوش خود باید بتواند سرعت آن را افزایش دهد. به همان اندازه مهم است که او محدود به جهش‌های تصادفی نیست؛ اگر او بتواند علتی برای یک ضعف پیدا کند، احتمالاً می‌تواند نوعی جهش را طراحی کند که آن را بهبود بخشد.

اعمال دقیقاً همان فرآیند آموزشی که برای یک کودک معمولی به کار می‌رود، برای ماشین ممکن نخواهد بود. برای مثال، ماشین پا ندارد، بنابراین نمی‌توان از او خواست بیرون برود و سطل زغال‌ سنگ را پر کند. شاید چشم هم نداشته باشد. اما هر چقدر هم این نقص‌ها با مهندسی هوشمندانه برطرف شوند، نمی‌توان موجود را به مدرسه فرستاد بدون اینکه سایر کودکان بیش از حد او را مسخره کنند. باید به او آموزش خصوصی (در خانه) داد. لازم نیست نگران پاها، چشم‌ها و غیره باشیم. نمونه خانم «هلن کلر» نشان می‌دهد که آموزش می‌تواند صورت بگیرد به شرطی که ارتباط دو طرفه بین معلم و شاگرد از راهی برقرار باشد.

ما به طور معمول پاداش و تنبیه را با فرآیند آموزش مرتبط می‌دانیم. برخی ماشین‌های ساده کودک را می‌توان بر اساس این اصل ساخت یا برنامه‌ریزی کرد. ماشین باید به‌ گونه‌ای ساخته شود که وقایعی که مدت کوتاهی پیش از وقوع «سیگنال تنبیه» رخ داده‌اند، احتمال تکرارشان کم شود؛ در حالی که «سیگنال پاداش» احتمال تکرار وقایعی را که منجر به آن شده‌اند افزایش دهد. این تعاریف هیچ‌گونه «احساسی» را در ماشین پیش‌فرض نمی‌گیرند. من آزمایش‌هایی با یک چنین ماشینِ کودکی انجام داده‌ام و موفق شدم چند چیز به او یاد بدهم، اما روش آموزش بیش از حد غیر متعارف بود که آزمایش واقعاً موفقیت‌ آمیز تلقی شود. استفاده از پاداش و تنبیه در بهترین حالت می‌تواند بخشی از فرآیند آموزش باشد. به زبان ساده، اگر معلم راه دیگری برای ارتباط با شاگرد نداشته باشد، مقدار اطلاعاتی که به او می‌رسد از مجموع تعداد پاداش‌ها و تنبیه‌ها فراتر نخواهد رفت. تا زمانی که یک کودک یاد بگیرد شعر «کازابیانکا» را تکرار کند، اگر قرار باشد متن را فقط از طریق تکنیک «بیست سوالی» کشف کند و هر پاسخ «نه» به شکل یک ضربه (تنبیه) باشد، احتمالاً بسیار آزرده خواهد شد. بنابراین داشتن کانال‌های ارتباطی دیگر و «غیر احساسی» ضروری است. اگر این کانال‌ها در دسترس باشند، می‌توان با پاداش و تنبیه به ماشین یاد داد که از دستوراتی که به یک زبان (مثلاً زبان نمادین) داده می‌شود، اطاعت کند. این دستورات از طریق کانال‌های غیر احساسی منتقل می‌شوند. استفاده از این زبان، تعداد پاداش و تنبیه مورد نیاز را به شدت کاهش می‌دهد.

نظرات در مورد پیچیدگی مناسب برای ماشین کودک متفاوت است. می‌توان سعی کرد آن را تا حد ممکن ساده و منطبق بر اصول کلی ساخت. از سوی دیگر، می‌توان یک سیستم کامل از «استنتاج منطقی» را در آن تعبیه کرد. در حالت دوم، حافظه تا حد زیادی با تعاریف و گزاره‌ها اشغال می‌شود. گزاره‌ها انواع مختلفی از وضعیت را خواهند داشت: مثلاً واقعیت‌های ثابت‌شده، حدسیات، قضایای اثبات‌ شده ریاضی، اظهارات داده شده توسط یک مرجع (Authority) و عباراتی که فرم منطقی گزاره را دارند اما ارزشِ باور ندارند. برخی گزاره‌ها را می‌توان «الزامی» (امری) توصیف کرد. ماشین باید به‌گونه‌ای ساخته شود که به محض اینکه یک گزاره الزامی در رده «ثابت‌ شده» قرار گرفت، عمل مربوط به آن به طور خودکار انجام شود. برای روشن شدن مطلب، فرض کنید معلم به ماشین می‌گوید: «الان مشق‌هایت را انجام بده». این ممکن است باعث شود جمله «معلم می‌گوید: الان مشق‌هایت را انجام بده» در میان واقعیت‌های ثابت‌ شده قرار گیرد. واقعیت دیگر ممکن است این باشد: «هر چه معلم بگوید درست است». ترکیب این‌ها ممکن است در نهایت منجر به این شود که گزاره الزامیِ «الان مشق‌هایت را انجام بده» در میان واقعیت‌های ثابت‌شده قرار گیرد و این، طبق ساختار ماشین، به این معنی است که انجام مشق‌ها واقعاً شروع می‌شود؛ و این نتیجه بسیار رضایت‌ بخش است.

فرآیندهای استنتاجی که ماشین به کار می‌برد نیازی نیست چنان باشند که سخت‌گیرترین منطق‌ دانان را راضی کنند. برای مثال، ممکن است سلسله‌ مراتبی از انواع (Types) وجود نداشته باشد. اما این به معنای وقوع مغالطات نخواهد بود، همان‌طور که ما لزوماً از صخره‌های بدون حصار سقوط نمی‌کنیم. گزاره‌های الزامیِ مناسب (که در داخل سیستم بیان می‌شوند، نه به عنوان بخشی از قوانین سیستم) مانند «از هیچ طبقه‌ای استفاده نکن مگر اینکه زیرمجموعه طبقه‌ای باشد که معلم ذکر کرده است»، می‌تواند تأثیری مشابهِ «خیلی به لبه صخره نزدیک نشو» داشته باشد.

دستوراتی که یک ماشینِ بدون دست و پا می‌تواند از آن‌ها اطاعت کند، ناچاراً ماهیتی فکری دارند، مانند مثالِ «انجام تکالیف». در میان این دستورات، موارد مهم آن‌هایی هستند که ترتیبِ اعمال قوانین سیستم منطقیِ مربوطه را تنظیم می‌کنند؛ زیرا در هر مرحله از استفاده از یک سیستم منطقی، تعداد بسیار زیادی از گام‌های جایگزین وجود دارد که طبق قوانین سیستم، مجاز به استفاده از هر یک از آن‌ها هستیم. این انتخاب‌ها هستند که تفاوت بین یک استدلال‌گر نابغه و یک استدلال‌گر بی‌ عرضه را رقم می‌زنند، نه تفاوت بین یک استدلال‌گر صحیح و یک استدلال‌گر مغالطه‌کار. گزاره‌هایی که منجر به این نوع دستورات می‌شوند ممکن است چنین باشند: «وقتی از سقراط نام برده شد، از قیاس باربارا استفاده کن» یا «اگر ثابت شد روشی سریع‌تر از روش دیگر است، از روش کندتر استفاده نکن». برخی از این‌ها ممکن است «توسط مرجع» داده شوند، اما برخی دیگر ممکن است توسط خودِ ماشین تولید شوند، مثلاً از طریق استقرای علمی.

ایده یک ماشین یادگیرنده ممکن است برای برخی خوانندگان متناقض به نظر برسد. چگونه قوانین عملکرد ماشین می‌تواند تغییر کند؟ این قوانین باید به طور کامل توصیف کنند که ماشین بدون توجه به تاریخچه‌اش و تغییراتی که ممکن است متحمل شود، چگونه واکنش نشان خواهد داد. بنابراین قوانین کاملاً «ناوردا نسبت به زمان» (ثابت) هستند. این کاملاً درست است. توضیحِ این پارادوکس این است که قوانینی که در فرآیند یادگیری تغییر می‌کنند، از نوعِ بسیار کم‌ادعاتری هستند و فقط اعتباری گذرا دارند. خواننده می‌تواند شباهتی بین این موضوع و قانون اساسی ایالات متحده پیدا کند.

یک ویژگی مهم ماشین یادگیرنده این است که معلمِ آن اغلب تا حد زیادی از آنچه دقیقاً در درون ماشین می‌گذرد بی‌اطلاع خواهد بود، هرچند ممکن است هنوز تا حدی بتواند رفتار شاگردش را پیش‌بینی کند. این موضوع باید به شدت در مورد آموزش‌های بعدی ماشینی که از یک ماشینِ کودک با طراحی (یا برنامه) آزموده شده پدید آمده، صادق باشد. این در تضاد آشکار با روند معمولِ استفاده از ماشین برای انجام محاسبات است: در آنجا هدفِ فرد این است که تصویر ذهنی واضحی از وضعیت ماشین در هر لحظه از محاسبه داشته باشد. این هدف تنها با تلاش زیاد به دست می‌آید. در مواجهه با این موضوع، دیدگاه «ماشین فقط کاری را انجام می‌دهد که ما بدانیم چگونه به او دستور دهیم» عجیب به نظر می‌رسد. اکثر برنامه‌هایی که می‌توانیم در ماشین قرار دهیم، منجر به انجام کاری می‌شوند که ما نمی‌توانیم از آن سر در بیاوریم، یا آن را رفتاری کاملاً تصادفی تلقی می‌کنیم. رفتار هوشمندانه احتمالاً شامل انحرافی از رفتار کاملاً منضبطِ محاسباتی است، اما انحرافی بسیار اندک که منجر به رفتار تصادفی یا حلقه‌های تکراریِ بی‌ معنا نشود. نتیجه مهم دیگرِ آماده‌سازی ماشین برای بازی تقلید از طریق فرآیند تعلیم و تعلم این است که «جایزالخطا بودنِ انسانی» احتمالاً به شکلی کاملاً طبیعی و بدون نیاز به «مربی‌گریِ» ویژه (برای یاد دادن اشتباه کردن به ماشین) در آن گنجانده می‌شود. فرآیندهایی که آموخته می‌شوند، قطعیت صد درصدی در نتیجه تولید نمی‌کنند؛ اگر چنین می‌کردند، نمی‌شد آن‌ها را «فراموش کرد» یا تغییر داد.

احتمالاً عاقلانه است که یک «عنصر تصادفی» در ماشین یادگیرنده گنجانده شود. یک عنصر تصادفی هنگام جستجو برای راه حل یک مسئله بسیار مفید است. برای مثال، فرض کنید می‌خواهیم عددی بین ۵۰ و ۲۰۰ پیدا کنیم که برابر با مربعِ مجموع ارقامش باشد. ممکن است از ۵۱ شروع کنیم و بعد ۵۲ را امتحان کنیم و همین‌طور ادامه دهیم تا به عددی برسیم که درست باشد. روش دیگر این است که اعداد را به صورت تصادفی انتخاب کنیم تا به یک عدد مناسب برسیم. این روش این مزیت را دارد که نیازی به پیگیری مقادیر امتحان شده نیست، اما این عیب را دارد که ممکن است یک عدد را دو بار امتحان کنیم؛ هرچند اگر چندین راه حل وجود داشته باشد، این موضوع چندان مهم نیست. روش سیستماتیک این عیب را دارد که ممکن است در منطقه‌ای که اول بررسی می‌شود، بلوک عظیمی بدون هیچ راه حلی وجود داشته باشد. اکنون فرآیند یادگیری را می‌توان به عنوان جستجویی برای یافتن شکلی از رفتار در نظر گرفت که معلم را (یا معیاری دیگر را) راضی کند. از آنجایی که احتمالاً تعداد بسیار زیادی راه حل رضایت‌ بخش وجود دارد، روش تصادفی بهتر از روش سیستماتیک به نظر می‌رسد. باید توجه داشت که این روش در فرآیند مشابهِ تکامل نیز استفاده می‌شود؛ اما در آنجا روش سیستماتیک ممکن نیست. چگونه می‌توان ترکیبات ژنتیکی مختلفی را که امتحان شده‌اند ردیابی کرد تا از امتحان مجدد آن‌ها جلوگیری شود؟

می‌توان امیدوار بود که ماشین‌ها در نهایت در تمام زمینه‌های صرفاً فکری با انسان رقابت کنند. اما بهترین زمینه‌ها برای شروع کدامند؟ حتی این هم تصمیم دشواری است. بسیاری فکر می‌کنند فعالیتی بسیار انتزاعی مانند بازی شطرنج بهترین گزینه است. همچنین می‌توان ادعا کرد که بهتر است ماشین را با بهترین اندام‌های حسی که با پول می‌توان خرید مجهز کرد و سپس به او یاد داد که انگلیسی بفهمد و صحبت کند. این فرآیند می‌تواند از آموزش معمول یک کودک پیروی کند: اشیاء نشان داده شوند و نام‌گذاری شوند و غیره. باز هم نمی‌دانم پاسخ درست چیست، اما فکر می‌کنم هر دو رویکرد باید امتحان شوند.

ما فقط می‌توانیم فاصله کوتاهی از پیش رو را ببینیم، اما در همان فاصله هم کارهای زیادی هست که باید انجام شوند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

آخرین اخبار و مقالات

۸ بسته حمایتی صندوق نوآوری و شکوفایی، معاونت علمی، فناوری و اقتصاد دانش بنیان
مقالات دانش بنیان و خلاق

۸ بسته حمایتی صندوق نوآوری و شکوفایی، معاونت علمی، فناوری و اقتصاد دانش بنیان

۷ مزیت شگفت‌ انگیز نوآوری باز در همکاری دانشگاه و صنعت؛ راهنمای جامع ۲۰۲۵
مقالات دانش بنیان و خلاق

۷ مزیت شگفت‌ انگیز نوآوری باز در همکاری دانشگاه و صنعت؛ راهنمای جامع ۲۰۲۵

دیپ‌ تِک در کشاورزی؛ موجِ عمیق نوآوری که مزرعه را از نو می‌سازد
مقالات دانش بنیان و خلاق

دیپ‌ تِک در کشاورزی؛ موجِ عمیق نوآوری که مزرعه را از نو می‌سازد

اشتراک گذاری: