وبلاگ چت روم کامپیوتر و شبکه در سایت الفور
کامپیوتر کوانتومی ماشینی است که از پدیدهها و قوانین فیزیک کوانتومی مانند برهم نهی (Superposition) و درهم تنیدگی (Entanglement). برای انجام محاسباتش استفاده می کند. کامپیوترهای کوانتومی با کامپیوترهای فعلی که با ترانزیستورها کار می کنند تفاوت اساسی دارند. ایده اصلی که در پس کامپیوترهای کوانتومی نهفته است این است که می توان از خواص و قوانین فیزیک کوانتوم برای ذخیره سازی و انجام عملیات روی دادهها استفاده کرد. یک مدل تئوریک و انتزاعی از این ماشین ها، ماشین تورینگ کوانتومی(Quantum Turing Machine) است که کامپیوتر کوانتومی جهانی (Universal Quantum Computer) نیز نامیده می شود.
اگر چه محاسبات کوانتومی تازه در ابتدای راه قرار دارد، اما آزمایش هایی انجام شده که در طی آنها عملیات محاسبات کوانتومی روی تعداد بسیار کمی از کوبیتها اجرا شده است. تحقیقات نظری و عملی در این زمینه ادامه دارد و بسیاری از موسسات دولتی و نظامی از تحقیقات در زمینه کامپیوترهای کوانتومی چه برای اهداف غیرنظامی و چه برای اهداف امنیتی (مثل تجزیه و تحلیل رمز، Cryptanalysis) حمایت می کنند. اگر کامپیوترهای کوانتومی در مقیاس بزرگ ساخته شوند، می توانند مسائل خاصی را با سرعت خیلی زیاد حل کنند (برای مثال الگوریتم شُور، Shor"s Algorithm). البته باید توجه داشت که توابعی که توسط کامپیوترهای کلاسیک محاسبه پذیر (Computable) نیستند، توسط کامپیوترهای کوانتومی نیز محاسبه پذیر نخواهند بود. این کامپیوترها نظریه چرچ-تورینگ را رد نمی کنند. کامپیوترهای کوانتومی فقط برای ما سرعت بیشتر را به ارمغان می آورند.
تعریف ساده ی نقطه ی کوانتومی این است که یک ذره مادی کوچک، که افزایش یا کاهش یک الکترون خواص آن را به نحو ارزشمندی تغییر دهد. البته اتمها نقطه کوانتومی محسوب میشوند، ولی تودههای چندمولکولی نیز چنیناند. در زیستشیمی، نقاط کوانتومی گروههای اکسیداسیون- احیا خوانده میشوند. در نانوتکنولوژی به آنها بیتهای کوانتومی یا کیوبیت گفته میشود. اندازه آنها در حد چند نانومتر است و از انواع مواد همچون سلنید کادمیوم- که رنگهای مختلفی را تولید میکند- ساخته میشوند. کاربردهای بالقوه آنها در مخابرات و اپتیک است. نانوذرات فلورسنت- که تا پیش از تابش ماوراءبنفش نامرئی هستند- ساختار نانوبلوری قادر به تغییر رنگ از دیگر تعاریف آنهاست. نقاط کوانتومی از دیگر مواد فلورسنت انعطاف بیشتری دارد؛. لذا استفاده از آنها در ساخت کامپیوترهای نانومقیاس بهرهگیرنده از نور برای پردازش اطلاعات مناسب است.
رویای محاسبات ماشینی یا ماشینی که بتواند مسائل را در اشکال گوناگون حل کند کمتر از دو قرن است که زندگی بشر را به طور جدی در بر گرفته است. اگر از ابزارهایی نظیر چرتکه و برخی تلاشهای پراکنده دیگر در این زمینه بگذریم، شاید بهترین شروع را بتوان به تلاشهای «چارلز بابیج» و « بلز پاسکال» با ماشین محاسبه مکانیکی شان نسبت داد. با گذشت زمان و تا ابتدای قرن بیستم تلاشهای زیادی جهت بهبود ماشین محاسب مکانیکی صورت گرفت که همه آنها بر پایه ریاضیات دهدهی (decimal) بود، یعنی این ماشینها محاسبات را همان طور که ما روی کاغذ انجام می دهیم انجام می دادند. اما تحول بزرگ در محاسبات ماشینی در ابتدای قرن بیستم شروع شد. این زمانی است که الگوریتم و مفهوم فرایندهای الگوریتمی (algorithmic processes) به سرعت در ریاضیات و بتدریج سایر علوم رشد کرد. ریاضیدانان شروع به معرفی سیستمهای جدیدی برای پیاده سازی الگوریتمی کلی کردند که در نتیجه آن، سیستمهای انتزاعی محاسباتی بوجود آمدند. در این میان سهم برخی بیشتر از سایرین بود. آنچه امروزه آنرا دانش کامپیوتر و یا الکترونیک دیجیتال می نامیم مرهون و مدیون کار ریاضیدان برجسته انگلیسی به نام «آلن تورینگ» (Alan Turing) است. وی مدلی ریاضی را ابداع کرد که آنرا ماشین تورینگ می نامیم و اساس تکنولوژی دیجیتال در تمام سطوح آن است. وی با پیشنهاد استفاده از سیستم دودویی برای محاسبات به جای سیستم عدد نویسی دهدهی که تا آن زمان در ماشینهای مکانیکی مرسوم بود، انقلابی عظیم را در این زمینه بوجود آورد. پس از نظریه طلایی تورینگ، دیری نپایید که «جان فون نویمان» یکی دیگر از نظریه پردازان بزرگ قرن بیستم موفق شد ماشین محاسبه گری را بر پایه طرح تورینگ و با استفاده از قطعات و مدارات الکترونیکی ابتدایی بسازد. به این ترتیب دانش کامپیوتر بتدریج از ریاضیات جدا شد و امروزه خود زمینه ای مستقل و در تعامل با سایر علوم به شمار می رود. گیتهای پیشرفته، مدارات ابر مجتمع، منابع ذخیره و بازیابی بسیار حجیم و کوچک، افزایش تعداد عمل در واحد زمان و غیره از مهمترین این پیشرفتها در بخش سخت افزاری محسوب می شوند. در 1965 «گوردون مور» اظهار کرد که توان کامپیوترها هر دو سال دو برابر خواهد شد. در تمام الین سالها، تلاش عمده در جهت افزایش قدرت و سرعت عملیاتی در کنار کوچک سازی زیر ساختها و اجزای بنیادی بوده است. نظریه مور در دهههای 60 و 70 میلادی تقریبا درست بود. اما از ابتدای دهه 80 میلادی و با سرعت گرفتن این پیشرفتها، شبهات و پرسش هایی در محافل علمی مطرح شد که این کوچک سازیها تا کجا می توانند ادامه پیدا کنند؟ کوچک کردن ترازیستورها و مجتمع کردن آنها در فضای کمتر نمی تواند تا ابد ادامه داشته باشد زیرا در حدود ابعاد نانو متری اثرات کوانتومی از قبیل تونل زنی الکترونی بروز می کنند. گرچه همیشه تکنولوژی چندین گام بزرگ از نظریه عقب است، بسیاری از دانشمندان در زمینههای مختلف به فکر رفع این مشکل تا زمان رشد فن آوری به حد مورد نظر افتادند. به این ترتیب بود که برای نخستین بار در سال 1982 «ریچارد فاینمن» معلم بزرگ فیزیک و برنده جایزه نوبل، پیشنهاد کرد که باید محاسبات را از دنیای دیجیتال وارد دنیای جدیدی به نام کوانتوم کرد که بسیار متفاوت از قبلی است و نه تنها مشکلات گذشته و محدودیتهای موجود را بر طرف می سازد، بلکه افقهای جدیدی را نیز به این مجموعه اضافه می کند. این پیشنهاد تا اوایل دهه 90 میلادی مورد توجه جدی قرار نگرفت تا بالاخره در 1994 «پیتر شور» از آزمایشگاه AT&T در آمریکا نخستین گام را برای محقق کردن این آرزو برداشت. به این ترتیب ارتباط نوینی بین نظریه اطلاعات و مکانیک کوانتومی شروع به شکل گیری کرد که امروز آنرا محاسبات کوانتومی یا محاسبات نانو متری (nano computing) می نامیم. در واقع هدف محاسبات کوانتومی یافتن روشهایی برای طراحی مجدد ادوات شناخته شده محاسبات ( مانند گیتها و ترانزیستورها ) به گونه ایست که بتوانند تحت اثرات کوانتومی، که در محدوده ابعاد نانو متری و کوچکتر بروز می کنند، کار کنند. به نمودار صفحه بعد دقت کنید. در این شکل به طور شماتیک و در سمت چپ یک مدار نیم جمع کننده را مشاهده می کنید که معادل کوانتومی و نانو متری آن در سمت راست پیشنهاد شده است. نوع اتمهای به کار رفته، نحوه چینش اتم ها، چگونگی ایجاد سلول نمایش یافته ( معماری سلولی ) و چند ویژگی دیگر خصوصیات معادل با گیتهای به کار رفته در نمونه دیجیتال هستند. یک راه نظری برای پیاده سازی سلول در این طرح، استفاده از «نقاط کوانتومی» (quantum dots) یا چیزی است که در زبان مکانیک کوانتومی آنرا «اتم مصنوعی » می نامیم.
کامپیوتر تنها بخشی از دنیایی است که ما آنرا دنیای دیجیتالی می نامیم. پردازش ماشینی اطلاعات، در هر شکلی، بر مبنای دیجیتال و محاسبات کلاسیک انجام می شود. اما کمتر از یک دهه است که روش بهتر و قدرتمندتر دیگری برای پردازش اطلاعات پیش رویمان قرار گرفته که بر اساس مکانیک کوانتومی می باشد. این روش جدید با ویژگیهایی همراه است که آنرا از محاسبات کلاسیک بسیار متمایز می سازد. گرچه محاسبات دانشی است که اساس تولد آن در ریاضیات بود، اما کامپیوترها سیستم هایی فیزیکی هستند و فیزیک در آینده این دانش نقش تعیین کننده ای خواهد داشت. البته وجود تفاوت بین این دو به معنای حذف یکی و جایگزینی دیگری نیست. به قول «نیلس بور» گاهی ممکن است خلاف یک حقیقت انکار ناپذیر منجر به حقیقت انکار ناپذیر دیگری شود. بنابراین محاسبات کوانتومی را به عنوان یک زمینه و روش جدید و بسیار کارآمد مطرح می کنیم. وجود چند پدیده مهم که مختص فیزیک کوانتومی است، آنرا از دنیای کلاسیک جدا می سازد. این پدید هها عبارتند از: بر هم نهی(superposition)، تداخل (interference) ، Entanglement، عدم موجبیت (non determinism)، نا جایگزیدگی (non locality) و تکثیر ناپذیری (non clonability) . برای بررسی اثرات این پدیدهها در این روش جدید، لازم است که ابتدا واحد اطلاعات کوانتومی را معرفی کنیم. هر سیستم محاسباتی دارای یک پایه اطلاعاتی است که نماینده کوچکترین میزان اطلاعات قابل نمایش، چه پردازش شده و چه خام است. در محاسبات کلاسیک این واحد ساختاری را بیت می نامیم که گزیده واژه «عدد دودویی» است زیرا می تواند تنها یکی از دو رقم مجاز صفر و یک را در خود نگه دارد. به عبارت دیگر هر یک از ارقام یاد شده در محاسبات کلاسیک، کوچکترین میزان اطلاعات قابل نمایش محسوب می شوند. پس سیستم هایی هم که برای این مدل وجود دارند باید بتوانند به نوعی این مفهوم را عرضه کنند. در محاسبات کوانتومی هم چنین پایه ای معرفی میشود که آنرا کیوبیت (qubit) یا بیت کوانتومی می نامیم. اما این تعریف کیوبیت نیست و باید آنرا همراه با مفهوم و نمونههای واقعی و فیزیکی درک کرد. در ضمن فراموش نمی کنیم که کیوبیتها سیستم هایی فیزیکی هستند، نه مفاهیمی انتزاعی و اگر از ریاضیات هم برای توصیف آنها کمک می گیریم تنها بدلیل ماهیت کوانتومی آنها است. در فیزیک کلاسیک برای نگه داری یک بیت از حالت یک سیستم فیزیکی استفاده می شود. در سیستمهای کلاسیکی اولیه ( کامپیوترهای مکانیکی ) از موقعیت مکانی دندانههای چند چرخ دنده برای نمایش اطلاعات استفاده می شد. از زمانیکه حساب دودویی برای محاسبات پیشنهاد شد، سیستمهای دو حالتی انتخابهای ممکن برای محاسبات عملی شدند. به این معنی که تنها کافی بود تا سیستمی دو حالت یا دو پیکربندی مشخص، متمایز و بدون تغییر داشته باشد تا بتوان از آن برای این منظور استفاده کرد. به همین جهت، از بین تمام کاندیداها، سیستمهای الکتریکی و الکترونیکی برای این کار انتخاب شدند. به این شکل، هر بیت، یک مدار الکتریکی است که یا در آن جریان وجود دارد یا ندارد. هر بیت کوانتومی یا کیوبیت عبارت است از یک سیستم دودویی که می تواند دو حالت مجزا داشته باشد. به عبارت فنی تر، کیوبیت یک سیستم دو بعدی کوانتومی با دو پایه به شکل و است. البته نمایش پایهها یکتا نیست، به این دلیل که بر خلاف محاسبات کلاسیک در محاسبات کوانتومی از چند سیستم کوانتومی به جای یک سیستم ارجح استفاده می کنیم. اولین کاندید برای نمایش کیوبیت استفاده از مفهوم اسپین است که معمولاً اتم هیدروژن برای آن به کار می رود. در اندازه گیری اسپین یک الکترون، احتمال بدست آمدن دو نتیجه وجود دارد: یا اسپین رو به بالاست که با آنرا با نشان می دهیم و معادل است و یا رو به پائین است که با نشان می دهیم و معادل است با |1>| . بالا یا پائین بودن جهت اسپین در یک اندازه گیری از آنجا ناشی میشود که اگر اسپین اندازه گیری شده در جهت محوری باشد که اندازه گیری را در جهت آن انجام داده ایم، آنرا بالا و اگر در خلاف جهت این محور باشد آنرا پائین می نامیم. علاوه بر اسپین از وضع قطبش یک پرتو فوتونی و نیز سطوح انرژی مجزای یک اتم دلخواه نیز می توان به عنوان سیستم کیوبیتی استفاده کرد. شاید بتوان مهمترین تفاوت بیت و کیوبیت را در این دانست که بیت کلاسیک فقط می تواند در یکی از دو حالت ممکن خود قرار داشته باشد در حالیکه بیت کوانتومی می تواند به طور بالقوه در بیش از دو حالت وجود داشته باشد. تفاوت دیگر در اینجاست که هرگاه بخواهیم می توانیم مقدار یک بیت را تعیین کنیم اما اینکار را در مورد یک کیوبیت نمی توان انجام داد. به زبان کوانتومی، یک کیوبیت را با عبارت نشان می دهیم. حاصل اندازه گیری روی یک کیوبیت حالت |o> را با احتمال C12 و حالت |1>| را با احتمال C22 بدست می دهد. البته اندازه گیری یک کیوبیت حتماً یکی از دو نتیجه ممکن را بدست می دهد. از سوی دیگر اندازه گیری روی سیستمهای کوانتومی حالت اصلی آنها را تغییر می دهد. کیوبیت در حالت کلی در یک حالت بر هم نهاده از دو پایه ممکن قرار دارد. اما در اثر اندازه گیری حتماً به یکی از پایهها برگشت می کند. به این ترتیب هر کیوبیت، پیش از اندازه گیری شدن می تواند اطلاعات زیادی را در خود داشته باشد.
بین کامپیوترهای کلاسیک و کامپیوترهای کوانتومی نسل آینده تفاوت اساسی وجود دارد. یک کامپیوتر کلاسیک بر اساس قوانین فیزیک کلاسیک دستورات از پیش تعیین شده ای را اجرا میکند، اما یک کامپیوتر کوانتومی دستگاهی است که یک پدیده ی فیزیکی را بر اساس مکانیک کوانتومی به صورت منحصر به فردی در می آورد تا به صورت اساسی یک حالت جدید از پردازش اطلاعات را تشخیص دهد. در یک کامپیوتر معمولی اطلاعات به صورت یک سری بیت کد کذاری می شوند و این بیتها از طریق گیتهای منطقی بولین که سری هستند برای نتیجه ی نهایی دستکاری می شوند به طور مشابه یک کامپیوتر کوانتومی، کوبیتها یا بیتهای کوانتومی را با اجرای یک از گیتهای کوانتومی دستکاری می کندو هر واحد انتقال بر روی یک تک کوبیت یا یک جفت کوبیت عمل می کند. با به کار بردن این کمیتهای متوالی یک کامپیوتر کوانتومی می تواند یک واحد انتقال پیچیده از طریق مجموعه ای از کوبیتها در بعضی حالات ابتدایی ایجاد کند. پیشبرد پروژه ایجاد رایانههای کوانتومی در یک رایانه کوانتومی به جای استفاده از ترانزیستورها و مدارهای رایانه ای معمولی از اتمها و سایر ذرات ریز برای پردازش اطلاعات استفاده می شود. یک اتم می تواند به عنوان یک بیت حافظه در رایانه عمل کند و جابجایی اطلاعات از یک محل به محل دیگر نیز توسط نور امکان می پذیرد. • کریس مونرو و همکارانش در دانشگاه میشیگان برای ذخیره اطلاعات با استفاده از حالت مغناطیسی اتم از یک اتم کادمیم به دام افتاده در میدان الکتریکی استفاده کردند. در این روش انرژی توسط یک لیزر به درون اتم پمپاژ شده و اتم وادار به گسیل فوتونی میشود که رونوشتی از اطلاعات اتم را در بر دارد و توسط آشکارساز قابل تشخیص است. • ذخیره اطلاعات در رایانهها به صورت سری هایی از بیتهای با حالتهای روشن و خاموش صورت می گیرد. در اتم کادمیم در صورتی که میدانهای مغناطیسی کوچک هسته و الکترونهای بیرونی در یک جهت قرار بگیرند روشن و در خلاف جهت خاموش محسوب می شوند. کریس مونرو گفته است: اتم کادمیم در هریک از این حالات که باشد می تواند هزاران سال در همان حالت بماند.
در سال 2011 شرکت کامپیوتری D-Wave Systems اولین کامپیوتر کوانتومی قابل عرضه در بازار را معرفی کرد. این کامپیوتر D-Wave One نام دارد و از یک پردازنده128 کیلو بیتی بهره می گیرد.
«Quantum computer»، ویکیپدیای انگلیسی، دانشنامه آزاد (بازیابی در 27 اوت 2010).
ابر عمومی [واژهنامه 36] یا ابر خارجی[واژهنامه 37] توصیف کننده رایانش ابری در معنای اصلی و سنتی آن است. سرویسها به صورت دینامیک و از طریق اینترنت و در واحدهای کوچک از یک عرضه کننده شخص ثالث تدارک داده میشوند و عرضه کننده منابع را به صورت اشتراکی به کاربران اجاره میدهد(Multi-tenancy) و بر اساس مدل رایانش همگانی و مشابه صنعت برق و تلفن برای کاربران صورتحساب میفرستد.
ابر گروهی [واژهنامه 38] در جایی به وجود میآید که چندین سازمان نیازهای یکسان دارند و به دنبال این هستند که با به اشتراک گذاردن زیرساخت از مزایای رایانش ابری بهرهمند گردند. به دلیل اینکه هزینهها بین کاربران کمتری نسبت به ابرهای عمومی تقسیم میشود، این گزینه گرانتر از ابر عمومی است اما میزان بیشتری از محرمانگی، امنیت و سازگاری با سیاستها را یه همراه میآورد. نمونه یک ابر انجمنی، «ابر گو گوگل»(Gov Cloud) است.[41]
یک ابر آمیخته[واژهنامه 39] متشکل از چندین ارائه دهنده داخلی و یا خارجی،[42] گزینه مناسبی برای بیشتر مؤسسات تجاری میباشد. با ترکیب چند سرویس ابر کاربران این امکان را مییابند که انتقال به ابر عمومی را با دوری از مسائلی چون سازگاری با استانداردهای شورای استانداردهای امنیت دادههای کارتهای پرداخت آسانتر سازند.[43]
ابر خصوصی[واژهنامه 40] یک زیر ساخت رایانش ابری است که توسط یک سازمان برای استفاده داخلی آن سازمان به وجود آمدهاست. عامل اصلی که ابرهای خصوصی را از ابرهای عمومی تجاری جدا میسازد، محل و شیوه نگهداری از سخت افزار زیرساختی ابر است. ابر خصوصی امکان کنترل بیشتر بر روی تمام سطوح پیاده سازی ابر (مانند سخت افزار، شبکه، سیستم عامل، نرم افزار) را فراهم میسازد. مزیت دیگر ابرهای خصوصی امنیت بیشتری است که ناشی از قرارگیری تجهیزات در درون مرزهای سازمان و عدم ارتباط با دنیای خارج ناشی میشود. اما بهره گیری از ابرهای خصوصی مشکلات ایجاد و نگهداری را به همراه دارد. یک راه حل میانه برای دوری از مشکلات ابرهای خصوصی و در عین حال بهره مند شدن از مزایای ابرهای خصوصی، استفاده از ابر خصوصی مجازی است. ابر خصوصی مجازی بخشی از زیر ساخت یک ابر عمومی است که برای استفاده اختصاصی یک سازمان کنار گذارده میشود و دسترسی به آن تنها از راه شبکه خصوصی مجازی IPSec امکانپذیر است. (به عنوان نمونه میتوان از ابر خصوصی مجازی آمازون[واژهنامه 41] نام برد.[44]
رسانه ذخیره سازی ابری [واژهنامه 42] مدلی از ذخیره سازی بر پایه شبکهاست که در آن دادهها بر روی چندین سرور (کارساز) مجازی ذخیره میشود. معمولاً این سرویس توسط شرکتهای میزبانی[واژهنامه 43] ارائه میشود که مراکز داده بزرگی را در اختیار دارند. افرادی که بخواهند داده هایشان توسط این شرکتها میزبانی شود میتوانند فضای ذخیره سازی را از آنها بخرند و یا اجاره کنند. از سوی دیگر گردانندگان مراکز دادهها منابع خود را، مطابق نیازهای مشتریان، مجازی سازی[واژهنامه 44] میکنند و سرویس را به صورت سرورهای مجازی ارائه میدهند که قابل مدیریت توسط کاربران است. در عمل دادههای ذخیره شده روی یک سرور مجازی ممکن است بر روی چندین سرور فیزیکی مختلف ذخیره شده باشند.
میان ابر [واژهنامه 45] [45] ابری جهانی از ابرهای به هم پیوستهاست «[46][47] که از گسترش مفهوم اینترنت به عنوان شبکه شبکهها نتیجه میشود.[48]. این واژه نخستین بار در سال 2007 توسط کوین کلی[واژهنامه 46] بکار رفت که نظر خود را اینگونه بیان کرد که »ما سرانجام به میان ابر خواهیم رسید که ابر ابرهاست. این میان ابر ابعادی به اندازه یک ماشین متشکل از تمام سرورها و شرکت کنندههای روی زمین است.«[46]این واژه در سال 2009 مقبولیت عام یافت[49] و همچنین برای توصیف مراکز داده آینده بکار رفتهاست.[50].
مدل خدمات رایانهای، در مقابل رکود اقتصادی بسیار آسیب پذیر است. همانگونه که شرکتها در طی یک رکود محتاطانه عمل میکنند، هزینههای صرف شده برای خدمات رایانهای را نیز کاهش میدهند.
متخصصین نرم افزار در راه ایجاد نرم افزاری که میلیونها کاربر به جای اجرای آن بر روی کامپیوترهای شخصی خود، بتوانند از آن مانند یک سرویس استفاده کنند، با چالشهای متعدد جدیدی مواجه شدهاند.[51]
این رویکرد نسبتا تازهاست ودر بسیاری موارد هنوز پذیرفته نشدهاست. دپارتمانهای IT هنوز نسبت به آن بسیار محتاط عمل میکنند زیرا سکوی رایانش ابر توسط آنها کنترل نخواهد شد. تاکنون سرمایه گذارانی که جرأت سرمایه گذاری در پروژههای مخاطره آمیز را دارند، پول زیادی در رایانش ابر سرمایه گذاری نکردهاند. توانایی کنترل هزینهها و تهیه و تدارک زیرساختها بهنگام نیاز، به ویژه باعث جذب کسب و کارهای جدیدی که منابع کمتری در اختیار داشتند، شد. همچنین شرکتهای Web 2.0 که در حالت عادی منابع کمتری دارند و بدنبال کسب تواناییِ افزایش یا کاهشِ آسان تقاضا، بهنگام نیاز هستند. شرکتهای بزرگتر، که عموما صبر میکنند تا تکنولوژیهای جدید پذیرفته شوند، از برای پروژههای موقت و گاه و بیگاهی استفاده میکنند که منابع اضافی زیادی را میطلبند.[35] مثل همه رویکردهای تازه پدیدار شده، میزانی از بیم، عدم اطمینان و قطعیت، و نگرانیهایی درباره بالندگی این تکنولوژی وجود دارد.
ارائه دهندگان خدمات، معمولاً سکوها را برای پشتیبانی از شیوههای تجاری و ITی یک شرکت خاص طراحی نمیکنند. همچنین، کاربران قادر به تغییر تکنولوژیِ سکوها به هنگام نیاز نخواهند بود. گرچه ارائه دهندگان میتوانند با توجه به اینکه چه تکنولوژی ای به بهترین نحو نیازها را پاسخ میدهد و بهنگام نیاز آن را تغیییر دهند که این کار بدون موافقت یا رضایت مشتریان انجام میگیرد.[35]
به لطف پهنای باند بالای شبکه، کاربر حتی هنگامی که در حال استفاده از وب به عنوان یک کامپیوتر فراگیر است، احساسِ کار بر روی سیستم محلی را دارد.[52] با اینحال مشکل زیر پیش میآید:
در حالیکه شرکتها به کمک رایانش ابر، میتوانند در هزینه تجهیزات و نرم افزارها صرفه جویی کنند، اما باید متحمل هزینه شارژ بالاتری برای پهنای باند بشوند. احتمالا هزینه پهنای باند باید برای نرم افزارهای کاربردی مبتنی بر وب کوچک که داده-متمرکز نیستند کمتر خواهد بود، اما هنگامی که مثلا یک شرکت، پایگاه دادهای چند ترابایتی را از طریق رایانش ابر اجرا میکند، این هزینه میتواند بسیار بالا باشد.[35]
نیاز به استانداردهای باز برای تمام شیوههای استفاده از وب به عنوان یک کامپیوتر فراگیر وجود دارد.[52] با افزایش تعداد ارائه دهندگان خدمات ابری، اهمیتِ قابلیت جابجایی بیشتر خواهد شد. اگر شرکتی از خدمات یکی از ارائه کنندگان ناراضی باشد — یا اگر فروشنده از این کسب و کار کنار بکشد — نمیتواند لزوما آسان و با هزینهای کم، به ارائه دهنده دیگر منتقل شود و یا اینکه خدمات مذکور را دوباره به درون شرکت برگرداند. در عوض، شرکت باید دادهها و نرم افزارهای کاربردیاش را قالب بندی مجدد نموده و آنها را به یک ارائه دهنده جدید منتقل کند، که فرایندی بالقوه پیچیدهاست. و اگر بخواهد خدمات را بدرون شرکت بیاورد، باید کارمندانی را که واجد مهارتهای لازم برای کار با این تکنولوژی هستند، استخدام کند.[35] کاربران به طور روزافزون به وب و ارائه دهندگان آن وابسته خواهند شد. به این ترتیب، هنگامیکه ارائه دهندگان خدمات شرایط استفاده از خدمات و یا روشهای عملیاتی خود را بعد از مدتی تغییر بدهند، کاربران آنها احساس به دام افتادن و درماندگی میکنند. برای مثال، تحمیل محدودیتهای جدید بر استفاده از یک قابلیت و یا از کار انداختن آن به مدت چند ماه بمنظور بهبود بخشیدن به آن. همچنین ممکن است ارائه دهندگان تصمیم به حذف یک قابلیت که سالها در سایت رایگان ارائه میشد، اما در مقابل بخش بهادار خود را حفظ کند و حتی افزایش قیمت بدهد.[52]
اگر شرکتها نتوانند نشان دهند که چه کسی به دادههای مشتریان دسترسی دارد و چگونه مانع دستیابی کارمندان غیر مجاز به اطلاعات میشوند، نخواهند توانست از حسابرسیِ ظرفیتهای خود، به وسیله مشتریانِ آینده با موفقیت بیرون بیایند. ارائه دهندگان رایانش ابر این نگرانی را به کمک نظارت قبلی third partyها بر سیستمها و به وسیله مستند سازی رویههای طراحی شده برای پاسخگویی به نیازهای امنیتِ داده برای مشتریان رفع میکنند.[35]
رایانش ابر همیشه قابلیتِ اعتمادِ مستمری را ارائه نکردهاست. مثلا، مشتریان Salesforce.com در تاریخ 12 فوریه 2008، به مدت 6 ساعت قادر به دریافت خدمات نبودند. و سه روز بعد خدمات Amazon’s S3 و EC2 به مدت 3 ساعت دچار وقفه شدند.
طرفداران حفظ حریم خصوصیها مدل ابر را مورد انتقاد قرار میدهند، زیرا ارائه دهندگان سرویسهای ابر میتوانند کنترل و نظارت کامل قانونی ویا غیر قانونی بر روی دادهها و ارتباطات بین کاربران سرویس و میزبان ابر داشته باشند. رویدادهایی همچون برنامه مخفی آژانس امنیت ملی ایالات متحده آمریکا به همراه شرکتهای AT&T و Verizon که بیش از ده میلیون مکالمه تلفنی شهروندان امریکایی را ضبط نمودند، باعث بوجود آمدن بی اعتمادی میان طرفداران حفظ حریم خصوصی شدهاست.[53]
امنیت نسبی رایانش ابری موضوعی بحث انگیز است که ممکن است پذیرش رایانش ابری را به تأخیر بیندازد.[54] گروهی بر این باورند که امنیت دادهها وقتی که در داخل سازمان اداره شوند بالاتر است، در حالی که گروهی دیگر عقیده دارند که ارائه دهندگان سرویس انگیزهای قوی برای حفظ اعتماد دارند و از این رو سطح امنیت بالاتری را بکار میگیرند.[55]
علاوه بر امنیت دادهها، میزان در دسترس بودن و کارایی برنامههای کاربردی که روی ابر میزبانی میشوند برای کاربران از اهمیت بالایی برخوردار است.[56]
لری الیسون مدیر ارشد اجرایی شرکت اوراکل گفتهاست که رایانش ابری چیزی است که «در حال حاضر ما از آن استفاده میکنیم» و هیچ تأثیری در آن نگذاشتهاست به جز «تغییر کلمات در تبلیغات ما».[57][58]
ریچارد استالمن گفتهاست که رایانش ابری فقط یک حیله سادهاست که مردم مجبور شوند از سیستمهای انحصاری استفاده کنند که هزینه? آن بیشتر و بیشتر از قبل است. او به گاردین گفت:
«این احمقانه است، این چیزی بدتر از احمقانه است، این فقط بزرگنمایی در بازاریابی است.»[59]
رایانش ابر بطور چشمگیری موانع ورود به تجارت نرم افزاری را کاهش میدهد و برای شرکتها روشهای جدیدِ کسب سود را مینمایاند. ارائه دهندگان خدمات ابر از طریق تسهیم، بهبود دادن و سرمایه گذاری بیشتر در نرم افزار و سخت افزار به سود دست میابند- یکبار نصب نرم افزار می تواند نیازهای کاربران متعددی را پوشش دهد.
نیرو محرکههای اصلی ای که پشت سر رایانش ابر قرار دارند عبارتند از فراگیری شبکه? بیسیم و پهن باند، کاهش هزینههای ذخیره سازی، و بهبود تصاعدی در نرم افزارهای پردازشگر اینترنتی. مشتریان خدمات ابر قادر خواهند بود تا ظرفیت بیشتری را در هنگام اوج تقاضا به سیستم خود تزریق کنند، هزینهها را کاهش داده، خدمات نوینی را تجربه کنند، و ظرفیتهای بلا استفاده را حذف کنند.[60] بدین ترتیب، وب از منابع محاسباتی قدرتمند با قیمت هایی قابل پرداخت، میزبانی میکند و سازمانها بسته به شرایط اقتصادی وضعیت موجود خود- یعنی اینکه خرید نرم افزار و زیرساختها ارزان تر است یا خرید سرویس بر حسب نیاز- از امکانات رایانشی درون سازمانی یا خدمات ابر خارجی استفاده میکنند. در قرن 21 شاهد افزایش تمایل استفاده از وسایل قابل حمل سبک برای دسترسی به خدمات اینترنت بجای کامپیوترهای شخصی هستیم. از آنجاییکه چنین وسایلی، امکانات پردازشی قوی ندارند (بعبارتی علاقه ای به داشتنِ چنین امکاناتی ندارند)، پس چه کسی قدرت پردازشی را تامین خواهد کرد؟ پاسخ به این سوال در رایانش ابر نهفته است .[60]
این تصور که در 2019، همه پردازشهای خود را از طریق لپ تاپها با هزینه ای کمتر از 100 دلار انجام خواهیم داد، در حالیکه هیچ مشکلی در زمینه خدمات و سطوح امنیتی نخواهیم داشت، مسلما فراتر از واقعیت است اما مطمئنا در آینده ازابرها بشکل بسیار گسترده ای استفاده خواهیم کرد. [35] پتانسیل رشد این تکنولوژی بسیار بالا برآورد شده است.
معماری سامانههای نرم افزاری دست اندر کار در ارائه رایانش ابری عموماَ شامل اجزایی است که با یکدیگر از طریق رابط برنامهنویسی نرمافزار [واژهنامه 24] و معمولاَ وبسرویس ارتباط برقرار میکنند.[18] این طراحی شباهتی با فلسفه یونیکس دارد که در آن چند برنامه مختلف که هر یک کاری را به خوبی انجام میدهند، با یکدیگر از طریق واسطهای جهانی کار میکنند. پیچیدگی کنترل میشود و سامانههای حاصل مدیریت پذیرتر از همتاهای یکپارچه [واژهنامه 25] خود هستند.
کاربر رایانش ابری متشکل از سخت افزار و نرم افزاری است که برای تحویل برنامههای کاربردی از ابر استفاده میکند و یا آنکه به طورویژه تنها برای تحویل سرویسهای ابر طراحی شدهاست که در هر دوی موارد بدون وجود ابر بی استفاده باشد. مثال: رایانهها، تلفنها و سایر دستگاهها، سیستمعاملها و مرورگرهای وب.[19][20][21][22][23]
سرویسهای برنامه کاربردی ابری یا «نرمافزار به عنوان سرویس»(SaaS)، نرم افزار را به صورت سرویس روی اینترنت تحویل میدهند و بدین وسیله نیاز به نصب نرم افزار روی رایانههای مشتریان را ازبین میبرند و نگهداری و پشتیبانی را ساده تر میسازد. ویژگیهای اصلی این سرویسها عبارتند از:[24]
سرویسهای بستر ابری یا «بستر به عنوان سرویس»(PaaS) بستر رایانشی ویا پشته? راهکار -که اغلب روی زیرساخت ابری اجرا شده و برنامه کاربردی ابری را تغذیه میکند- را به صورت سرویس ارایه میدهد.[25] سرویس بستر ابری استقرار برنامههای کاربردی را بدون هزینه و پیچیدگی خرید و مدیریت لایههای نرمافزاری و سختافزاری زیرین آسان میسازد.[26][27]
سرویسهای زیرساخت ابری یا «زیرساخت به عنوان سرویس»(IaaS) زیرساخت رایانهای را که عموما یک بستر مجازی است را به صورت سرویس ارائه میدهند. کاربران به جای خرید سختافزار و نرمافزار و فضای مرکز داده (دیتا سنتر) ویا تجهیزات شبکه، همه? این زیر ساختها را به صورت یک سرویس کاملا برونسپاری(Outsource) شده میخرند. صورتحساب سرویس معمولاً بر اساس مدل رایانش همگانی (Utility Computing) و میزان منابع مصرف شده صادر میشود و بنابر این هزینه منعکس کننده میزان فعالیت است. این شیوه در واقع تکامل یافته مدل عرضه سرورهای خصوصی مجازی است.[28]
لایه سرورها متشکل از سخت افزار و نرم افزاری است که مخصوصا برای تحویل سرویسهای ابر طراحی شدهاند. به عنوان مثال میتوان از پردازندههای چند هستهای و سیستم عملهای ویژه ابر نام برد.[19][29][30][31]
از دیدگاه سخت افزاری رایانش ابری در مقایسه با فناوریهای مشابه قبلی سه جنبه جدید دارد:[32]
مزایای اصلی رایانش ابری عبارتند از:
رایانش ابری (به انگلیسی: Cloud Computing) مدل رایانشی بر پایه شبکه های بزرگ کامپیوتری مانند اینترنت است که الگویی تازه برای عرضه، مصرف و تحویل سرویسهای فناوری اطلاعات (شامل سخت افزار، نرم افزار، اطلاعات، و سایر منابع اشتراکی رایانشی) با به کارگیری اینترنت ارائه میکند. رایانش ابری راهکارهایی برای ارائه خدمات فناوری اطلاعات به شیوههای مشابه با صنایع همگانی (آب، برق، تلفن و ...) پیشنهاد میکند. این بدین معنی است که دسترسی به منابع فناوری اطلاعات در زمان تقاضا و بر اساس میزان تقاضای کاربر به گونهای انعطافپذیر[واژهنامه 1] و مقیاسپذیر[واژهنامه 2] از راه اینترنت به کاربر تحویل داده میشود. واژه «ابر» واژهای است استعاری که به اینترنت اشاره میکند و در نمودارهای شبکههای رایانهای نیز از شکل ابر برای نشان دادن شبکه اینترنت استفاده میشود. دلیل تشبیه اینترنت به ابر در این است که اینترنت همچون ابری جزئیات فنیاش را از دید کاربران پنهان میسازد و لایهای از انتزاع را بین این جزئیات فنی و کاربران به وجود میآورد.به عنوان مثال آنچه یک ارائهدهنده سرویس نرمافزاری رایانش ابری ارائه میکند، برنامههای کاربردی تجاری برخط است که از طریق مرورگر وب یا نرمافزارهای دیگر به کاربران ارائه میشود. نرمافزارهای کاربردی و اطلاعات روی سرورها ذخیره میگردند و براساس تقاضا در اختیار کاربران قرار میگیرد. جزئیات از دید کاربر مخفی میمانند و کاربران نیازی به تخصص یا کنترل در مورد فناوری زیرساخت ابری که از آن استفاده میکنند ندارند.[1]
رایانش ابری را گروهی تغییر الگووارهای[واژهنامه 3] میدانند که دنبالهروی تغییری است که در اوایل دهه 1980 از مدل رایانه بزرگ[واژهنامه 4] به مدل کارخواه-کارساز[واژهنامه 5] صورت گرفت.
از آنجا که اکنون این فناوری دوران طفولیت خود را میگذراند، هنوز تعریف استاندارد علمی که مورد قبول عام باشد برای آن ارائه نشده است اما بیشتر صاحبنظران بر روی قسمتهایی از تعریف این پدیده هم رای هستند. موسسه ملی فناوری و استانداردها (NIST) رایانش ابری را اینگونه تعریف میکند:[2]
«رایانش ابری مدلی است برای فراهم کردن دسترسی آسان بر اساس تقاضای کاربر از طریق شبکه به مجموعهای از منابع رایانشی قابل تغییر و پیکربندی (مثل: شبکهها، سرورها، فضای ذخیرهسازی، برنامههای کاربردی و سرویسها) که این دسترسی بتواند با کمترین نیاز به مدیریت منابع و یا نیاز به دخالت مستقیم فراهمکننده سرویس به سرعت فراهم شده یا آزاد (رها) گردد.»[3]
عموما مصرف کنندههای رایانش ابری مالک زیر ساخت فیزیکی ابر نیستند، بلکه برای اجتناب از هزینه سرمایهای آن را از عرضه کنندگان شخص ثالث اجاره میکنند. آنها منابع را در قالب سرویس مصرف میکنند و تنها بهای منابعی که به کار میبرند را میپردازند. بسیاری از سرویسهای رایانش ابری ارائه شده، با به کار گیری مدل رایانش همگانی امکان مصرف این سرویسها را به گونهای مشابه با صنایع همگانی(مانند برق) فراهم میسازند. این در حالی است که سایر گونههای عرضه کنندگان بر مبنای اشتراک سرویسهای خود را عرضه میکنند. به اشتراک گذاردن قدرت رایانشی [واژهنامه 6] «مصرف شدنی و ناملموس» میان چند مستاجر میتواند باعث بهبود نرخ بهره وری شود؛ زیرا با این شیوه دیگر کارساز(سرور)ها بدون دلیل بیکار نمیمانند (که سبب میشود هزینهها به میزان قابل توجهی کاهش یابند در عین حال که سرعت تولید و توسعه برنامههای کاربردی افزایش مییابد). یک اثر جانبی این شیوه این است که رایانهها به میزان بیشتری مورد استفاده قرار میگیرند زیرا مشتریان رایانش ابری نیازی به محاسبه و تعیین حداکثری برای بار حداکثر (Peak Load) خود ندارند.[4]
رایانش ابری اگرچه برخی از ویژگیهایش را از مدلهای رایانشی دیگر به ارث میبرد؛ اما خود متفاوت از آنهاست. برخی از این مدلها عبارتند از:
پیدایش مفاهیم اساسی رایانش ابری به دهه 1960 بازمی گردد. زمانی که جان مک کارتی [واژهنامه 20] اظهار داشت که «رایانش ممکن است روزی به عنوان یکی از صنایع همگانی سازماندهی شود». تقریبا تمام ویژگیهای امروز رایانش ابری (تدارک الاستیک، ارائه به صورت یک صنعت همگانی، برخط بودن و توهم دسترسی به عرضه نامحدود) به همراه مقایسه با صنعت برق و شکلهای مصرف عمومی وخصوصی و دولتی وانجمنی را پارک هیل داگلاس در کتابی که با عنوان «مشکل صنعت همگانی رایانه» در سال 1966 مورد بررسی قرار داد. واژه ابر در واقع بر گرفته از صنعت تلفن است به این گونه که کمپانیهای ارتباطات راه دور که تا دهه 1990 تنها خطوط نقطه به نقطه اختصاصی ارائه میکردند، شروع به ارائه شبکههای خصوصی مجازی با کیفیتی مشابه و قیمتهای کمتر نمودند. نماد ابر برای نمایش نقطه مرزی بین بخشهایی که در حیطه مسئولیت کاربرند و آنهایی که در حیطه مسئولیت عرضه کننده بکار گرفته میشد. رایانش ابری مفهوم ابر را به گونهای گسترش میدهد که سرورها را نیز علاوه برزیر ساختهای شبکه در بر گیرد..[9]
سایت آمازون با مدرن سازی مرکز داده خود نقش مهمی در گسترش رایانش ابری ایفا کرد. بعد از حباب دات-کام آنها دریافتند که با تغییر مرکز دادههای خود - که ماننداغلب شبکههای رایانهای در بیشتر اوقات تنها از 10% ظرفیت آن استفاده میشدو مابقی ظرفیت برای دورههای کوتاه اوج مصرف در نظر گرفته شده بود - به معماری ابر میتوانند بازده داخلی خود را بهبود بخشند. آمازون از سال 2006 امکان دسترسی به سامانه خود از طریق وب سرویسهای آمازون را بر پایه رایانش همگانی ارائه کرد.[10] در سال 2007، گوگل و آی بی ام به همراه چند دانشگاه پروژهای تحقیقاتی در مقیاسی بزرگ را در زمینه رایانش ابری آغاز نمودند.[11]
در اواسط سال 2008 شرکت گارتنر متوجه وجود موقعیتی در رایانش ابری شد که برای «شکل دهی ارتباط بین مصرف کنندگان خدمات فناوری اطلاعات، بین آنهایی که این سرویسها را مصرف میکنند و آنها که این سرویسها را میفروشند» بوجود میآید.[12]
کاربران رایانش ابری میتوانند از هزینه سرمایهای لازم برای خرید سخت افزار و نرم افزار و خدمات دوری کنند، زیرا آنها تنها برای آنچه که استفاده میکنند به عرضه کنندگان پرداخت میکنند و هزینه اولیهای برای خرید تجهیزات به آنها تحمیل نمیشود. سایر مزایای اقتصادی این شیوه اشتراک زمانی در ارائه منابع رایانشی عبارتند از: موانع ورود به بازار کمتر، هزینه و زیر ساخت اشتراکی، سربار مدیریتی کمتر و دسترسی سریع به طیف وسیعی از برنامههای کاربردی.
عموما کاربران میتوانند در هر زمانی قراردادشان را پایان دهند (و به این وسیله از ریسک و عدم قطعیت در نرخ بازگشت سرمایه بکاهند) و غالبا سرویسها زیر پوشش یک قرارداد سطح سرویس [واژهنامه21] با جریمههای مالی قرار میگیرند.[13][14]
بنا به گفته نیکلاس کار [واژهنامه 22]، اهمیت راهبردی(استراتژیک) فناوری اطلاعات با استاندارد شدن و ارزان تر شدن آن کاهش مییابد. او استدلال میکند که تغییرالگو واژه رایانش ابری شبیه به جایگزینی ژنراتورهای مولد برق با شبکههای توزیع برق است که در اوایل قرن بیستم رخ داد.[15] اگر چه کمپانیها ممکن است بتوانند هزینههای پیش پرداختی سرمایهای را حذف کنند اما در مورد هزینههای عملیاتی کاهش چندانی صورت نمیگیرد و ممکن است در عمل هزینههای عملیاتی افزایش یابند. در مواردی که هزینههای سرمایهای نسبتا کوچک باشند یا سازمان انعطاف پذیری بیشتری در مورد هزینههای سرمایهای نسبت به هزینههای عملیاتی داشته باشد، از دیدگاه مالی رایانش ابری انتخاب مناسبی نخواهد بود. سایر عواملی که بر میزان کاهش هزینه بالقوه استفاده از رایانش ابری تاثیر میگذارند عبارتند ازمیزان بازدهی مرکز دادهها ی [واژهنامه 23] کمپانی در مقایسه با فروشندگان رایانش ابری، هزینههای عملیاتی فعلی کمپانی، میزان پذیرش و استفاده از رایانش ابری و نوع کاربردی که باید در ابر میزبانی شود.[16][17]
اتاق چینی ها
اتاق چینی ها یک آزمایش تفکر است که اولین بار توسط مقاله John Searle به نام "Minds, Brains, and Programs” در مجله Behavioral and Brain Sciences در سال 1980 منتشر شد. مقالهی او نشان می داد این سوال که : اگر یک ماشین بتواند به صورت متقاعدکنندهای یک مکالمه هوشمند را شبیهسازی کند، آیا ضروری است که آن را بفهمد. سرل می گوید: فرض کنید من درون یک اتاق در بسته محبوس شده باشم و یک دسته بزرگ نوشته های چینی نیز به من داده شده باشد. علاوه بر این فرض کنید (همان طور که واقعا این طور است) من چیزی از زبان چینی نمی دانم نه نوشتن و نه خواندن و حتی من مطمئن نیستم که که بتوانم بین نوشته های چینی یا زبانهایی شبیه آن مثلا ژاپنی و شکلک های بی معنی تفاوت قائل شوم. از نظر من نوشتههای چینی فقط پر از شکلکهای بی معنی است. حالا فرض کنید بعد از اولین دسته از نوشتههای چینی، دسته دومی از یادداشتهای چینی به همراه مجموعهای از قواعد که دسته اول را به دسته دوم مربوط می سازد به من داده شده است. قواعد به زبان انگلیسی هستند، و من این قواعد را به همان خوبی می فهمم که یک فرد بومی انگلیسی زبان می فهمد. قواعد مرا قادر می سازند تا یک مجموعه از نمادهای صوری را به یک مجموعه دیگر از نمادهای صوری مرتبط سازم، "صوری” در اینجا فقط به معنای این است که من نمادها را فقط با استفاده از شکلشان شناسایی می کنم. حال همچنین فرض کنید دسته سوم نمادهای نوشته شده چینی به همراه دستورالعملهایی باز هم به زبان انگلیسی به من داده شده است که مرا قادر می سازد تا عناصر دسته سوم را به دو دسته اول مربوط کنم، این قواعد به من چگونگی ارتباط نمادهای چینی خاصی با یک جور اشکال خاص را در پاسخ به یک جور اشکال خاص که در دسته سوم به من داده شده است، تعلیم می دهند. مردمی که تمام این نمادها را به من می دهند به دسته اول می گویند "نمایشنامه" به دسته دوم می گویند "داستان" و به دسته سوم می گویند "سوالها"، این درحالی است که من نمی دانم. به علاوه به نمادهایی که من در پاسخ به دسته سوم به آنها باز می گردانم می گویند "پاسخ به سوالها”. و به مجموعه قواعدی که به زبان انگلیسی است که آنها به من دادند می گویند "برنامه". بعد از آن سرل می گوید که کسانی که در بیرون اتاق هستند و پاسخ های مرا دریافت می کنند تصور می کنند شخصی درون اتاق هست چینی می داند، سرل می گوید این دقیقا همان کاری است که کامپیوتر می کند یعنی یک سری ورودی می گیرد و یک سری خروجی می دهد، اما من که نقش نرم افزار کامپیوتر را داشتم چیزی از آن داستان متوجه شدم؟ آیا آن را فهمیدم؟
اتاق چینیها دقیقا همان طراحی را دارد که هر کامپیوتر مدرنی دارد. و طبق معماری Von Neumann است به طوری که شامل یک برنامه (قواعد به زبان انگلیسی)، مقداری حافظه (دسته های کاغذ)، یک CPU که دستورالعمل ها را دنبال می کند (انسان) و یک وسیله برای نوشتن نمادها در حافظه (مداد و پاککن) می باشد. یک ماشین با این طراحی در علوم کامپیوتر نظری به عنوان یک ماشین تورینگ کامل شناخته می شود، چون قابلیت های ضروری این را دارد تا بتواند تمام محاسباتی که توسط ماشین تورینگ انجام می شود را انجام دهد. به بیان دیگر اتاق چینی ها می تواند هر آنچه که سایر کامپیوترها انجام می دهند را انجام دهد.
اتاق چینی ها (و همه کامپیوترهای مدرن) برای انجام محاسبات و شبیه سازیها اشیا فیزیکی را دستکاری می کنند. محققان هوش مصنوعی Alan Newell و Herbert Simon به این نوع از ماشین "سیستم نماد فیزیکی" می گویند. همچنین این سیستم با سیستم صوری(formal systems) در منطق ریاضیات معادل می باشد. سرل بر روی این حقیقت تاکید دارد که این نوع از دستکاری نماد دستوری(syntactic) است (با قرض گرفتن این واژه از مطالعات گرامری). CPU نمادها را بدون هیچ علمی از معنای(semantics) نمادها، با استفاده از نوعی قواعد دستوری دستکاری می کند.
جان سرل توانست بین دو فرضیه مهم تمایز قائل شود و آنها را فرضیه هوش مصوعی قوی و فرضیه هوش مصنوعی ضعیف نامید: فرضیه اول می گوید: یک سیستم هوش مصنوعی می تواند فکر کند و ذهن داشته باشد. فرضیه دوم می گوید: یک سیستم هوش مصنوعی (فقط) می تواند مثل این عمل کند که فکر می کند و ذهن دارد.
Searle, John. R. (1980) Minds, brains, and programs. Behavioral and Brain Sciences 3 (3): 417-457