زمانی که در سال 1946 اولین رایانه جهان برای مصارف عمومی با نام ENIAC معرفی شد، کسی فکر نمی کرد ابزارهای عظیمی که می توانستند کل فضای یک خانه بزرگ را بپوشانند روزی به این حد از پیشرفت برسند که هفتاد سال بعد، پردازنده ای چندین برابر قدرتمندتر از آنها در جیب بسیاری از مردم کره زمین وجود داشته باشد. حتی شاید گوردون مور هم وقتی در سال 1965 درباره دو برابر شدن اجزای مدارهای مجتمع آن هم هر دو سال یک بار صحبت می کرد تصور درستی از آینده ابزارهای دیجیتال نداشت. اما روند پیشرفت علم باعث شد در فاصله کوتاهی که حتی به طول عمر یک فرد عادی هم نمی رسد، رایانه ها به حدی پیشرفت کنند که این روزها صحبت از رسیدن تکنولوژی های فعلی به مرزهای محدودیت های فیزیکی برسند و دانشمندان ناچار به یافتن راهکارهایی جدید برای افزایش قدرت و سرعت محاسبات رایانه ها شوند.
با گسترش علم و اهمیت یافتن محاسبات فوق العاده دقیق، رایانه ها هم می بایست قدرت پردازشی بیشتری داشته باشند تا بتوانند پاسخگوی نیازهای کاربران باشند. البته اینجا هم ابتدا نیاز از بخش های حیاتی تری مانند صنایع نظامی یا هوافضا به وجود می آید و بعد از چند سال راه خود را به سمت کاربران عادی هم باز می کند. در هر صورت، مشکلی که در این بین وجود دارد آن است که واحدهای حافظه و سوئیچ رایانه ها یا همان ترانزیستورها به زودی به ابعاد اتم های منفرد خواهند رسید و آن وقت است که دیگر راهی برای توسعه بیشتر آنها به این صورت وجود ندارد و در چنین شرایطی اگر بخواهیم رایانه ها را کوچکتر کنیم و در عین حال قدرت آنها را افزایش دهیم می بایست راهکاری جدید به دست بیاوریم. روش پیشنهاد شده از سوی دانشمندان در این زمینه رایانش کوانتومی (Quantum Computing) است که البته هنوز با وجود پیشرفت های محسوس نسبت به سال های قبل، علمی کاملا جدید به حساب می آید و حتی برای فعالان در این حوزه از علم نیز ناشناخته باقی مانده است. در دنیای کوانتوم دیگر خبری از قوانین فیزیک کلاسیک نیست و در عنوان سرزمین عجایب کاملا برازنده این شاخه از فیزیک می باشد. اما داستان دقیقا از چه قرار است؟برای درک بهتر تفاوت رایانش کوانتومی باید ابتدا کمی با روش رایانش فعلی آشنا شویم. در حال حاضر کامپیوترها به صورت پایه، از دو روش اصلی برای انجام محاسبات استفاده می کنند؛ آنها اعدادی را در حافظه خود ذخیره کرده و سپس به وسیله عملیات ریاضی ساده ای مانند جمع و تفریق آنها را پردازش می کنند. همچنین پردازش های پیچیده تر به وسیله متصل کردن فرآیندهای ساده تر به شکل یک الگوریتم انجام می شود. ذخیره سازی اعداد و پردازش آنها هر دو توسط سوئیچ هایی به نام ترانزیستور انجام می گیرد که البته در حال حاضر نسخه هایی در ابعاد میکروسکوپی از همان کلیدهایی هستند که برای روشن یا خاموش کردن یک لامپ از آن استفاده می کنیم. ترانزیستورها می توانند دو حالت داشته باشند، روشن و خاموش که در حالت اول عدد 1 و در حالت دوم عدد صفر به آنها نسبت داده می شود. زنجیره هایی از صفر و یک ها برای مشخص کردن اعداد، حروف و یا نشانه هایی به کار گرفته می شوند. در گذشته یک ترانزیستور ابعاد بزرگی داشت اما با پیشرفت چشمگیر الکترونیک در سال های اخیر، یک مدار مجتمع (IC) می تواند تا 2 میلیارد ترانزیستور را در خود جای دهد. مشکل دقیقا از همینجا آغاز می شود. هر چقدر که دستور ورودی به رایانه و یا مساله که باید آن را حل کند پیچیده تر باشد، به تعداد صفر و یک ها و در نتیجه ترانزیستورهای بیشتری نیاز است و از آنجا که رایانه های کلاسیک در آن واحد تنها می توانند یک کار را انجام دهند، هر چه مساله پیچیده تر باشد، قدم های بیشتری برای حل آن مورد نیاز است. افزایش تعداد ترانزیستورها در کنار نیاز به کاهش فضای اشغال شده توسط آنها به تدریج مشکلاتی را نظیر گرمایش بیش از اندازه به وجود می آورد که پس از رسیدن ابعاد ترانزیستورها به اندازه اتم های منفرد، توان پیشرفت آنها را متوقف می کند. اما در دنیای کوانتوم داستان به گونه دیگری روایت می شود. یکی از بنیادی ترین اصول در کوانتوم، مبحث دوگانگی موج – ذره است. در مکانیک کوانتومی فوتون ها (که اجزای تشکیل دهنده نور هستند) می توانند در آن واحد هم به صورت ذره رفتار کنند و خصوصیات ذره گونه داشته باشند و هم از خود ویژگی های موجی به نمایش بگذارند. دقیقا مانند اینکه بگوییم یک ماشین در هر لحظه هم به صورت ماشین و هم به صورت دوچرخه ظاهر می شود. چنین تصویری با دنیای که ما درک می کنیم کاملا در تضاد است، اما در دنیای فیزیک کوانتومی منطقی و به راحتی قابل محاسبه می باشد. چنین ویژگی منحصر به فردی است که باعث می شود رایانش کوانتومی بتواند مرزهایی را که علم الکترونیک با آنها به مشکل برخورد کرده پشت سر بگذارد و دروازه های جدیدی را برای دانشمندان باز کند.
همان طور که در رایانش فعلی از اصطلاح بیت استفاده می کنیم، در رایانش کوانتومی هم اصطلاحی با عنوان Qubit یا Quantum Bit وجود دارد. اگر هر بیت می تواند در دو حالت صفر یا یک وجود داشته باشد، کیوبیت ها می توانند در هر لحظه صفر، یک، هر دوی آنها یا هر عددی بین آنها باشند! به علاوه چنین قابلیتی، رایانه های کوانتومی می توانند همه این داده های گوناگون را هم در یک زمان پردازش کنند چون دیگر خبری از تنها دو حالت صفر و یک نیست. در واقع در رایانش کوانتومی به جای پردازش به صورت سری با پردازش موازی روبرو هستیم و در زمانی که کاربر به اندازه گیری مقدار می پردازد (دستوری برای مشخص شدن مقدار یک پارامتر صادر می کند) تنها یکی از حالت های ممکن که احتمال بیشتری از سایرین دارد به نمایش در می آید. چنین کاری باعث می شود سرعت پردازش مسائل در رایانه های کوانتومی چندین میلیون برابر رایانه های کلاسیک باشد. کیوبیت ها می توانند در اتم ها، یون ها و یا حتی موجودات کوچک تری مانند الکترون ها و فوتون ها ذخیره شوند و با قرار گرفتن در حالت های مشخص، داده ها را ذخیره سازی نمایند. برای تغییر حالت اتم ها و در نتیجه پردازش اطلاعات نیز از روش های گوناگونی مانند استفاده از پرتوهای لیزر، میدان های مغناطیسی و امواج رادویی استفاده می شود. در حال حاضر بزرگترین چالشی که غول هایی مانند ناسا و گوگل برای ساخت رایانه های کوانتومی با آن مواجه هستند همین نحوه کنترل و هدایت کیوبیت ها به گونه است که بتوان اطلاعات را به وسیله آنها منتقل کرده و سپس به پردازش آنها پرداخت. همچنین می بایست این نکته را هم در نظر گرفت که با توجه به طبیعت مکانیک کوانتومی، در صورتی که ذرات با جداره هایی که آنها را در بر می گیرند برخورد داشته باشند تمام اطلاعات ذخیره شده بر روی آنها از بین خواهد رفت و به همین دلیل است که دمای کاری مدل های آزمایشی ساخته شده نزدیک به صفر مطلق (منفی 273 درجه سلسیوس) است. همکاری مشترک گوگل و ناسا در پروژه های D-Wave در حال حاضر نزدیک ترین تلاش انجام شده از سوی دانشمندان برای دستیابی به رایانه های کوانتومی است. D-Wave One و D-Wave Two دو محصولی هستند که نشان می دهند این تلاش ها در جهت مثبتی در حال پیشرفت است؛ اما هنوز راه بسیار زیادی تا رسیدن به رایانه های تجاری باقی مانده. هر چند مطمئنا اولین رایانه های کوانتومی مانند پدربزرگ های کلاسیک خود ابعادی در حد یک منزل مسکونی خواهند داشت، اما سرعت پیشرفت علم ثابت کرده آینده رایانش کوانتومی بسیار نزدیک تر از چیزی است که به نظر می رسد. بدون شک Quantum Computing انقلابی در همه علوم به وجود خواهد آورد و از همین حالا می بایست منتظر کشف های جدید و تغییرات گسترده در درک ما از جهان پیرامونمان باشیم.
کلا با توجه به اینکه پردازندهای کوانتومی سرعت زیادی در تجریه اعداددارند بهترین مزیتشون محسوب میشه و به غیر از ان میشه از پردازندها استفادهی خاصی کرد
تنها تفاوت کامپیوتر کوانتومی و معمولی در اجرا کردن الگوریتم های کوانتومی مثل الگوریتم شور( برای تجزیه اعداد) است. در اجرای سایر الگوریتم ها تفاوتی با پردازنده های امروزی ندارند.
پردازنده ای هم که Dwave ساخته به هیچ وجه کوانتومی به حساب نمیاد. فقط الگوریتم quantum annealing را اجرا میکنه.
ممنون بابت مطلب خوبتون:-bd
کیوبیت درسته احسان جان
ب نظرم من که خیلی زود تر از اونکه انتظارش رو داریم اینا فراگیر میشه و واقعا باعث تحول بزرگی میشه فکر کنید همزمان هم صفر هم یک :o:o
ممنون از مطلب بسیار خوب شما هر چند در این زمینه اطلاعاتی نداشتم اما برای مقدمه موضوع بسیار عالی منظور خودتون رو رسوندید.
:emoji6:emoji6:emoji6 این دقیقن قیافه منه، یعنی رسمن مخم سووووووووووووت کشید. با پیشرفت به این صورت خیلی دور نخواهد بود سیستم های فوق هوشمند که بتونن انسان هارو به بردگی خودشون دربیارن و من معتقدم که این راه ها در نهایت اگر به درستی مدیریت نشوند و باعث طمع صاحبانشون بشه راهی به جز نابودی انسان نخواهد داشت.
واقعن عجیب داره انسان پیشرفت میکنه.
انقدر به آینده بدبین نباش
ما که در هر صورت همین الان هم بردگان فضای مجازی هستیم
اگر میشه بیشتر توضیح بدید که چرا پردازش موازی اینجا صحیح نیست چون معنی پردازش موازی دقیقا همین چیزیه که ما دربارش صحبت میکنیم و خود شما هم همون مفهوم رو عنوان کردید
حقیقت اینکه من خودم از استاد دوره مکانیک کوانتومی مدرن دانشگاه MIT این عبارت رو اولین بار شنیدم که دقیقا کیوبیت تلفظ میکرد. حالا شاید منابع دیگه جور دیگه استفاده کنن
دسستتون درد نکنه بسیار مفید گوگل یک کامپوتر کوانتومی ازمایش کرده 100 میلیون برابر پردازنده های کنونی قدرت داره این فقط یک نمونه ازمایشیه تصور کن 10 الی 15 سال دیگه این پردازنده ها تجاری بشه چند برابر قدرت داره !
اگه گرافیک AMD داشته باشه میشه اورکلاک کرد:smiley3:smiley3
تا جاییکه من یادم هست “کوبیت” تلفظ میشه نه کیوبیت. اشتباه می کنم؟
مسلمه که باید با چالش مواجه بشن چون هیچوقت نمیشه معایب رو به صورت کامل و نهایی از بین برد. اینا دنبال این هستند که بجای استفاده از چند عضو و قطعه هماهنگ از یک عضو جامع استفاده کنند که تقربا نشدنیه
یه سوال : می شه اورکلاکشون کرد ؟؟؟؟؟؟؟؟؟؟ ( شوخی )
ولس فک کنم برنامه نویسی کلا از بیخ نیاز به شروع دوباره داشته باشه. اون موقع به نظرتون اینتل ، ای ام دی و انویدیا هستن ؟؟؟؟؟؟؟؟؟؟
آینده زیباست. ایشالا اون روز رو ببینم.
یه 10 یا 15 سال دیگه : من و کامپیوتر کوانتومیم. همین الان یهویی:emoji1
خیلی دوست دارم زود فراگیر بشن و ببینم چی کار می شه کرد باهاشون
البته مقایسهی پردازش کوانتومی با پردازش موازی کاملا غلط هست. چون در پایان محاسبه با اندازیگیری پارامترها فقط یکی از میلیونها حالت محتمل برای نتیجه رو میشه خوند و بقیله بهصورت آنی نابود میشه، که این هم ریشه در تئوریهای مکانیک کوانتوم داره! چیزی که کامپیوترهای کوانتومی رو حداقل روی کاغذ قوی میکنه صرفا تکنیک پرادزشی اونها نیست، بر خلاف پردازش سری و موازی.
در واقع کامپیوترها کوانتومی برای این انقدر مورد توجه هستن که میتونن نوع متفاوتی از الگوریتمها که به الگوریتمهای کوانتومی معروف هستن رو پیاده سازی کنن.