پرش به محتوا

اطلاعات کوانتومی/اصول کامپیوترهای کوانتومی/الگوریتم‌ها و تصحیح خطا

ویکی‎کتاب، کتابخانهٔ آزاد
اطلاعات کوانتومی الگوریتم‌ها و تصحیح خطا تشدید مغناطیسی هسته


مطمئنا، وقتی که عملیاتی به پایان رسیده، باید پاسخ آن بدست آید. یک اندازه‌گیری (خواندن) ساده اطلاعات حالت superposition سیستم را از بین می‌برد و آن را در یکی از دو حالت قرار می‌دهد. متاسفانه، به ندرت ممکن است که بتوان از پیش تعیین کرد که این کدام حالت است (۰ یا ۱)، و این یک مشکل است. هدف این است که اطمینان حاصل شود که خواندن اطلاعات پاسخ مورد نظر را تولید می‌کند، و این هدف با استفاده از پدیده تداخل کوانتومی قابل دستیابی است.

هر یک از حالت‌های superposition دارای احتمالی مربوط به آن است که یک رفتار موج مانند دارد، و می‌تواند با احتمال‌های حالت‌های دیگر به طور سازنده یا ویرانگر تداخل کند. گرفتن پاسخ مورد نظر از یک محاسبه به معنی پردازش اطلاعات به صورتی است که در پایان، پاسخ‌های نامطلوب به طور ویرانگر تداخل کنند و فقط حالت مورد نظر یا تعداد کمی از حالت‌های نامطلوب را باقی گذارند. این پردازش الگوریتم کوانتومی نامیده می‌شود، و طراحی آن فیزیکدانان، ریاضیدانان و متخصصین کامپیوتر را به مبارزه می‌طلبد. سپس یک اندازه‌گیری نهایی پاسخ مورد نظر را، یا در مورد وجود چند حالت نهایی، یک سری اندازه‌گیری توزیع احتمال آن‌ها را که از آن پاسخ مورد نظر را می‌توان محاسبه نمود، بدست می‌دهد.

الگوریتم‌های کوانتومی این پتانسیل را دارند که به طور چشمگیری از همتاهای مرسوم خود سریعتر باشند. یک مثال خوب، الگوریتمی برای جستجو در لیست‌ها است که توسط کراور (Lov Crover) در آزمایشگاه بل Lucent Technologies توسعه داده شد. مسئله پیدا کردن اسم فردی با شماره تلفن معین در یک دفترچه تلفن بود. اگر دفترچه دارای N درایه باشد، برای پیدا کردن آن به طور متوسط باید تا درایه‌ها را جستجو کرد. الگوریتم کوانتومی کراور بهتر عمل می‌کند و اسم مورد نظر را با جستجوی به طور متوسط N √ درایه پیدا می‌کند؛ بنابراین برای یک دفترچه با ۱۰۰۰۰ اسم، به جای ۵۰۰۰ مرحله، به ۱۰۰ مرحله نیاز دارد.

این الگوریتم به این صورت کار می‌کند که اول یک حالت superposition از تمام ۱۰۰۰۰ درایه می‌سازد که در آن هر درایه احتمال یکسانی در ظاهر شدن به عنوان پاسخ در اندازه گیزی که روی سیستم انجام می‌شود، دارد. سپس برای افزایش احتمال اندازه‌گیری که درایه مورد نظر را تولید می‌کند، روی superposition یک سری عملیات‌های کوانتومی انجام می‌شود که درایه مورد نظر را تشخیص داده و شانس آن را برای ظاهر شدن افزایش می‌دهد. (بیاد داشته باشید که تشخیص ممکن است چون شماره تلفن را دارید ولی اسم را ندارید)

اگر مقادیر superpose شده و موج‌های احتمال خیلی دور از عقل به نظر نمی‌رسند، پدیده دیگری در علم جدید اطلاعات کوانتومی برجسته شده است. در دهه ۳۰، دانشمندان به شدت بر سر اینکه آیا آنچه مکانیک کوانتومی پیش بینی کرده بود وجود واقعی داشت یا آیا عجیب بودن آن به دلیل نقص‌هایی در تئوری بود، بحث می‌کردند. بویژه آلبرت انیشتن نمی‌توانست قبول کند که جهان بر اساس مکانیک کوانتومی ادعا شده، ساخته شده بود؛ بنابراین با همکارانش بوریس پودولسکی (Boris Podolsky) و ناتان روزن (Nathan Rosen)، او یک آزمایش ذهنی برای پیدا کردن نقص‌هایی در تئوری جدید طرح کرد.

این آزمایش ذهنی روی رفتار یک جفت ذره، که بر طبق نظریه کوانتوم، به هم متصل (وابسته) هستند به صورتی که هیچ نظیری در جهان کلاسیک ندارد، متمرکز می‌شود. اگر یکی از آن دو ذره را تکان دهید به نظر می‌رسد که دیگری نیز، بدون توجه به اینکه ممکن است چقدر دور باشد، همزمان این اثر را احساس می‌کند. این سه دانشمند نشان دادند که این عملیات شامل عبور سیگنالی با سرعتی بالاتر از نور بین دو ذره می‌باشد، یک امر غیر ممکن. نتیجه آن‌ها به عنوان پارادوکس EPR (Einstein-Podolsky-Rosen) و دو ذره وابسته به عنوان جفت‌های EPR معروف گردید.

این بحث توسط جان بل (John Bell)، یک نظریه‌پرداز در CERN، آزمایشگاه اروپایی برای فیزیک ذرات، و فیزیکدان فرانسوی، الین اسپکت (Alain Aspect) برطرف شد. آن‌ها ثابت کردند که این دوقلوهای بهم چسبیده دنیای کوانتوم، جفت‌های EPR، در حقیقت همانطور که مکانیک کوانتومی پیش بینی کرده بود، رفتار می‌کنند؛ ولیکن، آزمایش همچنین نشان داد که هیچ سیگنالی سریعتر از نور وجود ندارد و اینکه این وابستگی نمی‌تواند برای ارتباطات با سرعت مافوق نور به کار برده شود. به جز ارتباط برقرار کردن، جفت‌های EPR، دارای هستی یکسان، و سرنوشت یکسانی هستند. نظریه وابستگی هم اکنون یکی از پدیده‌های کلیدی است که در پردازش اطلاعات کوانتومی از آن استفاده می‌شود.

امروزه آزمایش EPR تقریباً روزانه در سراسر جهان انجام می‌شود. اگر ساختن این وابستگی و superposition یک اتفاق معمولی در مقایسه با ۱۰ سال پیش شده باشد، اطلاعات کوانتومی به صورت یک چیز ناپایدار، باقی مانده است. کنش‌های متقابل معمولی با محیط، qubitها و اطلاعاتی را که شامل هستند، نابود می‌کنند، که به آن decoherence گویند. (مخالف آن، coherence، توانایی qubit در نگهداری ویژگی‌های کوانتومی به صورت superposition است) اگر اطلاعات کوانتومی قرار است که وارد علم کامپیوتر شود، یک عملیات تصحیح خطا برای محافظت از decoherence مورد نیاز است.

در ابتدا، فیزیکدانان معتقد بودند که چنین تکنیکی غیر ممکن است، چون پیدا و تصحیح کردن خطاها یعنی اندازه‌گیری حالت سیستم کوانتومی و در نتیجه از بین بردن اطلاعاتی که ذخیره کرده است. در اوایل دهه ۹۰ داسچ نشان داده بود که این مورد (از بین رفتن اطلاعات) نیاز ندارد که وجود داشته باشد؛ و در ۱۹۹۴ آندره آستین (Andrew Steane) در دانشگاه آکسفورد و پیتر شور (Peter Shore) در آزمایشگاه بل AT&T، هر کدام بطور مستقل الگوریتمهای تصحیح خطای کوانتومی عملی را کشف کردند.

مشکل شبیه دوباره تولید کردن پیامی است که در جایی دیگر تولید شده است. اگر این پیام از طریق کانالی فرستاده و یا در مکانی ذخیره شود که به اندازه‌ای دارای نویز باشد که در نتیجه بعضی بیت‌های آن تغییر کند، چگونه ممکن است که گیرنده پیام بتواند آن را تشخیص دهد؟ بوسیله اضافه کردن بیت‌های زائد به پیام بمنظور اینکه فرستنده بتواند بیت‌های تغییر یافته را تصحیح کند.

شور و آستین به معادل کوانتومی آن یعنی سه بار فرستادن یک بیت مشابه رسیدند. به این بیت‌های اضافی، بیت‌های کمکی (ancillas) گویند. خواندن این qubitها به گیرنده می‌گوید که چه خطاهایی رخ داده و چگونه qubitهایی که قسمتی از پیام هستند را تصحیح کند.