نسل آینده POSها، دستگاههای هوشمندی با امکاناتی فراتر از پرداخت هستند
نسل آینده پایانههای پرداخت الکترونیکی بانکی شامل دستگاههای هوشمندی خواهند بود که امکاناتی فراتر از…
۴ آذر ۱۴۰۳
۱۲ مرداد ۱۴۰۰
زمان مطالعه : ۶ دقیقه
استفاده از پتانسیل و کاربرد کامپیوترهای کوانتومی در حوزههای مختلف مثل بانکداری و کشتیرانی به راحتی امکانپذیر نیست و این تکنولوژی قرار است وارد مرحله جدیدی شود. تکنولوژی کوانتومی یکی از موضوعات مهم عصر جدید است. بازیگران بزرگی مثل گوگل تمرکز زیادی روی این موضوع داشته و چین این تکنولوژی را در برنامه پنج ساله خود به یک مورد بسیار مهم تبدیل کرده است. درحالی که همه بهدنبال پیشرفت در تکنولوژی کوانتومی هستند، بزرگترین آزمایشگاه فیزیک ذرهای جهان برای درک دادههای تجهیزاتش، از تیم کوانتوم IBM درخواست کمک کرده است.
به گزارش پیوست، CERN، سازمان اروپایی پژوهشهای هستهای، بزرگترین آزمایشگاه فیزیک ذرهای جهان است که در سال ۱۹۵۴ در بخش شمالشرقی شهر ژنو در کشور سوییس در مجاورت مرز فرانسه ایجاد شد. برخورددهنده هادرونی بزرگ (LHC)، یک شتابدهنده ذرهای و برخورددهنده مستقر در آزمایشگاه CERN است که آزمایش روی فیزیک ذرات را هدایت میکند. حالا متخصصان این آزمایشگاه برای درک دادههای عظیمی که این برخورددهنده تولید میکند، از تیم کوانتوم آیبیام (IBM) کمک خواستهاند.
محققان IBM مشخص کردهاند که الگوریتمهای کوانتومی میتوانند دادههای LHC را درک کنند. یعنی استفاده از کامپیوترهای کوانتومی باعث تقویت یافتههای علمی در سرن میشود.
از آنجایی که ماموریت سرن، درک دلیل اتفاقاتی است که در جهان رخ میدهد، این یافتهها برای هرکسی که به هرچیزی از جمله ماده، ضد ماده، ماده سیاه و غیره علاقهمند است کاربرد دارد.
LHC یکی از مهمترین ابزارهای سرن برای درک قوانین ذرات و نیروهایی است که به جهان ما شکل میدهد. این سیستم که به صورت یک حلقه 27 کیلومتری است، به فتونها و الکترونها سرعت کمی کمتر از سرعت نور میدهد و این پرتوها را به یکدیگر برخورد داده و به دانشمندان این آزمایشگاه اجازه میدهد تا به لطف شناساگرهای دقیق این شتابدهنده، آن را مشاهده کنند.
در هر ثانیه ذرات تقریبا یک میلیارد بار در داخل LHC به یکدیگر برخورد میکنند و یک پتابایت یا یک میلیون گیگابایت داده تولید میشود که در حال حاضر CPUهایی در 170 منطقه جهان آن را پردازش میکنند. این سیپییوها به این دلیل در مناطق مختلف پراکنده شدهاند که این حجم از داده را نمیتوان در یک مکان ذخیره کرد.
البته موضوع تنها ذخیره داده نیست. تمام اطلاعاتی که توسط LHC جمعآوری میشود برای پردازش و تحلیل در اختیار دانشمندان قرار میگیرد تا آن را فرضیه سازی کرده، اثبات و شناسایی کنند.
محققان سرن با مشاهده برخورد ذرات به یکدیگر در سال 2012 وجود یک ذره ابتدایی به نام بوزون هیگز را شناسایی کردند که به تمام ذرات پایه جرم میدهد و این موضوع پیشرفت مهمی در علم فیزیکی محسوب میشد.
محققان تا به امروز از بهترین تجهیزات محاسبات در این کار استفاده کردهاند. در عمل این کار با استفاده از الگوریتمهای پیچیده یادگیری ماشینی انجام میشود که میتوانند دادههای LHC را بررسی کرده و برخوردهای مفید، مثلا برخوردهایی که بوزون هیگز را تولید کرده از برخوردهای بیمصرف تفکیک کنند.
«ایوانو تاورنلی» و «پاناگیوتیس بارکوتساس»، محققان آیبیام در یک پست وبلاگی گفتند: «تا به امروز محققان از تکنیکهای قدیمی یادگیری ماشینی برای تحلیل دادههای خام استفاده میکردند که به صورت خودکار بهترین رخدادها را مشخص میکند. اما ما فکر میکنیم که میتوانیم این فرآیند نظارتی را با تقویت یادگیری ماشینی از طریق کوانتوم بهبود بخشیم.»
با افزایش حجم دادهها، مدلهای یادگیری ماشینی به سرحد توانایی خود نزدیک میشوند و در اینجا کامپیوترهای کوانتومی نقش مهمی ایفا میکنند. کبوبیتها (Qubits: واحد اندازهگیری در کامپیوترهای کوانتومی) اطلاعات بیشتری را نسبت به بیت در خود جای میدهند که یعنی ابعاد بزرگتری نسبت به دستگاههای قدیمی را پوشش میدهند.
یک کامپیوتر کوانتومی که از کیوبیتهای کافی برخرودار باشد میتواند محاسبات پیچیدهای را انجام دهد که کامپیوترهای قدیمی برای حل آن به چند قرن زمان نیاز دارند.
به همین دلیل سرن در سال 2018 با تیم کوانتوم آیبیام همکاری خود را آغاز کرد تا دریابد که دقیقا کدام تکنولوژیها را میتوان برای پیشبرد یافتههای علمی استفاده کرد.
یادگیری ماشینی کوانتومی خیلی زود به عنوان یکی از گزینههای احتمالی مطرح شد. هدف استفاده از کیوبیتها برای توسعه فضای مشخصهها یا همان مجموعه مشخصاتی است که الگوریتم دستهبندی خود را براساس آن انجام میدهد. یک کامپیوتر کوانتومی با استفاده از فضای بزرگتری از مشخصهها میتواند الگوها را شناسایی و حتی در پایگاه دادههای عظیم نیز دستهبندی انجام دهد؛ در فضایی که کامپیوترها قدیمی چیزی جز اختلالات تصادفی نمیبینند.
یک الگوریتم یادگیری ماشینی کوانتومی در تحقیقات سرن میتواند دادههای خام را بررسی و برای مثال وقوع رفتاری مثل بوزون هیگز را شناسایی کند در حالی که کامپیوترها قدیمی قادر به دیدن چنین چیزی نیستند.
تیم آیبیام پیشتر یک الگوریتم کوانتومی به نام QSVM را ایجاد کردند که قرار است برخوردهای تولیدکننده بوزون هیگز را شناسایی کند. این الگوریتم که با دادههای مربوط به شناساگرهای LHC آموزش دیده، روی شبیهسازهای کوانتوم و سختافزار فیزیکی کوانتوم استفاده شده است.
در هر دو مورد، نتایج امیدوار کننده بود. در این مطالعه که از کامپیوتر کوانتومی گوگل، آیبیام و آمازون استفاده شد، 20 کیوبیت و دادههای 50 هزار رخداد استفاده شده و عملکرد را اگر بهتر از کامپیوترهای قدیمی ندانیم باید قابل قبول دانست.
آزمایش سختافزاری روی دستگاههای کوانتوم IBM انجام گرفت و از 15 کیوبیت و دادههای 100 رخداد استفاده شد. نتایج نشان داد که با وجود اینکه اختلال روی محاسبات کوانتومی تاثیرگذار بوده، این دستهبندی در مقایسه با بهترین نتایج شبیهسازی با استفاده از کامپیوترهای قدیمی قابل مقایسه بوده است.
«تاورنیلی» و «بارکوتساس» نوشتند: «بار دیگر پتانسیل الگوریتم کوانتومی برای این دسته از مسئلهها تایید شد، کیفیت نتایج ما حاکی از برتری کوانتوم برای دستهبندی داده با ماشینهای پشتیبانیکننده از کوانتوم در آیندهای نزدیک است.»
البته این برتری هنوز به اثبات نرسیده است. الگوریتم کوانتومی که IBM طراحی کرده با توجه به پردازشگرهای کوانتومی که امروز وجود دارند قابل مقایسه بود اما این سیستمها هنوز در مراحل اولیه ساخت و توسعه قرار دارند.
همچنین کامپیوترهای کوانتومی امروزی با تعداد محدود کیوبیت، امکان به انجام رساندن محاسبات مفید را ندارند. شکنندگی کیوبیتها نیز این کامپیوترها را محدود کرده است؛ کیوبیتها نسبت به تغییرات محیطی بسیار حساس هستند و احتمال خطا بالا است.
آیبیام و سرن روی پیشرفتهای آینده سرمایهگذاری کردهاند و ادعای آنها تنها برتری الگوریتمهای کوانتومی از لحاظ نظری نیست.
محققان سرن به این بخش از تحقیقات و محاسبات کوانتومی به شدت امیدوارند. LHC در حال حاضر در مراحل ارتقای سیستم است و سیستم جدید پس از تکمیل بهروزرسانی در سال 2027 اجرایی میشود و انتظار میرود که برخوردهایی تا ده برابر بیشتر را پشتیبانی کند. حجم داده تولید شده نیز به همین ترتیب افزایش مییابد و طولی نمیکشد که دیگر پردازندههای قدیمی قادر به مدیریت آن نیستند.
منبع: ZDNet