Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.

Polecamy

Obowiązki i odpowiedzialność administratora danych osobowych w świetle rodo

Obowiązki i odpowiedzialność administratora danych osobowych w świetle rodo
 

Tomasz Banyś (red.), Agnieszka Grzelak, Mirosław Gumularz, Katarzyna Witkowska-Nowakowska

Cena: 128,00 zł

Zamów

Polecamy

Mitologia rodo – konfrontacja z najczęstszymi błędami i absurdami

Mitologia rodo – konfrontacja z najczęstszymi błędami i absurdami
 

Aleksandra Zomerska, Robert Brodzik, Michał Kluska

Cena: 128,00 zł

Zamów

Komputery kwantowe a bezpieczeństwo informacji

13-11-2020 Autor: Jan Anisimowicz

Choć jesteśmy jeszcze daleko od granicy rozwoju komputerów elektronicznych, to już na horyzoncie widać kolejnego gracza, czyli komputery kwantowe. Coraz śmielej zaczynają pojawiać się w głównym nurcie rozważań techniczno-biznesowych. Zobaczmy zatem, jak wykorzystanie komputerów kwantowych może wpłynąć na nasze życie w niedalekiej przyszłości.

 

Postęp w dziedzinie nowych technologii jest bardzo szybki. Obecnie powszechnie wykorzystywane komputery elektroniczne datują swój początek na połowę lat 40. ubiegłego wieku, kiedy to został zbudowany pierwszy komputer o nazwie ENIAC. Jego rozmiary były imponujące: 30 ton wagi, ponad 10 tysięcy lamp próżniowych i przekaźników. Znacząco przyspieszył proces obliczeń związanych z balistyką (wyliczenia tabel strzelniczych), wytwarzaniem broni jądrowej czy też badaniem liczb losowych i analizowaniem błędów zaokrągleń. W tamtych czasach takie możliwości wydawały się czymś niesamowitym, rozpalały umysły zaangażowanych w pracę osób, rozpoczynając tym samym erę maszyn cyfrowych.


Komputer kwantowy – czyli co?


Podwaliny teoretyczne związane z budową komputerów kwantowych powstały w połowie lat 80. ubiegłego stulecia, zaś pierwsze praktyczne możliwości ich wykorzystania pojawiły się na początku lat 90.
Obecnie prace związane z rozwojem tej dziedziny nauki nabierają znacznego przyspieszenia. Aktualnie wiele ośrodków naukowych na całym świecie (USA, Europa i Chiny) oraz dużych korporacji technologicznych (m.in. Google, IBM, Intel) stara się stworzyć swoje własne rozwiązania oparte na założeniach przetwarzania kwantowego.


Pod koniec zeszłego roku Google pochwalił się, że jego 54-kubitowy komputer kwantowy rozwiązał problem matematyczny generacji liczb losowych w czasie 3 minut 20 sekund. Zdaniem Google to samo zadanie dla superkomputera zbudowanego przez IBM (Summit1) zajęłoby 10 tysięcy lat. Oczywiście dosyć szybko firma IBM zdementowała tę informację, uzasadniając, że test komputera kwantowego Google był nie do końca miarodajny oraz bazował na błędnych założeniach. Przy właściwych parametrach ta praca zostałaby wykonana na superkomputerze Summit w niecałe 72 godziny. Jak widać, sytuacja na tym polu jest dynamiczna i każdy z dużych graczy chce uzyskać tzw. Supremację Kwantową, czyli istotną przewagę technologiczną na polu operacji kwantowych.


W standardowym komputerze cyfrowym dane są przetwarzane w postaci bitów, czyli ciągu 1 (jedynek) lub 0 (zer). Technicznie odpowiedni stan logiczny uzyskuje się, sterując tranzystorami (przepływ prądu lub jego blokada). Z tranzystorów buduje się bramki logiczne (typu OR, AND, XOR, NOR itp.), które tworzą całe złożone układy obecnie wytwarzanych procesorów mieszczące miliardy tranzystorów na powierzchni kilku cm2.
Jak widać, w ciągu 70 lat rozwoju komputerów cyfrowych miniaturyzacja postąpiła znacząco do przodu. Wystarczy powiedzieć, że aktualnie komputer o mocy przetwarzania informacji oraz niezawodności wielokrotnie większej od pierwszego ENIAC-a nosimy ciągle ze sobą w formie smartfona.


W przypadku komputera kwantowego sytuacja wygląda trochę inaczej. Dane są przechowywane w tzw. kubitach (tzw. bit kwantowy). W najprostszym ujęciu kubit może przebywać z pewnym prawdopodobieństwem zarówno w stanie 1, jak i z pewnym prawdopodobieństwem w stanie 0. Co ciekawe, do momentu wykonania pomiaru może przebywać w obu stanach jednocześnie (a tak naprawdę w nieskończonej liczbie stanów między 0 a 1). Wykonanie pomiaru zmienia stan kubitu i wtedy ma on już określoną wartość. Ten właśnie efekt jednoczesnego przebywania w wielu stanach sprawia najwięcej problemów w zrozumieniu jego działania. Jeden z badaczy opisał tę sytuację, jakoby kubit przed wykonaniem pomiaru był niezdecydowany. Dopiero wykonanie pomiaru skłania go do podjęcia natychmiastowej decyzji na określone i do pewnego stopnia deterministyczne miejsca swojego przebywania. To, co dzieje się w kubicie, to podstawowa zasada fizyki kwantowej zwana superpozycją. W jaki sposób można wykorzystać podaną cechę kubitów, wyjaśnimy na podstawie próby znalezienia 1 karty spośród 4 podanych kart.


Przykład 2 pokazuje, że komputery kwantowe nie są po prostu szybszymi wersjami komputerów cyfrowych. Oznaczają one zmianę podejścia do rozwiązywania problemów. Im więcej będzie się pojawiać możliwych stanów, tym większe korzyści uzyskamy z zastosowania komputera kwantowego. W kontekście samej szybkości działania są one miliardy razy wolniejsze od komputerów standardowych. Jednocześnie określone zadania matematyczne mogą wykonywać tryliony razy szybciej. IBM Summit obecnie drugi najszybszy superkomputer na świecie to prawdziwe monstrum, które ma ponad 2,4 mln procesorów. Jego działanie zużywa ok. 10 MWh energii. Posiada 250 petabajtów pamięci. generuje moc obliczeniową rzędu 200 PFLOPS oraz zajmuje powierzchnię kilkuset m2. Koszt jego budowy to 200 mln dolarów. Załóżmy, że naszym celem jest zbudowanie komputera o mocy dwukrotnie większej2. Sprawa jest stosunkowo prosta: stawiamy i łączymy drugi taki sam superkomputer, uzyskując dwukrotny wzrost wydajności (pomijam skomplikowane aspekty techniczne takiego zabiegu). W wyniku wykonania działania mamy komputer o mocy 400 PFLOPS, który kosztował nas 400 mln dolarów. Możemy tak dowolnie zwiększać moc komputera. Każde podwojenie wymaga podwojenia sprzętu. Opisuje to prosty wzór: N+N = 2N.


W przypadku komputera kwantowego skalowanie jest inne. Z uwagi na omawianą już superpozycję kwantową dwukrotne zwiększenie mocy wymaga dodania kolejnego kubita, czyli komputer 3-kubitowy ma moc 2 razy większą niż 2-kubitowy3, komputer 4-kubitowy ma moc 2 razy większą niż 3-kubitowy. Widać, że wzrost wydajności zwiększa się w postępie wykładniczym 2N.

 

[...]

 

Autor jest ekspertem GRC w C&F Sp. z o.o., prelegentem na polskich i zagranicznych konferencjach z obszaru GRC, BI, big data, rodo. Propagatorem podejścia RegTech i FinTech.

_____________________________________________________________________________________________________________________________________

Informacje o cookies © 2019 PRESSCOM Sp. z o.o.